Skip to content

Latest commit

 

History

History
180 lines (143 loc) · 12.2 KB

File metadata and controls

180 lines (143 loc) · 12.2 KB

🏆 Level 1 Project :: STS(Semantic Text Similarity)

📜 Abstract

부스트 캠프 AI-Tech 5기 NLP Level 1 기초 프로젝트 경진대회로, Dacon과 Kaggle과 유사항 대회형 방식으로 진행되었습니다. 두 문장이 의미적으로 얼마나 유사한지를 수치화하는 N21 자연어처리 Task인 의미 유사도 판별(Semantic Text Similarity, STS)를 주제로, 모든 팀원이 데이터 전처리부터 모델의 하이퍼파라미터 튜닝에 이르기까지 AI 모델링의 전과정을 모두가 End-to-End로 협업하는 것을 목표로 프로젝트를 진행했습니다.


🎖️Project Leader Board

public_1st private_2nd

  • 🥇 Public Leader Board

public_leader_board

  • 🥈Private Leader Board

private_leader_board


🧑🏻‍💻 Team Introduction & Members

Team name : 윤슬 [ NLP 11조 ]

👨🏼‍💻 Members

강민재 김주원 김태민 신혁준 윤상원
Github Github Github Github Github

🧑🏻‍🔧 Members' Role

대부분의 팀원들이 첫 NLP 도메인의 프로젝트인만큼 명확한 기준을 가지고 업무를 구분한 것보다 다양한 인사이트를 기르기 위해 데이터 전처리부터 모델 튜닝까지 End-to-End로 경험하는 것을 목표로 하여 협업을 진행했습니다. 따라서 각자 튜닝할 모델을 할당하여 하이퍼 파라미터 튜닝을 하고 데이터 전처리, 증강 등 본인의 아이디어를 구현하되 서로의 내용이 겹치지 않도록 분업을 하여 프로젝트를 진행했습니다.

이름 역할
강민재 모델 튜닝(electra-kor-base , koelectra-base-v3-discriminator),데이터 증강(back translation / switching sentence pair /임의글자삽입및제거),데이터 전처리 실험(레이블 정수화 및 노이즈추가),Ensemble 실험(output 평균, 표준편차활용),EDA(글자수 기반 데이터 분포 분석)
김태민 Hugging Face 기반 Baseline 코드 작성 , Task에 적합한 모델 Search 및 분배 , 모델 실험 총괄 , 데이터 전처리 실험(Random Token Masking , Label Random Noise, Fill Random Token Mask, Source Tagging), Custom Loss 실험(Binary Cross Entropy + Focal Loss),모델 튜닝(xlm-roberta-large, electra-kor-base),모델 Ensemble
김주원 모델 튜닝(kobigbird-bert-base, electra-kor-base),EDA(라벨 분포 데이터분석),EDA 기반 데이터 증강 아이디어 제시 , 데이터 증강(Easy Augmented DataSR 증강),팀 협업 프로세스 관리(Github 팀관리+ 팀 Notion 페이지관리) ,Custom Loss 실험(RMSE)
윤상원 모델 튜닝(koelectra-base-finetuned-nsmc, KR-ELECTRA-discriminator 모델튜닝),데이터 증강(label rescaling, 단순복제데이터증강, 어순도치데이터증강, under sampling + swap sentence + copied sentence + uniform distribution + random noise),모델 Ensemble
신혁준           모델 튜닝(KR-ELECTRA-discriminator, mdeberta-v3-base-kor-further)데이터 증강(맞춤법교정증강,EDA(Easy Data Augmentation) SR(Synonym Replacement)품사선택(명사, 조사) 교체+ swap sentence + copied sentence, Data Distribution),데이터 전처리 실험(맞춤법교정)

🖥️ Project Introduction

프로젝트 주제 Semantic Text Similarity (STS) : 두 텍스트가 얼마나 유사한지 판단하는 NLP Task
프로젝트 구현내용 1. Hugging Face의 Pretrained 모델과STS 데이터셋을 활용해 두 문장의 0과 5사이의 유사도를 측정하는 AI모델을 구축
2. 리더보드 평가지표인 피어슨 상관 계수(Pearson Correlation Coefficient ,PCC)에서 높은 점수(1에 가까운 점수)에 도달할 수 있도록 데이터 전처리, 증강, 하이퍼 파라미터 튜닝을 진행
개발 환경 GPU : Tesla V100 서버 5개 (RAM32G) / K80, T4, and P100 랜덤 할당(RAM52G) /GeForce RTX 4090 로컬 (RAM 24GB), Rtx3060ti 8gb 로컬 2대 (RAM 8 GB)
개발 Tool : PyCharm, Jupyter notebook, VS Code [서버 SSH연결], Colab Pro +, wandb
협업 환경 Github Repository : Baseline 코드 공유 및 버전 관리, issue 페이지를 통하 실험 진행
Notion : STS 프로젝트 페이지를 통한 역할분담, 아이디어 브레인 스토밍, 대회관련 회의 내용 기록
SLACK, Zoom : 실시간 대면/비대면 회의

📁 Project Structure

🗂️ 디렉토리 구조 설명

  • 학습 데이터 경로: ./data
  • 공개 Pretrained 모델 기반으로 추가 Fine Tuning 학습을 한 파라미터 경로
    • ./save_folder/kykim/checkpoint-7960
    • ./save_folder/snunlp/checkpoint-31824
    • ./save_folder/xlm_roberta_large/checkpoint-7960
  • 학습 메인 코드: ./train.py
  • 학습 데이터셋 경로: ./data/aug_train.csv
  • 테스트 메인 코드: ./infer.py
  • 테스트 데이터셋 경로: ./data/test.csv

📄 코드 구조 설명

학습 진행하기 전 데이터 증강을 먼저 실행하여 학습 시간 단축

  • 데이터 증강 Get Augmentation Data : augmentation.py
  • Train : train.py
  • Predict : infer.py
  • Ensemble : python esnb.py
  • 최종 제출 파일 : ./esnb/esnb.csv
📦level1_semantictextsimilarity-nlp-11
 ┣ .gitignore
 ┣ config_yaml
 ┃ ┣ kykim.yaml
 ┃ ┣ snunlp.yaml
 ┃ ┣ test.yaml
 ┃ ┗ xlm_roberta_large.yaml
 ┣ data
 ┃ ┣ train.csv
 ┃ ┣ aug_train.csv
 ┃ ┣ dev.csv
 ┃ ┗ test.csv
 ┣ wordnet
 ┃ ┗ wordnet.pickle
 ┣ save_folde
 ┃ ┣ kykim
 ┃ ┃ ┗ checkpoint-7960
 ┃ ┣ snunlp
 ┃ ┃ ┗ checkpoint-31824
 ┃ ┗ xlm_roberta_large
 ┃   ┗ checkpoint-7960
 ┣ esnb
 ┃ ┗ esnb.csv
 ┣ output
 ┃ ┣ xlm_roberta_large.csv
 ┃ ┣ kykim.csv
 ┃ ┗ snunlp.csv
 ┣ .gitignore
 ┣ Readme.md
 ┣ augmentation.py
 ┣ dataloader.py
 ┣ esnb.py
 ┣ infer.py
 ┣ train.py
 ┗ utils.py

📐 Project Ground Rule

팀 협업을 위해 프로젝트 관련 Ground Rule을 설정하여 프로젝트가 원활하게 돌아갈 수 있도록 팀 규칙을 정했으며, 날짜 단위로 간략한 목표를 설정하여 협업을 원활하게 진행할 수 있도록 계획을 하여 진행했습니다.

-a. 실험 관련 Ground Rule : 본인 실험 시작할 때, Github issue에 "[score 점수(없다면 --)] 모델이름, data = 데이터 종류, 전처리 종류, 데이터 증강 종류"양식으로 issue를 올린 뒤 실험을 시작한다.

-b. Commit 관련 Ground Rule : git commit & push는 한번 실험할 때 마다 진행한다. 코드 수정 내용, 점수, 관련된 issue가 들어가도록 commit하고 개인 branch에 push한다.

-c. Submission 관련 Ground Rule: 각 사람별로 하루 submission 횟수는 2회씩 할당한다. 추가로 submission을 하고 싶으면 SLACK 단체 톡방에서 해당 날짜에 submission계획이 없는 혹은, 횟수가 남는 사람에게 물어봐서 여유가 된다면 추가 submission 가능하다.


🗓️ Project Procedure

  • (1~3일차): NLP 기초 대회 관련 대회 강의 및 스페셜 미션 완료 & 협업 관련 Ground Rule 설정
  • (3~4일차): STS Baseline 코드 완성 & EDA(Exploratory Data Analysis) & 전처리/증강 관련 아이디어 회의
  • (5~14일차) : 전처리, 데이터 증강, 하이퍼 파라미터 튜닝 등 아이디어 구현 및 실험 진행

*아래는 저희 프로젝트 진행과정을 담은 Gantt차트 입니다.

road_map


⚙️ Architecture

분류 내용
모델 kykim/electra-kor-base, snunlp/KR-ELECTRA-discriminator, xlm-roberta-large+ HuggingFace Transformer Trainer
데이터 v1 : swap sentence, copied sentence 기법을 적용하여 레이블 불균형을 해소한 데이터셋
v2 : KorEDA의 Wordnet 활용하여 Synonym Replacement 기법으로 증강한 데이터셋
검증 전략 • Evaluation 단계의 피어슨 상관 계수를 일차적으로 비교
• 기존 SOTA 모델과 성능이 비슷한 모델을 제출하여 public 점수를 확인하여 이차 검증
앙상블 방법 • 상기 3개의 모델 결과를 모아서 평균을 내는 방법으로 앙상블 수행
모델 평가 및 개선            토크나이징 결과 분석을 통해 max_length를 수정하여 모델 학습 시간을 절반 가량 단축할 수 있었다. 다양한 증강 및 전처리 기법을 통해 label imbalance 문제를 해결하여 overfitting을 방지하고 성능을 크게 향상시켰다. 또한, HuggingFace Trainer와 wandb를 사용하여 여러 하이퍼파라미터를 한층 더 편리하고 효율적으로 관리할 수 있었다.

💻 Getting Started

⚠️ How To install Requirements

#필요 라이브러리 설치
# version 0.5
pip install git+https://github.com/haven-jeon/PyKoSpacing.git
# version 1.1
pip install git+https://github.com/jungin500/py-hanspell
pip install -r requirements.txt
sudo apt install default-jdk

⌨️ How To Train

# 데이터 증강
python3 augmentation.py
# train.py 코드 실행 : 모델 학습 진행
# model_name을 kykim/electra-kor-base, snunlp/KR-ELECTRA-discriminator, xlm-roberta-large로 변경하며 train으로 학습
python3 train.py # model_name = model_list[0]
python3 train.py # model_name = model_list[1]
python3 train.py # model_name = model_list[2]

⌨️ How To Infer output.csv

# infer.py 코드 실행 : 훈련된 모델 load + sample_submission을 이용한 train 진행
python3 infer.py # model_name = model_list[0]
python3 infer.py # model_name = model_list[1]
python3 infer.py # model_name = model_list[2]
python3 esnb.py