-
Notifications
You must be signed in to change notification settings - Fork 2
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Chapter 2 BERT 이해하기 #3
Comments
BERT에서 transformer와 달리 위치 임베딩을 사용하는 이유는 무엇인가요? |
transformer에서도 위치 임베딩을 사용하지 않나요?! |
Transformer에서는 sin, cos 함수를 사용해서 positional encoding을 벡터에 추가해 주는 연산을 합니다. 벡터의 위치에 따라서 discrete하게 정해져 있는 값을 사용하는 것 같습니다. 그런데 BERT에서는 positional encoding을 추가해 주지 않고 embedding을 따로 사용하는 것 같습니다. 왜 임베딩을 추가적으로 해주는 것 일까요?? |
Link의 설명에 따르면 position embedding을 |
관련 논문이 있네요. 링크 첨부합니다~ Paper |
아하 트랜스포머에서는 위치 임베딩이 아니라 위치 인코딩을 사용했었군여 🥲 |
질문 있습니다! |
사전 학습 시에 문장 사이에 [SEP]가 하나 들어있는 경우까지만 학습을 했기 때문에 두 문장을 초과하면 안되는 것 같습니다. |
오 감사합니다!! 역시개발천재 🤭 |
저도 책 2.5 하위 단어 토큰화 알고리즘 내용 중 질문 있습니다. 오타인지, 제가 내용 이해를 잘못했는지 헷갈리는 부분입니다.
|
네 맞습니다.
오타 맞는 것 같아요... "I played the game" 인듯... 95페이지 첫문단과 두번째 문단의 설명이 뭔가 서로 섞인 느낌입니다ㅠㅠ
[b, e, a, <UMK>] 가 맞는 것 같습니다. vocabulary는 {a, b, c, e, l, m, n, o, s, t, u, st, me, men}으로 생성되고, 그 속에 {a, b, e}라는 단어가 있지만, {r}은 없기 때문에 토큰으로 대체됩니다. |
답변 감사합니다! 74쪽에서도 H=512를 H=521로 써놓더니... 오탈자가 꽤 많네요^^.. 주의해서 읽어야겠어요 |
[오탈자] |
책이 외국 책이어서 K-패치를 살짝 할 수 있는 논문 하나를 간단하게 스터디 시간에 소개해드리겠습니다. |
희님이 잘 찾으신 것 같습니다. 여기에 덧붙여서 조금 혼동이 있을 수 있는 내용에 대해 추가적으로 말씀드리자면 BERT 논문에는 이렇게 나와있습니다.
일반적으로 우리가 생각하는 언어학적인 문장의 의미와는 조금 다르다...가 포인트가 될 거 같습니다. 따라서 BERT에서의 sentence는 우리가 일반적으로 생각하는 paragraph도 들어갈 수 있다고 볼 수 있을 거 같네요! BERT에서 두 개의 문장(우리가 생각하는 그 문장 말고 BERT의 그 문장)을 Pretrain 한 목적은 다음과 같습니다.
마지막으로 주의할 점은, 우리가 원래 생각하던 sentence를 넣든, paragraph를 넣든 좋지만 학습 시 사용한 최대 길이( |
|
https://stackoverflow.com/questions/62705268/why-bert-transformer-uses-cls-token-for-classification-instead-of-average-over |
링크 감사합니다! 링크 안에 Image source도 아주 좋네요ㅎㅎ 역시 NLP 전문가... 그런데... 링크 그림 중 책 3장(책 117쪽)에도 [CLS]의 표현 벡터가 어디서부터 나오는지에 대한 설명이 있는 부분이 있습니다. 글 쓰면서 깨달은 건데, 글이 매우매우 길어졌네요... 여기까지 읽으셨다면 매우매우 감사 🥺 |
말씀하신대로 저는 이렇게 이해했는데(틀리면 어떡하지), 사실 평소에 의문을 갖지 않았던 부분이라 질문에 대한 답을 생각해보면서 도움이 많이 됐습니다 ㅎㅎ 스터디 시간에 조금 더 얘기해 보면 좋을 거 같네요! |
질문 많이 해주시고 서로 답변 많이 해주셔서 감사합니다. 남은 내용은 #7 에서 다루고 weekly issue는 닫겠습니다. 한 주 동안 고생 많으셨고 다음 주도 화이팅입니다! |
No description provided.
The text was updated successfully, but these errors were encountered: