Notice
Recent Comments
- 아이고 도움이 되셨다니 다행이네요. 감사합니다
- 제가 본 R-CNN 정리글 중에 가장 이해가 잘 되는것 같습니다! 정성스럽고 자세⋯
- 오 빠른 댓글 감사합니다 ㅎㅎ
- 오늘도 잘 보고 갑니다!!
- 읽어주셔서 감사합니다 :-)
- 포스팅 잘 보구 가요!! :)
- RCNN 계열을 2 stage detector, YOLO 계열을 1 stage ⋯
- 안녕하세요! 논문 리뷰 잘 읽었습니다. abstract에서 end-to-end 라⋯
- 안녕하세요! 최종분류 부분에서 '따라서 최종적으로 Heart Disease가 있⋯
- 안녕하세요! 어느 부분을 말씀하시는 것인가요? 마지막에 yes 4개, no 4개인⋯
- 안녕하세요! 글감사합니다. 마지막 결론이 헷갈리는데요, 샘플에서 Heart dis⋯
- 둘 다 보면 더욱 좋죠 ㅎㅎ 읽어주셔서 감사합니다~
- 클린 코드 읽어봐야지 했었는데, 파이썬 코드로 된 버전도 나왔다니 좋은 정보네요!⋯
- 댓글 감사합니다. 머신러닝을 해야 하는데 책들이 재밌어서 딴 짓을 하고 있네요 제⋯
- 머신러닝 공부하려고 들어왔는데 모든 포스팅이 왜 다 제 취향이죠... 저도 민음사⋯
목록seq2seq 모델 (1)
귀퉁이 서재

이번 글은 RNN(Recurrent Neural Network)에 대해 이미 알고 있다는 가정 하에 썼습니다. RNN에 대해 잘 모르신다면 RNN을 먼저 배워오시기를 추천드립니다. NLP 분야에서 seq2seq는 기계 번역, 문장 생성, 질의응답, 메일 자동 응답 등에 활용되는 모델입니다. 우선 기계 번역에 대해 알아보겠습니다. 예전의 기계 번역은 주로 규칙 기반(rule based)이었습니다. 문맥을 전체적으로 고려하지 않고 단어와 단어를 1:1로 번역하기 때문에 결과가 좋지 않았습니다. 극단적인 예이긴 하지만 아래와 같습니다. 성능이 좋지 않은 규칙 기반 번역: 나는 그곳에 갔다 -> I there went ?? '나는'을 I, '그곳에'를 there, '갔다'를 went로 단어 간 1:1 번역이기 ..
자연어 처리 (NLP)
2020. 6. 20. 21:04