본문 바로가기

귀퉁이 서재

검색하기
귀퉁이 서재
프로필사진 Baek Kyun Shin

  • 전체 글 보기 (259)
    • 데이터 분석 (33)
    • 머신러닝 (22)
    • 컴퓨터 비전 (14)
    • OpenCV (33)
    • 자연어 처리 (NLP) (14)
    • 논문 리뷰 (7)
    • 캐글 (Kaggle) (11)
    • 블로그 프로젝트 (17)
    • 토이(Toy) 프로젝트 (5)
    • 책과 사유 (100)
    • 회고 (3)
Guestbook
Notice
  • 소개(About)
Recent Comments
Recent Posts
Archives
Link
  • Github
관리 메뉴
  • 글쓰기
  • 방명록
  • RSS
  • 관리

목록NLP attention (1)

귀퉁이 서재

NLP - 14. 어텐션(Attention)

이전 장에서는 새로운 문장을 생성하는 seq2seq에 대해 알아봤습니다. 이번 장에서는 seq2seq의 기능을 더 강화시켜 주는 어텐션(Attention)에 대해 알아보겠습니다. 어텐션은 자연어 처리 분야에서 강력하고 중요한 기술 중 하나입니다. seq2seq를 이미 알고 있다는 가정하에 이번 장을 썼습니다. seq2seq를 잘 모르시는 분은 NLP - 13. 시퀀스-투-시퀀스(seq2seq)를 참고해주시기 바랍니다. 이번 장의 모든 글 및 그림은 밑바닥부터 시작하는 딥러닝 2를 참고, 정리하였음을 밝힙니다. 어텐션이라는 메커니즘 덕분에 seq2seq는 인간처럼 필요한 정보에 '주목(Attention)'할 수 있습니다. 어텐션은 기존 seq2seq의 문제점을 해결하여 성능을 향상시킵니다. 우선 기존 se..

자연어 처리 (NLP) 2020. 6. 24. 23:40
Prev 1 Next

Blog is powered by kakao / Designed by Tistory

티스토리툴바