Notice
Recent Comments
- 좋게 봐주셔서 감사합니다 ㅎㅎ
- filter2D말고 다른 메서드도 있나보죠? 저도⋯
- 책 읽어보고 싶었는데 읽기전에 사전 정보를⋯
- 안녕하세요! 잘 보고 갑니다!! 도움 많이 됐⋯
- 옙 감사합니다. 이해가 잘 되셨다니 다행이네요!
- 머신러닝 공부를 하다가 AdaBoost와 Gradient⋯
- 와 설명이 많이 부족했을 텐데, 끝까지 읽어⋯
- 특별한 이유가 있진 않고 빠르고 성능이 좋아⋯
- opencv 다 읽었습니다. 정말 유용한 정보 감⋯
- 혹시 검출기를 ORB를 쓰신 이유가 있나요?
- werooring@gmail.com로 연락주세요~ :)
- 제작 의뢰 문의 드려도 될까요? 010-5599-352⋯
- ADP 준비하고 계시는군요. 방문해주시고 댓글⋯
- ADP 자격증 실기를 준비중에 있는데 나이브⋯
- 아이고 너무나 감사합니다 ^^
목록attention (1)
귀퉁이 서재

이전 장에서는 새로운 문장을 생성하는 seq2seq에 대해 알아봤습니다. 이번 장에서는 seq2seq의 기능을 더 강화시켜 주는 어텐션(Attention)에 대해 알아보겠습니다. 어텐션은 자연어 처리 분야에서 강력하고 중요한 기술 중 하나입니다. seq2seq를 이미 알고 있다는 가정하에 이번 장을 썼습니다. seq2seq를 잘 모르시는 분은 NLP - 13. 시퀀스-투-시퀀스(seq2seq)를 참고해주시기 바랍니다. 이번 장의 모든 글 및 그림은 밑바닥부터 시작하는 딥러닝 2를 참고, 정리하였음을 밝힙니다. 어텐션이라는 메커니즘 덕분에 seq2seq는 인간처럼 필요한 정보에 '주목(Attention)'할 수 있습니다. 어텐션은 기존 seq2seq의 문제점을 해결하여 성능을 향상시킵니다. 우선 기존 se..
자연어 처리 (NLP)
2020. 6. 24. 23:40