Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- 체험디자인
- WordCloud R
- 통계기반자연어처리
- HashMap
- word2vec
- selfattention
- 마르코프
- self-attention
- wordVector
- 상호작용디자인
- R에서의 wordcloud
- deeplearning용어
- 딥러닝개념
- r word2vec
- 도날드노만
- RNN Attention
- R에서의 워드클라우드
- 자연어처리
- R dataframe
- 자언어처리모델
- 어탠션
- R 워드클라우드
- R TF-IDF
- 딥러닝용어
- 언어모델
- 마르코프 체인
- R 키워드 가중치
- StringJoiner
- StringBuffer vs StringBuilder
- deeplearning개념
Archives
- Today
- Total
목록어탠션 (1)
클로이의 데이터 여행기
비전공자가 이해한 'Attention'
안녕하세요. 이번 포스팅에서는 Attention을 다뤄보려고 합니다. 1. Attention이란? - sequence 중 중요한 feature를 더욱 중요하게 고려하여 학습하는 모델 : 사람이 정보처리를 할 때, 모든 정보를 기억하지 않듯 '인간처럼 기억하자'가 컨셉 2. Attention과 RNN의 차이점 - RNN은 모든 정보를 하나의 context vector에 담음 : 입력 sequence의 길이가 매우 길면, 앞부분에 나왔던 token의 정보가 희석 - Attention은 중간중간에 나오는 output도 활용 : 문맥에 따라 encoder의 weight가 결정되어 Dynamic한 Context Vector로 활용 3. Attention 예시 RNN에서는 context vector에 해당하는 'h..
자연어처리
2019. 12. 5. 16:59