Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- R에서의 wordcloud
- deeplearning개념
- 자연어처리
- WordCloud R
- 체험디자인
- 통계기반자연어처리
- StringBuffer vs StringBuilder
- 도날드노만
- 마르코프
- 어탠션
- 딥러닝개념
- 딥러닝용어
- deeplearning용어
- 마르코프 체인
- wordVector
- R 워드클라우드
- selfattention
- R에서의 워드클라우드
- StringJoiner
- R dataframe
- R TF-IDF
- HashMap
- 상호작용디자인
- 언어모델
- r word2vec
- RNN Attention
- word2vec
- R 키워드 가중치
- 자언어처리모델
- self-attention
Archives
- Today
- Total
목록어탠션 (1)
클로이의 데이터 여행기
비전공자가 이해한 'Attention'
안녕하세요. 이번 포스팅에서는 Attention을 다뤄보려고 합니다. 1. Attention이란? - sequence 중 중요한 feature를 더욱 중요하게 고려하여 학습하는 모델 : 사람이 정보처리를 할 때, 모든 정보를 기억하지 않듯 '인간처럼 기억하자'가 컨셉 2. Attention과 RNN의 차이점 - RNN은 모든 정보를 하나의 context vector에 담음 : 입력 sequence의 길이가 매우 길면, 앞부분에 나왔던 token의 정보가 희석 - Attention은 중간중간에 나오는 output도 활용 : 문맥에 따라 encoder의 weight가 결정되어 Dynamic한 Context Vector로 활용 3. Attention 예시 RNN에서는 context vector에 해당하는 'h..
자연어처리
2019. 12. 5. 16:59