Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- StringBuffer vs StringBuilder
- deeplearning용어
- WordCloud R
- R 키워드 가중치
- R에서의 wordcloud
- R dataframe
- HashMap
- 체험디자인
- 도날드노만
- StringJoiner
- 딥러닝용어
- R에서의 워드클라우드
- 상호작용디자인
- R TF-IDF
- 어탠션
- 자언어처리모델
- RNN Attention
- 자연어처리
- 통계기반자연어처리
- 마르코프 체인
- r word2vec
- 언어모델
- 마르코프
- selfattention
- R 워드클라우드
- self-attention
- 딥러닝개념
- word2vec
- deeplearning개념
- wordVector
Archives
- Today
- Total
목록rnn (1)
클로이의 데이터 여행기
비전공자가 이해한 'RNN'
이번 포스팅에서는 'RNN'에 대해서 설명하고자 합니다. RNN은 앞서 설명드린 '마코프체인' 모델을 인공신경망 구조로 변환한 것이라 볼 수 있는데요. (※ 마코프 체인 관련 포스팅 : https://data-traveler.tistory.com/37 ) 1. RNN이란? - 순서성을 기반으로 다음값을 예측하는 인공신경망의 한 종류 - 시계열 데이터 분석에 적합하여, 자연어 처리에 널리 쓰임 : 다음 character, word, sentence를 예측 2. RNN 예시 그렇다면 RNN이 어떤 방식으로 순서를 학습하고, 또 다음을 예측하는지 살펴보겠습니다. 1) RNN 구조 ① Input Layer : 현재의 값 ② Hidden Layer : 다음을 예측하기 위해 이전 값의 특성을 담는 곳 ③ Outpu..
자연어처리
2019. 12. 2. 14:24