AI

LSTM (Long Short-Term Memory)

jw92 2022. 9. 4. 13:15

기존 RNN( https://jw92.tistory.com/23 )의 문제점을 해결하기 위해 나온 것이 LSTM (Long Short-Term Memory)

1. 구조

The repeating module in an LSTM contains four interacting layers

  • LSTM의 핵심은 셀 스테이트(The cell state)
  • 셀 스테이트는 아주 마이너한 계산을 거쳐 다음 셀로 이동, 이를 이용해 정보의 장기기억이 가능해짐
  • 장기 기억과 단기 기억을 모두 고려

The cell state of LSTM

  • forget gate layer에서 이전 시간에 있던 Input data의 영향력을 결정

forget gate layer

  • Input gate layer에서 현재 시간 t에서 받은 Input data중 어떤 것을 cell state에 저장할 것인지를 정한다

Input gate layer

  • Cell state 업데이트 (기존 정보를 잊어버리기로 했고, 그 대신 정보를 cell state에 더하는 과정)

Cell state 업데이트

  • Output gate layer 장기 기억과 단기 기억을 구분하기 위해 2개의 gate layer로 구분

 

2. 종류

활용 예)
one to many: Image captioning
many to one: spam detection
many to many: Translation

'AI' 카테고리의 다른 글

Universal Transformer (2018)  (0) 2022.09.04
LLM - Transformer (2017)  (0) 2022.09.04
Attention Mechanism (Dot-Product Attention) (2015)  (0) 2022.09.04
Seq2Seq (Encoder-Decoder Model) (2014)  (0) 2022.09.04
RNN (Recurrent Neural Network)  (0) 2022.01.12