2023-12-17から1日間の記事一覧
概要 感想 arxiv.org 概要 Google が2017年ごろに出したTransformer の論文 RNN、encoder-decoderモデル にAttentionと呼ばれる機構を追加したことによって、計算量を減らしながら精度を保つことに成功した Attentionというのは「注意機構」と呼ばれ、入力の…
概要 感想 arxiv.org 概要 Google が2017年ごろに出したTransformer の論文 RNN、encoder-decoderモデル にAttentionと呼ばれる機構を追加したことによって、計算量を減らしながら精度を保つことに成功した Attentionというのは「注意機構」と呼ばれ、入力の…