論文
arxiv.org ・学会発表用として投稿された日本語版のproceeding https://www.anlp.jp/proceedings/annual_meeting/2024/pdf_dir/C3-5.pdf 概要 所感 余談 概要 テキストと図表を含む日本語版のドキュメントのVQAデータセットを作成し、それらを用いて近年の主…
www.jstage.jst.go.jp 昨日、ベッドの上で寝ながら読んでいたが面白かった。 概要 所感 概要 人工言語を用いた事前学習をTransformerのエンコーダに学習させ、そのエンコーダを自然言語の言語モデリングに転移したときの性能を測定させた論文。 先行研究の結…
arxiv.org 概要 所感 概要 機械学習モデルの学習・運用におけるセキュリティ・プライバシーリスクをシミュレーションしてくれるオープンソースのライブラリ その名をAIJack github.com 例えばMLモデルの入力データに目立たないノイズを乗せて誤認識させるEva…
arxiv.org github.com 明けましておめでとうございます。 概要 LLMの回答精度を向上させるための「26のプロンプト原則」を紹介する論文 Table1 引用 以下の5つのカテゴリに分けて、26の原則について説明している。 プロンプトの構造と明瞭さ 2. プロン…
概要 所感 arxiv.org ざっと目を通したので概要と所感を記す. 概要 Googleが出したマルチモーダルモデルの「Gemini」に関する論文 マルチモーダルモデル,というのはテキスト,画像,音声,動画というように異なる形式データを同時に扱って出力するモデル.…
www.nature.com 概要 感想 その他 概要 2015年のDeep Learning のレビュー論文 教師学習、逆誤差伝播法、CNN、RNNといった深層学習の基礎中の基礎を述べているレビュー論文 大事だと思った内容 機械学習:カーネルメソッドのような非線形特徴を用いると、ト…
概要 感想 arxiv.org 概要 Google が2017年ごろに出したTransformer の論文 RNN、encoder-decoderモデル にAttentionと呼ばれる機構を追加したことによって、計算量を減らしながら精度を保つことに成功した Attentionというのは「注意機構」と呼ばれ、入力の…