超要約: LLMの弱点、ウソつき問題をDoLaで解決!T5にDoLaしたら、もっと賢くなったって話🌟
● T5(ティーファイブ)様って、賢いモデルのこと✨そこにDoLa(ドーラ)っていう魔法をかけたら、もっとお利口さんに💖 ● DoLaは、モデルを大幅に変えなくても、ウソつかないようにできるスグレモノ😎IT業界も大注目だよ! ● 命令(おしごと)をちゃんと理解して、忠実にこなせるようになるから、色んなことに役立つ予感💖
背景 LLM(大規模言語モデル)はすごいけど、たまに嘘(ハルシネーション)ついちゃうのが困りもの😢 正しいこと言わないと、使えないじゃん?Chuangさん達の研究で、DoLaっていうデコーディング手法が、ハルシネーションを減らせるってわかったの!
方法 Transformer(トランスフォーマー)ベースのLLMのモジュール性を利用して、中間層の出力を比較対照するんだって!モデル構造や学習を変えずに、ハルシネーションを減らせるのがポイント💖今回の研究では、エンコーダーデコーダー型のT5にDoLaを適用して、命令追従能力をチェックしたよ!
続きは「らくらく論文」アプリで
Contrastive decoding is a lightweight and effective inference-time method that improves the quality of text generation in Large Language Models. However, algorithms such as DoLa (Decoding by Contrastive Layers) have only been implemented in decoder-only architectures and studied for their impact on improving factuality. This work adapts DoLa for the T5 and FLAN-T5 model families and evaluates its impact on the models' instruction following capabilities, which to our knowledge is the first implementation of a contrastive decoding strategy in an encoder-decoder architecture. Our results show that DoLa improves the faithfulness of text generation for certain categories of tasks and harms others. To understand these results, we present a layer-by-layer analysis of logit evolution in a FLAN-T5 model to quantify DoLa's impact on token output probabilities.