iconLogo
Published:2026/1/2 17:03:31

LLM対話の「一対多」問題、解決しちゃお!✨

  1. 超要約: LLM(大規模言語モデル)の対話、もっと多様に!効率よくする研究だよ💖

  2. ギャル的キラキラポイント

    • ● 多様な返事を出すのが苦手なLLMを、MRGとPSに分解する発想が天才的!💡
    • ● 小さいLLMでも、In-Context Learning (ICL)とか使って、賢くしちゃうのがすごい✨
    • ● 顧客サポートとか、新しいビジネスにも使えるって、未来が明るいね!🤩
  3. 詳細解説

    • 背景: LLMってすごいけど、同じ質問に同じ答えしか返せないこと、あるじゃん?🙄それじゃつまんないから、もっと色んな返事が出せるようにしたいんだよね!
    • 方法: LLMの返事生成を、MRG(複数応答生成)とPS(選好に基づく選択)の2つのステップに分けたよ!MRGで色んな返事を出し、PSで一番良いのを選ぶって感じ💅
    • 結果: この方法で、LLMがもっと多様で人間らしい返事を生成できるようになったんだ!小さいLLMでもOKになったから、コスパも良い🙌
    • 意義: 顧客サポートとか、色んな場面で使えるようになるから、ビジネスチャンスが広がる!AIがもっと身近になるね♪
  4. リアルでの使いみちアイデア💡

    • 推し活チャットボット: 推しのこと、もっと色んな角度から教えてくれるチャットボット!🌟
    • パーソナル美容アドバイザー: あなたにぴったりのコスメを、色んな提案で教えてくれるAI!💄

続きは「らくらく論文」アプリで

Modeling the One-to-Many Property in Open-Domain Dialogue with LLMs

Jing Yang Lee / Kong-Aik Lee / Woon-Seng Gan

Open-domain Dialogue (OD) exhibits a one-to-many (o2m) property, whereby multiple appropriate responses exist for a single dialogue context. Despite prior research showing that modeling this property boosts response diversity, most modern LLM-based dialogue agents do not explicitly do so. In this work, we model the o2m property of OD in LLMs by decomposing OD generation into two key tasks: Multi-Response Generation (MRG) and Preference-based Selection (PS), which entail generating a set of n semantically and lexically diverse high-quality responses for a given dialogue context, followed by selecting a single response based on human preference, respectively. To facilitate MRG and PS, we introduce o2mDial, a dialogue corpus explicitly designed to capture the o2m property by featuring multiple plausible responses for each context. Leveraging o2mDial, we propose new in-context learning and instruction-tuning strategies, as well as novel evaluation metrics for MRG, alongside a model-based approach for PS. Empirical results demonstrate that applying the proposed two-stage framework to smaller LLMs for OD generation enhances overall response diversity while maintaining contextual coherence, improving response quality by up to 90%, bringing them closer to the performance of larger models.

cs / cs.CL / cs.AI