超要約: ちっちゃい言葉のデータで、賢いAI作るんだって!
ギャル的キラキラポイント✨ ● 赤ちゃん言葉(CDS)だけ使うって、激アツじゃん?😳 ● コミュニケーション能力を上げるために、色々試してるみたい💖 ● IT業界の課題を解決する、すごい技術なのね!✨
詳細解説 背景 LLMって、めっちゃ賢いけど、勉強に大量のデータが必要なのよね💦 でも、人間は少ない情報から色々学べるじゃん? この研究は、赤ちゃん言葉だけでLLMを育てて、少ないデータでも賢くできるか試してるんだって!
方法 赤ちゃん言葉のデータを使って、llamalogueっていうモデルを作ったみたい! それに、DPOとかPPOっていう特別な方法を使って、もっとコミュニケーション能力を上げようとしてるんだって!すごい!
続きは「らくらく論文」アプリで
We investigate whether pre-training exclusively on dialogue data results in formally and functionally apt small language models. Based on this pre-trained llamalogue model, we employ a variety of fine-tuning strategies to enforce "more communicative" text generations by our models. Although our models underperform on most standard BabyLM benchmarks, they excel at dialogue continuation prediction in a minimal pair setting. While PPO fine-tuning has mixed to adversarial effects on our models, DPO fine-tuning further improves their performance on our custom dialogue benchmark.