iconLogo
Published:2025/10/23 8:57:56

赤ちゃん言葉でLLM(大規模言語モデル)を訓練👶💕

超要約: ちっちゃい言葉のデータで、賢いAI作るんだって!

ギャル的キラキラポイント✨ ● 赤ちゃん言葉(CDS)だけ使うって、激アツじゃん?😳 ● コミュニケーション能力を上げるために、色々試してるみたい💖 ● IT業界の課題を解決する、すごい技術なのね!✨

詳細解説 背景 LLMって、めっちゃ賢いけど、勉強に大量のデータが必要なのよね💦 でも、人間は少ない情報から色々学べるじゃん? この研究は、赤ちゃん言葉だけでLLMを育てて、少ないデータでも賢くできるか試してるんだって!

方法 赤ちゃん言葉のデータを使って、llamalogueっていうモデルを作ったみたい! それに、DPOとかPPOっていう特別な方法を使って、もっとコミュニケーション能力を上げようとしてるんだって!すごい!

続きは「らくらく論文」アプリで

Dialogue Is Not Enough to Make a Communicative BabyLM (But Neither Is Developmentally Inspired Reinforcement Learning)

Francesca Padovani / Bastian Bunzeck / Manar Ali / Omar Momen / Arianna Bisazza / Hendrik Buschmeier / Sina Zarrie{\ss}

We investigate whether pre-training exclusively on dialogue data results in formally and functionally apt small language models. Based on this pre-trained llamalogue model, we employ a variety of fine-tuning strategies to enforce "more communicative" text generations by our models. Although our models underperform on most standard BabyLM benchmarks, they excel at dialogue continuation prediction in a minimal pair setting. While PPO fine-tuning has mixed to adversarial effects on our models, DPO fine-tuning further improves their performance on our custom dialogue benchmark.

cs / cs.CL