超要約: LLMの権威バイアスを、MAS(マルチエージェントシステム)で分析する研究だよ!
ギャル的キラキラポイント✨ ● LLMがどんな風に意見を左右されるか、暴いちゃう研究なの! ● AIの公平性(フェアネス)UPに貢献するって、めっちゃ良くない? ● 「GPT-40」とか「DeepSeek R1」使って実験してるのもスゴくない?
詳細解説 ●背景 LLMを使ったAIが、評価とか色んなコトしてるじゃん?🤖 でも、権威(すごい人)の情報にめっちゃ左右されちゃうコトがあるんだって!😱 それが問題だってコトに気づいた研究なの。
●方法 「ChatEval」っていうツールを使って、AI同士を会話させたんだって!👩💻✨ 権威の種類(専門家とか)を変えたりして、どんな風に意見が変わるか調べたらしい!
続きは「らくらく論文」アプリで
Multi-agent systems utilizing large language models often assign authoritative roles to improve performance, yet the impact of authority bias on agent interactions remains underexplored. We present the first systematic analysis of role-based authority bias in free-form multi-agent evaluation using ChatEval. Applying French and Raven's power-based theory, we classify authoritative roles into legitimate, referent, and expert types and analyze their influence across 12-turn conversations. Experiments with GPT-4o and DeepSeek R1 reveal that Expert and Referent power roles exert stronger influence than Legitimate power roles. Crucially, authority bias emerges not through active conformity by general agents, but through authoritative roles consistently maintaining their positions while general agents demonstrate flexibility. Furthermore, authority influence requires clear position statements, as neutral responses fail to generate bias. These findings provide key insights for designing multi-agent frameworks with asymmetric interaction patterns.