iconLogo
Published:2025/12/17 8:47:23

LLMの「信頼性」って何?✨ 研究で解明!

  1. 超要約: LLM(大規模言語モデル)が「信頼性」をどう判断してるか、心理学的に調べた研究だよ!

  2. ギャル的キラキラポイント✨

    • ● LLMも人間みたいに、公平性とか確実性とかを理解してるってこと!すごいじゃん!😍
    • ● LLMの頭の中(内部表現)が、信頼性によってどう変わるのかが見える!まるで脳みそ観察👀
    • ● AIの言葉、これからもっと信用できるようになるかも?期待しちゃうね💖
  3. 詳細解説

    • 背景: 最近のAI、マジすごいけど、その情報って本当に信用できる?って不安、あるよね?🤔 LLMが信頼性をどう考えてるか、知りたい!
    • 方法: LLMの頭の中を覗き見👀!データ分析したり、実験したりして、信頼性に関する情報がどう処理されてるか調べたんだって!
    • 結果: LLMは、人間が信頼性を判断する時と同じような要素(公平さとか)を、学習してないのに持ってた!天才かよ👏
    • 意義(ここがヤバい♡ポイント): AIの言うこと、もっと信じられるようになるかも!嘘つきAIを減らせる可能性大🌟
  4. リアルでの使いみちアイデア💡

    • Webサイトとかの記事の信頼性を、AIが教えてくれるようになるかも!怪しい情報に騙されなくなるね😉
    • AIチャットボットが、もっと正確で信用できる情報をくれるようになる!先生代わりに使えるかも🎓

続きは「らくらく論文」アプリで

Do You Trust Me? Cognitive-Affective Signatures of Trustworthiness in Large Language Models

Gerard Yeo / Svetlana Churina / Kokil Jaidka

Perceived trustworthiness underpins how users navigate online information, yet it remains unclear whether large language models (LLMs),increasingly embedded in search, recommendation, and conversational systems, represent this construct in psychologically coherent ways. We analyze how instruction-tuned LLMs (Llama 3.1 8B, Qwen 2.5 7B, Mistral 7B) encode perceived trustworthiness in web-like narratives using the PEACE-Reviews dataset annotated for cognitive appraisals, emotions, and behavioral intentions. Across models, systematic layer- and head-level activation differences distinguish high- from low-trust texts, revealing that trust cues are implicitly encoded during pretraining. Probing analyses show linearly de-codable trust signals and fine-tuning effects that refine rather than restructure these representations. Strongest associations emerge with appraisals of fairness, certainty, and accountability-self -- dimensions central to human trust formation online. These findings demonstrate that modern LLMs internalize psychologically grounded trust signals without explicit supervision, offering a representational foundation for designing credible, transparent, and trust-worthy AI systems in the web ecosystem. Code and appendix are available at: https://github.com/GerardYeo/TrustworthinessLLM.

cs / cs.AI / cs.CL