iconLogo
Published:2025/12/17 11:41:25

XR×LLM、ユーザーの心をつかむには?💖 (15字)

1. ギャル的キラキラポイント✨

  • ● 大勢のユーザー調査で、マジ信頼性バッチリ👍
  • ● XR環境(仮想空間)での会話、データ処理、全部ひっくるめて分析してるのがスゴい!
  • ● プライバシー(個人情報)への不安を解消するヒントが満載なの!

2. 詳細解説

  • 背景 最新の技術、生成AIとLLMがめっちゃ進化してるの! それらをXR(拡張現実)の世界で使ったら、もっとすごい体験ができるかも!ってことで、色んな企業が対話できるAIエージェントを作ってるんだよね。でも、みんな気になるのがプライバシー問題。個人情報が漏れたら困るじゃん?
  • 方法 1036人もの人にアンケート調査したんだって! XR環境でAIと話すこととか、どんな情報が不安? どんなことなら安心して使える? ってことを詳しく調べたみたい。会話の形式とか、どこでデータが処理されるかとか、色んなパターンでユーザーの反応を分析してるよ!
  • 結果 ユーザーは、自分の位置情報とか、個人を特定できる情報がAIに知られるのを特に嫌がるみたい。 あと、AIが何を考えてるのか分からんのも不安みたい。でも、AIがどんな情報を使って、どうやって会話してるのかをちゃんと説明してくれたら、少しは安心するってことも分かったんだって!
  • 意義(ここがヤバい♡ポイント) この研究、IT企業がXRサービスを作る時に、ユーザーが安心して使えるようにするためのヒントがいっぱい詰まってるの! プライバシー保護をしっかり考えたサービスを作れば、もっとたくさんの人がXRを使ってくれるようになるはず! 企業は競争力アップ、ユーザーは安全に楽しめる、まさにWin-Winの関係になれるってこと!

続きは「らくらく論文」アプリで

Exploring User Acceptance and Concerns toward LLM-powered Conversational Agents in Immersive Extended Reality

Efe Bozkir / Enkelejda Kasneci

The rapid development of generative artificial intelligence (AI) and large language models (LLMs), and the availability of services that make them accessible, have led the general public to begin incorporating them into everyday life. The extended reality (XR) community has also sought to integrate LLMs, particularly in the form of conversational agents, to enhance user experience and task efficiency. When interacting with such conversational agents, users may easily disclose sensitive information due to the naturalistic flow of the conversations, and combining such conversational data with fine-grained sensor data may lead to novel privacy issues. To address these issues, a user-centric understanding of technology acceptance and concerns is essential. Therefore, to this end, we conducted a large-scale crowdsourcing study with 1036 participants, examining user decision-making processes regarding LLM-powered conversational agents in XR, across factors of XR setting type, speech interaction type, and data processing location. We found that while users generally accept these technologies, they express concerns related to security, privacy, social implications, and trust. Our results suggest that familiarity plays a crucial role, as daily generative AI use is associated with greater acceptance. In contrast, previous ownership of XR devices is linked to less acceptance, possibly due to existing familiarity with the settings. We also found that men report higher acceptance with fewer concerns than women. Regarding data type sensitivity, location data elicited the most significant concern, while body temperature and virtual object states were considered least sensitive. Overall, our study highlights the importance of practitioners effectively communicating their measures to users, who may remain distrustful. We conclude with implications and recommendations for LLM-powered XR.

cs / cs.HC / cs.AI / cs.CY