論文の概要: Humanlike AI Design Increases Anthropomorphism but Yields Divergent Outcomes on Engagement and Trust Globally
- arxiv url: http://arxiv.org/abs/2512.17898v1
- Date: Fri, 19 Dec 2025 18:57:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.536592
- Title: Humanlike AI Design Increases Anthropomorphism but Yields Divergent Outcomes on Engagement and Trust Globally
- Title(参考訳): 人間のようなAIデザインは人類同型を増大させるが、エンゲージメントと信頼の多様性は世界規模で得られる
- Authors: Robin Schimmelpfennig, Mark Díaz, Vinodkumar Prabhakaran, Aida Davani,
- Abstract要約: 世界中の10億人以上のユーザーが、人間の特性を模倣する洗練度を高めたAIシステムと対話している。
この変化は、人類同相性、人的特徴の合成剤への寄与、および不在の信頼や感情的依存を誘発する可能性に関する緊急の議論を引き起こしている。
一般的な安全フレームワークは、AIユーザのグローバルな多様性を見越して、西洋の人口に由来する理論的な仮定に依存し続けている。
- 参考スコア(独自算出の注目度): 5.379750053447755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Over a billion users across the globe interact with AI systems engineered with increasing sophistication to mimic human traits. This shift has triggered urgent debate regarding Anthropomorphism, the attribution of human characteristics to synthetic agents, and its potential to induce misplaced trust or emotional dependency. However, the causal link between more humanlike AI design and subsequent effects on engagement and trust has not been tested in realistic human-AI interactions with a global user pool. Prevailing safety frameworks continue to rely on theoretical assumptions derived from Western populations, overlooking the global diversity of AI users. Here, we address these gaps through two large-scale cross-national experiments (N=3,500) across 10 diverse nations, involving real-time and open-ended interactions with an AI system. We find that when evaluating an AI's human-likeness, users focus less on the kind of theoretical aspects often cited in policy (e.g., sentience or consciousness), but rather applied, interactional cues like conversation flow or understanding the user's perspective. We also experimentally demonstrate that humanlike design levers can causally increase anthropomorphism among users; however, we do not find that humanlike design universally increases behavioral measures for user engagement and trust, as previous theoretical work suggests. Instead, part of the connection between human-likeness and behavioral outcomes is fractured by culture: specific design choices that foster self-reported trust in AI-systems in some populations (e.g., Brazil) may trigger the opposite result in others (e.g., Japan). Our findings challenge prevailing narratives of inherent risk in humanlike AI design. Instead, we identify a nuanced, culturally mediated landscape of human-AI interaction, which demands that we move beyond a one-size-fits-all approach in AI governance.
- Abstract(参考訳): 世界中の10億人以上のユーザーが、人間の特性を模倣する洗練度を高めたAIシステムと対話している。
この変化は、人類同相性、人的特徴の合成剤への寄与、および不在の信頼や感情的依存を誘発する可能性に関する緊急の議論を引き起こしている。
しかしながら、より人間的なAI設計とその後のエンゲージメントと信頼への影響との間の因果関係は、グローバルユーザプールとの現実的な人間-AIインタラクションではテストされていない。
一般的な安全フレームワークは、AIユーザのグローバルな多様性を見越して、西洋の人口に由来する理論的な仮定に依存し続けている。
ここでは、AIシステムとのリアルタイムおよびオープンエンドインタラクションを含む10カ国にわたる2つの大規模なクロスナショナル実験(N=3500)を通して、これらのギャップに対処する。
AIの人間らしく評価する場合、ユーザーはポリシー(例えば、知覚や意識)でしばしば引用される理論的な側面よりもむしろ、会話の流れやユーザの視点を理解するといった相互作用的な方法に重点を置いている。
また,人間ライクなデザインレバーはユーザ間の人間同型を因果的に増加させることができることを実験的に実証するが,従来の理論的研究が示すように,人間ライクなデザインはユーザエンゲージメントと信頼の行動的尺度を普遍的に増加させるわけではない。
特定のデザイン選択は、一部の集団(例:ブラジル)において、AIシステムに対する自己申告された信頼を促進するものであり、その逆の結果を引き起こす可能性がある(例:日本)。
我々の発見は、人間のようなAI設計における本質的なリスクの物語に挑戦する。
代わりに私たちは、人間とAIのインタラクションの微妙で文化的に媒介された風景を特定します。
関連論文リスト
- The AI Interface: Designing for the Ideal Machine-Human Experience (Editorial) [1.8074330674710588]
本論では,AI体験デザインの心理学を探求する特集を紹介する。
このコレクションの論文は、人間とAIの相互作用における信頼、透明性、感情的な感受性の複雑さを強調している。
8つの多様な研究から得られた知見により、この論説は、効率と共感のバランスをとるためのAIインターフェースの必要性を強調している。
論文 参考訳(メタデータ) (2024-11-29T15:17:32Z) - Aligning Generalisation Between Humans and Machines [74.120848518198]
AI技術は、科学的発見と意思決定において人間を支援することができるが、民主主義と個人を妨害することもある。
AIの責任ある使用と人間-AIチームへの参加は、AIアライメントの必要性をますます示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Survey of User Interface Design and Interaction Techniques in Generative AI Applications [79.55963742878684]
我々は,デザイナやディベロッパの参照として使用できる,さまざまなユーザインタラクションパターンのコンペレーションを作ることを目指している。
また、生成AIアプリケーションの設計についてもっと学ぼうとする人たちの参入障壁を低くしようと努力しています。
論文 参考訳(メタデータ) (2024-10-28T23:10:06Z) - Explainable Human-AI Interaction: A Planning Perspective [32.477369282996385]
AIシステムは、ループ内の人間に説明可能である必要がある。
我々は、AIエージェントがメンタルモデルを使用して人間の期待に沿うか、あるいは説明的コミュニケーションを通じて期待を変更する方法について論じる。
本書の主な焦点は、協調的なシナリオであるが、同じ精神モデルが難読化や偽造にどのように使用できるかを指摘したい。
論文 参考訳(メタデータ) (2024-05-19T22:22:21Z) - Human-AI Safety: A Descendant of Generative AI and Control Systems Safety [6.100304850888953]
先進的なAI技術に対する有意義な安全性保証には、AI出力と人間の振る舞いによって形成されるフィードバックループが、どのようにして異なる結果に向かって相互作用を駆動するかについての推論が必要である、と我々は主張する。
我々は、次世代の人間中心AI安全性に向けた具体的な技術ロードマップを提案する。
論文 参考訳(メタデータ) (2024-05-16T03:52:00Z) - Discriminatory or Samaritan -- which AI is needed for humanity? An
Evolutionary Game Theory Analysis of Hybrid Human-AI populations [0.5308606035361203]
我々は,AIの異なる形態が,一発の囚人のジレンマゲームをする人間の集団における協力の進化にどのように影響するかを研究する。
障害者を含む全員を無条件で支援するサマリア人のAIエージェントは、差別的AIよりも高いレベルの協力を促進することができることがわかった。
論文 参考訳(メタデータ) (2023-06-30T15:56:26Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - The Response Shift Paradigm to Quantify Human Trust in AI
Recommendations [6.652641137999891]
説明可能性、解釈可能性、そしてそれらがAIシステムに対する人間の信頼にどれほど影響するかは、究極的には機械学習と同じくらいの人間の認知の問題である。
我々は,AIレコメンデーションが人的決定に与える影響を定量化する汎用のヒューマン・AIインタラクション・パラダイムを開発し,検証した。
我々の実証・実証パラダイムは、急速に成長するXAI/IAIアプローチをエンドユーザーへの影響の観点から定量的に比較することができる。
論文 参考訳(メタデータ) (2022-02-16T22:02:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。