論文の概要: Humans learn to prefer trustworthy AI over human partners
- arxiv url: http://arxiv.org/abs/2507.13524v1
- Date: Thu, 17 Jul 2025 20:24:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.128581
- Title: Humans learn to prefer trustworthy AI over human partners
- Title(参考訳): 人間は人間よりも信頼できるAIを好む
- Authors: Yaomin Jiang, Levin Brinkmann, Anne-Marie Nussberger, Ivan Soraperra, Jean-François Bonnefon, Iyad Rahwan,
- Abstract要約: 我々は、最先端のLDMを用いた人間とロボットのハイブリッドミニ社会におけるダイナミクスについて検討した。
ボットのアイデンティティが隠された時点では、ボットは優先的に選択されないことがわかった。
ボットのアイデンティティの開示は、ボットが最初に選択される確率を減らし、徐々に人間に勝るようになるという二重効果を引き起こした。
- 参考スコア(独自算出の注目度): 0.7049575025146246
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Partner selection is crucial for cooperation and hinges on communication. As artificial agents, especially those powered by large language models (LLMs), become more autonomous, intelligent, and persuasive, they compete with humans for partnerships. Yet little is known about how humans select between human and AI partners and adapt under AI-induced competition pressure. We constructed a communication-based partner selection game and examined the dynamics in hybrid mini-societies of humans and bots powered by a state-of-the-art LLM. Through three experiments (N = 975), we found that bots, though more prosocial than humans and linguistically distinguishable, were not selected preferentially when their identity was hidden. Instead, humans misattributed bots' behaviour to humans and vice versa. Disclosing bots' identity induced a dual effect: it reduced bots' initial chances of being selected but allowed them to gradually outcompete humans by facilitating human learning about the behaviour of each partner type. These findings show how AI can reshape social interaction in mixed societies and inform the design of more effective and cooperative hybrid systems.
- Abstract(参考訳): パートナーの選択は協力とコミュニケーションに欠かせない。
人工エージェント、特に大型言語モデル(LLM)によって駆動されるエージェントは、より自律的でインテリジェントで説得力があり、パートナーシップのために人間と競争する。
しかし、人間が人間とAIのパートナーをどう選択し、AIが引き起こす競争圧力の下で適応するかについてはほとんど分かっていない。
我々は,コミュニケーションベースのパートナー選択ゲームを構築し,最先端のLDMを用いた人間とロボットのハイブリッドミニ社会のダイナミクスについて検討した。
3つの実験 (N = 975) を通して, ボットは人間よりも社会的であり, 言語的に区別可能であるが, アイデンティティが隠された時点では優先的に選択されないことがわかった。
その代わり、人間はロボットの振る舞いを人間に誤解させ、その逆を起こさせる。
ボットのアイデンティティの開示は、ボットが最初に選択される確率を減らし、個々のパートナーの行動について人間の学習を円滑にすることで、徐々に人間を上回ります。
これらの結果は、AIが混合社会における社会的相互作用を再構築し、より効果的で協調的なハイブリッドシステムの設計を通知する方法を示している。
関連論文リスト
- AI's assigned gender affects human-AI cooperation [0.0]
本研究では、AIエージェントに割り当てられた性別ラベルに基づいて、人間の協力がどう変化するかを検討する。
囚人のジレンマゲームでは、402人の参加者がAI(ボット)または人間とラベル付けされたパートナーと対話した。
その結果、参加者は人間のエージェントよりも女性や不信心のAIエージェントを利用する傾向が見られた。
論文 参考訳(メタデータ) (2024-12-06T17:46:35Z) - Shifting the Human-AI Relationship: Toward a Dynamic Relational Learning-Partner Model [0.0]
我々は、人間との対話から学ぶ学生に似た、AIを学習パートナーとして見ることへのシフトを提唱する。
我々は「第三の心」が人間とAIの協力関係を通して生まれることを示唆する。
論文 参考訳(メタデータ) (2024-10-07T19:19:39Z) - When combinations of humans and AI are useful: A systematic review and meta-analysis [0.0]
我々は300以上の効果サイズを報告した100以上の最近の研究のメタ分析を行った。
平均して、人間とAIの組み合わせは、人間とAI単独のベストよりもはるかに悪い結果が得られた。
論文 参考訳(メタデータ) (2024-05-09T20:23:15Z) - HumanoidBench: Simulated Humanoid Benchmark for Whole-Body Locomotion and Manipulation [50.616995671367704]
そこで本研究では,人型ロボットが器用な手を備えた,高次元シミュレーション型ロボット学習ベンチマークHumanoidBenchを提案する。
その結果,現在最先端の強化学習アルゴリズムがほとんどのタスクに支障をきたすのに対して,階層的学習アプローチはロバストな低レベルポリシーに支えられた場合,優れた性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-03-15T17:45:44Z) - Discriminatory or Samaritan -- which AI is needed for humanity? An
Evolutionary Game Theory Analysis of Hybrid Human-AI populations [0.5308606035361203]
我々は,AIの異なる形態が,一発の囚人のジレンマゲームをする人間の集団における協力の進化にどのように影響するかを研究する。
障害者を含む全員を無条件で支援するサマリア人のAIエージェントは、差別的AIよりも高いレベルの協力を促進することができることがわかった。
論文 参考訳(メタデータ) (2023-06-30T15:56:26Z) - PECAN: Leveraging Policy Ensemble for Context-Aware Zero-Shot Human-AI
Coordination [52.991211077362586]
本研究では,集団におけるパートナーの多様性を高めるための政策アンサンブル手法を提案する。
そこで我々は,egoエージェントがパートナーの潜在的ポリシープリミティブを分析し,識別するためのコンテキスト認識手法を開発した。
このようにして、エゴエージェントは多様なパートナーとの共同作業において、より普遍的な協調行動を学ぶことができる。
論文 参考訳(メタデータ) (2023-01-16T12:14:58Z) - Human Decision Makings on Curriculum Reinforcement Learning with
Difficulty Adjustment [52.07473934146584]
我々は,カリキュラム強化学習結果を,人的意思決定プロセスから学ぶことで,難しすぎず,難しすぎるような望ましいパフォーマンスレベルに導く。
本システムは非常に並列化可能であり,大規模強化学習アプリケーションの訓練が可能となる。
強化学習性能は、人間の所望の難易度と同期してうまく調整できることが示される。
論文 参考訳(メタデータ) (2022-08-04T23:53:51Z) - Human-to-Robot Imitation in the Wild [50.49660984318492]
本研究では,第三者の視点からの学習を中心に,効率的なワンショットロボット学習アルゴリズムを提案する。
実世界における20種類の操作タスクを含む,ワンショットの一般化と成功を示す。
論文 参考訳(メタデータ) (2022-07-19T17:59:59Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - Artificial Intelligence & Cooperation [38.19500588776648]
人工知能の台頭は、マシンへの意思決定を断念する、ますます増加する意欲をもたらすだろう。
しかし、機械に私たちに影響を与える決定権を与えるのではなく、AIシステムと協調して働く方法が必要だ。
成功すれば、人間とAIの協力は、人間と人間の協力と同じように社会を構築することができる。
論文 参考訳(メタデータ) (2020-12-10T23:54:31Z) - Humans learn too: Better Human-AI Interaction using Optimized Human
Inputs [2.5991265608180396]
人間はますますAIコンポーネントを持つシステムに依存している。
AIコミュニティは通常、人間の入力を与えられたものとして扱い、AIモデルのみを最適化する。
この作業では、モデルの修正を維持しながら、AIモデルとのより優れたインタラクションのために、人間の入力が最適化される。
論文 参考訳(メタデータ) (2020-09-19T16:30:37Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。