論文の概要: Overcoming the Machine Penalty with Imperfectly Fair AI Agents
- arxiv url: http://arxiv.org/abs/2410.03724v3
- Date: Wed, 28 May 2025 16:01:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.032238
- Title: Overcoming the Machine Penalty with Imperfectly Fair AI Agents
- Title(参考訳): 完璧に公正なAIエージェントでマシンのペナルティを克服する
- Authors: Zhen Wang, Ruiqi Song, Chen Shen, Shiya Yin, Zhao Song, Balaraju Battu, Lei Shi, Danyang Jia, Talal Rahwan, Shuyue Hu,
- Abstract要約: 人間は機械と協力する傾向があり、機械ペナルティとして知られる現象である。
大規模言語モデルを用いたAIエージェントは,コミュニケーションを伴うソーシャルジレンマゲームにおいて,このペナルティを克服できることを示す。
分析によると、公正なエージェントは人間の参加者と同様、時にはゲーム前協力の約束を破るが、それでも効果的な社会規範として協力を確立する。
- 参考スコア(独自算出の注目度): 14.576971868730709
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Despite rapid technological progress, effective human-machine cooperation remains a significant challenge. Humans tend to cooperate less with machines than with fellow humans, a phenomenon known as the machine penalty. Here, we show that artificial intelligence (AI) agents powered by large language models can overcome this penalty in social dilemma games with communication. In a pre-registered experiment with 1,152 participants, we deploy AI agents exhibiting three distinct personas: selfish, cooperative, and fair. However, only fair agents elicit human cooperation at rates comparable to human-human interactions. Analysis reveals that fair agents, similar to human participants, occasionally break pre-game cooperation promises, but nonetheless effectively establish cooperation as a social norm. These results challenge the conventional wisdom of machines as altruistic assistants or rational actors. Instead, our study highlights the importance of AI agents reflecting the nuanced complexity of human social behaviors -- imperfect yet driven by deeper social cognitive processes.
- Abstract(参考訳): 急速な技術進歩にもかかわらず、効果的な人間と機械の協力は依然として重要な課題である。
人間は機械と協力する傾向があり、機械ペナルティとして知られる現象である。
ここでは,大規模言語モデルを用いた人工知能(AI)エージェントが,コミュニケーションを伴うソーシャルジレンマゲームにおいて,このペナルティを克服できることを示す。
1,152人の参加者による事前登録された実験で、私たちは、利己的、協力的、公正という3つの異なるペルソナを示すAIエージェントをデプロイしました。
しかし、人間と人間の相互作用に匹敵する速度で人間の協力を引き出すのは公正なエージェントのみである。
分析によると、公正なエージェントは人間の参加者と同様、時にはゲーム前協力の約束を破るが、それでも効果的な社会規範として協力を確立する。
これらの結果は、利他的アシスタントや合理的アクターとしての機械の従来の知恵に挑戦する。
その代わり、我々の研究は、人間の社会的行動の複雑さを反映するAIエージェントの重要性を強調しています。
関連論文リスト
- Measurement of LLM's Philosophies of Human Nature [113.47929131143766]
大規模言語モデル(LLM)を対象とする標準化された心理尺度を設計する。
現在のLSMは、人間に対する信頼の欠如を示す。
本稿では,LLMが継続的に価値体系を最適化できるメンタルループ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-03T06:22:19Z) - Experimental Exploration: Investigating Cooperative Interaction Behavior Between Humans and Large Language Model Agents [11.080802144327176]
本研究は, 繰り返し行われる囚人のジレンマゲームに30人の参加者を参加させることにより, 人間の協調行動について検討した。
その結果, エージェントの特徴と, 参加者の性別および特徴の相互作用効果に基づいて, 協調行動に有意な差異が認められた。
この研究は、AIエージェントに対する人間のバイアスを理解することの重要性と、観察された行動が将来の人間とAIの協力のダイナミクスにどのように影響を与えるかを強調している。
論文 参考訳(メタデータ) (2025-03-10T13:37:36Z) - Emergence of human-like polarization among large language model agents [61.622596148368906]
我々は、何千もの大規模言語モデルエージェントを含むネットワーク化されたシステムをシミュレートし、それらの社会的相互作用を発見し、人間のような偏極をもたらす。
人間とLLMエージェントの類似性は、社会的分極を増幅する能力に関する懸念を提起するだけでなく、それを緩和するための有効な戦略を特定するための貴重なテストベッドとして機能する可能性も持っている。
論文 参考訳(メタデータ) (2025-01-09T11:45:05Z) - The Dynamics of Social Conventions in LLM populations: Spontaneous Emergence, Collective Biases and Tipping Points [0.0]
シミュレーション対話を用いたLarge Language Model (LLM) エージェントの集団内におけるコンベンションのダイナミクスについて検討する。
グローバルに受け入れられる社会慣行は,LLM間の局所的な相互作用から自然に生じうることを示す。
献身的なLLMのマイノリティグループは、新しい社会慣習を確立することで社会変革を促進することができる。
論文 参考訳(メタデータ) (2024-10-11T16:16:38Z) - Multimodal Fusion with LLMs for Engagement Prediction in Natural Conversation [70.52558242336988]
我々は,不関心や混乱の兆候を検出することを目的として,言語的および非言語的手がかりを精査することにより,ダイアディック的相互作用における係り合いを予測することに焦点を当てた。
本研究では,カジュアルなダイアディック会話に携わる34人の参加者を対象に,各会話の最後に自己報告されたエンゲージメント評価を行うデータセットを収集する。
大規模言語モデル(LLMs)を用いた新たな融合戦略を導入し,複数行動モダリティをマルチモーダル・トランスクリプトに統合する。
論文 参考訳(メタデータ) (2024-09-13T18:28:12Z) - Mutual Theory of Mind in Human-AI Collaboration: An Empirical Study with LLM-driven AI Agents in a Real-time Shared Workspace Task [56.92961847155029]
心の理論(ToM)は、他人を理解する上で重要な能力として、人間の協調とコミュニケーションに大きな影響を及ぼす。
Mutual Theory of Mind (MToM) は、ToM能力を持つAIエージェントが人間と協力するときに発生する。
エージェントのToM能力はチームのパフォーマンスに大きな影響を与えず,エージェントの人間的理解を高めていることがわかった。
論文 参考訳(メタデータ) (2024-09-13T13:19:48Z) - Confidence-weighted integration of human and machine judgments for superior decision-making [2.4217853168915475]
近年の研究では、大きな言語モデル(LLM)が特定のタスクにおいて人間を上回ることが示されている。
我々は、LLMよりも悪いパフォーマンスをしているにもかかわらず、人間はチームで価値を付加できることを示した。
人間と機械のチームは、チームメンバーの自信が十分に調整されたときに、各チームメイトを追い越すことができます。
論文 参考訳(メタデータ) (2024-08-15T11:16:21Z) - Are Large Language Models Aligned with People's Social Intuitions for Human-Robot Interactions? [7.308479353736709]
大規模言語モデル(LLM)は、ロボット工学、特にハイレベルな行動計画にますます使われている。
本研究では,人間とロボットの相互作用のシナリオにおいて,LLMが人々の直感やコミュニケーションを再現するかどうかを検証する。
視覚モデルでは映像刺激の本質を捉えることができず、LLMは人よりもコミュニケーション行動や行動を評価する傾向にあることを示す。
論文 参考訳(メタデータ) (2024-03-08T22:23:23Z) - Exploring Collaboration Mechanisms for LLM Agents: A Social Psychology View [60.80731090755224]
本稿では,理論的洞察を用いた実用実験により,現代NLPシステム間の協調機構を解明する。
我々は, LLMエージェントからなる4つの独特な社会をつくり, それぞれのエージェントは, 特定の特性(容易性, 過信性)によって特徴づけられ, 異なる思考パターン(議論, ふりかえり)と協調する。
以上の結果から, LLMエージェントは, 社会心理学理論を反映した, 適合性やコンセンサスリーディングといった人間的な社会的行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T15:05:52Z) - Unleashing the Emergent Cognitive Synergy in Large Language Models: A Task-Solving Agent through Multi-Persona Self-Collaboration [116.09561564489799]
Solo Performance Promptingは、複数のペルソナと多ターンの自己コラボレーションをすることで、単一のLCMを認知的シナジストに変換する。
認知シナジスト(英: Cognitive Synergist)は、複雑なタスクにおける問題解決を強化するために、複数の心の強みと知識を協調的に結合するインテリジェントエージェントである。
より詳細な分析により,LLMに複数の微粒なペルソナを割り当てることによって,単一あるいは固定数のペルソナに比べて問題解決能力が向上することが示された。
論文 参考訳(メタデータ) (2023-07-11T14:45:19Z) - Investigating the Impact of Direct Punishment on the Emergence of Cooperation in Multi-Agent Reinforcement Learning Systems [2.4555276449137042]
協力の問題は、人間社会の中で一様である。
AIの利用が社会全体に広まるにつれ、社会的にインテリジェントなエージェントの必要性がますます明白になりつつある。
本稿では, 直接罰, 第三者罰, パートナー選択, 評判に関連する行動と学習のダイナミクスを包括的に分析し, 評価する。
論文 参考訳(メタデータ) (2023-01-19T19:33:54Z) - Doing Right by Not Doing Wrong in Human-Robot Collaboration [8.078753289996417]
本研究では,ポジティブ行動の再現ではなく,ネガティブ行動の回避によって,公平で社会的行動を学ぶための新しいアプローチを提案する。
本研究では,ロボット操作における社会性の導入の重要性と,人間とロボットの相互作用における公平性を検討することの重要性を強調した。
論文 参考訳(メタデータ) (2022-02-05T23:05:10Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。