論文の概要: Large Language Models Overcome the Machine Penalty When Acting Fairly but Not When Acting Selfishly or Altruistically
- arxiv url: http://arxiv.org/abs/2410.03724v2
- Date: Tue, 8 Oct 2024 09:16:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 20:28:28.227181
- Title: Large Language Models Overcome the Machine Penalty When Acting Fairly but Not When Acting Selfishly or Altruistically
- Title(参考訳): 大規模言語モデルは、公平に行動するが、利己的に行動する時やアルトイスト的に行動しないとき、機械的罰則を克服する
- Authors: Zhen Wang, Ruiqi Song, Chen Shen, Shiya Yin, Zhao Song, Balaraju Battu, Lei Shi, Danyang Jia, Talal Rahwan, Shuyue Hu,
- Abstract要約: 集団と自己利益が不一致の社会ジレンマでは、人々は通常、仲間の人間よりも機械に協力しない。
本研究では,Large Language Models (LLMs) を用いて,この研究課題を解消する可能性を検討する。
以上の結果から,ヒトとの相互作用において,ヒトとヒトの相互作用に匹敵する協力レベルを導出できることが明らかとなった。
- 参考スコア(独自算出の注目度): 14.576971868730709
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In social dilemmas where the collective and self-interests are at odds, people typically cooperate less with machines than with fellow humans, a phenomenon termed the machine penalty. Overcoming this penalty is critical for successful human-machine collectives, yet current solutions often involve ethically-questionable tactics, like concealing machines' non-human nature. In this study, with 1,152 participants, we explore the possibility of closing this research question by using Large Language Models (LLMs), in scenarios where communication is possible between interacting parties. We design three types of LLMs: (i) Cooperative, aiming to assist its human associate; (ii) Selfish, focusing solely on maximizing its self-interest; and (iii) Fair, balancing its own and collective interest, while slightly prioritizing self-interest. Our findings reveal that, when interacting with humans, fair LLMs are able to induce cooperation levels comparable to those observed in human-human interactions, even when their non-human nature is fully disclosed. In contrast, selfish and cooperative LLMs fail to achieve this goal. Post-experiment analysis shows that all three types of LLMs succeed in forming mutual cooperation agreements with humans, yet only fair LLMs, which occasionally break their promises, are capable of instilling a perception among humans that cooperating with them is the social norm, and eliciting positive views on their trustworthiness, mindfulness, intelligence, and communication quality. Our findings suggest that for effective human-machine cooperation, bot manufacturers should avoid designing machines with mere rational decision-making or a sole focus on assisting humans. Instead, they should design machines capable of judiciously balancing their own interest and the interest of humans.
- Abstract(参考訳): 集団的利益と自己利益が相反する社会ジレンマでは、人々は通常、仲間の人間よりも機械に協力しない。
この罰を克服することは、成功している機械集団にとって重要であるが、現在の解決策は、機械の非人間の性質を隠蔽するなど、倫理的に疑わしい戦術を伴うことが多い。
本研究では,1,152人の参加者とともに,対話相手間のコミュニケーションが可能なシナリオにおいて,Large Language Models (LLMs) を用いて,この研究課題を解消する可能性を検討する。
我々は3種類のLLMを設計する。
一 協力者であって、その協力者を支援することを目的とするもの
(二 利己的で、自己利益の最大化に特化すること。)
三 自己利益をわずかに優先しつつ、自己利益と集団利益のバランスをとること。
この結果から,ヒトとの相互作用において,ヒトとヒトの相互作用に匹敵する協力レベルを誘導できることが判明した。
対照的に、利己的で協力的なLLMは、この目標を達成することができない。
実験後の分析では、全ての3種類のLDMが人間との相互協力協定を成立させることに成功したが、彼らの約束を破る時折公平なLDMだけが、彼らと協力する人間の間に認識を浸透させ、信頼感、マインドフルネス、知性、コミュニケーション品質に関する肯定的な見解を導き出すことができる。
この結果から,人間と機械の連携が効果的であるためには,ロボットメーカーが機械の設計を合理的に行うことや,人間を支援することのみに注力することを避けることが示唆された。
代わりに、彼らは自分自身の関心と人間の関心のバランスをとることができる機械を設計すべきである。
関連論文リスト
- The Dynamics of Social Conventions in LLM populations: Spontaneous Emergence, Collective Biases and Tipping Points [0.0]
シミュレーション対話を用いたLarge Language Model (LLM) エージェントの集団内におけるコンベンションのダイナミクスについて検討する。
グローバルに受け入れられる社会慣行は,LLM間の局所的な相互作用から自然に生じうることを示す。
献身的なLLMのマイノリティグループは、新しい社会慣習を確立することで社会変革を促進することができる。
論文 参考訳(メタデータ) (2024-10-11T16:16:38Z) - Multimodal Fusion with LLMs for Engagement Prediction in Natural Conversation [70.52558242336988]
我々は,不関心や混乱の兆候を検出することを目的として,言語的および非言語的手がかりを精査することにより,ダイアディック的相互作用における係り合いを予測することに焦点を当てた。
本研究では,カジュアルなダイアディック会話に携わる34人の参加者を対象に,各会話の最後に自己報告されたエンゲージメント評価を行うデータセットを収集する。
大規模言語モデル(LLMs)を用いた新たな融合戦略を導入し,複数行動モダリティをマルチモーダル・トランスクリプトに統合する。
論文 参考訳(メタデータ) (2024-09-13T18:28:12Z) - Mutual Theory of Mind in Human-AI Collaboration: An Empirical Study with LLM-driven AI Agents in a Real-time Shared Workspace Task [56.92961847155029]
心の理論(ToM)は、他人を理解する上で重要な能力として、人間の協調とコミュニケーションに大きな影響を及ぼす。
Mutual Theory of Mind (MToM) は、ToM能力を持つAIエージェントが人間と協力するときに発生する。
エージェントのToM能力はチームのパフォーマンスに大きな影響を与えず,エージェントの人間的理解を高めていることがわかった。
論文 参考訳(メタデータ) (2024-09-13T13:19:48Z) - Confidence-weighted integration of human and machine judgments for superior decision-making [2.4217853168915475]
近年の研究では、大きな言語モデル(LLM)が特定のタスクにおいて人間を上回ることが示されている。
我々は、LLMよりも悪いパフォーマンスをしているにもかかわらず、人間はチームで価値を付加できることを示した。
人間と機械のチームは、チームメンバーの自信が十分に調整されたときに、各チームメイトを追い越すことができます。
論文 参考訳(メタデータ) (2024-08-15T11:16:21Z) - Are Large Language Models Aligned with People's Social Intuitions for Human-Robot Interactions? [7.308479353736709]
大規模言語モデル(LLM)は、ロボット工学、特にハイレベルな行動計画にますます使われている。
本研究では,人間とロボットの相互作用のシナリオにおいて,LLMが人々の直感やコミュニケーションを再現するかどうかを検証する。
視覚モデルでは映像刺激の本質を捉えることができず、LLMは人よりもコミュニケーション行動や行動を評価する傾向にあることを示す。
論文 参考訳(メタデータ) (2024-03-08T22:23:23Z) - Exploring Collaboration Mechanisms for LLM Agents: A Social Psychology View [60.80731090755224]
本稿では,理論的洞察を用いた実用実験により,現代NLPシステム間の協調機構を解明する。
我々は, LLMエージェントからなる4つの独特な社会をつくり, それぞれのエージェントは, 特定の特性(容易性, 過信性)によって特徴づけられ, 異なる思考パターン(議論, ふりかえり)と協調する。
以上の結果から, LLMエージェントは, 社会心理学理論を反映した, 適合性やコンセンサスリーディングといった人間的な社会的行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T15:05:52Z) - Unleashing the Emergent Cognitive Synergy in Large Language Models: A Task-Solving Agent through Multi-Persona Self-Collaboration [116.09561564489799]
Solo Performance Promptingは、複数のペルソナと多ターンの自己コラボレーションをすることで、単一のLCMを認知的シナジストに変換する。
認知シナジスト(英: Cognitive Synergist)は、複雑なタスクにおける問題解決を強化するために、複数の心の強みと知識を協調的に結合するインテリジェントエージェントである。
より詳細な分析により,LLMに複数の微粒なペルソナを割り当てることによって,単一あるいは固定数のペルソナに比べて問題解決能力が向上することが示された。
論文 参考訳(メタデータ) (2023-07-11T14:45:19Z) - Investigating the Impact of Direct Punishment on the Emergence of Cooperation in Multi-Agent Reinforcement Learning Systems [2.4555276449137042]
協力の問題は、人間社会の中で一様である。
AIの利用が社会全体に広まるにつれ、社会的にインテリジェントなエージェントの必要性がますます明白になりつつある。
本稿では, 直接罰, 第三者罰, パートナー選択, 評判に関連する行動と学習のダイナミクスを包括的に分析し, 評価する。
論文 参考訳(メタデータ) (2023-01-19T19:33:54Z) - Doing Right by Not Doing Wrong in Human-Robot Collaboration [8.078753289996417]
本研究では,ポジティブ行動の再現ではなく,ネガティブ行動の回避によって,公平で社会的行動を学ぶための新しいアプローチを提案する。
本研究では,ロボット操作における社会性の導入の重要性と,人間とロボットの相互作用における公平性を検討することの重要性を強調した。
論文 参考訳(メタデータ) (2022-02-05T23:05:10Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。