論文の概要: Experimental Exploration: Investigating Cooperative Interaction Behavior Between Humans and Large Language Model Agents
- arxiv url: http://arxiv.org/abs/2503.07320v1
- Date: Mon, 10 Mar 2025 13:37:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:46:26.416613
- Title: Experimental Exploration: Investigating Cooperative Interaction Behavior Between Humans and Large Language Model Agents
- Title(参考訳): 実験実験:人間と大規模言語モデルエージェントの協調的相互作用行動の調査
- Authors: Guanxuan Jiang, Yuyang Wang, Pan Hui,
- Abstract要約: 本研究は, 繰り返し行われる囚人のジレンマゲームに30人の参加者を参加させることにより, 人間の協調行動について検討した。
その結果, エージェントの特徴と, 参加者の性別および特徴の相互作用効果に基づいて, 協調行動に有意な差異が認められた。
この研究は、AIエージェントに対する人間のバイアスを理解することの重要性と、観察された行動が将来の人間とAIの協力のダイナミクスにどのように影響を与えるかを強調している。
- 参考スコア(独自算出の注目度): 11.080802144327176
- License:
- Abstract: With the rise of large language models (LLMs), AI agents as autonomous decision-makers present significant opportunities and challenges for human-AI cooperation. While many studies have explored human cooperation with AI as tools, the role of LLM-augmented autonomous agents in competitive-cooperative interactions remains under-examined. This study investigates human cooperative behavior by engaging 30 participants who interacted with LLM agents exhibiting different characteristics (purported human, purported rule-based AI agent, and LLM agent) in repeated Prisoner's Dilemma games. Findings show significant differences in cooperative behavior based on the agents' purported characteristics and the interaction effect of participants' genders and purported characteristics. We also analyzed human response patterns, including game completion time, proactive favorable behavior, and acceptance of repair efforts. These insights offer a new perspective on human interactions with LLM agents in competitive cooperation contexts, such as virtual avatars or future physical entities. The study underscores the importance of understanding human biases toward AI agents and how observed behaviors can influence future human-AI cooperation dynamics.
- Abstract(参考訳): 大規模言語モデル(LLM)の台頭に伴い、自律的な意思決定者としてのAIエージェントは、人間とAIの協力のための重要な機会と課題を提示する。
多くの研究がAIをツールとして人間の協力を探求しているが、競争・協力相互作用におけるLLM強化自律エージェントの役割は未検討のままである。
本研究は, LLMエージェントと相互作用する30人の参加者(人間, ルールベースAIエージェント, LLMエージェント)に対して, 繰り返し行われるPrisoner's Dilemmaゲームにおける協調行動について検討した。
その結果, エージェントの特徴と, 参加者の性別および特徴の相互作用効果に基づいて, 協調行動に有意な差異が認められた。
また,ゲーム完了時間,好ましくない行動,修復作業の受け入れなど,人間の反応パターンも分析した。
これらの洞察は、仮想アバターや将来の物理的実体のような競争的な協力の文脈において、LLMエージェントと人間との相互作用に関する新たな視点を提供する。
この研究は、AIエージェントに対する人間のバイアスを理解することの重要性と、観察された行動が将来の人間とAIの協力のダイナミクスにどのように影響を与えるかを強調している。
関連論文リスト
- Collaborative Gym: A Framework for Enabling and Evaluating Human-Agent Collaboration [51.452664740963066]
Collaborative Gymは、エージェント、人間、タスク環境間の非同期で三分割的なインタラクションを可能にするフレームワークである。
シミュレーション条件と実環境条件の両方において,Co-Gymを3つの代表的なタスクでインスタンス化する。
その結果、協調作業員はタスクパフォーマンスにおいて、完全に自律的なエージェントよりも一貫して優れていたことが判明した。
論文 参考訳(メタデータ) (2024-12-20T09:21:15Z) - Multi-agent cooperation through learning-aware policy gradients [53.63948041506278]
利己的な個人はしばしば協力に失敗し、マルチエージェント学習の根本的な課題を提起する。
本稿では,学習型強化学習のための,偏見のない高導出性ポリシー勾配アルゴリズムを提案する。
我々は, 受刑者のジレンマから, 自己関心のある学習エージェントの間でどのように, いつ, 協力関係が生じるかの新たな説明を得た。
論文 参考訳(メタデータ) (2024-10-24T10:48:42Z) - Mutual Theory of Mind in Human-AI Collaboration: An Empirical Study with LLM-driven AI Agents in a Real-time Shared Workspace Task [56.92961847155029]
心の理論(ToM)は、他人を理解する上で重要な能力として、人間の協調とコミュニケーションに大きな影響を及ぼす。
Mutual Theory of Mind (MToM) は、ToM能力を持つAIエージェントが人間と協力するときに発生する。
エージェントのToM能力はチームのパフォーマンスに大きな影響を与えず,エージェントの人間的理解を高めていることがわかった。
論文 参考訳(メタデータ) (2024-09-13T13:19:48Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Online Learning of Human Constraints from Feedback in Shared Autonomy [25.173950581816086]
人間とのリアルタイムなコラボレーションは、様々な物理的制約によって生じる人間の行動パターンが異なるため、課題を提起する。
我々は、異なる人間のオペレータの多様な振る舞いを考慮した人間の制約モデルを学ぶ。
本研究では,人間の身体的制約を学習し,適応できる補助エージェントを提案する。
論文 参考訳(メタデータ) (2024-03-05T13:53:48Z) - Multi-Agent, Human-Agent and Beyond: A Survey on Cooperation in Social Dilemmas [15.785674974107204]
社会ジレンマにおける協力の研究は、長年、様々な分野の基本的なトピックであった。
人工知能の最近の進歩は、この分野を大きく変えた。
この調査は、AIの交差点における3つの重要な領域と、社会的ジレンマにおける協力について調査する。
論文 参考訳(メタデータ) (2024-02-27T07:31:30Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - Improving Grounded Language Understanding in a Collaborative Environment
by Interacting with Agents Through Help Feedback [42.19685958922537]
我々は、人間とAIのコラボレーションは対話的であり、人間がAIエージェントの作業を監視し、エージェントが理解し活用できるフィードバックを提供するべきだと論じている。
本研究では, IGLUコンペティションによって定義された課題である, マイニングクラフトのような世界における対話型言語理解タスクを用いて, これらの方向を探索する。
論文 参考訳(メタデータ) (2023-04-21T05:37:59Z) - Assessing Human Interaction in Virtual Reality With Continually Learning
Prediction Agents Based on Reinforcement Learning Algorithms: A Pilot Study [6.076137037890219]
本研究では,人間と学習の継続する予測エージェントの相互作用が,エージェントの能力の発達とともにどのように発達するかを検討する。
我々は、強化学習(RL)アルゴリズムから学習した予測が人間の予測を増大させる仮想現実環境と時間ベースの予測タスクを開発する。
以上の結果から,人的信頼はエージェントとの早期の相互作用に影響され,信頼が戦略的行動に影響を及ぼす可能性が示唆された。
論文 参考訳(メタデータ) (2021-12-14T22:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。