論文の概要: Warmth and competence in human-agent cooperation
- arxiv url: http://arxiv.org/abs/2201.13448v2
- Date: Tue, 27 Dec 2022 02:03:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 14:36:18.151435
- Title: Warmth and competence in human-agent cooperation
- Title(参考訳): 人間とエージェントの協調における温かみと能力
- Authors: Kevin R. McKee, Xuechunzi Bai, Susan T. Fiske
- Abstract要約: 近年の研究では、深層強化学習で訓練されたAIエージェントが人間と協調できることが示されている。
人・エージェント連携における主観的嗜好を形成する要因をより深く理解するために,コインにおける深層強化学習エージェントを訓練する。
我々は、人間とエージェントの協力研究のために参加者を募集し、遭遇したエージェントの印象を測定する。
- 参考スコア(独自算出の注目度): 0.2148535041822524
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interaction and cooperation with humans are overarching aspirations of
artificial intelligence (AI) research. Recent studies demonstrate that AI
agents trained with deep reinforcement learning are capable of collaborating
with humans. These studies primarily evaluate human compatibility through
"objective" metrics such as task performance, obscuring potential variation in
the levels of trust and subjective preference that different agents garner. To
better understand the factors shaping subjective preferences in human-agent
cooperation, we train deep reinforcement learning agents in Coins, a two-player
social dilemma. We recruit participants for a human-agent cooperation study and
measure their impressions of the agents they encounter. Participants'
perceptions of warmth and competence predict their stated preferences for
different agents, above and beyond objective performance metrics. Drawing
inspiration from social science and biology research, we subsequently implement
a new "partner choice" framework to elicit revealed preferences: after playing
an episode with an agent, participants are asked whether they would like to
play the next round with the same agent or to play alone. As with stated
preferences, social perception better predicts participants' revealed
preferences than does objective performance. Given these results, we recommend
human-agent interaction researchers routinely incorporate the measurement of
social perception and subjective preferences into their studies.
- Abstract(参考訳): 人間との相互作用と協力は人工知能(AI)研究の構想をまとめている。
近年の研究では、深層強化学習で訓練されたAIエージェントが人間と協調できることが示されている。
これらの研究は、主にタスクのパフォーマンス、信頼度レベルの潜在的な変動、異なるエージェントが獲得する主観的嗜好といった「目的」指標を通して人間との互換性を評価する。
人間とエージェントの協調で主観的嗜好を形作る要因をより深く理解するために,2人の社会的ジレンマであるコインで深層強化学習エージェントを訓練する。
我々は,人間-エージェント連携研究の参加者を募集し,遭遇するエージェントの印象を測定した。
参加者の暖かさと能力に対する認識は、客観的なパフォーマンス指標以上の異なるエージェントに対する指定された好みを予測する。
社会科学と生物学の研究からインスピレーションを得て、次に、好みを明らかにするための新しい「パートナー選択」フレームワークを実装した: エージェントとエピソードをプレイした後、参加者は次のラウンドを同じエージェントでプレイするか、単独でプレイするかを尋ねられる。
特定の好みと同様に、社会的知覚は客観的なパフォーマンスよりも、参加者の明らかな好みを予測するのが良い。
これらの結果から,社会認識と主観的嗜好の測定を日常的に研究に取り入れることを推奨する。
関連論文リスト
- Mixed-Initiative Human-Robot Teaming under Suboptimality with Online Bayesian Adaptation [0.6591036379613505]
我々は,最適人-エージェントチームの性能向上のための計算モデルと最適化手法を開発した。
我々は,ロボットが逐次意思決定ゲームにおいて,その支援に従おうとする人々の意思を推測できるオンラインベイズアプローチを採用する。
ユーザの好みやチームのパフォーマンスは,ロボットの介入スタイルによって明らかに異なります。
論文 参考訳(メタデータ) (2024-03-24T14:38:18Z) - Enhancing Human Experience in Human-Agent Collaboration: A
Human-Centered Modeling Approach Based on Positive Human Gain [18.968232976619912]
協調型AIエージェントのための「人間中心型」モデリング手法を提案する。
エージェントは、エージェントの本来の能力を維持しながら、人間がこれらの目標を達成する度合いを高めることを学ぶべきである。
マルチプレイヤーオンラインバトルアリーナ(MOBA)ゲーム「Honor of Kings」におけるRLHGエージェントの評価を行った。
論文 参考訳(メタデータ) (2024-01-28T05:05:57Z) - AgentCF: Collaborative Learning with Autonomous Language Agents for
Recommender Systems [112.76941157194544]
本稿では,エージェントベースの協調フィルタリングにより,レコメンデータシステムにおけるユーザとイテムのインタラクションをシミュレートするエージェントCFを提案する。
我々は、ユーザだけでなく、アイテムをエージェントとして、創造的に考慮し、両方のエージェントを同時に最適化する協調学習アプローチを開発します。
全体として、最適化されたエージェントは、ユーザ・イテム、ユーザ・ユーザ・ユーザ、アイテム・イテム、集合的インタラクションなど、フレームワーク内での多様なインタラクションの振る舞いを示す。
論文 参考訳(メタデータ) (2023-10-13T16:37:14Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Incorporating Rivalry in Reinforcement Learning for a Competitive Game [65.2200847818153]
本研究は,競争行動の社会的影響に基づく新しい強化学習機構を提案する。
提案モデルでは, 人工エージェントの学習を調節するための競合スコアを導出するために, 客観的, 社会的認知的メカニズムを集約する。
論文 参考訳(メタデータ) (2022-08-22T14:06:06Z) - Assessing Human Interaction in Virtual Reality With Continually Learning
Prediction Agents Based on Reinforcement Learning Algorithms: A Pilot Study [6.076137037890219]
本研究では,人間と学習の継続する予測エージェントの相互作用が,エージェントの能力の発達とともにどのように発達するかを検討する。
我々は、強化学習(RL)アルゴリズムから学習した予測が人間の予測を増大させる仮想現実環境と時間ベースの予測タスクを開発する。
以上の結果から,人的信頼はエージェントとの早期の相互作用に影響され,信頼が戦略的行動に影響を及ぼす可能性が示唆された。
論文 参考訳(メタデータ) (2021-12-14T22:46:44Z) - ToM2C: Target-oriented Multi-agent Communication and Cooperation with
Theory of Mind [18.85252946546942]
心の理論(Theory of Mind、ToM)は、効果的なコミュニケーションと協力が可能な社会的に知的なエージェントを構築する。
このアイデアは、協調ナビゲーションとマルチセンサーターゲットカバレッジという、2つの典型的な目標指向型マルチエージェントタスクで実証される。
論文 参考訳(メタデータ) (2021-10-15T18:29:55Z) - Imitating Interactive Intelligence [24.95842455898523]
仮想環境の簡略化を用いて、人間と自然に相互作用できる人工エージェントの設計方法を検討する。
人間とロバストに相互作用できるエージェントを構築するには、人間と対話しながらトレーニングするのが理想的です。
我々は,人間とエージェントエージェントの対話行動の相違を低減するために,逆強化学習の考え方を用いる。
論文 参考訳(メタデータ) (2020-12-10T13:55:47Z) - Incorporating Rivalry in Reinforcement Learning for a Competitive Game [65.2200847818153]
本研究は、競合する社会的影響に基づく新しい学習メカニズムの提供に焦点を当てる。
本研究は,競争競合の概念に基づいて,これらのエージェントの評価を人的視点から変えられるかを検討することを目的とする。
論文 参考訳(メタデータ) (2020-11-02T21:54:18Z) - Watch-And-Help: A Challenge for Social Perception and Human-AI
Collaboration [116.28433607265573]
我々は、AIエージェントでソーシャルインテリジェンスをテストするための課題であるWatch-And-Help(WAH)を紹介する。
WAHでは、AIエージェントは、人間のようなエージェントが複雑な家庭用タスクを効率的に実行するのを助ける必要がある。
マルチエージェントの家庭環境であるVirtualHome-Socialを構築し、計画と学習ベースのベースラインを含むベンチマークを提供する。
論文 参考訳(メタデータ) (2020-10-19T21:48:31Z) - Learning to Incentivize Other Learning Agents [73.03133692589532]
我々は、学習インセンティブ関数を用いて、RLエージェントに他のエージェントに直接報酬を与える能力を持たせる方法を示す。
このようなエージェントは、一般的なマルコフゲームにおいて、標準のRLと対戦型エージェントを著しく上回っている。
私たちの仕事は、マルチエージェントの未来において共通の善を確実にする道のりに沿って、より多くの機会と課題を指しています。
論文 参考訳(メタデータ) (2020-06-10T20:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。