論文の概要: Incorporating Rivalry in Reinforcement Learning for a Competitive Game
- arxiv url: http://arxiv.org/abs/2208.10327v1
- Date: Mon, 22 Aug 2022 14:06:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 13:11:36.669276
- Title: Incorporating Rivalry in Reinforcement Learning for a Competitive Game
- Title(参考訳): コンペティションゲームにおける強化学習におけるコンペティタリーの活用
- Authors: Pablo Barros, Ozge Nilay Yalc{\i}n, Ana Tanevska, Alessandra Sciutti
- Abstract要約: 本研究は,競争行動の社会的影響に基づく新しい強化学習機構を提案する。
提案モデルでは, 人工エージェントの学習を調節するための競合スコアを導出するために, 客観的, 社会的認知的メカニズムを集約する。
- 参考スコア(独自算出の注目度): 65.2200847818153
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent advances in reinforcement learning with social agents have allowed
such models to achieve human-level performance on specific interaction tasks.
However, most interactive scenarios do not have a version alone as an end goal;
instead, the social impact of these agents when interacting with humans is as
important and largely unexplored. In this regard, this work proposes a novel
reinforcement learning mechanism based on the social impact of rivalry
behavior. Our proposed model aggregates objective and social perception
mechanisms to derive a rivalry score that is used to modulate the learning of
artificial agents. To investigate our proposed model, we design an interactive
game scenario, using the Chef's Hat Card Game, and examine how the rivalry
modulation changes the agent's playing style, and how this impacts the
experience of human players in the game. Our results show that humans can
detect specific social characteristics when playing against rival agents when
compared to common agents, which directly affects the performance of the human
players in subsequent games. We conclude our work by discussing how the
different social and objective features that compose the artificial rivalry
score contribute to our results.
- Abstract(参考訳): 近年のソーシャルエージェントによる強化学習の進歩により、特定のインタラクションタスクにおいて人間レベルのパフォーマンスを達成することが可能になった。
しかしながら、ほとんどの対話的なシナリオは最終目標としてバージョンのみを持っておらず、その代わりに、人間と対話する際のこれらのエージェントの社会的影響は重要であり、ほとんど解明されていない。
そこで本研究では,競争行動の社会的影響に基づく新しい強化学習機構を提案する。
提案モデルでは, 人工エージェントの学習を調節するための競合スコアを導出するために, 客観的, 社会的認知的メカニズムを集約する。
提案モデルについて検討するために,Chef's Hat Card Gameを用いた対話型ゲームシナリオを設計し,エージェントのプレイスタイルの変化と,ゲームにおける人間のプレイ体験に与える影響について検討する。
以上の結果から,人間は,他のエージェントと対戦する際に特定の社会的特徴を検知できることが明らかとなった。
我々は, 人為的競争スコアを構成する異なる社会的特徴と客観的特徴が, 結果にどのように寄与するかについて議論し, 本研究を締めくくった。
関連論文リスト
- LLM-Based Agent Society Investigation: Collaboration and Confrontation
in Avalon Gameplay [57.202649879872624]
Avalonのゲームプレイにシームレスに適応する新しいフレームワークを提案する。
提案するフレームワークの中核は,エージェント間の効率的な通信と対話を可能にするマルチエージェントシステムである。
本研究は,適応的かつインテリジェントなエージェントを生成する上で,我々のフレームワークの有効性を示すものである。
論文 参考訳(メタデータ) (2023-10-23T14:35:26Z) - SOTOPIA: Interactive Evaluation for Social Intelligence in Language
Agents [110.61079677969957]
人工エージェントと人間との複雑な社会的相互作用をシミュレートするオープンエンド環境であるSOTOPIAを提案する。
エージェントは、複雑な社会的目標を達成するために協調し、協力し、交換し、互いに競い合う。
GPT-4は,人間よりも目標達成率が著しく低く,社会的常識的推論や戦略的コミュニケーション能力の発揮に苦慮していることがわかった。
論文 参考訳(メタデータ) (2023-10-18T02:27:01Z) - Aligning to Social Norms and Values in Interactive Narratives [89.82264844526333]
我々は、インタラクティブな物語やテキストベースのゲームにおいて、社会的に有益な規範や価値観に沿って行動するエージェントを作成することに注力する。
我々は、特別な訓練を受けた言語モデルに存在する社会的コモンセンス知識を用いて、社会的に有益な値に整合した行動にのみ、その行動空間を文脈的に制限するGAALADエージェントを紹介した。
論文 参考訳(メタデータ) (2022-05-04T09:54:33Z) - Warmth and competence in human-agent cooperation [0.2148535041822524]
近年の研究では、深層強化学習で訓練されたAIエージェントが人間と協調できることが示されている。
人・エージェント連携における主観的嗜好を形成する要因をより深く理解するために,コインにおける深層強化学習エージェントを訓練する。
我々は、人間とエージェントの協力研究のために参加者を募集し、遭遇したエージェントの印象を測定する。
論文 参考訳(メタデータ) (2022-01-31T18:57:08Z) - Incorporating Rivalry in Reinforcement Learning for a Competitive Game [65.2200847818153]
本研究は、競合する社会的影響に基づく新しい学習メカニズムの提供に焦点を当てる。
本研究は,競争競合の概念に基づいて,これらのエージェントの評価を人的視点から変えられるかを検討することを目的とする。
論文 参考訳(メタデータ) (2020-11-02T21:54:18Z) - Moody Learners -- Explaining Competitive Behaviour of Reinforcement
Learning Agents [65.2200847818153]
競合シナリオでは、エージェントは動的環境を持つだけでなく、相手の行動に直接影響される。
エージェントのQ値の観察は通常、その振る舞いを説明する方法であるが、選択されたアクション間の時間的関係は示さない。
論文 参考訳(メタデータ) (2020-07-30T11:30:42Z) - Real-World Human-Robot Collaborative Reinforcement Learning [6.089774484591287]
本研究では,人間ロボットによる協調型迷路ゲームの現実的な構成について述べる。
ロボットエージェントの制御には深層強化学習を用い,実戦30分以内の結果を得た。
本研究では,人間とロボットエージェント間の時間的相互政治学習の結果を提示し,各参加者のエージェントがゲームプレイの表現として機能することを示す。
論文 参考訳(メタデータ) (2020-03-02T19:34:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。