論文の概要: When to (or not to) trust intelligent machines: Insights from an
evolutionary game theory analysis of trust in repeated games
- arxiv url: http://arxiv.org/abs/2007.11338v1
- Date: Wed, 22 Jul 2020 10:53:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 23:15:33.579241
- Title: When to (or not to) trust intelligent machines: Insights from an
evolutionary game theory analysis of trust in repeated games
- Title(参考訳): インテリジェントマシンを信頼する時(あるいは信頼しないとき)--反復ゲームにおける信頼に関する進化ゲーム理論からの考察
- Authors: The Anh Han, Cedric Perret and Simon T. Powers
- Abstract要約: 繰り返しゲームにおける信頼に基づく戦略の実現可能性について検討する。
これらは、他のプレイヤーが協力していると見られる限り協力する相互戦略である。
これにより、共同プレイヤのアクションが実際に協調的であるかどうかを検証する機会コストを削減できる。
- 参考スコア(独自算出の注目度): 0.8701566919381222
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The actions of intelligent agents, such as chatbots, recommender systems, and
virtual assistants are typically not fully transparent to the user.
Consequently, using such an agent involves the user exposing themselves to the
risk that the agent may act in a way opposed to the user's goals. It is often
argued that people use trust as a cognitive shortcut to reduce the complexity
of such interactions. Here we formalise this by using the methods of
evolutionary game theory to study the viability of trust-based strategies in
repeated games. These are reciprocal strategies that cooperate as long as the
other player is observed to be cooperating. Unlike classic reciprocal
strategies, once mutual cooperation has been observed for a threshold number of
rounds they stop checking their co-player's behaviour every round, and instead
only check with some probability. By doing so, they reduce the opportunity cost
of verifying whether the action of their co-player was actually cooperative. We
demonstrate that these trust-based strategies can outcompete strategies that
are always conditional, such as Tit-for-Tat, when the opportunity cost is
non-negligible. We argue that this cost is likely to be greater when the
interaction is between people and intelligent agents, because of the reduced
transparency of the agent. Consequently, we expect people to use trust-based
strategies more frequently in interactions with intelligent agents. Our results
provide new, important insights into the design of mechanisms for facilitating
interactions between humans and intelligent agents, where trust is an essential
factor.
- Abstract(参考訳): チャットボット、レコメンデーションシステム、仮想アシスタントといったインテリジェントエージェントのアクションは、通常、ユーザには完全に透過的ではない。
したがって、そのようなエージェントを使用すると、エージェントがユーザーの目標とは反対の方法で行動するリスクをユーザーに暴露する。
人々はそのような相互作用の複雑さを減らすために認知的近道として信頼を使用しているとしばしば主張される。
ここでは,反復ゲームにおける信頼に基づく戦略の実現可能性を研究するために,進化ゲーム理論の手法を用いてこれを定式化する。
これらは、他のプレイヤーが協力していると見られる限り協力する相互戦略である。
古典的な相互戦略とは違って、しきい値のラウンドで相互協力が観測されると、各ラウンドごとに共同プレーヤの動作をチェックするのをやめて、ある確率でのみチェックする。
これにより、共同プレイヤのアクションが実際に協調的であるかどうかを検証する機会コストを削減できる。
これらの信頼に基づく戦略は、機会コストが無視できないとき、Tit-for-Tatのような条件付き戦略よりも優れていることを示す。
このコストは、エージェントの透明性が低下しているため、人間と知的エージェントの間の相互作用が大きくなる可能性が高い、と私たちは主張する。
その結果,インテリジェントエージェントとのインタラクションにおいて,信頼に基づく戦略が頻繁に使用されることが期待できる。
本研究は,人間と知的エージェントとのインタラクションを促進するメカニズムの設計に,信頼が不可欠な要素である新たな重要な洞察を与える。
関連論文リスト
- Reciprocal Reward Influence Encourages Cooperation From Self-Interested Agents [2.1301560294088318]
自己関心の個人間の協力は、自然界で広く見られる現象であるが、人工的な知的エージェント間の相互作用においては、いまだ解明されていない。
そこで,本研究では,リターンに対する相手の行動の影響を再現するために,本質的に動機づけられた強化学習エージェントであるReciprocatorを紹介する。
本研究では,同時学習において,時間的に拡張された社会的ジレンマにおける協調を促進するために,共用者が利用できることを示す。
論文 参考訳(メタデータ) (2024-06-03T06:07:27Z) - Fast Peer Adaptation with Context-aware Exploration [63.08444527039578]
マルチエージェントゲームにおける学習エージェントに対するピア識別報酬を提案する。
この報酬は、効果的な探索と迅速な適応のための文脈認識ポリシーを学ぶためのエージェントのモチベーションとなる。
我々は,競争力のある(クーンポーカー),協力的(PO-Overcooked),あるいは混合的(Predator-Prey-W)な(Pedator-Prey-W)ゲームを含む多種多様なテストベッドについて評価を行った。
論文 参考訳(メタデータ) (2024-02-04T13:02:27Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Game Theoretic Rating in N-player general-sum games with Equilibria [26.166859475522106]
そこで我々は,N-playerに適した新しいアルゴリズムを提案する。
これにより、平衡のような確立された解の概念を利用でき、複雑な戦略的相互作用を持つゲームにおける戦略を効率的に評価することができる。
論文 参考訳(メタデータ) (2022-10-05T12:33:03Z) - Incorporating Rivalry in Reinforcement Learning for a Competitive Game [65.2200847818153]
本研究は,競争行動の社会的影響に基づく新しい強化学習機構を提案する。
提案モデルでは, 人工エージェントの学習を調節するための競合スコアを導出するために, 客観的, 社会的認知的メカニズムを集約する。
論文 参考訳(メタデータ) (2022-08-22T14:06:06Z) - Safe adaptation in multiagent competition [48.02377041620857]
マルチエージェントの競争シナリオでは、エゴエージェントは前例のない振る舞いを持つ新しい相手に適応しなければならない。
エゴエージェントは、相手を悪用するために自身の行動を更新するので、その行動はより悪用される可能性がある。
我々は,エゴエージェントを正規化相手モデルに対してトレーニングする安全な適応手法を開発する。
論文 参考訳(メタデータ) (2022-03-14T23:53:59Z) - Cooperative Artificial Intelligence [0.0]
我々は,ゲーム理論と人工知能の交わりに関する研究の必要性を論じる。
本稿では,外部エージェントが人工学習者の協調を促進する方法について議論する。
また, 計画エージェントをオフにしても, 結果が一定のゲームにおいて安定であることを示す。
論文 参考訳(メタデータ) (2022-02-20T16:50:37Z) - Incorporating Rivalry in Reinforcement Learning for a Competitive Game [65.2200847818153]
本研究は、競合する社会的影響に基づく新しい学習メカニズムの提供に焦点を当てる。
本研究は,競争競合の概念に基づいて,これらのエージェントの評価を人的視点から変えられるかを検討することを目的とする。
論文 参考訳(メタデータ) (2020-11-02T21:54:18Z) - Learning to Incentivize Other Learning Agents [73.03133692589532]
我々は、学習インセンティブ関数を用いて、RLエージェントに他のエージェントに直接報酬を与える能力を持たせる方法を示す。
このようなエージェントは、一般的なマルコフゲームにおいて、標準のRLと対戦型エージェントを著しく上回っている。
私たちの仕事は、マルチエージェントの未来において共通の善を確実にする道のりに沿って、より多くの機会と課題を指しています。
論文 参考訳(メタデータ) (2020-06-10T20:12:38Z) - Learning to Resolve Alliance Dilemmas in Many-Player Zero-Sum Games [22.38765498549914]
我々は多人数ゼロサムゲームの体系的な研究が人工知能研究の重要な要素であると主張している。
対称ゼロサム行列ゲームを用いて、アライアンス形成が社会的ジレンマと見なされることを示す。
我々は、強化学習をピアツーピア契約機構で強化し、アライアンスを発見・実施する方法を示す。
論文 参考訳(メタデータ) (2020-02-27T10:32:31Z) - Multi-Issue Bargaining With Deep Reinforcement Learning [0.0]
本稿では,バーゲティングゲームにおける深層強化学習の活用について検討する。
入札と受け入れ戦略のために2つのアクター・クリティカル・ネットワークが訓練された。
ニューラルエージェントは時間ベースのエージェントを活用することを学び、決定優先値の明確な遷移を達成する。
彼らはまた、譲歩、割引要因、行動に基づく戦略の異なる組み合わせに対して適応的な行動を示す。
論文 参考訳(メタデータ) (2020-02-18T18:33:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。