論文の概要: Responsibility in a Multi-Value Strategic Setting
- arxiv url: http://arxiv.org/abs/2410.17229v2
- Date: Fri, 08 Nov 2024 23:12:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 17:14:38.492658
- Title: Responsibility in a Multi-Value Strategic Setting
- Title(参考訳): 多値戦略設定における応答性
- Authors: Timothy Parker, Umberto Grandi, Emiliano Lorini,
- Abstract要約: 責任はマルチエージェントシステムにおいて重要な概念であり、安全で信頼性があり倫理的なAIを作成する。
マルチエージェント・マルチバリュー設定における責任帰属モデルを提案する。
責任の考慮は、エージェントがその価値に沿った戦略を選択するのにどのように役立つかを示す。
- 参考スコア(独自算出の注目度): 12.143925288392166
- License:
- Abstract: Responsibility is a key notion in multi-agent systems and in creating safe, reliable and ethical AI. However, most previous work on responsibility has only considered responsibility for single outcomes. In this paper we present a model for responsibility attribution in a multi-agent, multi-value setting. We also expand our model to cover responsibility anticipation, demonstrating how considerations of responsibility can help an agent to select strategies that are in line with its values. In particular we show that non-dominated regret-minimising strategies reliably minimise an agent's expected degree of responsibility.
- Abstract(参考訳): 責任はマルチエージェントシステムにおいて重要な概念であり、安全で信頼性があり倫理的なAIを作成する。
しかしながら、以前の責任に関する作業のほとんどは、単一の成果に対する責任のみを考慮していました。
本稿では,マルチエージェント,マルチバリュー設定における責任帰属モデルを提案する。
また、当社のモデルを拡張して、責任予測をカバーし、責任の考慮が、エージェントがその価値に合わせて戦略を選択するのにどのように役立つかを示す。
特に,非支配的後悔最小化戦略がエージェントの期待する責任度を確実に最小化することを示す。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Responsibility-aware Strategic Reasoning in Probabilistic Multi-Agent Systems [1.7819574476785418]
責任は、信頼できる自律システムの開発と展開において重要な役割を果たす。
本稿では,確率的交代時間論理の変種であるPATL+Rを提案する。
本稿では,PATL+Rで指定された結果を満たす共同戦略の合成手法を提案する。
論文 参考訳(メタデータ) (2024-10-31T18:49:12Z) - Measuring Responsibility in Multi-Agent Systems [1.5883812630616518]
マルチエージェントプランニングにおける責任の定量的尺度のファミリーを紹介する。
行動と責任の確率を3つの指標でリンクすることで、特定の結果のエージェントに責任を割り当てます。
エントロピーに基づく責任測定は、時間の経過とともに結果の因果責任特性を捉えた最初のものである。
論文 参考訳(メタデータ) (2024-10-31T18:45:34Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Agent-Oriented Planning in Multi-Agent Systems [54.429028104022066]
本稿では,高速なタスク分解とアロケーションプロセスを活用するマルチエージェントシステムにおけるエージェント指向計画のための新しいフレームワークを提案する。
提案フレームワークにフィードバックループを組み込んで,そのような問題解決プロセスの有効性と堅牢性をさらに向上させる。
論文 参考訳(メタデータ) (2024-10-03T04:07:51Z) - Criticality and Safety Margins for Reinforcement Learning [53.10194953873209]
我々は,定量化基盤真理とユーザにとっての明確な意義の両面から,批判的枠組みを定めようとしている。
エージェントがn連続的ランダム動作に対するポリシーから逸脱した場合の報酬の減少として真臨界を導入する。
我々はまた、真の臨界と統計的に単調な関係を持つ低オーバーヘッド計量であるプロキシ臨界の概念も導入する。
論文 参考訳(メタデータ) (2024-09-26T21:00:45Z) - Multi-Agent Imitation Learning: Value is Easy, Regret is Hard [52.31989962031179]
我々は,エージェント群を協調させようとする学習者の視点で,マルチエージェント模倣学習(MAIL)問題を研究する。
MAILの以前の作業のほとんどは、基本的には、デモのサポート内で専門家の振る舞いにマッチする問題を減らすものです。
エージェントが戦略的でないという仮定の下で、学習者と専門家の間の価値ギャップをゼロにするのに十分であるが、戦略的エージェントによる逸脱を保証するものではない。
論文 参考訳(メタデータ) (2024-06-06T16:18:20Z) - Unravelling Responsibility for AI [0.8836921728313208]
AI対応システムのアウトプットと影響に責任を負う場所を確立する必要があることは広く認識されている。
本稿では,AIの責任概念を明確にするために,哲学と法学における中心的な違いを考察する。
論文 参考訳(メタデータ) (2023-08-04T13:12:17Z) - Anticipating Responsibility in Multiagent Planning [9.686474898346392]
責任予測(Responsibility Precipation)は、個々のエージェントのアクションが特定の結果に責任を負う可能性があるかどうかを決定するプロセスである。
これは、エージェントが検討する計画における責任を期待できるように、マルチエージェントの計画設定で使用できる。
論文 参考訳(メタデータ) (2023-07-31T13:58:49Z) - Modeling Bounded Rationality in Multi-Agent Simulations Using Rationally
Inattentive Reinforcement Learning [85.86440477005523]
我々は、人間不合理性の確立されたモデルであるRational Inattention(RI)モデルを含む、より人間的なRLエージェントについて検討する。
RIRLは、相互情報を用いた認知情報処理のコストをモデル化する。
我々は、RIRLを用いることで、合理的な仮定の下で発見されたものと異なる、新しい平衡挙動の豊富なスペクトルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-18T20:54:00Z) - Degrees of individual and groupwise backward and forward responsibility
in extensive-form games with ambiguity, and their application to social
choice problems [0.0]
確率単位の責任度を評価するために,様々な量的責任度尺度を提示する。
広義のゲームツリーの適応版と公理的アプローチに基づくフレームワークを使用する。
ほとんどの特性は、そのような責任計量を望んでも、ある変種によって達成できるが、他の指標より明らかに優れている最適な計量は見つからない。
論文 参考訳(メタデータ) (2020-07-09T13:19:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。