論文の概要: Diffusion of Responsibility in Collective Decision Making
- arxiv url: http://arxiv.org/abs/2506.07935v1
- Date: Mon, 09 Jun 2025 16:54:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:11.065472
- Title: Diffusion of Responsibility in Collective Decision Making
- Title(参考訳): 集団意思決定における責任の拡散
- Authors: Pavel Naumov, Jia Tao,
- Abstract要約: 責任の拡散」とは、複数のエージェントが個々の説明責任を欠く結果に対する責任を共有する状況を指す。
本稿では, 集団意思決定機構の文脈において, しばしば望ましくない現象について考察する。
- 参考スコア(独自算出の注目度): 26.831475621780577
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The term "diffusion of responsibility'' refers to situations in which multiple agents share responsibility for an outcome, obscuring individual accountability. This paper examines this frequently undesirable phenomenon in the context of collective decision-making mechanisms. The work shows that if a decision is made by two agents, then the only way to avoid diffusion of responsibility is for one agent to act as a "dictator'', making the decision unilaterally. In scenarios with more than two agents, any diffusion-free mechanism is an "elected dictatorship'' where the agents elect a single agent to make a unilateral decision. The technical results are obtained by defining a bisimulation of decision-making mechanisms, proving that bisimulation preserves responsibility-related properties, and establishing the results for a smallest bisimular mechanism.
- Abstract(参考訳): 責任の拡散」という用語は、複数のエージェントが結果の責任を共有し、個々の説明責任を無視する状況を指す。本稿は、集団決定機構の文脈において、このしばしば望ましくない現象を検証し、もし決定が2つのエージェントによってなされた場合、責任の拡散を避ける唯一の方法は、一方のエージェントが「独裁者」として行動することであり、一方のエージェントが一方的に決定を下すことであることを示す。
2つ以上のエージェントを持つシナリオでは、拡散のないメカニズムは、エージェントが1つのエージェントを選択して一方的な決定を行う「選択された独裁制」である。
技術的結果は、意思決定機構のバイシミュレーションを定義し、バイシミュレーションが責任関連特性を保存することを証明し、最小のバイシミュラ機構に対する結果を確立することによって得られる。
関連論文リスト
- Using Feasible Action-Space Reduction by Groups to fill Causal Responsibility Gaps in Spatial Interactions [4.447507073529773]
個人に焦点を当てた因果責任のメトリクスは、因果決定論の場合に失敗する。
集団の因果責任の計量を定式化する。
シナリオベースのシミュレーションを用いて、グループを考察する利点を説明する。
論文 参考訳(メタデータ) (2026-02-25T15:48:52Z) - Agents of Chaos [50.53354213047402]
実験室環境に展開する自律言語モデルを用いたエージェントの探索的再チームの研究を報告する。
20人のAI研究者が、良心的および敵対的な条件下でエージェントと対話した。
我々の発見は、現実的なデプロイメント設定におけるセキュリティ、プライバシ、ガバナンスに関連する脆弱性の存在を確立します。
論文 参考訳(メタデータ) (2026-02-23T16:28:48Z) - Towards Responsible and Explainable AI Agents with Consensus-Driven Reasoning [4.226647687395254]
本稿では,多モデルコンセンサスと推論層ガバナンスに基づく実運用レベルのエージェントのためのResponsible(RAI)およびExplainable(XAI)AIエージェントアーキテクチャを提案する。
提案した設計では、異種LLMとVLMエージェントのコンソーシアムが独立して、共有入力コンテキストから候補出力を生成する。
専用の推論エージェントは、これらのアウトプットをまたいで構造化された統合を行い、安全と政策の制約を強制し、幻覚と偏見を緩和し、監査可能な証拠に基づく決定を生成する。
論文 参考訳(メタデータ) (2025-12-25T14:49:25Z) - Can an Individual Manipulate the Collective Decisions of Multi-Agents? [53.01767232004823]
M-Spoilerは、マルチエージェントシステム内のエージェントインタラクションをシミュレートして、対向サンプルを生成するフレームワークである。
M-スポイラーは、敵対的サンプルの最適化を積極的に支援するスタブボーン剤を導入した。
本研究は,マルチエージェントシステムにおける個々のエージェントの知識によって引き起こされるリスクを検証した。
論文 参考訳(メタデータ) (2025-09-20T01:54:20Z) - Toward a Theory of Agents as Tool-Use Decision-Makers [89.26889709510242]
真の自律性は、エージェントが、彼らが知っていること、必要なこと、そしてその知識を効率的に獲得する方法を統治する、一貫性のある疫学の枠組みに根ざす必要がある、と我々は主張する。
本研究では,内的推論と外的行動を等価な疫学ツールとして扱う統一理論を提案し,エージェントが内観と相互作用を体系的に調整することを可能にする。
この視点は、エージェントの設計を単なるアクションエグゼクタから知識駆動インテリジェンスシステムにシフトさせ、適応的で効率的でゴール指向の行動が可能な基礎エージェントを構築するための原則化された道筋を提供する。
論文 参考訳(メタデータ) (2025-06-01T07:52:16Z) - Responsibility Gap in Collective Decision Making [26.831475621780577]
本論文は、選出された独裁制の概念を提案する。
完全な情報設定では、そのメカニズムが選出された独裁制である場合に限り、ギャップは空である。
論文 参考訳(メタデータ) (2025-05-08T14:19:59Z) - Agency Is Frame-Dependent [94.91580596320331]
エージェンシーは、目標に向かって成果を操縦するシステムの能力である。
私たちは、エージェンシーは基本的にフレーム依存であると主張している。
我々はあらゆる基礎科学がフレーム依存を必要とすると結論付けている。
論文 参考訳(メタデータ) (2025-02-06T08:34:57Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Responsibility in Extensive Form Games [1.4104545468525629]
2つの異なる形態の責任、すなわち反現実的であり、哲学とAIで広く議論されている。
本稿では,2つのモダリティを調和させるような設定に対して,ルック・トゥ・イットの責任の定義を提案する。
これらの2つの責任形態は、それぞれの可能な状況において責任を負うのに十分なものではないが、高次の責任を考慮すると、このギャップは存在しないことを示している。
論文 参考訳(メタデータ) (2023-12-12T10:41:17Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - On the Complexity of Multi-Agent Decision Making: From Learning in Games
to Partial Monitoring [105.13668993076801]
マルチエージェント強化学習(MARL)理論における中心的な問題は、構造条件やアルゴリズムの原理がサンプル効率の学習保証につながるかを理解することである。
本稿では,複数のエージェントを用いた対話型意思決定のための一般的な枠組みとして,この問題について考察する。
マルチエージェント意思決定における統計的複雑性を特徴付けることは、単一エージェント決定の統計的複雑性を特徴付けることと等価であることを示す。
論文 参考訳(メタデータ) (2023-05-01T06:46:22Z) - Actual Causality and Responsibility Attribution in Decentralized
Partially Observable Markov Decision Processes [22.408657774650358]
我々はこれらの概念を、不確実性の下でのマルチエージェントシーケンシャルな意思決定のための広く使われている枠組みの下で研究する。
実際の因果関係は特定の結果に焦点を当て、関心の成果を実現する上で重要な決定(行動)を識別することを目的としている。
責任帰属(Responsibility attribution)は相補的であり、意思決定者(エージェント)がこの結果にどの程度の責任を持つかを特定することを目的としている。
論文 参考訳(メタデータ) (2022-04-01T09:22:58Z) - Consent as a Foundation for Responsible Autonomy [15.45515784064555]
本稿は、自律責任の動的な側面、すなわち、インテリジェントエージェントが実行時に責任を負わせることに焦点を当てる。
エージェントによる意思決定が、他のエージェントが認識する結果に影響を及ぼすような設定を検討する。
論文 参考訳(メタデータ) (2022-03-22T02:25:27Z) - On Blame Attribution for Accountable Multi-Agent Sequential Decision
Making [29.431349181232203]
協調型マルチエージェントシーケンシャル意思決定の文脈における責任帰属について検討する。
我々は、Shapley値のようなよく知られた非難帰属の手法が、パフォーマンスにインセンティブを与えていないことを示す。
そこで我々は,それが満足する特性の集合に特有の,新たな因果帰属法を提案する。
論文 参考訳(メタデータ) (2021-07-26T02:22:23Z) - VCG Mechanism Design with Unknown Agent Values under Stochastic Bandit
Feedback [104.06766271716774]
本研究では,エージェントが自己の価値を知らない場合に,マルチラウンドの福祉最大化機構設計問題について検討する。
まず、福祉に対する後悔の3つの概念、各エージェントの個々のユーティリティ、メカニズムの3つの概念を定義します。
当社のフレームワークは価格体系を柔軟に制御し、エージェントと販売者の後悔のトレードオフを可能にする。
論文 参考訳(メタデータ) (2020-04-19T18:00:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。