論文の概要: Higher-Order Responsibility
- arxiv url: http://arxiv.org/abs/2506.01003v1
- Date: Sun, 01 Jun 2025 13:22:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.896132
- Title: Higher-Order Responsibility
- Title(参考訳): 高次責任
- Authors: Junli Jiang, Pavel Naumov,
- Abstract要約: 本稿は、高次責任を$d$まで決定することが、責任ギャップを埋めるのに十分であるかどうかを判断する問題について考察する。
主な技術的結果は、この問題は$Pi_2d+1$-completeである。
- 参考スコア(独自算出の注目度): 26.93342141713236
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In ethics, individual responsibility is often defined through Frankfurt's principle of alternative possibilities. This definition is not adequate in a group decision-making setting because it often results in the lack of a responsible party or "responsibility gap''. One of the existing approaches to address this problem is to consider group responsibility. Another, recently proposed, approach is "higher-order'' responsibility. The paper considers the problem of deciding if higher-order responsibility up to degree $d$ is enough to close the responsibility gap. The main technical result is that this problem is $\Pi_{2d+1}$-complete.
- Abstract(参考訳): 倫理学において、個人の責任はしばしばフランクフルトの代替可能性の原理によって定義される。
この定義は、しばしば責任ある当事者の欠如や「責任のギャップ」が生じるため、グループ意思決定では不十分である。この問題に対処する既存のアプローチの1つは、グループ責任を検討することである。また、最近提案されたアプローチは「高次の責任」である。
本稿は、高次責任を$d$まで決定することが、責任ギャップを埋めるのに十分であるかどうかを判断する問題について考察する。
主な技術的結果は、この問題が$\Pi_{2d+1}$-completeであるということである。
関連論文リスト
- Responsibility in a Multi-Value Strategic Setting [12.143925288392166]
責任はマルチエージェントシステムにおいて重要な概念であり、安全で信頼性があり倫理的なAIを作成する。
マルチエージェント・マルチバリュー設定における責任帰属モデルを提案する。
責任の考慮は、エージェントがその価値に沿った戦略を選択するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2024-10-22T17:51:13Z) - From decision aiding to the massive use of algorithms: where does the responsibility stand? [0.0]
私たちが示すのは、彼らが完全な使用状況や結果を受け入れることができないという事実が、到達不可能な限界につながっているという事実です。
一方、技術の使用は、たとえその特性に制限があるとしても、決して責任を負わない。
記事は、その限界が徐々に進化してきたことを示し、未考の問題と責任共有の失敗を残しているように構成されている。
論文 参考訳(メタデータ) (2024-06-19T01:10:34Z) - Principal-Agent Reward Shaping in MDPs [50.914110302917756]
主要な問題とは、ある政党が他の政党に代わって行動し、利害対立を引き起こすことである。
本研究では,主役とエージェントが異なる報酬関数を持つ2人プレイのスタックゲームについて検討し,エージェントは両プレイヤーに対してMDPポリシーを選択する。
この結果は,有限の地平線を持つ木と決定論的決定過程を確立した。
論文 参考訳(メタデータ) (2023-12-30T18:30:44Z) - Responsibility in Extensive Form Games [1.4104545468525629]
2つの異なる形態の責任、すなわち反現実的であり、哲学とAIで広く議論されている。
本稿では,2つのモダリティを調和させるような設定に対して,ルック・トゥ・イットの責任の定義を提案する。
これらの2つの責任形態は、それぞれの可能な状況において責任を負うのに十分なものではないが、高次の責任を考慮すると、このギャップは存在しないことを示している。
論文 参考訳(メタデータ) (2023-12-12T10:41:17Z) - Unravelling Responsibility for AI [0.8472029664133528]
AI対応システムのアウトプットと影響に責任を負う場所を確立する必要があることは広く認識されている。
本稿では,グラフィカルな表記法と一般的な方法論を伴って,責任の概念的枠組みを提案する。
責任の概念を広げて、誰がAIに責任を持つのかが異なる可能性を明確にする。
論文 参考訳(メタデータ) (2023-08-04T13:12:17Z) - Online Learning under Budget and ROI Constraints via Weak Adaptivity [57.097119428915796]
制約付きオンライン学習問題に対する既存の原始双対アルゴリズムは、2つの基本的な仮定に依存している。
このような仮定は、標準の原始双対テンプレートを弱適応的後悔最小化器で与えることによって、どのように回避できるのかを示す。
上記の2つの前提が満たされていない場合に保証される、世界の最高の保証を証明します。
論文 参考訳(メタデータ) (2023-02-02T16:30:33Z) - A Unifying Framework for Online Optimization with Long-Term Constraints [62.35194099438855]
我々は,意思決定者が長期的制約の対象となる一連の意思決定をしなければならないオンライン学習問題について検討する。
目標は、全報酬を最大化し、同時に、$T$ラウンド全体で小さな累積違反を達成することである。
本稿では,この一般クラス問題に対して,未知のモデルに基づいて報酬と制約が選択された場合と,各ラウンドで敵が選択した場合の双方において,最良世界型アルゴリズムを提示する。
論文 参考訳(メタデータ) (2022-09-15T16:59:19Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Dare not to Ask: Problem-Dependent Guarantees for Budgeted Bandits [66.02233330016435]
後悔と質問されたフィードバックの両方について、問題に依存した保証を提供します。
本稿では,問題依存的後悔と累積的フィードバック境界を導出するBuFALUというアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-12T03:24:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。