論文の概要: Attributing Responsibility in AI-Induced Incidents: A Computational Reflective Equilibrium Framework for Accountability
- arxiv url: http://arxiv.org/abs/2404.16957v1
- Date: Thu, 25 Apr 2024 18:11:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 14:43:43.655689
- Title: Attributing Responsibility in AI-Induced Incidents: A Computational Reflective Equilibrium Framework for Accountability
- Title(参考訳): AIによるインシデントに対する責任--アカウンタビリティのための計算的リフレクティブ均衡フレームワーク
- Authors: Yunfei Ge, Quanyan Zhu,
- Abstract要約: AI(Artificial Intelligence)の広範な統合は、AI対応システムに関わるインシデントが発生した場合の責任と説明責任において、複雑な課題を導入している。
この研究は、すべての利害関係者に対して、一貫性があり倫理的に許容される責任帰属の枠組みを提案する。
- 参考スコア(独自算出の注目度): 13.343937277604892
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The pervasive integration of Artificial Intelligence (AI) has introduced complex challenges in the responsibility and accountability in the event of incidents involving AI-enabled systems. The interconnectivity of these systems, ethical concerns of AI-induced incidents, coupled with uncertainties in AI technology and the absence of corresponding regulations, have made traditional responsibility attribution challenging. To this end, this work proposes a Computational Reflective Equilibrium (CRE) approach to establish a coherent and ethically acceptable responsibility attribution framework for all stakeholders. The computational approach provides a structured analysis that overcomes the limitations of conceptual approaches in dealing with dynamic and multifaceted scenarios, showcasing the framework's explainability, coherence, and adaptivity properties in the responsibility attribution process. We examine the pivotal role of the initial activation level associated with claims in equilibrium computation. Using an AI-assisted medical decision-support system as a case study, we illustrate how different initializations lead to diverse responsibility distributions. The framework offers valuable insights into accountability in AI-induced incidents, facilitating the development of a sustainable and resilient system through continuous monitoring, revision, and reflection.
- Abstract(参考訳): AI(Artificial Intelligence)の広範な統合は、AI対応システムに関わるインシデントが発生した場合の責任と説明責任において、複雑な課題を導入している。
これらのシステムの相互接続性、AIによるインシデントに対する倫理的懸念、AI技術の不確実性、およびそれに対応する規制の欠如が、従来の責任帰属を困難にしている。
この目的のために、この研究は、すべての利害関係者に対して、一貫性と倫理的に許容される責任帰属の枠組みを確立するための計算反射平衡(CRE)アプローチを提案する。
この計算手法は、動的および多面的シナリオを扱う際の概念的アプローチの限界を克服し、責任帰属プロセスにおけるフレームワークの説明可能性、コヒーレンス、適応性を示す構造化分析を提供する。
平衡計算におけるクレームに関連する初期活性化レベルの重要な役割について検討する。
AIを用いた医療意思決定支援システムをケーススタディとして、異なる初期化が様々な責任分散にどのように寄与するかを説明する。
このフレームワークは、AIが引き起こしたインシデントにおける説明責任に関する貴重な洞察を提供し、継続的監視、リフレクション、リフレクションを通じて持続的でレジリエントなシステムの開発を促進する。
関連論文リスト
- Quantifying AI Vulnerabilities: A Synthesis of Complexity, Dynamical Systems, and Game Theory [0.0]
システム複雑度指数(SCI)、Lyapunov Exponent for AI stability(LEAIS)、Nash Equilibrium Robustness(NER)の3つの指標を導入する新しいアプローチを提案する。
SCIはAIシステムの固有の複雑さを定量化し、LEAISはその安定性と摂動に対する感受性を捉え、NERは敵の操作に対する戦略的堅牢性を評価する。
論文 参考訳(メタデータ) (2024-04-07T07:05:59Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - A Case for Competent AI Systems $-$ A Concept Note [0.3626013617212666]
このノートは、AIシステム内の能力の概念を探求し、システムが提供しようとしているものを表現している。
この能力の達成は、実装とテストの欠陥によって妨げられる可能性がある。
タスクを効果的に実行するAIシステムの能力を明らかにする上で、中心的な課題が発生する。
論文 参考訳(メタデータ) (2023-11-28T09:21:03Z) - Levels of AGI: Operationalizing Progress on the Path to AGI [67.02053749878078]
このフレームワークは、AGIパフォーマンス、一般性、自律性のレベルを導入します。
このフレームワークが、自動運転のレベルと同等の方法で有効になることを願っています。
論文 参考訳(メタデータ) (2023-11-04T17:44:58Z) - Unravelling Responsibility for AI [0.8836921728313208]
AI対応システムのアウトプットと影響に責任を負う場所を確立する必要があることは広く認識されている。
本稿では,AIの責任概念を明確にするために,哲学と法学における中心的な違いを考察する。
論文 参考訳(メタデータ) (2023-08-04T13:12:17Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Accountability in an Algorithmic Society: Relationality, Responsibility,
and Robustness in Machine Learning [4.958893997693021]
1996年、Nissenbaumは、社会における説明責任の侵食について、コンピュータ化されたシステムへの連続関数のユビキタスな委任による宣言を発した。
我々は、データ駆動型アルゴリズムシステムの上昇に関連して、Nissenbaum氏の論文を再考する。
本稿では,データ駆動型アルゴリズムシステムにおいて,一貫したモラル・リレーショナル・フレームワークを実現する上で,障壁がいかに困難であるかを論じる。
論文 参考訳(メタデータ) (2022-02-10T21:39:02Z) - Accountability in AI: From Principles to Industry-specific Accreditation [4.033641609534416]
最近のAI関連のスキャンダルは、AIのアカウンタビリティに注目を向けている。
本稿では2つの貢献をするために公共政策とガバナンスから文献を引用する。
論文 参考訳(メタデータ) (2021-10-08T16:37:11Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。