論文の概要: Explainable AI Systems Must Be Contestable: Here's How to Make It Happen
- arxiv url: http://arxiv.org/abs/2506.01662v1
- Date: Mon, 02 Jun 2025 13:32:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.402959
- Title: Explainable AI Systems Must Be Contestable: Here's How to Make It Happen
- Title(参考訳): 説明可能なAIシステムは検証可能でなければならない
- Authors: Catarina Moreira, Anna Palatkina, Dacia Braca, Dylan M. Walsh, Peter J. Leihn, Fang Chen, Nina C. Hubig,
- Abstract要約: 本稿では、説明可能なAIにおける競合性の最初の厳密な形式的定義について述べる。
我々は、ヒューマン中心のインターフェース、技術プロセス、組織アーキテクチャにまたがる、設計やポストホックメカニズムのモジュール化されたフレームワークを紹介します。
私たちの作業は実践者に、真のリコースと説明責任をAIシステムに組み込むためのツールを提供しています。
- 参考スコア(独自算出の注目度): 2.5875936082584623
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As AI regulations around the world intensify their focus on system safety, contestability has become a mandatory, yet ill-defined, safeguard. In XAI, "contestability" remains an empty promise: no formal definition exists, no algorithm guarantees it, and practitioners lack concrete guidance to satisfy regulatory requirements. Grounded in a systematic literature review, this paper presents the first rigorous formal definition of contestability in explainable AI, directly aligned with stakeholder requirements and regulatory mandates. We introduce a modular framework of by-design and post-hoc mechanisms spanning human-centered interfaces, technical architectures, legal processes, and organizational workflows. To operationalize our framework, we propose the Contestability Assessment Scale, a composite metric built on more than twenty quantitative criteria. Through multiple case studies across diverse application domains, we reveal where state-of-the-art systems fall short and show how our framework drives targeted improvements. By converting contestability from regulatory theory into a practical framework, our work equips practitioners with the tools to embed genuine recourse and accountability into AI systems.
- Abstract(参考訳): 世界中のAI規制がシステムの安全性に重点を置いている中、競争性は必須だが不定義の安全保護となっている。
XAIでは、"競争性"は空の約束であり、正式な定義は存在せず、アルゴリズムがそれを保証しておらず、実践者は規制要件を満たすための具体的なガイダンスを欠いている。
体系的な文献レビューにおいて,本論文は,利害関係者の要求や規制規定に則って,説明可能なAIにおける競争可能性に関する厳密な形式的定義を初めて提示する。
ヒューマン中心のインターフェース、技術アーキテクチャ、法的なプロセス、組織ワークフローにまたがる、設計やポストホックメカニズムのモジュール化されたフレームワークを紹介します。
フレームワークを運用するために,20以上の定量的基準に基づいて構築された複合尺度であるContestability Assessment Scaleを提案する。
さまざまなアプリケーションドメインにわたるケーススタディを通じて、最先端のシステムが不足している状況を明らかにし、我々のフレームワークがターゲットとなる改善をどのように推進しているかを示します。
競争可能性を規制理論から実践的な枠組みに変換することで、私たちの仕事は実践者に真のレコースと説明責任をAIシステムに組み込むためのツールを提供する。
関連論文リスト
- Watermarking Without Standards Is Not AI Governance [46.71493672772134]
現在の実装は、効果的な監視を提供するのではなく、象徴的なコンプライアンスとして機能するリスクがある、と私たちは主張する。
本稿では,技術標準,監査インフラストラクチャ,実施機構を含む3層フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-27T18:10:04Z) - A Comprehensive Framework for Reliable Legal AI: Combining Specialized Expert Systems and Adaptive Refinement [0.0]
本稿では,専門家システムと知識に基づくアーキテクチャを組み合わせた新しい枠組みを提案する。
このフレームワークは特殊なモジュールを利用し、それぞれが特定の法的領域に焦点を当て、構造化された運用ガイドラインを取り入れて意思決定を強化する。
提案されたアプローチは、既存のAIモデルよりも大幅に改善され、法的タスクのパフォーマンスが向上し、よりアクセシブルで手頃な価格の法律サービスを提供するスケーラブルなソリューションを提供する。
論文 参考訳(メタデータ) (2024-12-29T14:00:11Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Ethical and Scalable Automation: A Governance and Compliance Framework for Business Applications [0.0]
本稿では、AIが倫理的で、制御可能で、実行可能で、望ましいものであることを保証するフレームワークを紹介する。
異なるケーススタディは、学術と実践の両方の環境でAIを統合することで、このフレームワークを検証する。
論文 参考訳(メタデータ) (2024-09-25T12:39:28Z) - How VADER is your AI? Towards a definition of artificial intelligence systems appropriate for regulation [39.58317527488534]
最近のAI規制提案では、ICT技術、アプローチ、AIではないシステムに影響を与えるAI定義が採用されている。
本稿では,AI定義の規制(VADER)が適切に定義されているかを評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-07T17:41:15Z) - Towards a Responsible AI Metrics Catalogue: A Collection of Metrics for
AI Accountability [28.67753149592534]
本研究は,包括的メトリクスカタログへの取り組みを導入することで,説明責任のギャップを埋めるものである。
我々のカタログは、手続き的整合性を支えるプロセスメトリクス、必要なツールやフレームワークを提供するリソースメトリクス、AIシステムのアウトプットを反映する製品メトリクスを記述しています。
論文 参考訳(メタデータ) (2023-11-22T04:43:16Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Towards an Interface Description Template for AI-enabled Systems [77.34726150561087]
再利用(Reuse)は、システムアーキテクチャを既存のコンポーネントでインスタンス化しようとする、一般的なシステムアーキテクチャのアプローチである。
現在、コンポーネントが当初目的としていたものと異なるシステムで運用する可搬性を評価するために必要な情報の選択をガイドするフレームワークは存在しない。
我々は、AI対応コンポーネントの主情報をキャプチャするインターフェイス記述テンプレートの確立に向けて、現在進行中の作業について述べる。
論文 参考訳(メタデータ) (2020-07-13T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。