論文の概要: Beyond Explainability: The Case for AI Validation
- arxiv url: http://arxiv.org/abs/2505.21570v1
- Date: Tue, 27 May 2025 06:42:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.173157
- Title: Beyond Explainability: The Case for AI Validation
- Title(参考訳): 説明可能性を超えて - AI検証のケース
- Authors: Dalit Ken-Dror Feldman, Daniel Benoliel,
- Abstract要約: 我々は、中央規制柱としての検証へのシフトを主張する。
AI出力の信頼性、一貫性、堅牢性を保証するバリデーションは、説明可能性に対してより実用的で、スケーラブルで、リスクに敏感な代替手段を提供する。
本稿では,事前・後検証,第三者監査,調和標準,債務インセンティブを中心に,先進的な政策枠組みを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Artificial Knowledge (AK) systems are transforming decision-making across critical domains such as healthcare, finance, and criminal justice. However, their growing opacity presents governance challenges that current regulatory approaches, focused predominantly on explainability, fail to address adequately. This article argues for a shift toward validation as a central regulatory pillar. Validation, ensuring the reliability, consistency, and robustness of AI outputs, offers a more practical, scalable, and risk-sensitive alternative to explainability, particularly in high-stakes contexts where interpretability may be technically or economically unfeasible. We introduce a typology based on two axes, validity and explainability, classifying AK systems into four categories and exposing the trade-offs between interpretability and output reliability. Drawing on comparative analysis of regulatory approaches in the EU, US, UK, and China, we show how validation can enhance societal trust, fairness, and safety even where explainability is limited. We propose a forward-looking policy framework centered on pre- and post-deployment validation, third-party auditing, harmonized standards, and liability incentives. This framework balances innovation with accountability and provides a governance roadmap for responsibly integrating opaque, high-performing AK systems into society.
- Abstract(参考訳): 人工知能(AK)システムは、医療、金融、刑事司法といった重要な領域にまたがって意思決定を変革している。
しかし、その不透明度の増加は、現在の規制アプローチが主に説明可能性に重点を置いているが、適切に対処できないというガバナンス上の課題を提示します。
この記事では、中心的な規制柱としてのバリデーションへのシフトを論じる。
AI出力の信頼性、一貫性、堅牢性を保証するバリデーションは、説明可能性よりも実用的で、スケーラブルで、リスクに敏感な代替手段を提供する。
妥当性と説明可能性の2つの軸に基づいて,AKシステムを4つのカテゴリに分類し,解釈可能性と出力信頼性のトレードオフを明らかにする。
我々は、EU、米国、英国、中国の規制アプローチの比較分析に基づいて、検証が社会的信頼、公正性、安全性を、説明可能性に制限されているところでいかに向上するかを示す。
本稿では,事前・後検証,第三者監査,調和標準,債務インセンティブを中心に,先進的な政策枠組みを提案する。
このフレームワークはイノベーションと説明責任のバランスをとり、不透明でハイパフォーマンスなAKシステムを社会に組み込むためのガバナンスのロードマップを提供する。
関連論文リスト
- Human-AI Governance (HAIG): A Trust-Utility Approach [0.0]
本稿では,人間とAIの関係が進化する中で,信頼のダイナミクスを分析するためのHAIGフレームワークを紹介する。
我々の分析は、自己監督、推論権限、分散意思決定の技術的進歩が、不均一な信頼の進化をいかに引き起こすかを明らかにする。
論文 参考訳(メタデータ) (2025-05-03T01:57:08Z) - Regulating Ai In Financial Services: Legal Frameworks And Compliance Challenges [0.0]
金融サービスにおける人工知能(AI)規制の進展状況について考察する。
不正検出からアルゴリズム取引まで、AI駆動のプロセスがいかに効率性を高め、重大なリスクをもたらすかを強調している。
この研究は、欧州連合、米国、英国などの主要な司法管轄区域における規制のアプローチを比較している。
論文 参考訳(メタデータ) (2025-03-17T14:29:09Z) - Policy Frameworks for Transparent Chain-of-Thought Reasoning in Large Language Models [1.0088912103548195]
CoT(Chain-of-Thought)推論は、複雑な問題をステップバイステップのソリューションに分解することで、大きな言語モデル(LLM)を強化する。
現在のCoT開示ポリシは、可視性、APIアクセス、価格戦略など、さまざまなモデルで大きく異なり、統一されたポリシフレームワークが欠如している。
学術,ビジネス,一般ユーザ向けにCoTの可用性を調整し,透明性,説明責任,セキュリティのバランスをとるタイレッドアクセスポリシフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-14T19:54:18Z) - On the Trustworthiness of Generative Foundation Models: Guideline, Assessment, and Perspective [334.48358909967845]
Generative Foundation Models (GenFMs) がトランスフォーメーションツールとして登場した。
彼らの広く採用されていることは、次元の信頼に関する重要な懸念を提起する。
本稿では,3つの主要なコントリビューションを通じて,これらの課題に対処するための包括的枠組みを提案する。
論文 参考訳(メタデータ) (2025-02-20T06:20:36Z) - Fairness in Agentic AI: A Unified Framework for Ethical and Equitable Multi-Agent System [0.0]
本稿では,公正性をエージェント相互作用の動的,創発的特性として扱う新しい枠組みを提案する。
この枠組みは、公正な制約、バイアス軽減戦略、および自律的なエージェント行動と社会的価値を整合させるインセンティブメカニズムを統合する。
論文 参考訳(メタデータ) (2025-02-11T04:42:00Z) - Bridging the Gap in XAI-Why Reliable Metrics Matter for Explainability and Compliance [2.3020018305241337]
この論文は、標準化された信頼性のあるメトリクスが欠如していることから、説明可能なAI(XAI)の評価における重要なギャップを強調している。
現在の評価手法は、しばしば断片化され、主観的、偏見的であり、複雑なモデルの評価を操作し複雑にする傾向がある。
我々は、堅牢で文脈に敏感な評価指標を開発するための広範な研究を提唱する。
論文 参考訳(メタデータ) (2025-02-07T06:54:48Z) - Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。