論文の概要: Explainability Auditing for Intelligent Systems: A Rationale for
Multi-Disciplinary Perspectives
- arxiv url: http://arxiv.org/abs/2108.07711v1
- Date: Thu, 5 Aug 2021 09:12:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-19 06:57:11.016160
- Title: Explainability Auditing for Intelligent Systems: A Rationale for
Multi-Disciplinary Perspectives
- Title(参考訳): インテリジェントシステムのための説明可能性監査:マルチディシプリナの視点
- Authors: Markus Langer, Kevin Baum, Kathrin Hartmann, Stefan Hessel, Timo
Speith, Jonas Wahl
- Abstract要約: 信頼できるAIのための国家的および国際的なガイドラインは、説明可能性が信頼できるシステムの中心的な側面であると考えている。
本稿では,説明可能性監査のための複数の学際的根拠について概説する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: National and international guidelines for trustworthy artificial intelligence
(AI) consider explainability to be a central facet of trustworthy systems. This
paper outlines a multi-disciplinary rationale for explainability auditing.
Specifically, we propose that explainability auditing can ensure the quality of
explainability of systems in applied contexts and can be the basis for
certification as a means to communicate whether systems meet certain
explainability standards and requirements. Moreover, we emphasize that
explainability auditing needs to take a multi-disciplinary perspective, and we
provide an overview of four perspectives (technical, psychological, ethical,
legal) and their respective benefits with respect to explainability auditing.
- Abstract(参考訳): 信頼できる人工知能(AI)のための国家的および国際的なガイドラインは、説明可能性が信頼できるシステムの中心的な側面であると考えている。
本稿では,説明可能性監査の学際的根拠について概説する。
具体的には、説明可能性監査は、適用された文脈におけるシステムの説明可能性の品質を保証し、特定の説明可能性基準や要件を満たすかどうかを伝える手段として、認証の基盤となることを提案する。
さらに,説明可能性監査には多分野の視点が必要であることを強調し,説明可能性監査に関して4つの視点(技術的,心理学的,倫理的,法的な)とそれぞれの利点を概観する。
関連論文リスト
- Explainability-Driven Quality Assessment for Rule-Based Systems [0.7303392100830282]
本稿では,知識に基づく推論システムにおけるルールの質を高めるための説明フレームワークを提案する。
規則推論の説明を生成し、人間の解釈を利用して規則を洗練させる。
その実用性は金融のユースケースを通じて実証される。
論文 参考訳(メタデータ) (2025-02-03T11:26:09Z) - The explanation dialogues: an expert focus study to understand requirements towards explanations within the GDPR [47.06917254695738]
我々は、XAIに対する法的専門家や実践者の期待、推論、理解を明らかにするための専門的な研究である説明対話(Explaination Dialogues)を提示する。
調査はオンラインアンケートとフォローアップインタビューで構成されており、クレジットドメインのユースケースを中心に行われている。
提示された説明は、情報を理解して欠くことは困難であり、データコントローラと主題の異なる関心事から生じる問題について議論する。
論文 参考訳(メタデータ) (2025-01-09T15:50:02Z) - Assessing the Auditability of AI-integrating Systems: A Framework and Learning Analytics Case Study [0.0]
監査の有効性は,監査システムの監査可能性に左右される。
本稿では,AI統合システムの監査性を評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T13:43:21Z) - A Note on an Inferentialist Approach to Resource Semantics [48.65926948745294]
「推論主義」とは、推論行動の観点で意味が与えられるという考え方である。
本稿では,「推論主義」が資源意味論の汎用的で表現力豊かな枠組みを実現する方法を示す。
論文 参考訳(メタデータ) (2024-05-10T14:13:21Z) - Argument Quality Assessment in the Age of Instruction-Following Large Language Models [45.832808321166844]
そのような応用において重要なタスクは、議論の質を評価することである。
我々は,質概念の多様性と認識の主観性を,議論品質評価における実質的な進歩への主要なハードルとみなす。
インストラクション追従型大規模言語モデル(LLM)がコンテキストを越えた知識を活用できることは,より信頼性の高い評価を可能にしている,と我々は主張する。
論文 参考訳(メタデータ) (2024-03-24T10:43:21Z) - A New Perspective on Evaluation Methods for Explainable Artificial
Intelligence (XAI) [0.0]
我々は、リソースの可用性、ドメインの特徴、リスクの考慮を組み込んだ、曖昧な方法でアプローチするのが最善である、と論じる。
この研究は、AIのための要求工学の分野を前進させることを目的としている。
論文 参考訳(メタデータ) (2023-07-26T15:15:44Z) - Explainability in AI Policies: A Critical Review of Communications,
Reports, Regulations, and Standards in the EU, US, and UK [1.5039745292757671]
我々は、EU、米国、英国における説明可能性に関する政策と標準に関する最初のテーマとギャップの分析を行う。
政策は、しばしば説明のための粗い概念と要求によって知らされる。
本稿では,AIシステムの規則における説明可能性への対処法を提案する。
論文 参考訳(メタデータ) (2023-04-20T07:53:07Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Multisource AI Scorecard Table for System Evaluation [3.74397577716445]
本稿では、AI/機械学習(ML)システムの開発者およびユーザに対して標準チェックリストを提供するマルチソースAIスコアカードテーブル(MAST)について述べる。
本稿では,インテリジェンス・コミュニティ・ディレクティブ(ICD)203で概説されている分析的トレードクラフト標準が,AIシステムの性能を評価するためのフレームワークを提供する方法について考察する。
論文 参考訳(メタデータ) (2021-02-08T03:37:40Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。