論文の概要: Making Things Explainable vs Explaining: Requirements and Challenges
under the GDPR
- arxiv url: http://arxiv.org/abs/2110.00758v1
- Date: Sat, 2 Oct 2021 08:48:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 15:23:53.463140
- Title: Making Things Explainable vs Explaining: Requirements and Challenges
under the GDPR
- Title(参考訳): 説明可能か、説明可能か - GDPRの要件と課題
- Authors: Francesco Sovrano, Fabio Vitali, Monica Palmirani
- Abstract要約: ExplanatorY AI(YAI)はXAI上に構築され、説明可能な情報の収集と整理を目的としている。
本稿では,自動意思決定システム(ADM)について,説明空間上の適切な経路を特定するための説明を生成する問題について述べる。
- 参考スコア(独自算出の注目度): 2.578242050187029
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The European Union (EU) through the High-Level Expert Group on Artificial
Intelligence (AI-HLEG) and the General Data Protection Regulation (GDPR) has
recently posed an interesting challenge to the eXplainable AI (XAI) community,
by demanding a more user-centred approach to explain Automated Decision-Making
systems (ADMs). Looking at the relevant literature, XAI is currently focused on
producing explainable software and explanations that generally follow an
approach we could term One-Size-Fits-All, that is unable to meet a requirement
of centring on user needs. One of the causes of this limit is the belief that
making things explainable alone is enough to have pragmatic explanations. Thus,
insisting on a clear separation between explainabilty (something that can be
explained) and explanations, we point to explanatorY AI (YAI) as an alternative
and more powerful approach to win the AI-HLEG challenge. YAI builds over XAI
with the goal to collect and organize explainable information, articulating it
into something we called user-centred explanatory discourses. Through the use
of explanatory discourses/narratives we represent the problem of generating
explanations for Automated Decision-Making systems (ADMs) into the
identification of an appropriate path over an explanatory space, allowing
explainees to interactively explore it and produce the explanation best suited
to their needs.
- Abstract(参考訳): eu(eu)は、ai-hleg(high-level expert group on artificial intelligence)とgdpr(general data protection regulation)を通じて、先日、自動意思決定システム(adm)を説明するユーザ中心のアプローチを要求することで、説明可能なai(xai)コミュニティに興味深い課題を提起した。
関連する文献を見ると、XAIは現在、説明可能なソフトウェアと、ユーザニーズのセントリング要件を満たすことができないOne-Size-Fits-Allと呼ばれるアプローチに一般的に従う説明を作ることに重点を置いています。
この限界の原因の1つは、物事を説明できるだけでは実用的説明が十分である、という信念である。
このように、説明可能性(説明可能なもの)と説明の明確な分離を主張し、AI-HLEGの挑戦に勝つための代替的で強力なアプローチとして説明的AI(YAI)を挙げる。
YAIはXAI上に構築され、説明可能な情報を収集し、整理することを目的としています。
説明談話/ナラティブを用いて,説明空間上の適切な経路の同定において,自動意思決定システム(adm)の説明を生成する問題を表現し,説明者が対話的に説明を探索し,そのニーズに最も適した説明を作成できるようにする。
関連論文リスト
- Dataset | Mindset = Explainable AI | Interpretable AI [36.001670039529586]
機械学習(ML)の出力を支える理由を説明するために、与えられたデータセットにさまざまなXAIツールを適用すると、"説明可能な"人工知能(XAI)と"解釈可能なAI(IAI)"が相反する。
我々は、XAIは、IAIのサブセットであると主張する。IAIの概念はデータセットの範囲を超えており、思考の領域を含んでいる。
我々は、これらの概念を明確にし、将来のAI応用と研究における多くの実践者や政策立案者に対して、XAI、IAI、EAI、TAIの基礎を築いたいと考えています。
論文 参考訳(メタデータ) (2024-08-22T14:12:53Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Alterfactual Explanations -- The Relevance of Irrelevance for Explaining
AI Systems [0.9542023122304099]
我々は、決定を完全に理解するためには、関連する特徴に関する知識だけでなく、無関係な情報の認識もAIシステムのユーザーのメンタルモデルの作成に大きく貢献すると主張している。
私たちのアプローチは、Alterfactual Explanations(Alterfactual Explanations)と呼ばれ、AIの入力の無関係な特徴が変更された別の現実を示すことに基づいています。
我々は,AIの推論のさまざまな側面を,反事実的説明法よりも理解するために,人工的説明が適していることを示す。
論文 参考訳(メタデータ) (2022-07-19T16:20:37Z) - "Explanation" is Not a Technical Term: The Problem of Ambiguity in XAI [2.5899040911480173]
本稿では,これらの特徴を実用性評価に利用する方法について検討する。
我々は,機能的役割によって定義された説明の要件,理解しようとするユーザの知識状態,それらの生成に必要な情報の提供に焦点をあてる。
論文 参考訳(メタデータ) (2022-06-27T21:42:53Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Levels of explainable artificial intelligence for human-aligned
conversational explanations [0.6571063542099524]
人々は毎日自律的な決定に影響を受けており、結果を受け入れるためには意思決定プロセスを理解する必要があります。
本稿は,人間の会話説明システムを構築するために,説明のレベルを定義し,それらをどのように統合するかを説明することを目的とする。
論文 参考訳(メタデータ) (2021-07-07T12:19:16Z) - Explanatory Pluralism in Explainable AI [0.0]
私は、説明のタイプとそれに対応するXAIメソッドの分類をグラフ化します。
AIモデルの内部メカニズムを公開しようとすると、診断説明を生成する。
モデルを安定に一般化したい場合、期待-説明を生成する。
最後に、モデルの使用を正当化したい場合、ロール・エクスラレーションを生成します。
論文 参考訳(メタデータ) (2021-06-26T09:02:06Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Machine Reasoning Explainability [100.78417922186048]
機械推論(MR: Machine Reasoning)は、抽象的推論を形式化し、エミュレートするための象徴的な手段である。
初期のMRの研究は、明らかに説明可能なAI(XAI)への問い合わせを開始した
本論文はMR説明可能性に関する我々の研究成果を報告する。
論文 参考訳(メタデータ) (2020-09-01T13:45:05Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。