論文の概要: The Pragmatic Turn in Explainable Artificial Intelligence (XAI)
- arxiv url: http://arxiv.org/abs/2002.09595v1
- Date: Sat, 22 Feb 2020 01:40:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 19:02:44.299652
- Title: The Pragmatic Turn in Explainable Artificial Intelligence (XAI)
- Title(参考訳): 説明可能な人工知能(XAI)の実践的転換
- Authors: Andr\'es P\'aez
- Abstract要約: 私は、AIにおける説明可能なモデルと解釈可能な決定の探索は、AIにおける理解の実践的で自然主義的な説明を提供するというより広いプロジェクトの観点から、再編成されなければならないと論じます。
解釈モデルや近似モデルは、機械学習モデルの客観的理解に最適な方法を提供するだけでなく、ポストホックな解釈可能性を実現するために必要な条件でもあると結論付けます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper I argue that the search for explainable models and
interpretable decisions in AI must be reformulated in terms of the broader
project of offering a pragmatic and naturalistic account of understanding in
AI. Intuitively, the purpose of providing an explanation of a model or a
decision is to make it understandable to its stakeholders. But without a
previous grasp of what it means to say that an agent understands a model or a
decision, the explanatory strategies will lack a well-defined goal. Aside from
providing a clearer objective for XAI, focusing on understanding also allows us
to relax the factivity condition on explanation, which is impossible to fulfill
in many machine learning models, and to focus instead on the pragmatic
conditions that determine the best fit between a model and the methods and
devices deployed to understand it. After an examination of the different types
of understanding discussed in the philosophical and psychological literature, I
conclude that interpretative or approximation models not only provide the best
way to achieve the objectual understanding of a machine learning model, but are
also a necessary condition to achieve post-hoc interpretability. This
conclusion is partly based on the shortcomings of the purely functionalist
approach to post-hoc interpretability that seems to be predominant in most
recent literature.
- Abstract(参考訳): 本稿では、AIにおける説明可能なモデルと解釈可能な決定の探索は、AIにおける理解の実践的・自然主義的な説明を提供するというより広範なプロジェクトの観点から、再考されなければならないと論じる。
直感的には、モデルや意思決定の説明を提供する目的は、ステークホルダーに理解できるようにすることである。
しかし、エージェントがモデルや決定を理解するということの意味を事前に把握しなければ、説明戦略には明確な目標が欠けている。
XAIのより明確な目的を提供するだけでなく、理解に焦点を当てることで、多くの機械学習モデルで実現不可能な説明の事実性条件を緩和し、その代わりにモデルとそれを理解するために配置された方法と装置の最適な適合を判断する実用的条件に集中することが可能になります。
哲学的・心理学的な文献で論じられた様々なタイプの理解を検証した結果、解釈的・近似的モデルは、機械学習モデルの客観的理解を達成する最善の方法を提供するだけでなく、ポストホックな解釈可能性を達成するために必要な条件でもあると結論づけた。
この結論は、ポストホック解釈可能性に対する純粋機能主義的アプローチの欠点が、近年の文献で圧倒的に多いことに基づくものである。
関連論文リスト
- A Mechanistic Explanatory Strategy for XAI [0.0]
本稿では,ディープラーニングシステムの機能的構造を説明するためのメカニズム的戦略を概説する。
メカニスティックアプローチによると、不透明なAIシステムの説明には、意思決定を促進するメカニズムの特定が含まれる。
この研究は、モデル組織を研究するための体系的なアプローチが、より単純な(あるいはより控えめな)説明可能性技術が欠落する可能性のある要素を明らかにすることを示唆している。
論文 参考訳(メタデータ) (2024-11-02T18:30:32Z) - Causal Abstraction in Model Interpretability: A Compact Survey [5.963324728136442]
因果的抽象化は、モデル行動の基礎となる因果的メカニズムを理解し説明するための原則化されたアプローチを提供する。
本研究は, 因果的抽象の領域を掘り下げ, その理論的基礎, 実践的応用, モデル解釈可能性の分野への含意について考察する。
論文 参考訳(メタデータ) (2024-10-26T12:24:28Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - Explanatory Pluralism in Explainable AI [0.0]
私は、説明のタイプとそれに対応するXAIメソッドの分類をグラフ化します。
AIモデルの内部メカニズムを公開しようとすると、診断説明を生成する。
モデルを安定に一般化したい場合、期待-説明を生成する。
最後に、モデルの使用を正当化したい場合、ロール・エクスラレーションを生成します。
論文 参考訳(メタデータ) (2021-06-26T09:02:06Z) - The Grammar of Interactive Explanatory Model Analysis [7.812073412066698]
本稿では,異なる説明モデル解析(EMA)手法が相互にどのように補完するかを示す。
我々はIEMAの文法を形式化し、潜在的な人間モデル対話を記述する。
IEMAは、広く使われている人中心のオープンソースソフトウェアフレームワークで実装されている。
論文 参考訳(メタデータ) (2020-05-01T17:12:22Z) - Semantics-Aware Inferential Network for Natural Language Understanding [79.70497178043368]
このようなモチベーションを満たすために,セマンティックス対応推論ネットワーク(SAIN)を提案する。
SAINの推論モジュールは、明示的な文脈的セマンティクスを補完的な入力として、セマンティクス上の一連の推論ステップを可能にする。
本モデルでは,機械読解や自然言語推論など11タスクの大幅な改善を実現している。
論文 参考訳(メタデータ) (2020-04-28T07:24:43Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。