論文の概要: Abstraction, Validation, and Generalization for Explainable Artificial
Intelligence
- arxiv url: http://arxiv.org/abs/2105.07508v1
- Date: Sun, 16 May 2021 20:40:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-19 04:11:20.585177
- Title: Abstraction, Validation, and Generalization for Explainable Artificial
Intelligence
- Title(参考訳): 説明可能な人工知能の抽象化・検証・一般化
- Authors: Scott Cheng-Hsin Yang, Tomas Folke, and Patrick Shafto
- Abstract要約: この課題に答えるためにAIを説明する方法が提案されているが、理論の欠如は体系的な抽象化の開発を妨げる。
機械学習と人間学習を統合することで、説明可能なAI(XAI)を統一する枠組みとしてベイズ教育を提案します。
- 参考スコア(独自算出の注目度): 5.142415132534397
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural network architectures are achieving superhuman performance on an
expanding range of tasks. To effectively and safely deploy these systems, their
decision-making must be understandable to a wide range of stakeholders. Methods
to explain AI have been proposed to answer this challenge, but a lack of theory
impedes the development of systematic abstractions which are necessary for
cumulative knowledge gains. We propose Bayesian Teaching as a framework for
unifying explainable AI (XAI) by integrating machine learning and human
learning. Bayesian Teaching formalizes explanation as a communication act of an
explainer to shift the beliefs of an explainee. This formalization decomposes
any XAI method into four components: (1) the inference to be explained, (2) the
explanatory medium, (3) the explainee model, and (4) the explainer model. The
abstraction afforded by Bayesian Teaching to decompose any XAI method
elucidates the invariances among them. The decomposition of XAI systems enables
modular validation, as each of the first three components listed can be tested
semi-independently. This decomposition also promotes generalization through
recombination of components from different XAI systems, which facilitates the
generation of novel variants. These new variants need not be evaluated one by
one provided that each component has been validated, leading to an exponential
decrease in development time. Finally, by making the goal of explanation
explicit, Bayesian Teaching helps developers to assess how suitable an XAI
system is for its intended real-world use case. Thus, Bayesian Teaching
provides a theoretical framework that encourages systematic, scientific
investigation of XAI.
- Abstract(参考訳): ニューラルネットワークアーキテクチャは、幅広いタスクで超人的なパフォーマンスを実現している。
これらのシステムを効果的かつ安全にデプロイするには、意思決定は幅広い利害関係者に理解されなければならない。
この課題に答えるためにAIを説明する方法が提案されているが、理論の欠如は累積的な知識獲得に必要な体系的な抽象化の開発を妨げる。
機械学習と人間の学習を統合することで、説明可能なAI(XAI)を統合するためのフレームワークとしてベイズ教育を提案する。
ベイズ教育は説明人のコミュニケーション行為として説明を形式化し、説明人の信念を変える。
この形式化は、任意のxai法を(1)説明すべき推論、(2)説明媒体、(3)説明者モデル、(4)説明者モデルという4つの構成要素に分解する。
ベイズ教養によって与えられた抽象概念は、XAI法を分解することで、それらの相違を解明する。
XAIシステムの分解は、リストされている最初の3つのコンポーネントが半独立にテストできるため、モジュラー検証を可能にする。
この分解はまた、異なるXAIシステムからのコンポーネントの再結合を通じて一般化を促進し、新しい変種の生成を促進する。
これらの新しいバリエーションは、各コンポーネントが検証され、開発時間が指数関数的に減少するので、1つずつ評価する必要はない。
最後に、明確な説明をすることで、Bayesian Teachingは開発者がXAIシステムが現実世界のユースケースにどの程度適しているかを評価するのに役立つ。
このようにベイズ教養は、XAIの体系的、科学的調査を促進する理論的枠組みを提供する。
関連論文リスト
- A Mechanistic Explanatory Strategy for XAI [0.0]
本稿では,ディープラーニングシステムの機能的構造を説明するためのメカニズム的戦略を概説する。
メカニスティックアプローチによると、不透明なAIシステムの説明には、意思決定を促進するメカニズムの特定が含まれる。
この研究は、モデル組織を研究するための体系的なアプローチが、より単純な(あるいはより控えめな)説明可能性技術が欠落する可能性のある要素を明らかにすることを示唆している。
論文 参考訳(メタデータ) (2024-11-02T18:30:32Z) - Explainable AI for Safe and Trustworthy Autonomous Driving: A Systematic Review [12.38351931894004]
本稿では,安全かつ信頼性の高い自動運転のための説明可能な手法に関する,最初の体系的な文献レビューを紹介する。
我々は、ADにおける安全で信頼性の高いAIに対するXAIの5つの重要な貢献を特定し、それらは解釈可能な設計、解釈可能な代理モデル、解釈可能なモニタリング、補助的な説明、解釈可能な検証である。
我々は、これらのコントリビューションを統合するためにSafeXと呼ばれるモジュラーフレームワークを提案し、同時にAIモデルの安全性を確保しながら、ユーザへの説明提供を可能にした。
論文 参考訳(メタデータ) (2024-02-08T09:08:44Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Categorical Foundations of Explainable AI: A Unifying Theory [8.637435154170916]
本稿では、カテゴリー理論の十分に資金提供された形式主義を用いて、鍵となるXAI概念とプロセスの数学的に厳密な定義を初めて提示する。
i)既存の学習スキームとアーキテクチャをモデル化し、(ii)正式に「説明」という用語を定義し、(iii)XAIの理論的基盤を確立し、(iv)メソッドの説明の一般的に見落とされた側面を分析する。
論文 参考訳(メタデータ) (2023-04-27T11:10:16Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Weakly Supervised Semantic Segmentation via Alternative Self-Dual
Teaching [82.71578668091914]
本稿では,分類とマスク・リファインメント・コンポーネントを統合された深層モデルに組み込む,コンパクトな学習フレームワークを確立する。
本稿では,高品質な知識相互作用を促進するために,新たな自己双対学習(ASDT)機構を提案する。
論文 参考訳(メタデータ) (2021-12-17T11:56:56Z) - Mitigating belief projection in explainable artificial intelligence via
Bayesian Teaching [4.864819846886143]
説明可能なAI(XAI)は人間の理解を改善しようとするが、人々がよく知らないエージェントをどう考えるかを説明することは滅多にない。
ベイジアン・インストラクション(ベイジアン・インストラクション)を通したヒューマン・インストラクタのモデル化について提案する。
論文 参考訳(メタデータ) (2021-02-07T21:23:24Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Explainable Artificial Intelligence: a Systematic Review [2.741266294612776]
機械学習は、非常に正確なモデルの開発につながったが、説明可能性や解釈可能性に欠けていた。
この問題に対処するための多くの手法が提案され、開発され、テストされている。
この体系的なレビューは、これらの手法を階層的な分類システムでクラスタリングすることで、知識の体系に寄与する。
論文 参考訳(メタデータ) (2020-05-29T21:41:12Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。