論文の概要: A Practical Tutorial on Explainable AI Techniques
- arxiv url: http://arxiv.org/abs/2111.14260v1
- Date: Sat, 13 Nov 2021 17:47:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-06 03:31:06.763583
- Title: A Practical Tutorial on Explainable AI Techniques
- Title(参考訳): 説明可能なAI技術に関する実践的チュートリアル
- Authors: Adrien Bennetot, Ivan Donadello, Ayoub El Qadi, Mauro Dragoni, Thomas
Frossard, Benedikt Wagner, Anna Saranti, Silvia Tulli, Maria Trocan, Raja
Chatila, Andreas Holzinger, Artur d'Avila Garcez, Natalia D\'iaz-Rodr\'iguez
- Abstract要約: このチュートリアルは、コンピュータサイエンスのバックグラウンドを持つすべての読者にとって、手書きの教科書となることを意図している。
機械学習モデルの直感的な洞察を得ることを目標としている。
- 参考スコア(独自算出の注目度): 5.671062637797752
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Last years have been characterized by an upsurge of opaque automatic decision
support systems, such as Deep Neural Networks (DNNs). Although they have great
generalization and prediction skills, their functioning does not allow
obtaining detailed explanations of their behaviour. As opaque machine learning
models are increasingly being employed to make important predictions in
critical environments, the danger is to create and use decisions that are not
justifiable or legitimate. Therefore, there is a general agreement on the
importance of endowing machine learning models with explainability. The reason
is that EXplainable Artificial Intelligence (XAI) techniques can serve to
verify and certify model outputs and enhance them with desirable notions such
as trustworthiness, accountability, transparency and fairness. This tutorial is
meant to be the go-to handbook for any audience with a computer science
background aiming at getting intuitive insights of machine learning models,
accompanied with straight, fast, and intuitive explanations out of the box. We
believe that these methods provide a valuable contribution for applying XAI
techniques in their particular day-to-day models, datasets and use-cases.
Figure \ref{fig:Flowchart} acts as a flowchart/map for the reader and should
help him to find the ideal method to use according to his type of data. The
reader will find a description of the proposed method as well as an example of
use and a Python notebook that he can easily modify as he pleases in order to
apply it to his own case of application.
- Abstract(参考訳): 近年,Deep Neural Networks(DNN)など,不透明な自動意思決定支援システムが急増していることが特徴だ。
それらは非常に一般化と予測能力を持っているが、その機能によってその振る舞いの詳細な説明が得られない。
重要な環境で重要な予測を行うために、不透明な機械学習モデルがますます採用されているため、危険は、正当化できない決定を作成し、使用することである。
したがって、機械学習モデルに説明可能性を持たせることが重要であるという一般的な合意がある。
その理由は、説明可能な人工知能(XAI)技術が、モデル出力の検証と証明に役立ち、信頼性、説明責任、透明性、公正性といった望ましい概念でそれらを強化することができるからである。
このチュートリアルは、機械学習モデルの直感的な洞察を得ることを目的として、コンピュータサイエンスのバックグラウンドを持つすべての聴衆にとって、直感的で、高速で、直感的な説明を箱から出すための、手書きハンドブックである。
これらの手法は、特定の日々のモデル、データセット、ユースケースにXAI技術を適用する上で貴重な貢献になると考えています。
図 \ref{fig:flowchart} は読者のフローチャート/マップとして動作し、彼のデータの種類に応じて使用する理想的な方法を見つけるのに役立ちます。
読者は、提案されたメソッドの説明に加えて、使用例やPythonノートブックを見つけ、好きなように簡単に修正して、自身のアプリケーションケースに適用することができる。
関連論文リスト
- Any-point Trajectory Modeling for Policy Learning [64.23861308947852]
我々は、ビデオフレーム内の任意の点の将来の軌跡を予測するために、ATM(Any-point Trajectory Modeling)を導入する。
ATMは、強力なビデオ事前トレーニングベースラインを平均80%上回っている。
本研究では,人間の動画やビデオからの操作スキルを,異なるロボット形態から効果的に伝達する学習方法を示す。
論文 参考訳(メタデータ) (2023-12-28T23:34:43Z) - Does Your Model Think Like an Engineer? Explainable AI for Bearing Fault
Detection with Deep Learning [20.488966890562004]
本研究では,振動信号から転がり要素軸受の欠陥を検知する作業に焦点をあてる。
本稿では,モデルの基本となる論理が専門家の推論とどの程度うまく対応しているかを評価するための,新しい,ドメイン固有の属性フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-19T17:58:11Z) - Greybox XAI: a Neural-Symbolic learning framework to produce
interpretable predictions for image classification [6.940242990198]
Greybox XAIは、シンボリック知識ベース(KB)を使うことで、DNNと透明モデルを構成するフレームワークである。
我々は、XAIの普遍的基準が欠如している問題に、説明が何であるかを形式化することで対処する。
この新しいアーキテクチャがどのように正確で、いくつかのデータセットで説明可能であるかを示す。
論文 参考訳(メタデータ) (2022-09-26T08:55:31Z) - Learning to Scaffold: Optimizing Model Explanations for Teaching [74.25464914078826]
我々は3つの自然言語処理とコンピュータビジョンタスクのモデルを訓練する。
筆者らは,本フレームワークで抽出した説明文を学習した学生が,従来の手法よりもはるかに効果的に教師をシミュレートできることを発見した。
論文 参考訳(メタデータ) (2022-04-22T16:43:39Z) - Feature Attributions and Counterfactual Explanations Can Be Manipulated [32.579094387004346]
本稿では,モデル非依存的特徴属性法を制御するバイアスモデルの設計方法について述べる。
これらの脆弱性は、敵がバイアス付きモデルをデプロイすることを可能にするが、説明はこのバイアスを明らかにしないため、ステークホルダーをモデルの信頼性を損なう。
我々は、CompASやCommunity & Crimeを含む実世界のデータセットの操作を評価し、実際に操作できる説明を見つける。
論文 参考訳(メタデータ) (2021-06-23T17:43:31Z) - Yes We Care! -- Certification for Machine Learning Methods through the
Care Label Framework [5.189820825770516]
本稿では,ケアラベルによる学習方法の認定を行う統一フレームワークを提案する。
ケアラベルは簡単に理解でき、繊維ラベルや電子機器の不動産カードといった有名な証明書からインスピレーションを得ている。
論文 参考訳(メタデータ) (2021-05-21T08:15:21Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Explanations of Black-Box Model Predictions by Contextual Importance and
Utility [1.7188280334580195]
本稿では,初級者だけでなく専門家が容易に理解できる説明を抽出するために,文脈重要度(CI)と文脈実用性(CU)の概念を提案する。
本手法は,モデルを解釈可能なモデルに変換することなく予測結果を説明する。
カーセレクションの例とアイリスの花分類における説明の有用性を,完全な(つまり,個人の予測の原因)と対照的な説明を提示することによって示す。
論文 参考訳(メタデータ) (2020-05-30T06:49:50Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。