論文の概要: Expressive Explanations of DNNs by Combining Concept Analysis with ILP
- arxiv url: http://arxiv.org/abs/2105.07371v1
- Date: Sun, 16 May 2021 07:00:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-19 07:30:21.807548
- Title: Expressive Explanations of DNNs by Combining Concept Analysis with ILP
- Title(参考訳): 概念解析とILPを組み合わせたDNNの表現的説明
- Authors: Johannes Rabold, Gesina Schwalbe, Ute Schmid
- Abstract要約: 我々は,dnn(feed-forward convolutional deep neural network)の理論的根拠をグローバル,表現的,言語的に説明するために,ネットワークが学習した本質的特徴を用いた。
我々の説明は元々のブラックボックスモデルに忠実であることを示している。
- 参考スコア(独自算出の注目度): 0.3867363075280543
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable AI has emerged to be a key component for black-box machine
learning approaches in domains with a high demand for reliability or
transparency. Examples are medical assistant systems, and applications
concerned with the General Data Protection Regulation of the European Union,
which features transparency as a cornerstone. Such demands require the ability
to audit the rationale behind a classifier's decision. While visualizations are
the de facto standard of explanations, they come short in terms of
expressiveness in many ways: They cannot distinguish between different
attribute manifestations of visual features (e.g. eye open vs. closed), and
they cannot accurately describe the influence of absence of, and relations
between features. An alternative would be more expressive symbolic surrogate
models. However, these require symbolic inputs, which are not readily available
in most computer vision tasks. In this paper we investigate how to overcome
this: We use inherent features learned by the network to build a global,
expressive, verbal explanation of the rationale of a feed-forward convolutional
deep neural network (DNN). The semantics of the features are mined by a concept
analysis approach trained on a set of human understandable visual concepts. The
explanation is found by an Inductive Logic Programming (ILP) method and
presented as first-order rules. We show that our explanation is faithful to the
original black-box model.
The code for our experiments is available at
https://github.com/mc-lovin-mlem/concept-embeddings-and-ilp/tree/ki2020.
- Abstract(参考訳): 説明可能なAIは、信頼性や透明性の要求の高いドメインにおいて、ブラックボックス機械学習アプローチの重要なコンポーネントとして現れている。
例えば、医療補助システムや、透明性を基盤とする欧州連合の一般データ保護規則(General Data Protection Regulation)に関する応用などがある。
このような要求は、分類者の決定の背後にある根拠を監査する能力を必要とする。
ヴィジュアライゼーションは説明のデファクトスタンダードであるが、多くの点で表現性の点で不足している: 視覚的特徴(例えば、)の異なる属性の表示を区別することはできない。
eye open vs. closed) であり、特徴の欠如、特徴間の関係の影響を正確に記述することはできない。
もう一つの選択肢はより表現力のある記号的代理モデルである。
しかしこれらは、ほとんどのコンピュータビジョンタスクでは利用できないシンボリックインプットを必要とする。
本稿では、この問題を解決する方法を検討する。我々は、ネットワークによって学習された固有の特徴を用いて、フィードフォワード畳み込みディープニューラルネットワーク(DNN)の理論的根拠のグローバルで表現力豊かな言葉による説明を構築する。
特徴のセマンティクスは、人間の理解可能な視覚概念のセットで訓練された概念分析アプローチによって掘り起こされる。
この説明はインダクティブ論理プログラミング(ILP)メソッドによって発見され、一階ルールとして提示される。
我々の説明は元のブラックボックスモデルに忠実であることを示す。
私たちの実験のコードはhttps://github.com/mc-lovin-mlem/concept-embeddings-and-ilp/tree/ki2020で利用可能です。
関連論文リスト
- Help Me Identify: Is an LLM+VQA System All We Need to Identify Visual Concepts? [62.984473889987605]
本稿では,大規模言語モデルとVQA(Visual Question Answering)システムを活用した,視覚概念学習のためのゼロショットフレームワークを提案する。
VQAシステムに問い合わせ画像とともにこれらの質問を行い、回答を集約し、テスト画像中のオブジェクトの有無を判定する。
実験では,既存のゼロショット視覚分類法や少数ショット概念学習手法と同等の性能を示した。
論文 参考訳(メタデータ) (2024-10-17T15:16:10Z) - Relevant Irrelevance: Generating Alterfactual Explanations for Image Classifiers [11.200613814162185]
本稿では,ブラックボックス画像分類器の再現的説明の実現可能性を示す。
ニューラルネットワークに基づくブラックボックスモデルにこのアイデアを適用することが可能であることを初めて示します。
論文 参考訳(メタデータ) (2024-05-08T11:03:22Z) - Identifying Interpretable Subspaces in Image Representations [54.821222487956355]
コントラスト概念(FALCON)を用いて画像表現の特徴を説明する枠組みを提案する。
ターゲット機能として、FALCONは、大きなキャプションデータセットとCLIPのようなトレーニング済みの視覚言語モデルを使用して、高機能なトリミング画像をキャプションする。
キャプション内の各単語は、少数の共有された人間の理解可能な概念に導かれ、ランク付けされる。
論文 参考訳(メタデータ) (2023-07-20T00:02:24Z) - Dynamic Clue Bottlenecks: Towards Interpretable-by-Design Visual Question Answering [58.64831511644917]
本稿では, モデル決定を中間的人間法的な説明に分解する設計モデルを提案する。
我々は、我々の本質的に解釈可能なシステムは、推論に焦点をあてた質問において、同等のブラックボックスシステムよりも4.64%改善できることを示した。
論文 参考訳(メタデータ) (2023-05-24T08:33:15Z) - TCNL: Transparent and Controllable Network Learning Via Embedding
Human-Guided Concepts [10.890006696574803]
本稿では,これらの課題を克服するために,トランスペアレントかつ制御可能なネットワーク学習(TCNL)を提案する。
透明性と解釈性を向上する目的に向けて、TNLでは、科学的人間の直観研究を通じて、特定の分類タスクに対するいくつかの概念を定義している。
また,概念抽出器によって抽出された特徴を人間の直感的に可視化する概念マッパーを構築した。
論文 参考訳(メタデータ) (2022-10-07T01:18:37Z) - Emergence of Machine Language: Towards Symbolic Intelligence with Neural
Networks [73.94290462239061]
本稿では、ニューラルネットワークを用いてシンボルとコネクショナリズムの原理を組み合わせることで、離散表現を導出することを提案する。
対話型環境とタスクを設計することにより、機械が自発的で柔軟でセマンティックな言語を生成できることを実証した。
論文 参考訳(メタデータ) (2022-01-14T14:54:58Z) - Logic Explained Networks [27.800583434727805]
ネットワークのマインドフルな設計が,論理説明ネットワーク(LEN)と呼ばれる解釈可能なディープラーニングモデルのファミリにつながることを示す。
LENは入力を人間の理解可能な述語にのみ要求し、単純な一階述語論理(FOL)の式で説明を提供する。
LENは、決定木やベイズルールリストのような、確立されたホワイトボックスモデルよりも優れた分類が得られる。
論文 参考訳(メタデータ) (2021-08-11T10:55:42Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Explanations of Black-Box Model Predictions by Contextual Importance and
Utility [1.7188280334580195]
本稿では,初級者だけでなく専門家が容易に理解できる説明を抽出するために,文脈重要度(CI)と文脈実用性(CU)の概念を提案する。
本手法は,モデルを解釈可能なモデルに変換することなく予測結果を説明する。
カーセレクションの例とアイリスの花分類における説明の有用性を,完全な(つまり,個人の予測の原因)と対照的な説明を提示することによって示す。
論文 参考訳(メタデータ) (2020-05-30T06:49:50Z) - LIMEtree: Interactively Customisable Explanations Based on Local
Surrogate Multi-output Regression Trees [21.58324172085553]
LIMEtree と呼ばれるブラックボックス予測のためのモデル非依存的かつポストホックな局所的説明可能性手法を提案する。
画像中の物体検出を訓練したディープニューラルネットワーク上でアルゴリズムを検証し,LIME(Local Interpretable Model-Agnostic Explanations)と比較する。
本手法は局所的忠実度保証を伴い,多種多様な説明型を生成する。
論文 参考訳(メタデータ) (2020-05-04T12:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。