論文の概要: ConceptDistil: Model-Agnostic Distillation of Concept Explanations
- arxiv url: http://arxiv.org/abs/2205.03601v1
- Date: Sat, 7 May 2022 08:58:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 14:12:09.979245
- Title: ConceptDistil: Model-Agnostic Distillation of Concept Explanations
- Title(参考訳): conceptdistil: 概念説明のモデル非依存蒸留
- Authors: Jo\~ao Bento Sousa, Ricardo Moreira, Vladimir Balayan, Pedro Saleiro,
Pedro Bizarro
- Abstract要約: 概念に基づく説明は、非技術的人間のためのモデルの解釈可能性ギャップを埋めることを目的としている。
知識蒸留を用いたブラックボックス分類器に概念記述をもたらす方法であるConceptDistilを提案する。
実世界のユースケースでConceptDistilを検証することで、両方のタスクを最適化できることを示す。
- 参考スコア(独自算出の注目度): 4.462334751640166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Concept-based explanations aims to fill the model interpretability gap for
non-technical humans-in-the-loop. Previous work has focused on providing
concepts for specific models (eg, neural networks) or data types (eg, images),
and by either trying to extract concepts from an already trained network or
training self-explainable models through multi-task learning. In this work, we
propose ConceptDistil, a method to bring concept explanations to any black-box
classifier using knowledge distillation. ConceptDistil is decomposed into two
components:(1) a concept model that predicts which domain concepts are present
in a given instance, and (2) a distillation model that tries to mimic the
predictions of a black-box model using the concept model predictions. We
validate ConceptDistil in a real world use-case, showing that it is able to
optimize both tasks, bringing concept-explainability to any black-box model.
- Abstract(参考訳): 概念に基づく説明は、非技術的人間のためのモデルの解釈可能性ギャップを埋めることを目的としている。
これまでの研究は、特定のモデル(ニューラルネットワークなど)やデータタイプ(画像など)の概念の提供や、すでに訓練されたネットワークから概念を抽出すること、あるいはマルチタスク学習を通じて自己説明可能なモデルをトレーニングすることに注力してきた。
本研究では,知識蒸留を用いたブラックボックス分類器に概念記述をもたらす方法であるConceptDistilを提案する。
概念ディスティルは、(1)特定のインスタンスにどのドメイン概念が存在するかを予測する概念モデル、(2)概念モデル予測を用いてブラックボックスモデルの予測を模倣しようとする蒸留モデルという2つの構成要素に分解される。
実世界のユースケースでConceptDistilを評価し、両方のタスクを最適化できることを示し、ブラックボックスモデルに概念記述性をもたらす。
関連論文リスト
- Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Concept Bottleneck Models Without Predefined Concepts [26.156636891713745]
入力に依存した概念選択機構を導入し、すべてのクラスで小さな概念のサブセットが使用されることを保証します。
提案手法は, ダウンストリーム性能を改善し, ブラックボックスモデルの性能ギャップを狭めるものである。
論文 参考訳(メタデータ) (2024-07-04T13:34:50Z) - Separable Multi-Concept Erasure from Diffusion Models [52.51972530398691]
大規模拡散モデルから安全でない概念を排除するために,分離可能なマルチコンセプト消去器(SepME)を提案する。
後者は最適化可能なモデルウェイトを分離し、各ウェイトインクリメントは特定の概念の消去に対応する。
広範囲にわたる実験は, 概念の排除, モデル性能の保存, 各種概念の消去・回復における柔軟性の確保に, アプローチの有効性を示すものである。
論文 参考訳(メタデータ) (2024-02-03T11:10:57Z) - Knowledge-Aware Neuron Interpretation for Scene Classification [32.32713349524347]
画像シーン分類のためのモデル予測を説明するための知識認識型ニューロン解釈フレームワークを提案する。
概念完全性については,概念の完全性を評価するために,知識グラフ(ConceptNet)に基づくシーンの中核概念を提示する。
概念融合のために,概念フィルタリング(Concept Filtering)と呼ばれる知識グラフに基づく手法を導入する。
論文 参考訳(メタデータ) (2024-01-29T01:00:17Z) - An Axiomatic Approach to Model-Agnostic Concept Explanations [67.84000759813435]
本稿では、線形性、再帰性、類似性という3つの自然な公理を満たす概念的説明へのアプローチを提案する。
次に、従来の概念的説明手法とのつながりを確立し、それらの意味の異なる意味についての洞察を提供する。
論文 参考訳(メタデータ) (2024-01-12T20:53:35Z) - ConcEPT: Concept-Enhanced Pre-Training for Language Models [57.778895980999124]
ConcEPTは、概念知識を事前訓練された言語モデルに注入することを目的としている。
これは、事前訓練されたコンテキストで言及されたエンティティの概念を予測するために、外部エンティティの概念予測を利用する。
実験の結果,ConcEPTは概念強化事前学習により概念知識を向上することがわかった。
論文 参考訳(メタデータ) (2024-01-11T05:05:01Z) - SurroCBM: Concept Bottleneck Surrogate Models for Generative Post-hoc
Explanation [11.820167569334444]
本稿では,ブラックボックスモデルを説明するために,SurroCBM(Concept Bottleneck Surrogate Models)を提案する。
SurroCBMは、様々なブラックボックスモデルにまたがる共有概念とユニークな概念を特定し、ホック後の説明のために説明可能なサロゲートモデルを使用している。
自己生成データを用いた効果的な学習手法を提案する。
論文 参考訳(メタデータ) (2023-10-11T17:46:59Z) - Concept Gradient: Concept-based Interpretation Without Linear Assumption [77.96338722483226]
概念活性化ベクトル(Concept Activation Vector, CAV)は、与えられたモデルと概念の潜在表現の間の線形関係を学習することに依存する。
我々は、線形概念関数を超えて概念に基づく解釈を拡張する概念グラディエント(CG)を提案した。
我々は、CGがおもちゃの例と実世界のデータセットの両方でCAVより優れていることを実証した。
論文 参考訳(メタデータ) (2022-08-31T17:06:46Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - MACE: Model Agnostic Concept Extractor for Explaining Image
Classification Networks [10.06397994266945]
MACE: Model Agnostic Concept Extractorを提案し、より小さな概念を通じて畳み込みネットワークの動作を説明する。
VGG16やResNet50 CNNアーキテクチャ、Animals With Attributes 2(AWA2)やPlaces365といったデータセットを使って、私たちのフレームワークを検証する。
論文 参考訳(メタデータ) (2020-11-03T04:40:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。