論文の概要: SurroCBM: Concept Bottleneck Surrogate Models for Generative Post-hoc
Explanation
- arxiv url: http://arxiv.org/abs/2310.07698v1
- Date: Wed, 11 Oct 2023 17:46:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 21:30:06.045044
- Title: SurroCBM: Concept Bottleneck Surrogate Models for Generative Post-hoc
Explanation
- Title(参考訳): SurroCBM: ポストホック説明のための概念ボトルネックサロゲートモデル
- Authors: Bo Pan, Zhenke Liu, Yifei Zhang, Liang Zhao
- Abstract要約: 本稿では,ブラックボックスモデルを説明するために,SurroCBM(Concept Bottleneck Surrogate Models)を提案する。
SurroCBMは、様々なブラックボックスモデルにまたがる共有概念とユニークな概念を特定し、ホック後の説明のために説明可能なサロゲートモデルを使用している。
自己生成データを用いた効果的な学習手法を提案する。
- 参考スコア(独自算出の注目度): 11.820167569334444
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable AI seeks to bring light to the decision-making processes of
black-box models. Traditional saliency-based methods, while highlighting
influential data segments, often lack semantic understanding. Recent
advancements, such as Concept Activation Vectors (CAVs) and Concept Bottleneck
Models (CBMs), offer concept-based explanations but necessitate human-defined
concepts. However, human-annotated concepts are expensive to attain. This paper
introduces the Concept Bottleneck Surrogate Models (SurroCBM), a novel
framework that aims to explain the black-box models with automatically
discovered concepts. SurroCBM identifies shared and unique concepts across
various black-box models and employs an explainable surrogate model for
post-hoc explanations. An effective training strategy using self-generated data
is proposed to enhance explanation quality continuously. Through extensive
experiments, we demonstrate the efficacy of SurroCBM in concept discovery and
explanation, underscoring its potential in advancing the field of explainable
AI.
- Abstract(参考訳): 説明可能なAIはブラックボックスモデルの意思決定プロセスに光を当てようとしている。
従来の給与ベースの手法は、影響力のあるデータセグメントを強調するが、しばしば意味的な理解を欠いている。
概念活性化ベクトル(cavs)や概念ボトルネックモデル(cbms)といった最近の進歩は、概念に基づく説明を提供するが、人間定義の概念は必要である。
しかし、人間の注釈による概念は達成するには高価である。
本稿では, ブラックボックスモデルに自動検出された概念を記述するための新しいフレームワークであるConcept Bottleneck Surrogate Models (SurroCBM)を紹介する。
SurroCBMは、様々なブラックボックスモデルにまたがる共有概念とユニークな概念を特定し、ホック後の説明のために説明可能な代理モデルを採用している。
説明品質を継続的に向上させるために,自己生成データを用いた効果的な学習戦略を提案する。
広範な実験を通じて、概念発見と説明におけるSurroCBMの有効性を実証し、説明可能なAIの分野を前進させる可能性を示す。
関連論文リスト
- Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Concept Bottleneck Models Without Predefined Concepts [26.156636891713745]
入力に依存した概念選択機構を導入し、すべてのクラスで小さな概念のサブセットが使用されることを保証します。
提案手法は, ダウンストリーム性能を改善し, ブラックボックスモデルの性能ギャップを狭めるものである。
論文 参考訳(メタデータ) (2024-07-04T13:34:50Z) - Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - Incremental Residual Concept Bottleneck Models [29.388549499546556]
Concept Bottleneck Models (CBM) は、ディープニューラルネットワークによって抽出されたブラックボックスの視覚表現を、解釈可能な概念のセットにマッピングする。
本稿では,概念完全性の課題を解決するために,インクリメンタル・Residual Concept Bottleneck Model (Res-CBM)を提案する。
提案手法は,任意のCBMの性能向上を目的としたポストホック処理法として,ユーザ定義の概念バンクに適用できる。
論文 参考訳(メタデータ) (2024-04-13T12:02:19Z) - A survey on Concept-based Approaches For Model Improvement [2.1516043775965565]
概念は人間の思考基盤として知られている。
ディープニューラルネットワーク(DNN)における様々な概念表現とその発見アルゴリズムの体系的レビューと分類について述べる。
また,これらの手法を総合的に調査した最初の論文として,概念に基づくモデル改善文献について詳述する。
論文 参考訳(メタデータ) (2024-03-21T17:09:20Z) - An Axiomatic Approach to Model-Agnostic Concept Explanations [67.84000759813435]
本稿では、線形性、再帰性、類似性という3つの自然な公理を満たす概念的説明へのアプローチを提案する。
次に、従来の概念的説明手法とのつながりを確立し、それらの意味の異なる意味についての洞察を提供する。
論文 参考訳(メタデータ) (2024-01-12T20:53:35Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Concept Gradient: Concept-based Interpretation Without Linear Assumption [77.96338722483226]
概念活性化ベクトル(Concept Activation Vector, CAV)は、与えられたモデルと概念の潜在表現の間の線形関係を学習することに依存する。
我々は、線形概念関数を超えて概念に基づく解釈を拡張する概念グラディエント(CG)を提案した。
我々は、CGがおもちゃの例と実世界のデータセットの両方でCAVより優れていることを実証した。
論文 参考訳(メタデータ) (2022-08-31T17:06:46Z) - ConceptDistil: Model-Agnostic Distillation of Concept Explanations [4.462334751640166]
概念に基づく説明は、非技術的人間のためのモデルの解釈可能性ギャップを埋めることを目的としている。
知識蒸留を用いたブラックボックス分類器に概念記述をもたらす方法であるConceptDistilを提案する。
実世界のユースケースでConceptDistilを検証することで、両方のタスクを最適化できることを示す。
論文 参考訳(メタデータ) (2022-05-07T08:58:54Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Promises and Pitfalls of Black-Box Concept Learning Models [26.787383014558802]
概念学習を取り入れた機械学習モデルは、事前に定義された概念を超えて情報をエンコードする。
自然緩和戦略は完全には機能せず、下流予測の解釈を誤解させる。
論文 参考訳(メタデータ) (2021-06-24T21:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。