論文の概要: Automatic Concept Embedding Model (ACEM): No train-time concepts, No
issue!
- arxiv url: http://arxiv.org/abs/2309.03970v1
- Date: Thu, 7 Sep 2023 19:03:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-11 16:55:44.724680
- Title: Automatic Concept Embedding Model (ACEM): No train-time concepts, No
issue!
- Title(参考訳): 自動概念埋め込みモデル(ACEM: Automatic Concept Embedding Model): 列車時間の概念はなし、問題なし。
- Authors: Rishabh Jain
- Abstract要約: 概念に基づく説明は、人間の理屈とよく一致している。
本稿では,概念アノテーションを自動的に学習するACEM(Automatic Concept Embedding Models)を提案する。
- 参考スコア(独自算出の注目度): 3.3582464577877316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpretability and explainability of neural networks is continuously
increasing in importance, especially within safety-critical domains and to
provide the social right to explanation. Concept based explanations align well
with how humans reason, proving to be a good way to explain models. Concept
Embedding Models (CEMs) are one such concept based explanation architectures.
These have shown to overcome the trade-off between explainability and
performance. However, they have a key limitation -- they require concept
annotations for all their training data. For large datasets, this can be
expensive and infeasible. Motivated by this, we propose Automatic Concept
Embedding Models (ACEMs), which learn the concept annotations automatically.
- Abstract(参考訳): ニューラルネットワークの解釈性と説明性は、特に安全クリティカルな領域において、継続的に重要性を増し、説明の社会的権利を提供する。
概念に基づく説明は、人間がどう考えるかとよく一致し、モデルを説明する良い方法であることが証明される。
概念埋め込みモデル(Concept Embedding Models, CEM)は、そのような概念に基づく説明アーキテクチャである。
これらは説明可能性とパフォーマンスのトレードオフを克服している。
しかし、これらには重要な制限があり、トレーニングデータすべてに概念アノテーションが必要である。
大きなデータセットの場合、これは高価で実現不可能である。
そこで我々は,概念アノテーションを自動的に学習するACEM(Automatic Concept Embedding Models)を提案する。
関連論文リスト
- How to Continually Adapt Text-to-Image Diffusion Models for Flexible Customization? [91.49559116493414]
本稿では,CIDM(Concept-Incremental Text-to-image Diffusion Model)を提案する。
破滅的な忘れと概念の無視を解決し、新しいカスタマイズタスクを概念的な方法で学習する。
実験により、CIDMが既存のカスタム拡散モデルを上回ることが確認された。
論文 参考訳(メタデータ) (2024-10-23T06:47:29Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Concept Bottleneck Models Without Predefined Concepts [26.156636891713745]
入力に依存した概念選択機構を導入し、すべてのクラスで小さな概念のサブセットが使用されることを保証します。
提案手法は, ダウンストリーム性能を改善し, ブラックボックスモデルの性能ギャップを狭めるものである。
論文 参考訳(メタデータ) (2024-07-04T13:34:50Z) - Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - Concept Distillation: Leveraging Human-Centered Explanations for Model
Improvement [3.026365073195727]
概念活性化ベクトル(Concept Activation Vectors, CAV)は、ある概念に対するモデルの感度と潜在的なバイアスを推定する。
微調整によりモデルバイアスを低減するため,CAVをポストホック解析からアンテホックトレーニングに拡張する。
本稿では,いくつかの分類問題に対する概念感受性トレーニングの応用について述べる。
論文 参考訳(メタデータ) (2023-11-26T14:00:14Z) - SurroCBM: Concept Bottleneck Surrogate Models for Generative Post-hoc
Explanation [11.820167569334444]
本稿では,ブラックボックスモデルを説明するために,SurroCBM(Concept Bottleneck Surrogate Models)を提案する。
SurroCBMは、様々なブラックボックスモデルにまたがる共有概念とユニークな概念を特定し、ホック後の説明のために説明可能なサロゲートモデルを使用している。
自己生成データを用いた効果的な学習手法を提案する。
論文 参考訳(メタデータ) (2023-10-11T17:46:59Z) - Concept Activation Regions: A Generalized Framework For Concept-Based
Explanations [95.94432031144716]
既存の手法では、概念を説明する例は、ディープニューラルネットワークの潜伏空間の一定の方向にマッピングされていると仮定している。
そこで本研究では,DNNの潜在空間において,異なるクラスタに分散した概念例を提案する。
この概念活性化領域(CAR)は、グローバルな概念に基づく説明と局所的な概念に基づく特徴の重要性をもたらす。
論文 参考訳(メタデータ) (2022-09-22T17:59:03Z) - Concept Gradient: Concept-based Interpretation Without Linear Assumption [77.96338722483226]
概念活性化ベクトル(Concept Activation Vector, CAV)は、与えられたモデルと概念の潜在表現の間の線形関係を学習することに依存する。
我々は、線形概念関数を超えて概念に基づく解釈を拡張する概念グラディエント(CG)を提案した。
我々は、CGがおもちゃの例と実世界のデータセットの両方でCAVより優れていることを実証した。
論文 参考訳(メタデータ) (2022-08-31T17:06:46Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Do Concept Bottleneck Models Learn as Intended? [29.842609351878416]
概念ボトルネックモデルは、解釈可能性、予測可能性、インターベンタビリティの目標を満たすのに苦労しています。
ポストホック解釈法を用いて,概念が入力空間において意味的に意味のあるものとは対応しないことを示す。
論文 参考訳(メタデータ) (2021-05-10T12:00:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。