論文の概要: Automatic Concept Embedding Model (ACEM): No train-time concepts, No
issue!
- arxiv url: http://arxiv.org/abs/2309.03970v1
- Date: Thu, 7 Sep 2023 19:03:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-11 16:55:44.724680
- Title: Automatic Concept Embedding Model (ACEM): No train-time concepts, No
issue!
- Title(参考訳): 自動概念埋め込みモデル(ACEM: Automatic Concept Embedding Model): 列車時間の概念はなし、問題なし。
- Authors: Rishabh Jain
- Abstract要約: 概念に基づく説明は、人間の理屈とよく一致している。
本稿では,概念アノテーションを自動的に学習するACEM(Automatic Concept Embedding Models)を提案する。
- 参考スコア(独自算出の注目度): 3.3582464577877316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpretability and explainability of neural networks is continuously
increasing in importance, especially within safety-critical domains and to
provide the social right to explanation. Concept based explanations align well
with how humans reason, proving to be a good way to explain models. Concept
Embedding Models (CEMs) are one such concept based explanation architectures.
These have shown to overcome the trade-off between explainability and
performance. However, they have a key limitation -- they require concept
annotations for all their training data. For large datasets, this can be
expensive and infeasible. Motivated by this, we propose Automatic Concept
Embedding Models (ACEMs), which learn the concept annotations automatically.
- Abstract(参考訳): ニューラルネットワークの解釈性と説明性は、特に安全クリティカルな領域において、継続的に重要性を増し、説明の社会的権利を提供する。
概念に基づく説明は、人間がどう考えるかとよく一致し、モデルを説明する良い方法であることが証明される。
概念埋め込みモデル(Concept Embedding Models, CEM)は、そのような概念に基づく説明アーキテクチャである。
これらは説明可能性とパフォーマンスのトレードオフを克服している。
しかし、これらには重要な制限があり、トレーニングデータすべてに概念アノテーションが必要である。
大きなデータセットの場合、これは高価で実現不可能である。
そこで我々は,概念アノテーションを自動的に学習するACEM(Automatic Concept Embedding Models)を提案する。
関連論文リスト
- Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - Concept Distillation: Leveraging Human-Centered Explanations for Model
Improvement [3.026365073195727]
概念活性化ベクトル(Concept Activation Vectors, CAV)は、ある概念に対するモデルの感度と潜在的なバイアスを推定する。
微調整によりモデルバイアスを低減するため,CAVをポストホック解析からアンテホックトレーニングに拡張する。
本稿では,いくつかの分類問題に対する概念感受性トレーニングの応用について述べる。
論文 参考訳(メタデータ) (2023-11-26T14:00:14Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - SurroCBM: Concept Bottleneck Surrogate Models for Generative Post-hoc
Explanation [11.820167569334444]
本稿では,ブラックボックスモデルを説明するために,SurroCBM(Concept Bottleneck Surrogate Models)を提案する。
SurroCBMは、様々なブラックボックスモデルにまたがる共有概念とユニークな概念を特定し、ホック後の説明のために説明可能なサロゲートモデルを使用している。
自己生成データを用いた効果的な学習手法を提案する。
論文 参考訳(メタデータ) (2023-10-11T17:46:59Z) - Learning to Receive Help: Intervention-Aware Concept Embedding Models [46.7616863339095]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、高レベルの概念セットを使用して予測を構築し、説明することによって、ニューラルネットワークの不透明さに対処する。
近年の研究では、介入効果は概念が介入される順序に大きく依存していることが示されている。
IntCEM(Intervention-Aware Concept Embedding Model)は,テスト時間介入に対するモデルの受容性を改善する新しいCBMアーキテクチャとトレーニングパラダイムである。
論文 参考訳(メタデータ) (2023-09-29T02:04:24Z) - Concept Activation Regions: A Generalized Framework For Concept-Based
Explanations [95.94432031144716]
既存の手法では、概念を説明する例は、ディープニューラルネットワークの潜伏空間の一定の方向にマッピングされていると仮定している。
そこで本研究では,DNNの潜在空間において,異なるクラスタに分散した概念例を提案する。
この概念活性化領域(CAR)は、グローバルな概念に基づく説明と局所的な概念に基づく特徴の重要性をもたらす。
論文 参考訳(メタデータ) (2022-09-22T17:59:03Z) - Concept Gradient: Concept-based Interpretation Without Linear Assumption [77.96338722483226]
概念活性化ベクトル(Concept Activation Vector, CAV)は、与えられたモデルと概念の潜在表現の間の線形関係を学習することに依存する。
我々は、線形概念関数を超えて概念に基づく解釈を拡張する概念グラディエント(CG)を提案した。
我々は、CGがおもちゃの例と実世界のデータセットの両方でCAVより優れていることを実証した。
論文 参考訳(メタデータ) (2022-08-31T17:06:46Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Concept Bottleneck Model with Additional Unsupervised Concepts [0.5939410304994348]
概念ボトルネックモデル(CBM)に基づく新しい解釈可能なモデルを提案する。
CBMは概念ラベルを使用して、中間層を追加の可視層としてトレーニングする。
これら2つの概念をシームレスにトレーニングし,計算量を削減することにより,教師付き概念と教師なし概念を同時に得ることができる。
論文 参考訳(メタデータ) (2022-02-03T08:30:51Z) - Do Concept Bottleneck Models Learn as Intended? [29.842609351878416]
概念ボトルネックモデルは、解釈可能性、予測可能性、インターベンタビリティの目標を満たすのに苦労しています。
ポストホック解釈法を用いて,概念が入力空間において意味的に意味のあるものとは対応しないことを示す。
論文 参考訳(メタデータ) (2021-05-10T12:00:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。