論文の概要: Explanation Bottleneck Models
- arxiv url: http://arxiv.org/abs/2409.17663v1
- Date: Thu, 26 Sep 2024 09:21:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-28 20:56:11.260034
- Title: Explanation Bottleneck Models
- Title(参考訳): 説明ボトルネックモデル
- Authors: Shin'ya Yamaguchi and Kosuke Nishida
- Abstract要約: 本稿では、説明ボトルネックモデル(XBM)と呼ばれる、解釈可能な新しいディープニューラルネットワークを提案する。
XBMは事前に定義された概念を含まない入力からテキスト説明を生成し、最終的なタスク予測を予測する。
最先端のコンセプトボトルネックモデルとの比較を含む実験では、XBMが正確で流動的な自然言語の説明を提供することを確認した。
- 参考スコア(独自算出の注目度): 13.089909158137726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent concept-based interpretable models have succeeded in providing
meaningful explanations by pre-defined concept sets. However, the dependency on
the pre-defined concepts restricts the application because of the limited
number of concepts for explanations. This paper proposes a novel interpretable
deep neural network called explanation bottleneck models (XBMs). XBMs generate
a text explanation from the input without pre-defined concepts and then predict
a final task prediction based on the generated explanation by leveraging
pre-trained vision-language encoder-decoder models. To achieve both the target
task performance and the explanation quality, we train XBMs through the target
task loss with the regularization penalizing the explanation decoder via the
distillation from the frozen pre-trained decoder. Our experiments, including a
comparison to state-of-the-art concept bottleneck models, confirm that XBMs
provide accurate and fluent natural language explanations without pre-defined
concept sets. Code will be available at https://github.com/yshinya6/xbm/.
- Abstract(参考訳): 最近の概念に基づく解釈可能なモデルは、事前に定義された概念集合によって意味のある説明を提供することに成功している。
しかし、事前定義された概念への依存は、説明のための概念の数が限られているため、アプリケーションを制限する。
本稿では、説明ボトルネックモデル(XBM)と呼ばれる、解釈可能な新しいディープニューラルネットワークを提案する。
XBMは、事前に定義された概念を持たない入力からテキスト説明を生成し、事前学習された視覚言語エンコーダ・デコーダモデルを利用して、生成された説明に基づいて最終タスク予測を生成する。
目標タスク性能と説明品質を両立させるため,凍結事前学習復号器の蒸留による説明復号器の正規化を行い,目標タスク損失からXBMを訓練する。
我々の実験は、最先端の概念ボトルネックモデルとの比較を含むもので、XBMが事前に定義された概念セットを使わずに、正確で流動的な自然言語の説明を提供することを確認した。
コードはhttps://github.com/yshinya6/xbm/.comから入手できる。
関連論文リスト
- MulCPred: Learning Multi-modal Concepts for Explainable Pedestrian Action Prediction [57.483718822429346]
MulCPredは、トレーニングサンプルで表されるマルチモーダルな概念に基づいて、その予測を説明する。
MulCPredは複数のデータセットとタスクで評価される。
論文 参考訳(メタデータ) (2024-09-14T14:15:28Z) - Explain via Any Concept: Concept Bottleneck Model with Open Vocabulary Concepts [8.028021897214238]
OpenCBMはオープン語彙の概念を持つ最初のCBMである。
ベンチマークデータセットCUB-200-2011の分類精度は,従来のCBMよりも9%向上した。
論文 参考訳(メタデータ) (2024-08-05T06:42:00Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Concept Bottleneck Models Without Predefined Concepts [26.156636891713745]
入力に依存した概念選択機構を導入し、すべてのクラスで小さな概念のサブセットが使用されることを保証します。
提案手法は, ダウンストリーム性能を改善し, ブラックボックスモデルの性能ギャップを狭めるものである。
論文 参考訳(メタデータ) (2024-07-04T13:34:50Z) - Sparse Concept Bottleneck Models: Gumbel Tricks in Contrastive Learning [86.15009879251386]
概念ボトルネックモデル(CBM)を用いた新しいアーキテクチャと説明可能な分類法を提案する。
CBMには、さらなる概念のセットが必要である。
CLIPをベースとしたボトルネックモデルにおいて,スパース隠れ層を用いた精度の大幅な向上を示す。
論文 参考訳(メタデータ) (2024-04-04T09:43:43Z) - Overlooked factors in concept-based explanations: Dataset choice,
concept learnability, and human capability [25.545486537295144]
概念に基づく解釈可能性法は、事前に定義されたセマンティック概念のセットを使用して、ディープニューラルネットワークモデル予測を説明することを目的としている。
その人気にもかかわらず、文学によって十分に理解され、明瞭化されていない限界に悩まされている。
概念に基づく説明において、よく見過ごされる3つの要因を分析した。
論文 参考訳(メタデータ) (2022-07-20T01:59:39Z) - Post-hoc Concept Bottleneck Models [11.358495577593441]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、入力を解釈可能な概念のセットにマッピングし、その概念を用いて予測を行う。
CBMは、ボトルネックを学ぶためにトレーニングデータに概念ラベルを必要とするため、実際には制限があり、強い事前訓練されたモデルを活用しない。
解釈可能性の利点を保ちながら、モデル性能を犠牲にすることなく、任意のニューラルネットワークをPCBMに変換することができることを示す。
論文 参考訳(メタデータ) (2022-05-31T00:29:26Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Self-Supervision by Prediction for Object Discovery in Videos [62.87145010885044]
本稿では,この予測タスクを自己監督として利用し,画像シーケンス表現のための新しいオブジェクト中心モデルを構築する。
私たちのフレームワークは、手動アノテーションや事前トレーニングされたネットワークを使わずにトレーニングできます。
最初の実験では、提案されたパイプラインがオブジェクト中心のビデオ予測への有望なステップであることを確認した。
論文 参考訳(メタデータ) (2021-03-09T19:14:33Z) - MACE: Model Agnostic Concept Extractor for Explaining Image
Classification Networks [10.06397994266945]
MACE: Model Agnostic Concept Extractorを提案し、より小さな概念を通じて畳み込みネットワークの動作を説明する。
VGG16やResNet50 CNNアーキテクチャ、Animals With Attributes 2(AWA2)やPlaces365といったデータセットを使って、私たちのフレームワークを検証する。
論文 参考訳(メタデータ) (2020-11-03T04:40:49Z) - Generating Commonsense Explanation by Extracting Bridge Concepts from
Reasoning Paths [128.13034600968257]
本稿では、まず、推論チェーンでテキストブリッジとして機能する基礎概念を抽出する手法を提案する。
推論プロセスを容易にするために,文と橋梁の概念の関連性を構築するために,外部コモンセンス知識を利用する。
橋梁の概念抽出モデルを設計し,まず三重奏を採点し,その経路を導出し,さらに弱い監督で橋梁の概念を選定する。
論文 参考訳(メタデータ) (2020-09-24T15:27:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。