論文の概要: Sparse Concept Bottleneck Models: Gumbel Tricks in Contrastive Learning
- arxiv url: http://arxiv.org/abs/2404.03323v1
- Date: Thu, 4 Apr 2024 09:43:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-05 15:14:12.793648
- Title: Sparse Concept Bottleneck Models: Gumbel Tricks in Contrastive Learning
- Title(参考訳): Sparse Concept Bottleneck Models: コントラスト学習におけるGumbel Tricks
- Authors: Andrei Semenov, Vladimir Ivanov, Aleksandr Beznosikov, Alexander Gasnikov,
- Abstract要約: 概念ボトルネックモデル(CBM)を用いた新しいアーキテクチャと説明可能な分類法を提案する。
CBMには、さらなる概念のセットが必要である。
CLIPをベースとしたボトルネックモデルにおいて,スパース隠れ層を用いた精度の大幅な向上を示す。
- 参考スコア(独自算出の注目度): 86.15009879251386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel architecture and method of explainable classification with Concept Bottleneck Models (CBMs). While SOTA approaches to Image Classification task work as a black box, there is a growing demand for models that would provide interpreted results. Such a models often learn to predict the distribution over class labels using additional description of this target instances, called concepts. However, existing Bottleneck methods have a number of limitations: their accuracy is lower than that of a standard model and CBMs require an additional set of concepts to leverage. We provide a framework for creating Concept Bottleneck Model from pre-trained multi-modal encoder and new CLIP-like architectures. By introducing a new type of layers known as Concept Bottleneck Layers, we outline three methods for training them: with $\ell_1$-loss, contrastive loss and loss function based on Gumbel-Softmax distribution (Sparse-CBM), while final FC layer is still trained with Cross-Entropy. We show a significant increase in accuracy using sparse hidden layers in CLIP-based bottleneck models. Which means that sparse representation of concepts activation vector is meaningful in Concept Bottleneck Models. Moreover, with our Concept Matrix Search algorithm we can improve CLIP predictions on complex datasets without any additional training or fine-tuning. The code is available at: https://github.com/Andron00e/SparseCBM.
- Abstract(参考訳): 本稿では,Concept Bottleneck Models (CBM) を用いた新しいアーキテクチャと説明可能な分類法を提案する。
SOTAはイメージ分類タスクをブラックボックスとして動作させるが、解釈結果を提供するモデルに対する需要が増えている。
このようなモデルはしばしば、概念と呼ばれるこのターゲットインスタンスのさらなる記述を使用して、クラスラベル上の分布を予測することを学習する。
しかし、既存のBottleneck法にはいくつかの制限があり、その精度は標準モデルよりも低く、CBMにはさらなる概念セットが必要である。
我々は、事前訓練されたマルチモーダルエンコーダと新しいCLIPのようなアーキテクチャからConcept Bottleneck Modelを作成するためのフレームワークを提供する。
Concept Bottleneck Layersと呼ばれる新しいタイプのレイヤを導入することで、それらをトレーニングするための3つの方法を概説する:$$\ell_1$-loss、Gumbel-Softmaxディストリビューション(Sparse-CBM)に基づく対照的な損失と損失関数。
CLIPをベースとしたボトルネックモデルにおいて,スパース隠れ層を用いた精度の大幅な向上を示す。
つまり、概念活性化ベクトルのスパース表現は概念ボトルネックモデルにおいて有意義である。
さらに,概念行列探索アルゴリズムにより,追加のトレーニングや微調整を行うことなく,複雑なデータセット上でのCLIP予測を改善することができる。
コードは以下の通り。 https://github.com/Andron00e/SparseCBM。
関連論文リスト
- Achieving Data Efficient Neural Networks with Hybrid Concept-based Models [0.0]
クラスラベルと概念と呼ばれるデータセットの付加情報の両方をトレーニングする2つの新しいモデルアーキテクチャを導入する。
ハイブリッドの概念に基づくモデルは、特にスパースデータ設定において、精度に関して、標準的なコンピュータビジョンモデルよりも優れていることを示す。
また,概念ベースモデルの概念予測を変更せずに,クラス予測を変更する方法で,画像が摂動されるような,敵対的概念攻撃を行うアルゴリズムも導入する。
論文 参考訳(メタデータ) (2024-08-14T10:15:34Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - MCPNet: An Interpretable Classifier via Multi-Level Concept Prototypes [24.28807025839685]
我々は、低レベルの特徴の意思決定プロセスに関する洞察が欠如している説明は、完全に忠実でも有用でもないと論じる。
本稿では,クラス認識概念分布(CCD)の損失を通じて,分類目的のマルチレベル概念のプロトタイプ分布を学習・調整する新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2024-04-13T11:13:56Z) - CLIP-QDA: An Explainable Concept Bottleneck Model [3.570403495760109]
本稿では,高速かつ説明可能な画像分類を行うマルチモーダル基礎モデルから設計した説明可能なアルゴリズムを提案する。
我々の説明は計算を高速化しながら既存のXAI手法と競合する。
論文 参考訳(メタデータ) (2023-11-30T18:19:47Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - Rethinking Semantic Segmentation: A Prototype View [126.59244185849838]
学習不可能なプロトタイプをベースとした非パラメトリックセマンティックセマンティックセマンティクスモデルを提案する。
我々のフレームワークは、いくつかのデータセットに対して魅力的な結果をもたらす。
この作業が、現在のデファクトセマンティックセグメンテーションモデル設計を再考することを期待しています。
論文 参考訳(メタデータ) (2022-03-28T21:15:32Z) - Concept Bottleneck Model with Additional Unsupervised Concepts [0.5939410304994348]
概念ボトルネックモデル(CBM)に基づく新しい解釈可能なモデルを提案する。
CBMは概念ラベルを使用して、中間層を追加の可視層としてトレーニングする。
これら2つの概念をシームレスにトレーニングし,計算量を削減することにより,教師付き概念と教師なし概念を同時に得ることができる。
論文 参考訳(メタデータ) (2022-02-03T08:30:51Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。