論文の概要: Explain via Any Concept: Concept Bottleneck Model with Open Vocabulary Concepts
- arxiv url: http://arxiv.org/abs/2408.02265v1
- Date: Mon, 5 Aug 2024 06:42:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-06 14:26:02.840103
- Title: Explain via Any Concept: Concept Bottleneck Model with Open Vocabulary Concepts
- Title(参考訳): 任意の概念による説明:オープン語彙概念を用いた概念ボトルネックモデル
- Authors: Andong Tan, Fengtao Zhou, Hao Chen,
- Abstract要約: OpenCBMはオープン語彙の概念を持つ最初のCBMである。
ベンチマークデータセットCUB-200-2011の分類精度は,従来のCBMよりも9%向上した。
- 参考スコア(独自算出の注目度): 8.028021897214238
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The concept bottleneck model (CBM) is an interpretable-by-design framework that makes decisions by first predicting a set of interpretable concepts, and then predicting the class label based on the given concepts. Existing CBMs are trained with a fixed set of concepts (concepts are either annotated by the dataset or queried from language models). However, this closed-world assumption is unrealistic in practice, as users may wonder about the role of any desired concept in decision-making after the model is deployed. Inspired by the large success of recent vision-language pre-trained models such as CLIP in zero-shot classification, we propose "OpenCBM" to equip the CBM with open vocabulary concepts via: (1) Aligning the feature space of a trainable image feature extractor with that of a CLIP's image encoder via a prototype based feature alignment; (2) Simultaneously training an image classifier on the downstream dataset; (3) Reconstructing the trained classification head via any set of user-desired textual concepts encoded by CLIP's text encoder. To reveal potentially missing concepts from users, we further propose to iteratively find the closest concept embedding to the residual parameters during the reconstruction until the residual is small enough. To the best of our knowledge, our "OpenCBM" is the first CBM with concepts of open vocabularies, providing users the unique benefit such as removing, adding, or replacing any desired concept to explain the model's prediction even after a model is trained. Moreover, our model significantly outperforms the previous state-of-the-art CBM by 9% in the classification accuracy on the benchmark dataset CUB-200-2011.
- Abstract(参考訳): 概念ボトルネックモデル(英語版)(CBM)は、まず解釈可能な概念のセットを予測し、次に与えられた概念に基づいてクラスラベルを予測することによって決定を行う解釈可能なデザイン・バイ・デザイン・フレームワークである。
既存のCBMは、一定の概念セットでトレーニングされる(概念はデータセットによって注釈付けされるか、言語モデルからクエリされる)。
しかし、このクローズドワールドの仮定は実際には非現実的であり、モデルがデプロイされた後の意思決定において、ユーザーは望ましい概念が果たす役割を疑問視するかもしれない。
ゼロショット分類におけるCLIPなどの最近の視覚言語事前学習モデルの成功に触発されて,(1)訓練可能な画像特徴抽出器の特徴空間とCLIPの画像エンコーダの特徴空間の調整,(2)下流データセット上の画像分類器の同時訓練,(3)CLIPのテキストエンコーダによって符号化されたユーザ希望のテキストエンコーダの任意のセットを介して,トレーニング済みの分類ヘッドを再構築する,という,オープンボキャブラリ概念をCBMに装備する"OpenCBM"を提案する。
ユーザから潜在的に欠落している概念を明らかにするため,再建時に残留パラメータに最も近い概念を,残存パラメータが十分に小さくなるまで繰り返し発見することを提案する。
私たちの知る限り、"OpenCBM"はオープンな語彙の概念を備えた最初のCBMであり、モデルがトレーニングされた後もモデルの予測を説明するために、望ましい概念を削除、追加、あるいは置き換えるといったユニークなメリットをユーザに提供します。
さらに,ベンチマークデータセットCUB-200-2011の分類精度は,従来のCBMよりも9%向上した。
関連論文リスト
- Zero-shot Concept Bottleneck Models [17.70684428339905]
概念ボトルネックモデル(CBM)は本質的に解釈可能で、解釈可能なニューラルネットワークモデルである。
ニューラルネットワークを訓練することなく,概念やラベルをゼロショットで予測するテクスツケロ・ショット・コンセプト・ボトルネック・モデル(Z-CBM)を提案する。
論文 参考訳(メタデータ) (2025-02-13T07:11:07Z) - LLM Pretraining with Continuous Concepts [71.98047075145249]
次のトークン予測は、大規模言語モデルの事前トレーニングで使用される標準的なトレーニング目標である。
離散的な次のトークン予測と連続的な概念を組み合わせた新しい事前学習フレームワークであるContinuous Concept Mixing (CoCoMix)を提案する。
論文 参考訳(メタデータ) (2025-02-12T16:00:11Z) - V2C-CBM: Building Concept Bottlenecks with Vision-to-Concept Tokenizer [19.177297480709512]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、イメージを人間の理解可能な概念に変換することによって、固有の解釈性を提供する。
最近のアプローチでは、概念ボトルネックを構築するために、大きな言語モデルの知識を活用している。
本研究では,CBMをマルチモーダルモデルから直接構築することで,これらの問題を回避する。
論文 参考訳(メタデータ) (2025-01-09T05:12:38Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Concept Bottleneck Models Without Predefined Concepts [26.156636891713745]
入力に依存した概念選択機構を導入し、すべてのクラスで小さな概念のサブセットが使用されることを保証します。
提案手法は, ダウンストリーム性能を改善し, ブラックボックスモデルの性能ギャップを狭めるものである。
論文 参考訳(メタデータ) (2024-07-04T13:34:50Z) - Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - Incremental Residual Concept Bottleneck Models [29.388549499546556]
Concept Bottleneck Models (CBM) は、ディープニューラルネットワークによって抽出されたブラックボックスの視覚表現を、解釈可能な概念のセットにマッピングする。
本稿では,概念完全性の課題を解決するために,インクリメンタル・Residual Concept Bottleneck Model (Res-CBM)を提案する。
提案手法は,任意のCBMの性能向上を目的としたポストホック処理法として,ユーザ定義の概念バンクに適用できる。
論文 参考訳(メタデータ) (2024-04-13T12:02:19Z) - Sparse Concept Bottleneck Models: Gumbel Tricks in Contrastive Learning [86.15009879251386]
概念ボトルネックモデル(CBM)を用いた新しいアーキテクチャと説明可能な分類法を提案する。
CBMには、さらなる概念のセットが必要である。
CLIPをベースとしたボトルネックモデルにおいて,スパース隠れ層を用いた精度の大幅な向上を示す。
論文 参考訳(メタデータ) (2024-04-04T09:43:43Z) - Text-To-Concept (and Back) via Cross-Model Alignment [48.133333356834186]
一方のモデルにおける画像表現と他方のモデルにおける画像表現とのマッピングは、ただの線形層で驚くほどよく学習できることを示す。
固定オフザシェルフビジョンエンコーダを驚くほど強力なゼロショット分類器に無償で変換する。
概念監督なしで概念ボトルネックモデルを構築するなど、テキスト・トゥ・コンセプトの即時使用例を示す。
論文 参考訳(メタデータ) (2023-05-10T18:01:06Z) - DetCLIP: Dictionary-Enriched Visual-Concept Paralleled Pre-training for
Open-world Detection [118.36746273425354]
本稿では,デザインされた概念辞書から知識の豊かさを生かして,オープンワールド検出のための並列視覚概念事前学習手法を提案する。
概念をそれらの記述で豊かにすることにより、オープンドメイン学習を促進するために、さまざまな概念間の関係を明確に構築する。
提案フレームワークは、例えばLVISデータセット上で、強力なゼロショット検出性能を示し、私たちのDetCLIP-TはGLIP-Tを9.9%向上させ、レアカテゴリで13.5%改善した。
論文 参考訳(メタデータ) (2022-09-20T02:01:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。