論文の概要: Locality-aware Concept Bottleneck Model
- arxiv url: http://arxiv.org/abs/2508.14562v1
- Date: Wed, 20 Aug 2025 09:33:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.413301
- Title: Locality-aware Concept Bottleneck Model
- Title(参考訳): 局所性を考慮した概念ボトルネックモデル
- Authors: Sujin Jeon, Hyundo Lee, Eungseo Kim, Sanghack Lee, Byoung-Tak Zhang, Inwoo Hwang,
- Abstract要約: 概念ボトルネックモデル(CBM)は、人間の理解可能な視覚的手がかりに基づいて予測を行う、本質的に解釈可能なモデルである。
そこで我々は,空間的局所性を保証するためにプロトタイプ学習を採用するLCBM(Locality-aware Concept Bottleneck Model)というフレームワークを提案する。
- 参考スコア(独自算出の注目度): 25.42941510314879
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Concept bottleneck models (CBMs) are inherently interpretable models that make predictions based on human-understandable visual cues, referred to as concepts. As obtaining dense concept annotations with human labeling is demanding and costly, recent approaches utilize foundation models to determine the concepts existing in the images. However, such label-free CBMs often fail to localize concepts in relevant regions, attending to visually unrelated regions when predicting concept presence. To this end, we propose a framework, coined Locality-aware Concept Bottleneck Model (LCBM), which utilizes rich information from foundation models and adopts prototype learning to ensure accurate spatial localization of the concepts. Specifically, we assign one prototype to each concept, promoted to represent a prototypical image feature of that concept. These prototypes are learned by encouraging them to encode similar local regions, leveraging foundation models to assure the relevance of each prototype to its associated concept. Then we use the prototypes to facilitate the learning process of identifying the proper local region from which each concept should be predicted. Experimental results demonstrate that LCBM effectively identifies present concepts in the images and exhibits improved localization while maintaining comparable classification performance.
- Abstract(参考訳): 概念ボトルネックモデル(英語版)(CBM)は本質的に解釈可能なモデルであり、人間の理解可能な視覚的手がかりに基づいて予測を行う。
人間のラベル付けによる密集した概念アノテーションの取得が要求され、コストがかかるため、近年のアプローチでは、基礎モデルを用いて画像に存在する概念を決定する。
しかしながら、そのようなラベルのないCBMは、概念の存在を予測する際に視覚的に無関係な領域に出席して、関連する領域における概念のローカライズに失敗することが多い。
そこで本研究では,基礎モデルの豊富な情報を活用し,プロトタイプ学習を採用し,概念の正確な空間的ローカライゼーションを保証するためのフレームワークであるLocality-Aware Concept Bottleneck Model (LCBM)を提案する。
具体的には,各コンセプトのプロトタイプを1つ割り当て,そのコンセプトのプロトタイプ画像の特徴を表現するように促進する。
これらのプロトタイプは、同じローカルリージョンをエンコードすることを奨励し、基礎モデルを活用して、各プロトタイプの関連するコンセプトとの関連性を保証することによって学習される。
次に,プロトタイプを用いて,各概念が予測される適切な地域を特定する学習プロセスを容易にする。
実験の結果,LCBMは画像中の既存の概念を効果的に識別し,類似の分類性能を維持しつつ,局所性の向上を示すことがわかった。
関連論文リスト
- Show and Tell: Visually Explainable Deep Neural Nets via Spatially-Aware Concept Bottleneck Models [5.985204759362746]
本稿では,視覚ニューラルネットワークを空間的・概念的に解釈可能なモデルに変換する統一的な枠組みを提案する。
この手法をSALF-CBM(Spatially-Aware and Label-Free Concept Bottleneck Model)と呼ぶ。
論文 参考訳(メタデータ) (2025-02-27T14:27:55Z) - OmniPrism: Learning Disentangled Visual Concept for Image Generation [57.21097864811521]
創造的な視覚概念の生成は、しばしば関連する結果を生み出すために参照イメージ内の特定の概念からインスピレーションを引き出す。
我々は,創造的画像生成のための視覚的概念分離手法であるOmniPrismを提案する。
提案手法は,自然言語で案内される不整合概念表現を学習し,これらの概念を組み込むために拡散モデルを訓練する。
論文 参考訳(メタデータ) (2024-12-16T18:59:52Z) - Concept Replacer: Replacing Sensitive Concepts in Diffusion Models via Precision Localization [48.20360860166279]
大規模な拡散モデルは高品質な画像を生成するが、しばしば性的に明示的なコンテンツや暴力的なコンテンツのような望ましくないコンテンツを生成する。
本研究では,非対象領域に影響を及ぼすことなく,特定の概念を除去することが可能な拡散モデルにおいて,対象概念を置き換えるための新しい手法を提案する。
本手法では,最小限のラベル付きデータを必要とする数発の学習で学習し,目標概念を正確に識別する専用概念ローカライザを提案する。
特定領域内では,DPCA(Dual Prompts Cross-Attention)モジュールが導入された。
論文 参考訳(メタデータ) (2024-12-02T08:05:39Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - ConcEPT: Concept-Enhanced Pre-Training for Language Models [57.778895980999124]
ConcEPTは、概念知識を事前訓練された言語モデルに注入することを目的としている。
これは、事前訓練されたコンテキストで言及されたエンティティの概念を予測するために、外部エンティティの概念予測を利用する。
実験の結果,ConcEPTは概念強化事前学習により概念知識を向上することがわかった。
論文 参考訳(メタデータ) (2024-01-11T05:05:01Z) - Do Concept Bottleneck Models Respect Localities? [14.77558378567965]
概念に基づく説明可能性法は、人間の理解可能な仲介者を用いて機械学習モデルの説明を生成する。
我々は、概念予測者が「関連」機能を利用して予測を行うかどうかを評価する。
概念予測器は必ずしも明確な概念を区別できないため、実際には多くの概念ベースモデルは局所性を尊重しない。
論文 参考訳(メタデータ) (2024-01-02T16:05:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。