論文の概要: CUBIC: Concept Embeddings for Unsupervised Bias Identification using VLMs
- arxiv url: http://arxiv.org/abs/2505.11060v1
- Date: Fri, 16 May 2025 09:57:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:14.571973
- Title: CUBIC: Concept Embeddings for Unsupervised Bias Identification using VLMs
- Title(参考訳): CUBIC:VLMを用いた教師なしバイアス識別のための概念埋め込み
- Authors: David Méndez, Gianpaolo Bontempo, Elisa Ficarra, Roberto Confalonieri, Natalia Díaz-Rodríguez,
- Abstract要約: 高い人間の理解可能な概念を解釈する手法は、熱のような低レベルの特徴に依存する方法よりも効果的である。
概念に基づく手法の大きな課題は、そのようなラベル付けの概念を示す画像アノテーションの欠如である。
CUBICは、あらかじめ定義された候補や、特定のバイアスに結びついたモデル失敗の例に依存しない。
- 参考スコア(独自算出の注目度): 2.0062715282793233
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep vision models often rely on biases learned from spurious correlations in datasets. To identify these biases, methods that interpret high-level, human-understandable concepts are more effective than those relying primarily on low-level features like heatmaps. A major challenge for these concept-based methods is the lack of image annotations indicating potentially bias-inducing concepts, since creating such annotations requires detailed labeling for each dataset and concept, which is highly labor-intensive. We present CUBIC (Concept embeddings for Unsupervised Bias IdentifiCation), a novel method that automatically discovers interpretable concepts that may bias classifier behavior. Unlike existing approaches, CUBIC does not rely on predefined bias candidates or examples of model failures tied to specific biases, as such information is not always available. Instead, it leverages image-text latent space and linear classifier probes to examine how the latent representation of a superclass label$\unicode{x2014}$shared by all instances in the dataset$\unicode{x2014}$is influenced by the presence of a given concept. By measuring these shifts against the normal vector to the classifier's decision boundary, CUBIC identifies concepts that significantly influence model predictions. Our experiments demonstrate that CUBIC effectively uncovers previously unknown biases using Vision-Language Models (VLMs) without requiring the samples in the dataset where the classifier underperforms or prior knowledge of potential biases.
- Abstract(参考訳): ディープビジョンモデルは、しばしばデータセットの急激な相関から学んだバイアスに依存する。
これらのバイアスを特定するために、高レベルで人間の理解可能な概念を解釈する手法は、主にヒートマップのような低レベルな特徴に依存する方法よりも効果的である。
これらの概念に基づく手法の大きな課題は、潜在的なバイアスを誘発する概念を示すイメージアノテーションの欠如である。
CUBIC(Concept Embeddings for Unsupervised Bias IdentifiCation)は,バイアス分類器の振る舞いを自動で検出する手法である。
既存のアプローチとは異なり、CUBICは事前に定義されたバイアス候補や特定のバイアスに関連するモデルの失敗例に依存していない。
代わりに、画像テキストの潜在空間と線形分類器プローブを利用して、超クラスラベル$\unicode{x2014}$sharedがデータセット$\unicode{x2014}$isのすべてのインスタンスによってどのように潜在表現が与えられた概念の存在に影響されるかを調べる。
正規ベクトルから分類器の決定境界へのシフトを測定することで、CUBICはモデル予測に大きな影響を及ぼす概念を特定する。
我々の実験は、分類器が潜在バイアスを過小評価するデータセットのサンプルを必要とせずに、VLM(Vision-Language Models)を用いて、これまで知られていなかったバイアスを効果的に発見できることを実証した。
関連論文リスト
- Classifier-to-Bias: Toward Unsupervised Automatic Bias Detection for Visual Classifiers [25.909153114646692]
既存のバイアス識別のアプローチは、関心のあるタスクのラベルを含むデータセットに依存している。
ラベル付きデータにアクセスせずに動作する最初のバイアス発見フレームワークである-to-Bias(C2B)を提示する。
C2Bはトレーニング不要で、アノテーションを一切必要とせず、バイアスのリストに制約がなく、任意の分類タスクで事前訓練されたモデルに適用できる。
論文 参考訳(メタデータ) (2025-04-29T16:19:38Z) - WASP: A Weight-Space Approach to Detecting Learned Spuriousness [5.025665239455297]
本稿では,モデルの予測分析からモデルの重み分析へ焦点を切り替える手法を提案する。
提案するSpuriousness (WASP) 検出のための重み空間アプローチは, 各種(spurious)相関を捉えるために, 基礎モデルの重みを解析することに依存する。
従来の手法とは違って,本手法では,トレーニングや検証の反例に照らされていない場合でも,データセットが特徴とする突発的相関を露呈することができることを示す。
論文 参考訳(メタデータ) (2024-10-24T17:59:16Z) - Memory Consistency Guided Divide-and-Conquer Learning for Generalized
Category Discovery [56.172872410834664]
一般カテゴリー発見(GCD)は、半教師付き学習のより現実的で挑戦的な設定に対処することを目的としている。
メモリ一貫性を誘導する分枝・分枝学習フレームワーク(MCDL)を提案する。
本手法は,画像認識の目に見えるクラスと見えないクラスの両方において,最先端のモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-24T09:39:45Z) - Causality and Independence Enhancement for Biased Node Classification [56.38828085943763]
各種グラフニューラルネットワーク(GNN)に適用可能な新しい因果性・独立性向上(CIE)フレームワークを提案する。
提案手法は,ノード表現レベルでの因果的特徴と突発的特徴を推定し,突発的相関の影響を緩和する。
我々のアプローチCIEは、GNNの性能を大幅に向上するだけでなく、最先端の debiased ノード分類法よりも優れています。
論文 参考訳(メタデータ) (2023-10-14T13:56:24Z) - Look Beyond Bias with Entropic Adversarial Data Augmentation [4.893694715581673]
ディープニューラルネットワークは、スパイラルパターンと因果パターンを区別せず、他を無視しながら最も予測的なパターンのみを学ぶ。
ネットワークをこのような刺激的なバイアスに頑健にするためにデバイアス法が開発されたが、データセットがバイアスを受けているかどうかを事前に知る必要がある。
本稿では,「隠された」因果情報がバイアス画像に含まれる場合が多いため,このようなサンプルは必ずしも必要ではない,と論じる。
論文 参考訳(メタデータ) (2023-01-10T08:25:24Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Visual Recognition with Deep Learning from Biased Image Datasets [6.10183951877597]
視覚認知の文脈において、バイアスモデルがどのように治療問題に適用できるかを示す。
作業中のバイアス機構に関する(近似的な)知識に基づいて、我々のアプローチは観察を再重み付けする。
本稿では,画像データベース間で共有される低次元画像表現を提案する。
論文 参考訳(メタデータ) (2021-09-06T10:56:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。