論文の概要: Mitigating Bias in Concept Bottleneck Models for Fair and Interpretable Image Classification
- arxiv url: http://arxiv.org/abs/2603.05899v1
- Date: Fri, 06 Mar 2026 04:37:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:45.086267
- Title: Mitigating Bias in Concept Bottleneck Models for Fair and Interpretable Image Classification
- Title(参考訳): 公正かつ解釈可能な画像分類のための概念ボトルネックモデルにおけるバイアスの緩和
- Authors: Schrasing Tong, Antoine Salaun, Vincent Yuan, Annabel Adeyeri, Lalana Kagal,
- Abstract要約: 概念ボトルネックモデル(CBM)は、イメージを予測する前に高レベルの人間解釈可能な概念にマッピングする。
CBMは概念意味論とは無関係な情報を漏洩することが知られている。
CBMの公平性を改善するために,3つのバイアス緩和手法を提案する。
- 参考スコア(独自算出の注目度): 0.5219568203653523
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensuring fairness in image classification prevents models from perpetuating and amplifying bias. Concept bottleneck models (CBMs) map images to high-level, human-interpretable concepts before making predictions via a sparse, one-layer classifier. This structure enhances interpretability and, in theory, supports fairness by masking sensitive attribute proxies such as facial features. However, CBM concepts have been known to leak information unrelated to concept semantics and early results reveal only marginal reductions in gender bias on datasets like ImSitu. We propose three bias mitigation techniques to improve fairness in CBMs: 1. Decreasing information leakage using a top-k concept filter, 2. Removing biased concepts, and 3. Adversarial debiasing. Our results outperform prior work in terms of fairness-performance tradeoffs, indicating that our debiased CBM provides a significant step towards fair and interpretable image classification.
- Abstract(参考訳): 画像分類における公平性の確保は、モデルを永続させ、バイアスを増幅することを防ぐ。
概念ボトルネックモデル(CBM)は、スパースな1層分類器を介して予測を行う前に、画像を高レベルの人間解釈可能な概念にマッピングする。
この構造は、解釈可能性を高め、理論的には、顔の特徴のような敏感な属性プロキシをマスキングすることによって公平性をサポートする。
しかし、CBMの概念は概念のセマンティクスとは無関係な情報を漏らすことが知られており、初期の結果はImSituのようなデータセットにおける性別バイアスの限界しか示さなかった。
CBMの公平性を改善するための3つのバイアス緩和手法を提案する。
1.トップk概念フィルタによる情報漏洩の低減
2. 偏見概念の除去、及び
逆行性嫌悪
以上の結果から,劣化したCBMは,公平かつ解釈可能な画像分類に向けて重要なステップとなることが示唆された。
関連論文リスト
- Rethinking Concept Bottleneck Models: From Pitfalls to Solutions [53.84388497227224]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念の基底予測である。
CBM-Suiteはこれらの課題に対処するための方法論的なフレームワークである。
論文 参考訳(メタデータ) (2026-03-05T19:37:49Z) - Towards more holistic interpretability: A lightweight disentangled Concept Bottleneck Model [5.700536552863068]
概念ボトルネックモデル(CBM)は、人間の理解可能な概念を中間表現として予測することにより、解釈可能性を高める。
本稿では,視覚的特徴を意味論的に意味のある構成要素に自動的に分類する軽量なDECBMを提案する。
3つの多様なデータセットの実験により、LCDBMはより高い概念とクラス精度を達成し、解釈可能性と分類性能の両方において従来のCBMよりも優れていたことが示されている。
論文 参考訳(メタデータ) (2025-10-17T15:59:30Z) - Uncertainty-Aware Concept Bottleneck Models with Enhanced Interpretability [2.624902795082451]
Concept Bottleneck Models (CBM) は、まずイメージを人間の理解可能な概念のセットに埋め込む。
CBMは意味的に意味があり、解釈可能な分類パイプラインを提供する。
CBMは、エンドツーエンドの畳み込みニューラルネットワークと比較して予測性能を犠牲にすることが多い。
論文 参考訳(メタデータ) (2025-10-01T11:11:18Z) - RoboView-Bias: Benchmarking Visual Bias in Embodied Agents for Robotic Manipulation [67.38036090822982]
ロボット操作における視覚バイアスの定量化を目的とした,最初のベンチマークであるRoboView-Biasを提案する。
我々は、個々の視覚的要因とその相互作用によって引き起こされるバイアスの堅牢な測定を可能にする2,127のタスクインスタンスを作成します。
本研究は,視覚バイアスの系統的解析が,安全で信頼性の高い汎用的なエンボディエージェントの開発に必須であることを示す。
論文 参考訳(メタデータ) (2025-09-26T13:53:25Z) - BiasMap: Leveraging Cross-Attentions to Discover and Mitigate Hidden Social Biases in Text-to-Image Generation [14.110668963732273]
BiasMapは、潜在概念レベルの表現バイアスを明らかにするための、モデルに依存しないフレームワークである。
以上の結果から,既存のフェアネス介入は出力分布ギャップを減少させるが,概念レベルの結合を解離させることができないことが示唆された。
論文 参考訳(メタデータ) (2025-09-16T19:52:12Z) - Interpretable Few-Shot Image Classification via Prototypical Concept-Guided Mixture of LoRA Experts [79.18608192761512]
自己説明可能なモデル(SEM)は、視覚認識プロセスをより解釈可能なものにするために、プロトタイプ概念学習(PCL)に依存している。
パラメトリック不均衡と表現の不整合という2つの重要な課題を緩和するFew-Shotプロトタイプ概念分類フレームワークを提案する。
我々のアプローチは、既存のSEMを顕著な差で常に上回っており、5-way 5-shot分類では4.2%-8.7%の相対的な利得がある。
論文 参考訳(メタデータ) (2025-06-05T06:39:43Z) - Discovering Fine-Grained Visual-Concept Relations by Disentangled Optimal Transport Concept Bottleneck Models [16.617257464664572]
概念ボトルネックモデル(CBM)は、入力画像と出力予測の間の中間概念空間を探索することにより、意思決定プロセスを透過化しようとする。
既存のCBMは、画像全体と概念の間の粗い粒度の関係を学習するだけで、局所的な画像情報を考慮しない。
本稿では,局所的なイメージパッチと概念間の微粒な視覚概念関係を探索するDistangled Optimal Transport CBMフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-12T03:31:57Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Explainable fetal ultrasound quality assessment with progressive concept bottleneck models [6.734637459963132]
胎児超音波品質評価のための総合的,説明可能な方法を提案する。
タスクに「可読性の概念」を導入し、シーケンシャルな専門家による意思決定プロセスを模倣する。
実験により、我々のモデルは、社内データセット上で同等のコンセプトフリーモデルより優れていることが示された。
論文 参考訳(メタデータ) (2022-11-19T09:31:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。