論文の概要: Bias Is a Subspace, Not a Coordinate: A Geometric Rethinking of Post-hoc Debiasing in Vision-Language Models
- arxiv url: http://arxiv.org/abs/2511.18123v1
- Date: Sat, 22 Nov 2025 17:04:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.640542
- Title: Bias Is a Subspace, Not a Coordinate: A Geometric Rethinking of Post-hoc Debiasing in Vision-Language Models
- Title(参考訳): Biasはサブスペースでコーディネートではない:視覚・言語モデルにおけるポストホックなデバイアスの幾何学的再考
- Authors: Dachuan Zhao, Weiyue Li, Zhenda Shen, Yushu Qiu, Bowen Xu, Haoyu Chen, Yongchao Chen,
- Abstract要約: VLM(Vision-Language Models)は、マルチモーダルな推論には欠かせないものとなっているが、それらの表現はしばしば人口統計バイアスをエンコードし増幅している。
線形デオード可能なバイアスの全部分空間を同定・除去する幾何学的原理の枠組みを提案する。
提案手法は, 4つのフェアネス指標に対して平均18.5%の精度向上を達成し, より堅牢なデバイアス化を実現する。
- 参考スコア(独自算出の注目度): 13.46898179372249
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vision-Language Models (VLMs) have become indispensable for multimodal reasoning, yet their representations often encode and amplify demographic biases, resulting in biased associations and misaligned predictions in downstream tasks. Such behavior undermines fairness and distorts the intended alignment between vision and language. Recent post-hoc approaches attempt to mitigate bias by replacing the most attribute-correlated embedding coordinates with neutral values. However, our systematic analysis reveals three critical failures of this coordinate-wise approach: feature entanglement, poor cross-dataset generalization, and incomplete bias removal. We find that bias is not localized to a few coordinates but is instead distributed across a few linear subspaces. To address these limitations, we propose $\textbf{S}$ubspace $\textbf{P}$rojection $\textbf{D}$ebiasing ($\textbf{SPD}$), a geometrically principled framework that identifies and removes the entire subspace of linearly decodable bias while reinserting a neutral mean component to preserve semantic fidelity. Extensive experiments across zero-shot classification, text-to-image retrieval, and image generation validate the effectiveness of SPD: our method achieves more robust debiasing with an average improvement of $18.5\%$ across four fairness metrics, while maintaining minimal loss in task performance compared to the best debiasing baseline.
- Abstract(参考訳): VLM(Vision-Language Models)はマルチモーダルな推論には欠かせないものとなっているが、それらの表現はしばしば人口統計バイアスをエンコードし、増幅し、結果として下流のタスクにおけるバイアス付き関連や不整合予測をもたらす。
このような行動は公平さを損ね、視覚と言語の間の意図した整合性を歪ませる。
最近のポストホック法は、最も属性に関連のある埋め込み座標を中性値に置き換えることでバイアスを軽減する。
しかし,本手法では,特徴の絡み合い,クロスデータセットの一般化の貧弱化,不完全バイアス除去の3つの重要な障害が報告されている。
バイアスはいくつかの座標に局所化されないが、代わりにいくつかの線型部分空間に分散する。
これらの制限に対処するため、我々は、中性平均成分を再挿入して意味的忠実性を保持する中性平均成分を識別し除去する幾何学的原理のフレームワークである$\textbf{S}$ubspace $\textbf{P}$rojection $\textbf{D}$ebiasing ($\textbf{SPD}$}$)を提案する。
ゼロショット分類, テキスト・ツー・イメージ検索, 画像生成による広範囲な実験により, SPDの有効性が検証された。本手法は, 4つのフェアネス指標の平均18.5 %$を改良し, 最高のデバイアスベースラインに比べてタスク性能の損失を最小限に抑えながら, より堅牢なデバイアス化を実現している。
関連論文リスト
- BLADE: Bias-Linked Adaptive DEbiasing [2.7352017408152083]
BLADEは、バイアスやバイアスを伴うサンプルの事前知識を必要としない、生成的デバイアスのフレームワークである。
我々は,複数のベンチマークデータセット上でBLADEを評価し,最先端の手法を著しく上回ることを示す。
論文 参考訳(メタデータ) (2025-10-05T12:28:54Z) - Mitigate One, Skew Another? Tackling Intersectional Biases in Text-to-Image Models [73.20190633746442]
テキスト・ツー・イメージ・モデルにおけるバイアス相互作用を解析・定量化するための新しいツールであるBiasConnectを紹介する。
ユーザが定義した目標分布と優先度重みを導出する交叉バイアス緩和アルゴリズムであるInterMitを提案する。
論文 参考訳(メタデータ) (2025-05-22T20:56:38Z) - Attention Speaks Volumes: Localizing and Mitigating Bias in Language Models [15.53216696218776]
本稿では,大きな言語モデル(LLM)において,曖昧な比較プロンプトが提供される場合のバイアスの発生メカニズムについて検討する。
本稿では,LLMの特定の層にバイアスを局所化する手法である$textttATLAS$を提案する。
論文 参考訳(メタデータ) (2024-10-29T20:15:56Z) - Towards Real-world Debiasing: Rethinking Evaluation, Challenge, and Solution [17.080528126651977]
我々は、このギャップを埋め、現実のデバイアスのための体系的な評価フレームワークを構築するために、2つの新しい現実世界に着想を得たバイアスを導入します。
この課題に対処するため,Debias in Destruction (DiD) というシンプルなアプローチを提案する。
論文 参考訳(メタデータ) (2024-05-24T06:06:41Z) - Marginal Debiased Network for Fair Visual Recognition [59.05212866862219]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成できる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - Revisiting Evaluation Metrics for Semantic Segmentation: Optimization
and Evaluation of Fine-grained Intersection over Union [113.20223082664681]
そこで本研究では,mIoUsの微細化と,それに対応する最悪の指標を提案する。
これらのきめ細かいメトリクスは、大きなオブジェクトに対するバイアスの低減、よりリッチな統計情報、モデルとデータセット監査に関する貴重な洞察を提供する。
ベンチマークでは,1つの測定値に基づかないことの必要性を強調し,微細なmIoUsが大きな物体への偏りを減少させることを確認した。
論文 参考訳(メタデータ) (2023-10-30T03:45:15Z) - Balancing the Picture: Debiasing Vision-Language Datasets with Synthetic
Contrast Sets [52.77024349608834]
視覚言語モデルは、インターネットから未計算の画像テキストペアの事前トレーニング中に学んだ社会的バイアスを永続し、増幅することができる。
COCO Captionsは、背景コンテキストとその場にいる人々の性別間のバイアスを評価するために最も一般的に使用されるデータセットである。
本研究では,COCOデータセットを男女バランスの取れたコントラストセットで拡張する新しいデータセットデバイアスパイプラインを提案する。
論文 参考訳(メタデータ) (2023-05-24T17:59:18Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - BiasEnsemble: Revisiting the Importance of Amplifying Bias for Debiasing [31.665352191081357]
Debiasing”は、データセットバイアスの影響を受けにくいように分類器をトレーニングすることを目的としている。
$f_B$はバイアス整合サンプルにフォーカスするよう訓練され、$f_D$は主にバイアス整合サンプルでトレーニングされる。
本稿では,バイアス分散サンプルを除去する新しいバイアス付きサンプル選択法であるBiasEnsembleを提案する。
論文 参考訳(メタデータ) (2022-05-29T07:55:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。