論文の概要: BioPro: On Difference-Aware Gender Fairness for Vision-Language Models
- arxiv url: http://arxiv.org/abs/2512.00807v1
- Date: Sun, 30 Nov 2025 09:33:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.42864
- Title: BioPro: On Difference-Aware Gender Fairness for Vision-Language Models
- Title(参考訳): BioPro:視覚言語モデルにおける差認識性フェアネスについて
- Authors: Yujie Lin, Jiayao Ma, Qingguo Hu, Derek F. Wong, Jinsong Su,
- Abstract要約: VLM(Vision-Language Models)は、特にジェンダー表現において、トレーニングデータから重要な社会的バイアスを継承する。
我々は、画像キャプションとテキスト・ツー・イメージ生成における差認識性フェアネスの問題を定式化するために、テキストのみのモデルにおける差認識性フェアネスの最近の進歩の上に構築する。
我々は、中立な文脈における望ましくないバイアスを軽減し、明示的な文脈における有効な区別を保ちながら、BioProを提案する。
- 参考スコア(独自算出の注目度): 50.40913324046528
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vision-Language Models (VLMs) inherit significant social biases from their training data, notably in gender representation. Current fairness interventions often adopt a difference-unaware perspective that enforces uniform treatment across demographic groups. These approaches, however, fail to distinguish between contexts where neutrality is required and those where group-specific attributes are legitimate and must be preserved. Building upon recent advances in difference-aware fairness for text-only models, we extend this concept to the multimodal domain and formalize the problem of difference-aware gender fairness for image captioning and text-to-image generation. We advocate for selective debiasing, which aims to mitigate unwanted bias in neutral contexts while preserving valid distinctions in explicit ones. To achieve this, we propose BioPro (Bias Orthogonal Projection), an entirely training-free framework. BioPro identifies a low-dimensional gender-variation subspace through counterfactual embeddings and applies projection to selectively neutralize gender-related information. Experiments show that BioPro effectively reduces gender bias in neutral cases while maintaining gender faithfulness in explicit ones, thus providing a promising direction toward achieving selective fairness in VLMs. Beyond gender bias, we further demonstrate that BioPro can effectively generalize to continuous bias variables, such as scene brightness, highlighting its broader applicability.
- Abstract(参考訳): VLM(Vision-Language Models)は、特にジェンダー表現において、トレーニングデータから重要な社会的バイアスを継承する。
現在の公正な介入は、人口統計群全体にわたって均一な治療を強制する相違を意識しない視点を採用することが多い。
しかし、これらのアプローチは中立性が必要なコンテキストと、グループ固有の属性が正当で保存されなければならないコンテキストを区別することができない。
テキストのみのモデルにおける差分認識フェアネスの最近の進歩に基づき、この概念をマルチモーダル領域に拡張し、画像キャプションとテキスト・ツー・イメージ生成における差分認識性フェアネスの問題を定式化する。
我々は、中立な文脈における望ましくない偏見を緩和し、明示的な文脈における有効な区別を保ちながら選択的偏見を提唱する。
そこで本研究では,完全にトレーニング不要なBioPro(Bias Orthogonal Projection)を提案する。
BioProは、非現実的な埋め込みを通じて低次元の性別変化部分空間を特定し、性別関連情報を選択的に中和するために投影を適用する。
実験の結果,BioProは中性症例の性別バイアスを効果的に低減し,明示的な症例の性別忠実度を維持した上で,VLMにおける選択公正性の実現に向けた有望な方向性を示す。
ジェンダーバイアス以外にも、BioProはシーンの明るさなどの連続バイアス変数を効果的に一般化し、その適用性を強調している。
関連論文リスト
- More of the Same: Persistent Representational Harms Under Increased Representation [12.071592182704707]
生成したテキストにおける分布レベルのグループ表現バイアスを克服するための評価手法を開発した。
モデルがバイオグラフィーを生成するように促されたときのジェンダー分布は、女性の大きな表現につながるが、表現バイアスでさえ、異なるジェンダーの表現方法に持続する。
論文 参考訳(メタデータ) (2025-03-01T03:45:35Z) - The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [91.86718720024825]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - MoESD: Mixture of Experts Stable Diffusion to Mitigate Gender Bias [23.10522891268232]
テキスト・ツー・イメージ・モデルにおいて、ジェンダーバイアスを軽減するためのMixture-of-Expertsアプローチを導入する。
画像品質を維持しながら, 性別偏見の軽減に成功していることを示す。
論文 参考訳(メタデータ) (2024-06-25T14:59:31Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Social Norm Bias: Residual Harms of Fairness-Aware Algorithms [21.50551404445654]
社会ノームバイアス (Social Norm Bias, SNoB) は、自動意思決定システムによって示される、微妙だが連続的な差別の一種である。
我々は、アルゴリズムの予測が性規範とどのように関連しているかを測定することでSNoBを定量化する。
後処理の介入は、この種のバイアスを全く軽減しないことを示す。
論文 参考訳(メタデータ) (2021-08-25T05:54:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。