論文の概要: Mitigating Bias with Words: Inducing Demographic Ambiguity in Face Recognition Templates by Text Encoding
- arxiv url: http://arxiv.org/abs/2512.08981v1
- Date: Fri, 05 Dec 2025 10:41:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.242678
- Title: Mitigating Bias with Words: Inducing Demographic Ambiguity in Face Recognition Templates by Text Encoding
- Title(参考訳): 単語によるバイアスの緩和:テキストエンコーディングによる顔認識テンプレートにおける画像の曖昧さの誘導
- Authors: Tahar Chettaoui, Naser Damer, Fadi Boutros,
- Abstract要約: 顔認識システムは、しばしば人口統計学的バイアスに起因し、部分的には、人口統計学的情報と、顔の埋め込みにおけるアイデンティティ関連の特徴が絡み合っているためである。
我々は,顔埋め込みにおける人口動態のあいまいさを誘発する新しい手法である統一テキスト・イメージ・埋め込み(UTIE)を提案する。
UTIEは、いくつかのケースにおいて、顔認証精度を維持しながら、あるいは改善しながら、常にバイアスメトリクスを減少させることを示す。
- 参考スコア(独自算出の注目度): 18.08946802592489
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Face recognition (FR) systems are often prone to demographic biases, partially due to the entanglement of demographic-specific information with identity-relevant features in facial embeddings. This bias is extremely critical in large multicultural cities, especially where biometrics play a major role in smart city infrastructure. The entanglement can cause demographic attributes to overshadow identity cues in the embedding space, resulting in disparities in verification performance across different demographic groups. To address this issue, we propose a novel strategy, Unified Text-Image Embedding (UTIE), which aims to induce demographic ambiguity in face embeddings by enriching them with information related to other demographic groups. This encourages face embeddings to emphasize identity-relevant features and thus promotes fairer verification performance across groups. UTIE leverages the zero-shot capabilities and cross-modal semantic alignment of Vision-Language Models (VLMs). Given that VLMs are naturally trained to align visual and textual representations, we enrich the facial embeddings of each demographic group with text-derived demographic features extracted from other demographic groups. This encourages a more neutral representation in terms of demographic attributes. We evaluate UTIE using three VLMs, CLIP, OpenCLIP, and SigLIP, on two widely used benchmarks, RFW and BFW, designed to assess bias in FR. Experimental results show that UTIE consistently reduces bias metrics while maintaining, or even improving in several cases, the face verification accuracy.
- Abstract(参考訳): 顔認識システム(FR)は、人口統計学的バイアスに起因することが多く、部分的には、人口統計学的情報と、顔の埋め込みにおけるアイデンティティ関連の特徴が絡み合っているためである。
このバイアスは、特にバイオメトリックスがスマートシティのインフラにおいて重要な役割を果たしている、大規模な多文化都市において極めて重要である。
この絡み合いは、人口統計学的属性が埋め込み空間において隠れたアイデンティティの手がかりとなり、異なる人口統計学的グループ間での検証性能の相違をもたらす可能性がある。
この問題に対処するために、他の人口集団に関する情報を豊かにすることで、顔の埋め込みにおける人口のあいまいさを誘発することを目的とした、新しい戦略である統一テキスト画像埋め込み(UTIE)を提案する。
これにより、顔の埋め込みはアイデンティティに関連する特徴を強調し、グループ間でより公平な検証パフォーマンスを促進する。
UTIEは、ビジョン・ランゲージ・モデル(VLM)のゼロショット機能とモーダルなセマンティックアライメントを活用している。
VLMは自然に視覚とテキストの表現を整列するように訓練されているので、他の人口集団から抽出されたテキスト由来の人口動態と、各人口集団の顔の埋め込みを豊かにする。
これにより、人口統計学的属性の観点からより中立的な表現が促進される。
CLIP,OpenCLIP,SigLIPの3つのVLMを用いてUTIEを評価する。
実験結果から,UTIEは顔認証の精度を維持・改善しながら,常にバイアスの指標を減少させることがわかった。
関連論文リスト
- DAIQ: Auditing Demographic Attribute Inference from Question in LLMs [3.1677998308405786]
大規模言語モデル(LLM)は、性別や人種などの人口特性が入力の中に明示的に存在するときに、社会的偏見を反映することが知られている。
しかし、それらのモデルが存在しない場合でも、これらのモデルは質問のフレーズだけでユーザーのアイデンティティを推測する。
本稿では,言語モデルで見過ごされた障害モードを監査するためのタスクおよびフレームワークであるDAIQを紹介する。
論文 参考訳(メタデータ) (2025-08-18T19:26:17Z) - Balancing the Scales: Enhancing Fairness in Facial Expression Recognition with Latent Alignment [5.784550537553534]
このワークル平均は、表情認識システムにおけるバイアスを軽減するために、潜在空間に基づく表現学習を行う。
また、ディープラーニングモデルの公平性と全体的な正確性も向上する。
論文 参考訳(メタデータ) (2024-10-25T10:03:10Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Sociodemographic Prompting is Not Yet an Effective Approach for Simulating Subjective Judgments with LLMs [13.744746481528711]
大規模言語モデル(LLM)は、様々な文脈で人間の反応をシミュレートするために広く使われている。
我々は,2つの主観的判断課題(丁寧さと攻撃性)において,人口差を理解する能力について,9つの人気のLCMを評価した。
ゼロショット設定では、両方のタスクのほとんどのモデルの予測は、アジアやブラックの参加者よりもホワイトの参加者のラベルとより密接に一致している。
論文 参考訳(メタデータ) (2023-11-16T10:02:24Z) - Invariant Feature Regularization for Fair Face Recognition [45.23154294914808]
偏りのある特徴は少数派ではあまり一般化しないことを示す。
教師なしの方法で多様なデータ分割を反復的に生成することを提案する。
INV-REGは、様々な人口集団の顔認識を改善する新しい最先端技術をもたらす。
論文 参考訳(メタデータ) (2023-10-23T07:44:12Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z) - Enhancing Facial Data Diversity with Style-based Face Aging [59.984134070735934]
特に、顔データセットは、通常、性別、年齢、人種などの属性の観点からバイアスされる。
本稿では, 細粒度の老化パターンをキャプチャするデータ拡張のための, 生成スタイルに基づく新しいアーキテクチャを提案する。
提案手法は, 年齢移動のための最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-06T21:53:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。