論文の概要: Improving Fairness using Vision-Language Driven Image Augmentation
- arxiv url: http://arxiv.org/abs/2311.01573v1
- Date: Thu, 2 Nov 2023 19:51:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-06 16:02:41.735868
- Title: Improving Fairness using Vision-Language Driven Image Augmentation
- Title(参考訳): 視覚言語駆動型画像拡張による公平性向上
- Authors: Moreno D'Inc\`a, Christos Tzelepis, Ioannis Patras, Nicu Sebe
- Abstract要約: 公平性は、特に顔領域において、ディープラーニングの識別モデルを訓練する際に重要である。
モデルは、特定の特性(年齢や肌の色など)と無関係な属性(下流タスク)を関連付ける傾向がある
本稿では,これらの相関を緩和し,公平性を向上する手法を提案する。
- 参考スコア(独自算出の注目度): 60.428157003498995
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Fairness is crucial when training a deep-learning discriminative model,
especially in the facial domain. Models tend to correlate specific
characteristics (such as age and skin color) with unrelated attributes
(downstream tasks), resulting in biases which do not correspond to reality. It
is common knowledge that these correlations are present in the data and are
then transferred to the models during training. This paper proposes a method to
mitigate these correlations to improve fairness. To do so, we learn
interpretable and meaningful paths lying in the semantic space of a pre-trained
diffusion model (DiffAE) -- such paths being supervised by contrastive text
dipoles. That is, we learn to edit protected characteristics (age and skin
color). These paths are then applied to augment images to improve the fairness
of a given dataset. We test the proposed method on CelebA-HQ and UTKFace on
several downstream tasks with age and skin color as protected characteristics.
As a proxy for fairness, we compute the difference in accuracy with respect to
the protected characteristics. Quantitative results show how the augmented
images help the model improve the overall accuracy, the aforementioned metric,
and the disparity of equal opportunity. Code is available at:
https://github.com/Moreno98/Vision-Language-Bias-Control.
- Abstract(参考訳): ディープラーニングの識別モデル、特に顔領域のトレーニングでは、公平さが重要です。
モデルは、特定の特性(年齢や肌の色など)と非関連属性(ダウンストリームタスク)を関連付ける傾向があり、その結果、現実と一致しないバイアスが生じる。
これらの相関関係がデータの中に存在し、トレーニング中にモデルに転送されることは一般的な知識である。
本稿では,これらの相関を緩和して公平性を改善する手法を提案する。
そこで我々は,事前学習した拡散モデル (DiffAE) の意味空間にある解釈可能な意味的な経路を学習する。
つまり、保護された特徴(年齢と肌の色)を編集することを学ぶ。
これらのパスは、与えられたデータセットの公平性を改善するために拡張イメージに適用される。
CelebA-HQ と UTKFace では,年齢と肌の色を保護特性とする複数の下流課題に対して提案手法を検証した。
公平さの指標として,保護された特性に関して精度の差を計算する。
定量的な結果は、拡張画像がモデル全体の精度、上記の指標、および同機会の格差を改善するのにどのように役立つかを示す。
コードは、https://github.com/Moreno98/Vision-Language-Bias-Controlで入手できる。
関連論文リスト
- FineFACE: Fair Facial Attribute Classification Leveraging Fine-grained Features [3.9440964696313485]
自動的な顔属性分類アルゴリズムでは、人口統計バイアスの存在が強調されている。
既存のバイアス緩和技術は、一般に人口統計学的なアノテーションを必要とし、しばしば公正性と正確性の間のトレードオフを得る。
そこで本稿では, 顔属性の公平な分類法を, きめ細かな分類問題とみなして提案する。
論文 参考訳(メタデータ) (2024-08-29T20:08:22Z) - Leveraging vision-language models for fair facial attribute classification [19.93324644519412]
汎用視覚言語モデル(英: General-purpose Vision-Language Model, VLM)は、共通感性属性のための豊富な知識源である。
我々は,VLM予測値と人間定義属性分布の対応関係を解析した。
複数のベンチマークの顔属性分類データセットの実験は、既存の教師なしベースラインよりもモデルの公平性の向上を示している。
論文 参考訳(メタデータ) (2024-03-15T18:37:15Z) - Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Stubborn Lexical Bias in Data and Models [50.79738900885665]
我々は、データに基づいてトレーニングされたモデルに、データのスプリアスパターンが現れるかどうかを調べるために、新しい統計手法を用いる。
トレーニングデータに*reweight*に最適化アプローチを適用し、数千のスプリアス相関を低減します。
驚くべきことに、この方法ではトレーニングデータの語彙バイアスを低減できますが、トレーニングされたモデルで対応するバイアスの強い証拠がまだ見つかっていません。
論文 参考訳(メタデータ) (2023-06-03T20:12:27Z) - Model Debiasing via Gradient-based Explanation on Representation [14.673988027271388]
本稿では,デリケートな属性やプロキシな属性に関して,デバイアスを行う新しいフェアネスフレームワークを提案する。
我々のフレームワークは、過去の最先端のアプローチよりも、構造化されていないデータセットと構造化されたデータセットの公平性と正確なトレードオフを達成しています。
論文 参考訳(メタデータ) (2023-05-20T11:57:57Z) - Discffusion: Discriminative Diffusion Models as Few-shot Vision and Language Learners [88.07317175639226]
本稿では,事前学習したテキストと画像の拡散モデルを数ショットの識別学習者に変換する新しい手法,DSDを提案する。
本手法は, 安定拡散モデルにおいて, 視覚情報とテキスト情報の相互影響を捉えるために, クロスアテンションスコアを用いている。
論文 参考訳(メタデータ) (2023-05-18T05:41:36Z) - Masked Images Are Counterfactual Samples for Robust Fine-tuning [77.82348472169335]
微調整の深層学習モデルは、分布内(ID)性能と分布外(OOD)堅牢性の間のトレードオフにつながる可能性がある。
そこで本研究では,マスク付き画像を対物サンプルとして用いて,ファインチューニングモデルのロバスト性を向上させる新しいファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-03-06T11:51:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。