論文の概要: SANER: Annotation-free Societal Attribute Neutralizer for Debiasing CLIP
- arxiv url: http://arxiv.org/abs/2408.10202v1
- Date: Mon, 19 Aug 2024 17:57:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-20 15:13:19.350726
- Title: SANER: Annotation-free Societal Attribute Neutralizer for Debiasing CLIP
- Title(参考訳): SANER:CLIPを悪用するための注釈のない社会貢献ニュートラル化剤
- Authors: Yusuke Hirota, Min-Hung Chen, Chien-Yi Wang, Yuta Nakashima, Yu-Chiang Frank Wang, Ryo Hachiuma,
- Abstract要約: CLIPのような大規模視覚言語モデルは、保護属性に関する有害な社会的バイアスを含むことが知られている。
我々は,CLIPテキストの特徴情報から属性情報を取り除き,属性ニュートラル記述のみを除去する,SANERという単純なyet- Effective debiasing手法を提案する。
- 参考スコア(独自算出の注目度): 41.62536201065971
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large-scale vision-language models, such as CLIP, are known to contain harmful societal bias regarding protected attributes (e.g., gender and age). In this paper, we aim to address the problems of societal bias in CLIP. Although previous studies have proposed to debias societal bias through adversarial learning or test-time projecting, our comprehensive study of these works identifies two critical limitations: 1) loss of attribute information when it is explicitly disclosed in the input and 2) use of the attribute annotations during debiasing process. To mitigate societal bias in CLIP and overcome these limitations simultaneously, we introduce a simple-yet-effective debiasing method called SANER (societal attribute neutralizer) that eliminates attribute information from CLIP text features only of attribute-neutral descriptions. Experimental results show that SANER, which does not require attribute annotations and preserves original information for attribute-specific descriptions, demonstrates superior debiasing ability than the existing methods.
- Abstract(参考訳): CLIPのような大規模視覚言語モデルは、保護された属性(例えば、性別、年齢)に関する有害な社会的バイアスを含むことが知られている。
本稿では,CLIPにおける社会的バイアスの問題に対処することを目的とする。
従来の研究では、対向学習やテストタイム・プロジェクションを通じて社会的バイアスを逸脱させることが提案されているが、これらの研究の包括的な研究は2つの重要な限界を識別している。
1)入力で明示的に開示された場合の属性情報の喪失
2) Debiasingプロセスにおける属性アノテーションの使用。
CLIPにおける社会的バイアスを緩和し、これらの制限を同時に克服するために、属性中立記述のみによるCLIPテキストの特徴情報から属性情報を除去する、SANER(societal attribute neutralizer)と呼ばれる単純なyet- Effective debiasing法を導入する。
実験の結果,属性アノテーションを必要とせず,属性固有の記述のために元の情報を保存しているSANERは,既存の手法よりも優れた劣化能力を示すことがわかった。
関連論文リスト
- Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Practical Bias Mitigation through Proxy Sensitive Attribute Label
Generation [0.0]
本稿では,非教師なし埋め込み生成の2段階的アプローチとクラスタリングによるプロキシ・センシティブなラベルの取得を提案する。
我々の研究の有効性は、バイアスが感度属性と相関する非感度属性を通して伝播するという仮定に依存している。
実験結果から、Fair MixupやAdversarial Debiasingといった既存のアルゴリズムによるバイアス緩和は、導出されたプロキシラベルに匹敵する結果をもたらすことが示された。
論文 参考訳(メタデータ) (2023-12-26T10:54:15Z) - SABAF: Removing Strong Attribute Bias from Neural Networks with
Adversarial Filtering [20.7209867191915]
ニューラルネットワークにおける属性バイアスを除去する新しい手法を提案する。
提案手法は,強いバイアス設定と適度なバイアス設定の両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-11-13T08:13:55Z) - Information-Theoretic Bounds on The Removal of Attribute-Specific Bias
From Neural Networks [20.7209867191915]
既存の属性バイアス除去法は,データセット固有のバイアスが比較的弱い場合にのみ有効であることを示す。
既存の属性バイアス除去法は,データセット固有のバイアスが比較的弱い場合にのみ有効であることがわかった。
論文 参考訳(メタデータ) (2023-10-08T00:39:11Z) - Hierarchical Visual Primitive Experts for Compositional Zero-Shot
Learning [52.506434446439776]
合成ゼロショット学習(CZSL)は、既知のプリミティブ(属性とオブジェクト)の事前知識で構成を認識することを目的としている。
このような問題に対処するために,コンポジショントランスフォーマー(CoT)と呼ばれるシンプルでスケーラブルなフレームワークを提案する。
提案手法は,MIT-States,C-GQA,VAW-CZSLなど,いくつかのベンチマークでSoTA性能を実現する。
論文 参考訳(メタデータ) (2023-08-08T03:24:21Z) - Causal Effect Regularization: Automated Detection and Removal of
Spurious Attributes [13.852987916253685]
多くの分類データセットでは、タスクラベルはいくつかの入力属性と突発的に相関している。
本稿では,ラベルに対する因果関係を推定することにより,スプリアス属性を自動的に識別する手法を提案する。
本手法は, 因果効果のノイズ評価においても, 突発性特性への依存を緩和する。
論文 参考訳(メタデータ) (2023-06-19T17:17:42Z) - Exploiting Semantic Attributes for Transductive Zero-Shot Learning [97.61371730534258]
ゼロショット学習は、視覚的特徴と、そのクラスから学んだ意味的属性の関係を一般化することにより、目に見えないクラスを認識することを目的としている。
本稿では,未知データの意味的属性を生成し,生成過程に付加する新しいZSL法を提案する。
5つの標準ベンチマーク実験により,本手法がゼロショット学習の最先端結果をもたらすことが示された。
論文 参考訳(メタデータ) (2023-03-17T09:09:48Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - Marked Attribute Bias in Natural Language Inference [0.0]
下流NLPアプリケーションにおけるジェンダーバイアスの新しい観察: 自然言語推論における有意な属性バイアスについて述べる。
下流のアプリケーションのバイアスは、トレーニングデータ、単語の埋め込み、あるいは使用中のモデルによって増幅される。
ここでは, 単語埋め込みの内在的性質が, この顕著な属性効果にどのように寄与するかを理解する。
論文 参考訳(メタデータ) (2021-09-28T20:45:02Z) - Fairness via Representation Neutralization [60.90373932844308]
フェアネスのための表現中立化(Representation Neutralization for Fairness, RNF)という新たな緩和手法を提案する。
RNFは、DNNモデルのタスク固有の分類ヘッダのみをデバイアスすることで、その公平性を達成する。
複数のベンチマークデータセットに対する実験結果は、DNNモデルの識別を効果的に削減するRNFフレームワークを実証している。
論文 参考訳(メタデータ) (2021-06-23T22:26:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。