論文の概要: SANER: Annotation-free Societal Attribute Neutralizer for Debiasing CLIP
- arxiv url: http://arxiv.org/abs/2408.10202v1
- Date: Mon, 19 Aug 2024 17:57:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-20 15:13:19.350726
- Title: SANER: Annotation-free Societal Attribute Neutralizer for Debiasing CLIP
- Title(参考訳): SANER:CLIPを悪用するための注釈のない社会貢献ニュートラル化剤
- Authors: Yusuke Hirota, Min-Hung Chen, Chien-Yi Wang, Yuta Nakashima, Yu-Chiang Frank Wang, Ryo Hachiuma,
- Abstract要約: CLIPのような大規模視覚言語モデルは、保護属性に関する有害な社会的バイアスを含むことが知られている。
我々は,CLIPテキストの特徴情報から属性情報を取り除き,属性ニュートラル記述のみを除去する,SANERという単純なyet- Effective debiasing手法を提案する。
- 参考スコア(独自算出の注目度): 41.62536201065971
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large-scale vision-language models, such as CLIP, are known to contain harmful societal bias regarding protected attributes (e.g., gender and age). In this paper, we aim to address the problems of societal bias in CLIP. Although previous studies have proposed to debias societal bias through adversarial learning or test-time projecting, our comprehensive study of these works identifies two critical limitations: 1) loss of attribute information when it is explicitly disclosed in the input and 2) use of the attribute annotations during debiasing process. To mitigate societal bias in CLIP and overcome these limitations simultaneously, we introduce a simple-yet-effective debiasing method called SANER (societal attribute neutralizer) that eliminates attribute information from CLIP text features only of attribute-neutral descriptions. Experimental results show that SANER, which does not require attribute annotations and preserves original information for attribute-specific descriptions, demonstrates superior debiasing ability than the existing methods.
- Abstract(参考訳): CLIPのような大規模視覚言語モデルは、保護された属性(例えば、性別、年齢)に関する有害な社会的バイアスを含むことが知られている。
本稿では,CLIPにおける社会的バイアスの問題に対処することを目的とする。
従来の研究では、対向学習やテストタイム・プロジェクションを通じて社会的バイアスを逸脱させることが提案されているが、これらの研究の包括的な研究は2つの重要な限界を識別している。
1)入力で明示的に開示された場合の属性情報の喪失
2) Debiasingプロセスにおける属性アノテーションの使用。
CLIPにおける社会的バイアスを緩和し、これらの制限を同時に克服するために、属性中立記述のみによるCLIPテキストの特徴情報から属性情報を除去する、SANER(societal attribute neutralizer)と呼ばれる単純なyet- Effective debiasing法を導入する。
実験の結果,属性アノテーションを必要とせず,属性固有の記述のために元の情報を保存しているSANERは,既存の手法よりも優れた劣化能力を示すことがわかった。
関連論文リスト
- AITTI: Learning Adaptive Inclusive Token for Text-to-Image Generation [53.65701943405546]
我々は適応的包摂トークンを学習し、最終的な生成出力の属性分布をシフトする。
本手法では,明示的な属性仕様やバイアス分布の事前知識は必要としない。
提案手法は,特定の属性を要求されたり,生成の方向を編集するモデルに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2024-06-18T17:22:23Z) - SAGE: Structured Attribute Value Generation for Billion-Scale Product
Catalogs [1.1184789007828977]
SAGEは、世界規模のeコマースカタログにまたがる商品の属性値を推測するためのジェネレーティブLLMである。
本稿では,属性値予測問題をSeq2Seq要約タスクとして新たに定式化する。
SAGEは、eコマースカタログの実践的な設定で生じる属性値予測タスクのすべての側面に取り組むことができる最初の方法である。
論文 参考訳(メタデータ) (2023-09-12T02:24:16Z) - Hierarchical Visual Primitive Experts for Compositional Zero-Shot
Learning [52.506434446439776]
合成ゼロショット学習(CZSL)は、既知のプリミティブ(属性とオブジェクト)の事前知識で構成を認識することを目的としている。
このような問題に対処するために,コンポジショントランスフォーマー(CoT)と呼ばれるシンプルでスケーラブルなフレームワークを提案する。
提案手法は,MIT-States,C-GQA,VAW-CZSLなど,いくつかのベンチマークでSoTA性能を実現する。
論文 参考訳(メタデータ) (2023-08-08T03:24:21Z) - Causal Effect Regularization: Automated Detection and Removal of
Spurious Attributes [13.852987916253685]
多くの分類データセットでは、タスクラベルはいくつかの入力属性と突発的に相関している。
本稿では,ラベルに対する因果関係を推定することにより,スプリアス属性を自動的に識別する手法を提案する。
本手法は, 因果効果のノイズ評価においても, 突発性特性への依存を緩和する。
論文 参考訳(メタデータ) (2023-06-19T17:17:42Z) - Exploiting Semantic Attributes for Transductive Zero-Shot Learning [97.61371730534258]
ゼロショット学習は、視覚的特徴と、そのクラスから学んだ意味的属性の関係を一般化することにより、目に見えないクラスを認識することを目的としている。
本稿では,未知データの意味的属性を生成し,生成過程に付加する新しいZSL法を提案する。
5つの標準ベンチマーク実験により,本手法がゼロショット学習の最先端結果をもたらすことが示された。
論文 参考訳(メタデータ) (2023-03-17T09:09:48Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - Marked Attribute Bias in Natural Language Inference [0.0]
下流NLPアプリケーションにおけるジェンダーバイアスの新しい観察: 自然言語推論における有意な属性バイアスについて述べる。
下流のアプリケーションのバイアスは、トレーニングデータ、単語の埋め込み、あるいは使用中のモデルによって増幅される。
ここでは, 単語埋め込みの内在的性質が, この顕著な属性効果にどのように寄与するかを理解する。
論文 参考訳(メタデータ) (2021-09-28T20:45:02Z) - Fairness via Representation Neutralization [60.90373932844308]
フェアネスのための表現中立化(Representation Neutralization for Fairness, RNF)という新たな緩和手法を提案する。
RNFは、DNNモデルのタスク固有の分類ヘッダのみをデバイアスすることで、その公平性を達成する。
複数のベンチマークデータセットに対する実験結果は、DNNモデルの識別を効果的に削減するRNFフレームワークを実証している。
論文 参考訳(メタデータ) (2021-06-23T22:26:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。