論文の概要: Contrastive Examples for Addressing the Tyranny of the Majority
- arxiv url: http://arxiv.org/abs/2004.06524v1
- Date: Tue, 14 Apr 2020 14:06:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 08:47:12.636954
- Title: Contrastive Examples for Addressing the Tyranny of the Majority
- Title(参考訳): 多数派の専制性に対処するための対照的な例
- Authors: Viktoriia Sharmanska, Lisa Anne Hendricks, Trevor Darrell, Novi
Quadrianto
- Abstract要約: 我々は,グループメンバーシップを介在する,オリジナルのデータセットと新たなデータポイントからなるバランスの取れたトレーニングデータセットを作成することを提案する。
コントラッシブ・サンプル(英語版)と呼ばれるこれらのデータポイントを学習するための強力なツールとして、現在の生成的敵ネットワークが重要であることを示す。
- 参考スコア(独自算出の注目度): 83.93825214500131
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computer vision algorithms, e.g. for face recognition, favour groups of
individuals that are better represented in the training data. This happens
because of the generalization that classifiers have to make. It is simpler to
fit the majority groups as this fit is more important to overall error. We
propose to create a balanced training dataset, consisting of the original
dataset plus new data points in which the group memberships are intervened,
minorities become majorities and vice versa. We show that current generative
adversarial networks are a powerful tool for learning these data points, called
contrastive examples. We experiment with the equalized odds bias measure on
tabular data as well as image data (CelebA and Diversity in Faces datasets).
Contrastive examples allow us to expose correlations between group membership
and other seemingly neutral features. Whenever a causal graph is available, we
can put those contrastive examples in the perspective of counterfactuals.
- Abstract(参考訳): コンピュータビジョンアルゴリズム(例えば顔認識)は、トレーニングデータでよりよく表現される個人のグループを好んでいる。
これは分類器が行うべき一般化のためである。
この適合が全体的なエラーにとってより重要であるため、多数派グループに適合するのはより簡単である。
我々は,オリジナルデータセットとグループメンバシップが介入し,マイノリティが多数派となり,その逆の新たなデータポイントからなる,バランスのとれたトレーニングデータセットを作成することを提案する。
これらのデータポイントを学習するための強力なツールとして,現在生成型adversarial networkが,コントラストサンプル(con contrastive examples)と呼ばれる。
表データおよび画像データ(顔データセットのセレブと多様性)について,等化オッズバイアス尺度を用いて実験を行った。
対照的な例では、グループメンバーシップと他の一見中立な特徴の間の相関関係を明らかにすることができる。
因果グラフが利用可能であればいつでも、これらの対比的な例を反事実の観点から考えることができる。
関連論文リスト
- Dataset Representativeness and Downstream Task Fairness [24.570493924073524]
そのデータセット上で訓練された分類器のデータセット代表性とグループフェアネスとの間に自然な緊張関係があることを実証する。
また、過度にサンプル化されていない群は、それらの群に偏りを示す分類器を生じる可能性があることも見出した。
論文 参考訳(メタデータ) (2024-06-28T18:11:16Z) - Mitigating Algorithmic Bias on Facial Expression Recognition [0.0]
バイアス付きデータセットはユビキタスであり、機械学習の課題を提示している。
偏りのあるデータセットの問題は、少数民族グループを扱う際に特に敏感である。
本研究は, 表情認識実験による偏差変化型オートエンコーダを用いて, 偏差を緩和する方法の1つを探る。
論文 参考訳(メタデータ) (2023-12-23T17:41:30Z) - Deep Learning on a Healthy Data Diet: Finding Important Examples for
Fairness [15.210232622716129]
データ駆動予測ソリューションは、主に商用アプリケーションで使われているが、バイアスやステレオタイプに悩まされる傾向がある。
データ拡張は、トレーニングデータセットに反実例を追加することで、性別バイアスを低減する。
拡張データセットのいくつかの例は、公平性には重要でも有害でもないことを示します。
論文 参考訳(メタデータ) (2022-11-20T22:42:30Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Towards Group Robustness in the presence of Partial Group Labels [61.33713547766866]
入力サンプルとターゲットラベルの間に 急激な相関関係がある ニューラルネットワークの予測を誤った方向に導く
本稿では,制約セットから最悪のグループ割り当てを最適化するアルゴリズムを提案する。
グループ間で総合的な集計精度を維持しつつ,少数集団のパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2022-01-10T22:04:48Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - Enhancing Facial Data Diversity with Style-based Face Aging [59.984134070735934]
特に、顔データセットは、通常、性別、年齢、人種などの属性の観点からバイアスされる。
本稿では, 細粒度の老化パターンをキャプチャするデータ拡張のための, 生成スタイルに基づく新しいアーキテクチャを提案する。
提案手法は, 年齢移動のための最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-06T21:53:44Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。