論文の概要: Improving Fairness and Mitigating MADness in Generative Models
- arxiv url: http://arxiv.org/abs/2405.13977v3
- Date: Thu, 03 Oct 2024 21:46:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-07 10:37:24.452748
- Title: Improving Fairness and Mitigating MADness in Generative Models
- Title(参考訳): 生成モデルにおける公平性の向上とMADの緩和
- Authors: Paul Mayer, Lorenzo Luzi, Ali Siahkoohi, Don H. Johnson, Richard G. Baraniuk,
- Abstract要約: 我々は、意図的に設計されたハイパーネットワークで生成モデルをトレーニングすると、マイノリティクラスに属するデータポイントを生成する際により公平なモデルが得られることを示す。
本稿では,実データと自己合成データとの差分を正規化する手法を提案する。
- 参考スコア(独自算出の注目度): 21.024727486615646
- License:
- Abstract: Generative models unfairly penalize data belonging to minority classes, suffer from model autophagy disorder (MADness), and learn biased estimates of the underlying distribution parameters. Our theoretical and empirical results show that training generative models with intentionally designed hypernetworks leads to models that 1) are more fair when generating datapoints belonging to minority classes 2) are more stable in a self-consumed (i.e., MAD) setting, and 3) learn parameters that are less statistically biased. To further mitigate unfairness, MADness, and bias, we introduce a regularization term that penalizes discrepancies between a generative model's estimated weights when trained on real data versus its own synthetic data. To facilitate training existing deep generative models within our framework, we offer a scalable implementation of hypernetworks that automatically generates a hypernetwork architecture for any given generative model.
- Abstract(参考訳): 生成モデルはマイノリティクラスに属するデータを不公平にペナルティ化し、モデルオートファジー障害(MADness)に悩まされ、基礎となる分布パラメータのバイアスのある推定値を学ぶ。
我々の理論的および実証的な結果は、意図的に設計されたハイパーネットワークによる生成モデルのトレーニングが、モデルに繋がることを示している。
1)マイノリティクラスに属するデータポイントを生成する場合、より公平である
2) 自己消費(すなわちMAD)設定においてより安定であり、かつ
3)統計的バイアスの少ないパラメータを学習する。
さらに不公平さ、MAD性、偏見を緩和するために、生成モデルの推定重量と実データと自身の合成データとの相違を罰する正規化項を導入する。
フレームワーク内で既存の深層生成モデルのトレーニングを容易にするため、任意の生成モデルに対してハイパーネットワークアーキテクチャを自動的に生成するハイパーネットワークの実装をスケーラブルに提供します。
関連論文リスト
- Mitigating Nonlinear Algorithmic Bias in Binary Classification [0.0]
本稿では,保護属性の非線形なバイアスの検出と緩和に因果モデリングを用いることを提案する。
若年者では「低リスク」と正しく分類される可能性が低いことを示す。
適応因果モデルに基づいて、偏り確率推定を計算し、全体の精度にほとんど影響を与えずに、公正性の向上を示す。
論文 参考訳(メタデータ) (2023-12-09T01:26:22Z) - Debiasing Multimodal Models via Causal Information Minimization [65.23982806840182]
我々は、マルチモーダルデータのための因果グラフにおいて、共同創設者から生じるバイアスを研究する。
ロバストな予測機能は、モデルがアウト・オブ・ディストリビューションデータに一般化するのに役立つ多様な情報を含んでいる。
これらの特徴を共同設立者表現として使用し、因果理論によって動機づけられた手法を用いてモデルからバイアスを取り除く。
論文 参考訳(メタデータ) (2023-11-28T16:46:14Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Mitigating Bias for Question Answering Models by Tracking Bias Influence [84.66462028537475]
本稿では,複数選択QAモデルのバイアスを軽減するためのBMBIを提案する。
バイアスのある例から学んだ場合、モデルがよりバイアスに傾くように傾くという直感に基づいて、クエリインスタンスのバイアスレベルを測定します。
本手法は,複数のバイアスカテゴリにまたがる複数のQA定式化に適用可能であることを示す。
論文 参考訳(メタデータ) (2023-10-13T00:49:09Z) - Confidence-Based Model Selection: When to Take Shortcuts for
Subpopulation Shifts [119.22672589020394]
モデル信頼度がモデル選択を効果的に導くことができるConfidence-based Model Selection (CosMoS)を提案する。
我々はCosMoSを,データ分散シフトのレベルが異なる複数のテストセットを持つ4つのデータセットで評価した。
論文 参考訳(メタデータ) (2023-06-19T18:48:15Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Fairness Reprogramming [42.65700878967251]
モデル再プログラミング手法を取り入れたFairRe Programと呼ばれる新しい汎用フェアネス学習パラダイムを提案する。
具体的には、FairRe Programはモデルを変更することができず、フェアネストリガと呼ばれる一連の摂動を入力に追加するケースについて検討している。
我々は,固定MLモデルの出力予測において,公平性トリガが効果的に人口統計バイアスを曖昧にすることができることを理論的および実証的に示す。
論文 参考訳(メタデータ) (2022-09-21T09:37:00Z) - Equivariance and Invariance Inductive Bias for Learning from
Insufficient Data [65.42329520528223]
不十分なデータがモデルを、通常テストとは異なる限られたトレーニング環境にバイアスしやすくする理由が示されています。
従来のIRMにおける環境アノテーションの欠如を効果的に解決するクラスワイド不変リスク最小化(IRM)を提案する。
論文 参考訳(メタデータ) (2022-07-25T15:26:19Z) - A Generative Approach for Mitigating Structural Biases in Natural
Language Inference [24.44419010439227]
本研究では、NLIタスクを生成タスクとして再構成し、モデルが入力とラベルのバイアス付きサブセットに条件付けされるようにする。
このアプローチは大量のバイアスに対して非常に堅牢であることを示す。
生成モデルは訓練が困難であり、識別ベースラインよりも一般的にはパフォーマンスが悪くなっている。
論文 参考訳(メタデータ) (2021-08-31T17:59:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。