論文の概要: Modeling Techniques for Machine Learning Fairness: A Survey
- arxiv url: http://arxiv.org/abs/2111.03015v1
- Date: Thu, 4 Nov 2021 17:17:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-05 15:26:09.044471
- Title: Modeling Techniques for Machine Learning Fairness: A Survey
- Title(参考訳): 機械学習フェアネスのためのモデリング技術:サーベイ
- Authors: Mingyang Wan, Daochen Zha, Ninghao Liu, Na Zou
- Abstract要約: 近年,機械学習モデルのバイアスを軽減するため,様々な手法が開発されている。
本稿では,プロセス内バイアス軽減技術の現状を概観する。
- 参考スコア(独自算出の注目度): 17.925809181329015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models are becoming pervasive in high-stakes applications.
Despite their clear benefits in terms of performance, the models could show
bias against minority groups and result in fairness issues in a decision-making
process, leading to severe negative impacts on the individuals and the society.
In recent years, various techniques have been developed to mitigate the bias
for machine learning models. Among them, in-processing methods have drawn
increasing attention from the community, where fairness is directly taken into
consideration during model design to induce intrinsically fair models and
fundamentally mitigate fairness issues in outputs and representations. In this
survey, we review the current progress of in-processing bias mitigation
techniques. Based on where the fairness is achieved in the model, we categorize
them into explicit and implicit methods, where the former directly incorporates
fairness metrics in training objectives, and the latter focuses on refining
latent representation learning. Finally, we conclude the survey with a
discussion of the research challenges in this community to motivate future
exploration.
- Abstract(参考訳): 機械学習モデルは、高度なアプリケーションで普及しつつある。
パフォーマンス面での明確な利点にもかかわらず、モデルは少数派グループに対する偏見を示し、意思決定プロセスにおける公平性の問題を引き起こし、個人や社会に深刻なネガティブな影響をもたらす可能性がある。
近年,機械学習モデルのバイアスを軽減するため,様々な手法が開発されている。
その中でも、インプロセッシング手法はコミュニティから注目を集めており、モデル設計中にフェアネスを直接考慮し、本質的に公平なモデルを誘導し、アウトプットや表現におけるフェアネスの問題を基本的に緩和している。
本稿では,プロセス内バイアス緩和技術の現状について概説する。
モデルでフェアネスが達成される場所に基づいて、それらを明示的かつ暗黙的なメソッドに分類し、前者はトレーニング目標にフェアネスメトリクスを直接組み込んでおり、後者は潜在表現学習の洗練に重点を置いている。
最後に,このコミュニティにおける今後の探索を動機づける研究課題の議論から,調査を締めくくる。
関連論文リスト
- Ensuring Equitable Financial Decisions: Leveraging Counterfactual Fairness and Deep Learning for Bias [0.0]
本研究では,データ拡張に伴う対実的公正性に着目した高度なバイアス緩和手法について検討する。
この研究は、これらの統合アプローチが金融業界、特にローン承認手続きにおけるジェンダーバイアスを緩和する方法について考察している。
論文 参考訳(メタデータ) (2024-08-27T14:28:06Z) - The Fairness Stitch: Unveiling the Potential of Model Stitching in
Neural Network De-Biasing [0.043512163406552]
本研究では,深層学習モデルの公平性を高めるために,"The Fairness Stitch"と呼ばれる新しい手法を提案する。
我々はCelebAとUTKFaceの2つのよく知られたデータセットを総合的に評価する。
フェアネスとパフォーマンスのバランスの取れたトレードオフを達成する上で, 顕著な改善がみられた。
論文 参考訳(メタデータ) (2023-11-06T21:14:37Z) - Should We Attend More or Less? Modulating Attention for Fairness [11.91250446389124]
社会的バイアスの伝播において,現在最先端のNLPモデルにおいて広く用いられている手法である注意の役割について検討する。
トレーニング後のモデルフェアネスを改善するために,注目度を変調する新しい手法を提案する。
本結果から,テキスト分類や生成タスクにおいて,公平性の増加と性能損失の最小化が示唆された。
論文 参考訳(メタデータ) (2023-05-22T14:54:21Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Counterfactual Fair Opportunity: Measuring Decision Model Fairness with
Counterfactual Reasoning [5.626570248105078]
本研究は,不注意条件下での公正な場合において,反実的推論を用いて不公平なモデル行動を明らかにすることを目的とする。
対物フェアという対物機会の対物バージョンを定義し、対物サンプルのセンシティブな情報を分析する2つの新しい指標を紹介した。
論文 参考訳(メタデータ) (2023-02-16T09:13:53Z) - Fairness Increases Adversarial Vulnerability [50.90773979394264]
フェアネスとロバストネスの間に二分法が存在することを示し、フェアネスを達成するとモデルロバストネスを減少させる。
非線形モデルと異なるアーキテクチャの実験は、複数の視覚領域における理論的発見を検証する。
フェアネスとロバストネスの良好なトレードオフを達成するためのモデルを構築するための,シンプルで効果的なソリューションを提案する。
論文 参考訳(メタデータ) (2022-11-21T19:55:35Z) - Revealing Unfair Models by Mining Interpretable Evidence [50.48264727620845]
機械学習の人気は、不公平なモデルがハイリスクなアプリケーションにデプロイされるリスクを高めている。
本稿では,解釈可能な証拠をマイニングすることで不公平なモデルを明らかにする新しい課題に取り組む。
本手法は,訓練されたモデルの不公平性を効果的に明らかにするために,極めて解釈可能な確固たる証拠を見出す。
論文 参考訳(メタデータ) (2022-07-12T20:03:08Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - FairALM: Augmented Lagrangian Method for Training Fair Models with
Little Regret [42.66567001275493]
現在、我々がモデルに提示するデータセットのバイアスのため、公正な公開トレーニングが不公平なモデルにつながることは受け入れられている。
そこで本研究では,モデルのトレーニング中に公平性を同時に課すメカニズムについて検討する。
論文 参考訳(メタデータ) (2020-04-03T03:18:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。