論文の概要: FairALM: Augmented Lagrangian Method for Training Fair Models with
Little Regret
- arxiv url: http://arxiv.org/abs/2004.01355v2
- Date: Wed, 24 Jun 2020 00:17:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 04:00:50.007658
- Title: FairALM: Augmented Lagrangian Method for Training Fair Models with
Little Regret
- Title(参考訳): FairALM: 強化されたラグランジアン法による最小レグレットを持つフェアモデルのトレーニング
- Authors: Vishnu Suresh Lokhande, Aditya Kumar Akash, Sathya N. Ravi and Vikas
Singh
- Abstract要約: 現在、我々がモデルに提示するデータセットのバイアスのため、公正な公開トレーニングが不公平なモデルにつながることは受け入れられている。
そこで本研究では,モデルのトレーニング中に公平性を同時に課すメカニズムについて検討する。
- 参考スコア(独自算出の注目度): 42.66567001275493
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithmic decision making based on computer vision and machine learning
technologies continue to permeate our lives. But issues related to biases of
these models and the extent to which they treat certain segments of the
population unfairly, have led to concern in the general public. It is now
accepted that because of biases in the datasets we present to the models, a
fairness-oblivious training will lead to unfair models. An interesting topic is
the study of mechanisms via which the de novo design or training of the model
can be informed by fairness measures. Here, we study mechanisms that impose
fairness concurrently while training the model. While existing fairness based
approaches in vision have largely relied on training adversarial modules
together with the primary classification/regression task, in an effort to
remove the influence of the protected attribute or variable, we show how ideas
based on well-known optimization concepts can provide a simpler alternative. In
our proposed scheme, imposing fairness just requires specifying the protected
attribute and utilizing our optimization routine. We provide a detailed
technical analysis and present experiments demonstrating that various fairness
measures from the literature can be reliably imposed on a number of training
tasks in vision in a manner that is interpretable.
- Abstract(参考訳): コンピュータビジョンと機械学習技術に基づくアルゴリズムによる意思決定は、私たちの生活に浸透し続けている。
しかし、これらのモデルの偏りや、人口の特定のセグメントを不公平に扱う程度に関する問題は、一般大衆の懸念に繋がった。
現在、我々がモデルに提示するデータセットのバイアスのため、公正な公開トレーニングが不公平なモデルにつながることは受け入れられている。
興味深いトピックは、モデルのデ・ノボ設計やトレーニングがフェアネス測度によって知らせられるメカニズムの研究である。
ここでは,モデル学習中に同時に公平を課すメカニズムについて検討する。
視覚における既存の公平性に基づくアプローチは、主な分類/回帰タスクと共に敵モジュールを訓練することに大きく依存しているが、保護属性や変数の影響を排除するために、よく知られた最適化概念に基づくアイデアがよりシンプルな選択肢を提供する方法を示す。
提案手法では, 公正性を付与するには, 保護属性の指定と最適化ルーチンの利用が必要である。
本報告では、文献からの様々な公正度対策を、解釈可能な方法で、視覚における多くの訓練課題に確実に適用できることを実証する、詳細な技術分析および実験を行う。
関連論文リスト
- Enhancing Fairness and Performance in Machine Learning Models: A Multi-Task Learning Approach with Monte-Carlo Dropout and Pareto Optimality [1.5498930424110338]
本研究では,モデル不確実性を利用した機械学習におけるバイアス軽減手法を提案する。
提案手法では,モンテカルロ・ドロップアウト(MC)と組み合わせたマルチタスク学習(MTL)フレームワークを用いて,保護ラベルに関連する予測の不確実性を評価・緩和する。
論文 参考訳(メタデータ) (2024-04-12T04:17:50Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Revealing Unfair Models by Mining Interpretable Evidence [50.48264727620845]
機械学習の人気は、不公平なモデルがハイリスクなアプリケーションにデプロイされるリスクを高めている。
本稿では,解釈可能な証拠をマイニングすることで不公平なモデルを明らかにする新しい課題に取り組む。
本手法は,訓練されたモデルの不公平性を効果的に明らかにするために,極めて解釈可能な確固たる証拠を見出す。
論文 参考訳(メタデータ) (2022-07-12T20:03:08Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Modeling Techniques for Machine Learning Fairness: A Survey [17.925809181329015]
近年,機械学習モデルのバイアスを軽減するため,様々な手法が開発されている。
本稿では,プロセス内バイアス軽減技術の現状を概観する。
論文 参考訳(メタデータ) (2021-11-04T17:17:26Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Biased Models Have Biased Explanations [10.9397029555303]
機械学習モデルで生成された属性に基づく説明のレンズを通して、機械学習(FairML)の公平性を検討します。
まず、群フェアネスの既存の統計的概念を翻訳し、モデルから与えられた説明の観点からこれらの概念を定義する。
そこで本研究では,ブラックボックスモデルに対する新しい(不公平な)検出方法を提案する。
論文 参考訳(メタデータ) (2020-12-20T18:09:45Z) - Do the Machine Learning Models on a Crowd Sourced Platform Exhibit Bias?
An Empirical Study on Model Fairness [7.673007415383724]
5つの異なるタスクに使用したKaggleから、40の上位モデルのベンチマークを作成しました。
これらのモデルに7つの緩和手法を適用し、公正性、緩和結果、および性能への影響を分析した。
論文 参考訳(メタデータ) (2020-05-21T23:35:53Z) - Ethical Adversaries: Towards Mitigating Unfairness with Adversarial
Machine Learning [8.436127109155008]
個人や組織は、モデルデザイナやデプロイ担当者が責任を持つように、不公平な結果に気付き、テストし、批判します。
トレーニングデータセットから生じる不公平な表現を緩和する上で,これらのグループを支援するフレームワークを提供する。
我々のフレームワークは公平性を改善するために2つの相互運用敵に依存している。
論文 参考訳(メタデータ) (2020-05-14T10:10:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。