論文の概要: Toward Fairness via Maximum Mean Discrepancy Regularization on Logits
Space
- arxiv url: http://arxiv.org/abs/2402.13061v1
- Date: Tue, 20 Feb 2024 14:56:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 14:56:24.166732
- Title: Toward Fairness via Maximum Mean Discrepancy Regularization on Logits
Space
- Title(参考訳): 論理空間上の最大平均離散化による公正化に向けて
- Authors: Hao-Wei Chung, Ching-Hao Chiu, Yu-Jen Chen, Yiyu Shi, Tsung-Yi Ho
- Abstract要約: 本稿では,出力ロジットの制約を平均値の離散性で課すことにより,公平性を実現する新しいフレームワークであるLogits-MMDを提案する。
実験の結果,提案手法がフェアネス条件を効果的に達成できることを実証した。
- 参考スコア(独自算出の注目度): 15.899277292315995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness has become increasingly pivotal in machine learning for high-risk
applications such as machine learning in healthcare and facial recognition.
However, we see the deficiency in the previous logits space constraint methods.
Therefore, we propose a novel framework, Logits-MMD, that achieves the fairness
condition by imposing constraints on output logits with Maximum Mean
Discrepancy. Moreover, quantitative analysis and experimental results show that
our framework has a better property that outperforms previous methods and
achieves state-of-the-art on two facial recognition datasets and one animal
dataset. Finally, we show experimental results and demonstrate that our debias
approach achieves the fairness condition effectively.
- Abstract(参考訳): 医療や顔認識における機械学習のようなリスクの高いアプリケーションでは、機械学習において公平性がますます重要になっている。
しかし, 従来のロジット空間制約法では不足が見られた。
そこで本研究では,出力ロジットに最大平均不一致の制約を課すことで公平性条件を実現する新しいフレームワークlogits-mmdを提案する。
さらに, 定量的解析と実験の結果から, 従来の手法よりも優れた特性を有し, 2つの顔認識データセットと1つの動物データセットの最先端を実現することができた。
最後に,実験結果を示し,デビアスアプローチが公平性条件を効果的に達成できることを実証する。
関連論文リスト
- Multi-Agent Reinforcement Learning from Human Feedback: Data Coverage and Algorithmic Techniques [65.55451717632317]
我々は,MARLHF(Multi-Agent Reinforcement Learning from Human Feedback)について検討し,理論的基礎と実証的検証の両方について検討した。
我々は,このタスクを,一般ゲームにおける嗜好のみのオフラインデータセットからナッシュ均衡を識別するものとして定義する。
本研究は,MARLHFの多面的アプローチを基礎として,効果的な嗜好に基づくマルチエージェントシステムの実現を目指している。
論文 参考訳(メタデータ) (2024-09-01T13:14:41Z) - Targeted Machine Learning for Average Causal Effect Estimation Using the
Front-Door Functional [3.0232957374216953]
結果に対する治療の平均因果効果(ACE)を評価することは、しばしば観察研究における要因の相違によって引き起こされる課題を克服することを伴う。
本稿では,目標最小損失推定理論に基づいて,正面基準の新たな推定手法を提案する。
本研究では,早期学業成績が今後の年収に与える影響を明らかにするために,これらの推定装置の適用性を示す。
論文 参考訳(メタデータ) (2023-12-15T22:04:53Z) - A Double Machine Learning Approach to Combining Experimental and Observational Data [59.29868677652324]
実験と観測を組み合わせた二重機械学習手法を提案する。
我々の枠組みは、より軽度の仮定の下で、外部の妥当性と無知の違反を検査する。
論文 参考訳(メタデータ) (2023-07-04T02:53:11Z) - Fair and Robust Estimation of Heterogeneous Treatment Effects for Policy
Learning [2.356908851188234]
我々は、この枠組みを用いて、最適政策によって達成可能な公平性と最大福祉との間のトレードオフを特徴づける。
本研究は,シミュレーション研究における手法の評価と実世界のケーススタディにおける手法の解説である。
論文 参考訳(メタデータ) (2023-06-06T12:22:20Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Distributionally Robust Causal Inference with Observational Data [4.8986598953553555]
非確立性の標準的な仮定を伴わない観察研究における平均治療効果の推定を考察する。
本稿では,無観測の共同設立者が存在する可能性を考慮した,一般的な観察研究環境下での堅牢な因果推論の枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-15T16:02:33Z) - Monotonicity and Double Descent in Uncertainty Estimation with Gaussian
Processes [52.92110730286403]
限界確率はクロスバリデーションの指標を思い起こさせるべきであり、どちらもより大きな入力次元で劣化すべきである、と一般的に信じられている。
我々は,ハイパーパラメータをチューニングすることにより,入力次元と単調に改善できることを証明した。
また、クロスバリデーションの指標は、二重降下の特徴である質的に異なる挙動を示すことも証明した。
論文 参考訳(メタデータ) (2022-10-14T08:09:33Z) - MaxMatch: Semi-Supervised Learning with Worst-Case Consistency [149.03760479533855]
半教師付き学習(SSL)のための最悪ケース整合正則化手法を提案する。
本稿では,ラベル付きトレーニングデータとラベル付きトレーニングデータとを別々に比較した経験的損失項からなるSSLの一般化について述べる。
この境界によって動機づけられたSSLの目的は、元のラベルのないサンプルと、その複数の拡張版との最大の矛盾を最小限に抑えるものである。
論文 参考訳(メタデータ) (2022-09-26T12:04:49Z) - Escaping Data Scarcity for High-Resolution Heterogeneous Face
Hallucination [68.78903256687697]
Heterogeneous Face Recognition (HFR) では、視覚や熱といった2つの異なる領域にまたがる顔のマッチングが目的である。
合成によるギャップを埋めようとする最近の手法は有望な結果を得たが、ペアトレーニングデータの不足により、その性能は依然として制限されている。
本稿では,HFRのための新しい顔幻覚パラダイムを提案する。これはデータ効率のよい合成を可能にするだけでなく,プライバシポリシーを破ることなくモデルトレーニングのスケールアップを可能にする。
論文 参考訳(メタデータ) (2022-03-30T20:44:33Z) - Identifying Best Fair Intervention [7.563864405505623]
本研究では,所定の因果モデルにおけるフェアネス制約付き腕識別の問題について検討する。
この問題は、オンラインマーケットプレースにおける公正性の確保によって動機づけられている。
論文 参考訳(メタデータ) (2021-11-08T04:36:54Z) - Fairness-aware Outlier Ensemble [30.0516419408149]
外れたアンサンブルメソッドは、大部分のデータと著しく異なるインスタンスの発見において、優れたパフォーマンスを示している。
公正さの意識がなければ、不正検出や司法判断システムといった倫理的シナリオにおける適用性は低下する可能性がある。
公平性を意識したアンサンブルフレームワークにより、アウトリーヤアンサンブル結果のバイアスを低減することを提案する。
論文 参考訳(メタデータ) (2021-03-17T03:21:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。