論文の概要: Obtaining Dyadic Fairness by Optimal Transport
- arxiv url: http://arxiv.org/abs/2202.04520v1
- Date: Wed, 9 Feb 2022 15:33:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-10 14:19:42.467996
- Title: Obtaining Dyadic Fairness by Optimal Transport
- Title(参考訳): 最適輸送によるdyadic fairnessの獲得
- Authors: Moyi Yang, Junjie Sheng, Xiangfeng Wang, Wenyan Liu, Bo Jin, Jun Wang,
Hongyuan Zha
- Abstract要約: 本稿では,リンク予測タスクの公平性について考察する。
本稿では,データ修復と最適輸送により,ダイアドフェアネスを得るための前処理手法を提案する。
グラフリンク予測のために, 最適輸送に基づくダイアドフェアネスアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 40.88844078769325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness has been taken as a critical metric on machine learning models. Many
works studying how to obtain fairness for different tasks emerge. This paper
considers obtaining fairness for link prediction tasks, which can be measured
by dyadic fairness. We aim to propose a pre-processing methodology to obtain
dyadic fairness through data repairing and optimal transport. To obtain dyadic
fairness with satisfying flexibility and unambiguity requirements, we transform
the dyadic repairing to the conditional distribution alignment problem based on
optimal transport and obtain theoretical results on the connection between the
proposed alignment and dyadic fairness. The optimal transport-based dyadic
fairness algorithm is proposed for graph link prediction. Our proposed
algorithm shows superior results on obtaining fairness compared with the other
pre-processing methods on two benchmark graph datasets.
- Abstract(参考訳): フェアネスは機械学習モデルにおいて重要な指標とされている。
様々なタスクに対する公平さの獲得方法を研究する多くの仕事がある。
本稿では,dyadic fairness を用いて測定可能なリンク予測タスクに対するフェアネスの取得について検討する。
そこで本研究では,データ修復と最適輸送を両立させる前処理手法を提案する。
柔軟性と曖昧さを満たしたdyadic fairnessを得るため,dyadic repairingを最適輸送に基づいて条件分布アライメント問題に変換し,提案するアライメントとdyadic fairnessの関係に関する理論的結果を得る。
グラフリンク予測のために, 最適輸送に基づくダイアドフェアネスアルゴリズムを提案する。
提案アルゴリズムは,2つのベンチマークグラフデータセットの他の前処理手法と比較して,公平性を得る上で優れた結果を示す。
関連論文リスト
- Achievable Fairness on Your Data With Utility Guarantees [16.78730663293352]
機械学習の公平性において、異なるセンシティブなグループ間の格差を最小限に抑えるトレーニングモデルは、しばしば精度を低下させる。
本稿では,各データセットに適合する公平性-正確性トレードオフ曲線を近似する計算効率のよい手法を提案する。
そこで我々は,モデルフェアネスを監査するための堅牢な枠組みを実践者に提供し,評価の不確実性を定量化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-27T00:59:32Z) - Distributed Markov Chain Monte Carlo Sampling based on the Alternating
Direction Method of Multipliers [143.6249073384419]
本論文では,乗算器の交互方向法に基づく分散サンプリング手法を提案する。
我々は,アルゴリズムの収束に関する理論的保証と,その最先端性に関する実験的証拠の両方を提供する。
シミュレーションでは,線形回帰タスクとロジスティック回帰タスクにアルゴリズムを配置し,その高速収束を既存の勾配法と比較した。
論文 参考訳(メタデータ) (2024-01-29T02:08:40Z) - Dr. FERMI: A Stochastic Distributionally Robust Fair Empirical Risk
Minimization Framework [12.734559823650887]
分散シフトが存在する場合、公正な機械学習モデルはテストデータに対して不公平に振る舞うことがある。
既存のアルゴリズムはデータへの完全なアクセスを必要とし、小さなバッチを使用する場合には使用できない。
本稿では,因果グラフの知識を必要としない収束保証付き分布安定度フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-20T23:25:28Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Conformalized Fairness via Quantile Regression [8.180169144038345]
本稿では,デモグラフィックパリティの公正性要件に基づき,実数値量子関数を学習するための新しいフレームワークを提案する。
フェア量子化法により構築された誘導予測区間に対する分布自由被覆の理論的保証と正確な公正性を確立する。
本研究は, フェアネス・正確性トレードオフの基盤となるメカニズムを, 幅広い社会的・医療的応用において明らかにする能力を示すものである。
論文 参考訳(メタデータ) (2022-10-05T04:04:15Z) - Fair Densities via Boosting the Sufficient Statistics of Exponential
Families [72.34223801798422]
フェアネスのためのデータ前処理にブースティングアルゴリズムを導入する。
私たちのアプローチは、最小限の公平性を確保しながら、より良いデータフィッティングへとシフトします。
実世界のデータに結果の質を示す実験結果が提示される。
論文 参考訳(メタデータ) (2020-12-01T00:49:17Z) - The Fairness-Accuracy Pareto Front [19.556904444436523]
アルゴリズムフェアネスは、機械学習アルゴリズムのバイアス源を特定し、修正しようとする。
アルゴリズムの公正性において、この基本的な緊張を和らげるための公式なツールを提供する。
論文 参考訳(メタデータ) (2020-08-25T03:32:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。