論文の概要: Fair Representation Learning through Implicit Path Alignment
- arxiv url: http://arxiv.org/abs/2205.13316v1
- Date: Thu, 26 May 2022 12:46:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 13:14:28.181243
- Title: Fair Representation Learning through Implicit Path Alignment
- Title(参考訳): 暗黙的経路アライメントによる公平表現学習
- Authors: Changjian Shui, Qi Chen, Jiaqi Li, Boyu Wang, Christian Gagn\'e
- Abstract要約: 我々は、データ表現の上の最適な予測器が、異なるサブグループに対して不変であることを保証する、公正な表現学習の観点を考察する。
本稿では、内部最適化と暗黙の微分の解のみに依存する暗黙の経路アライメントアルゴリズムを提案する。
実験結果は、予測性能と公正度測定におけるトレードオフが一貫して良好であることを示している。
- 参考スコア(独自算出の注目度): 11.337337102261976
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We consider a fair representation learning perspective, where optimal
predictors, on top of the data representation, are ensured to be invariant with
respect to different sub-groups. Specifically, we formulate this intuition as a
bi-level optimization, where the representation is learned in the outer-loop,
and invariant optimal group predictors are updated in the inner-loop. Moreover,
the proposed bi-level objective is demonstrated to fulfill the sufficiency
rule, which is desirable in various practical scenarios but was not commonly
studied in the fair learning. Besides, to avoid the high computational and
memory cost of differentiating in the inner-loop of bi-level objective, we
propose an implicit path alignment algorithm, which only relies on the solution
of inner optimization and the implicit differentiation rather than the exact
optimization path. We further analyze the error gap of the implicit approach
and empirically validate the proposed method in both classification and
regression settings. Experimental results show the consistently better
trade-off in prediction performance and fairness measurement.
- Abstract(参考訳): 我々は、データ表現の上に最適な予測器が異なる部分群に対して不変であることが保証される公平な表現学習の観点を考える。
具体的には、この直観を二値最適化として定式化し、そこで表現は外ループで学習され、不変最適群予測器は内ループで更新される。
さらに,提案するbiレベルの目的は,様々な実践シナリオにおいて望ましいが,フェアラーニングでは一般的には研究されなかった十分性ルールを満たすことである。
さらに,biレベル目標の内ループ内における微分の計算コストとメモリコストの増大を回避するため,内部最適化と暗黙的微分の解のみに依存する暗黙的経路アライメントアルゴリズムを提案する。
さらに,暗黙的アプローチの誤差ギャップを解析し,分類と回帰の両方において提案手法を実証的に検証する。
実験の結果,予測性能と公平性測定のトレードオフは一貫して良好であった。
関連論文リスト
- Efficient Fairness-Performance Pareto Front Computation [51.558848491038916]
最適公正表現はいくつかの有用な構造特性を持つことを示す。
そこで,これらの近似問題は,凹凸プログラミング法により効率的に解けることを示す。
論文 参考訳(メタデータ) (2024-09-26T08:46:48Z) - Faster Margin Maximization Rates for Generic and Adversarially Robust Optimization Methods [20.118513136686452]
一階最適化法は、未決定の訓練目標を最小化する際に、本質的に他よりも特定の解を優先する傾向がある。
本稿では,ミラー降下法と最急降下法について,最先端の暗黙バイアス率を示す。
私たちの加速速度は、このゲームフレームワークにおけるオンライン学習アルゴリズムの残念な部分を活用することによって導き出されます。
論文 参考訳(メタデータ) (2023-05-27T18:16:56Z) - Scalable Bayesian Meta-Learning through Generalized Implicit Gradients [64.21628447579772]
Inlicit Bayesian Meta-learning (iBaML) 法は、学習可能な事前のスコープを広げるだけでなく、関連する不確実性も定量化する。
解析誤差境界は、明示的よりも一般化された暗黙的勾配の精度と効率を示すために確立される。
論文 参考訳(メタデータ) (2023-03-31T02:10:30Z) - Bi-objective Ranking and Selection Using Stochastic Kriging [0.0]
両目的のランク付けと選択の問題について検討し,その2つの目的が不確実性をもって観測された。
そこで本研究では,競合する解に対して逐次サンプルを割り当てるバイーシアン双対象ランクと選別法を提案する。
実験結果から,提案手法は標準的なアロケーション手法よりも優れており,また,よく知られた最先端のアルゴリズムも優れていることがわかった。
論文 参考訳(メタデータ) (2022-09-05T23:51:07Z) - Accelerating Stochastic Probabilistic Inference [1.599072005190786]
変分推論(SVI)は確率モデルの良好な後部近似を求める能力により、ますます魅力的になっている。
最先端のSVIアルゴリズムのほとんど全てが一階最適化に基づいており、しばしば収束率の低下に悩まされている。
我々は二階法と変分推論のギャップを二階法に基づく変分推論手法によって埋める。
論文 参考訳(メタデータ) (2022-03-15T01:19:12Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - Efficient Semi-Implicit Variational Inference [65.07058307271329]
効率的でスケーラブルな半単純外挿 (SIVI) を提案する。
本手法はSIVIの証拠を低勾配値の厳密な推測にマッピングする。
論文 参考訳(メタデータ) (2021-01-15T11:39:09Z) - Stochastic Learning Approach to Binary Optimization for Optimal Design
of Experiments [0.0]
本稿では,偏微分方程式などの数学モデルによるベイズ逆問題に対する最適実験設計 (OED) のための二項最適化への新しいアプローチを提案する。
OEDユーティリティ関数、すなわち正規化された最適性勾配はベルヌーイ分布に対する期待の形で目的関数にキャストされる。
この目的を確率的最適化ルーチンを用いて最適な観測方針を求めることで解決する。
論文 参考訳(メタデータ) (2021-01-15T03:54:12Z) - Fast Rates for Contextual Linear Optimization [52.39202699484225]
提案手法は, 下流決定性能を直接最適化する手法よりもはるかに高速な, 後悔の収束率を実現する。
予測モデルは、既存のツールを使ったトレーニングが簡単かつ高速で、解釈が簡単で、私たちが示しているように、非常にうまく機能する決定につながる。
論文 参考訳(メタデータ) (2020-11-05T18:43:59Z) - Robust, Accurate Stochastic Optimization for Variational Inference [68.83746081733464]
また, 共通最適化手法は, 問題が適度に大きい場合, 変分近似の精度が低下することを示した。
これらの結果から,基礎となるアルゴリズムをマルコフ連鎖の生成とみなして,より堅牢で正確な最適化フレームワークを開発する。
論文 参考訳(メタデータ) (2020-09-01T19:12:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。