論文の概要: Oblivious Data for Fairness with Kernels
- arxiv url: http://arxiv.org/abs/2002.02901v2
- Date: Thu, 19 Nov 2020 19:44:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 04:36:45.604851
- Title: Oblivious Data for Fairness with Kernels
- Title(参考訳): カーネルによるフェアネスのための公開データ
- Authors: Steffen Gr\"unew\"alder and Azadeh Khaleghi
- Abstract要約: 感度・非感度特性が利用できる場合のアルゴリズムフェアネスの問題について検討する。
このような不愉快な特徴を生成するための重要な要素は、ヒルベルト空間評価条件予測である。
本稿では,プラグインアプローチを提案し,推定誤差の制御方法を示す。
- 参考スコア(独自算出の注目度): 1.599072005190786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate the problem of algorithmic fairness in the case where
sensitive and non-sensitive features are available and one aims to generate
new, `oblivious', features that closely approximate the non-sensitive features,
and are only minimally dependent on the sensitive ones. We study this question
in the context of kernel methods. We analyze a relaxed version of the Maximum
Mean Discrepancy criterion which does not guarantee full independence but makes
the optimization problem tractable. We derive a closed-form solution for this
relaxed optimization problem and complement the result with a study of the
dependencies between the newly generated features and the sensitive ones. Our
key ingredient for generating such oblivious features is a Hilbert-space-valued
conditional expectation, which needs to be estimated from data. We propose a
plug-in approach and demonstrate how the estimation errors can be controlled.
While our techniques help reduce the bias, we would like to point out that no
post-processing of any dataset could possibly serve as an alternative to
well-designed experiments.
- Abstract(参考訳): アルゴリズム的公平性の問題を,敏感で非敏感な特徴が利用可能であり,非敏感な特徴に密接に近似し,敏感な特徴に最小限の依存しか持たない,新たな「聖書」を創りだすものである場合に検討する。
我々はこの問題をカーネルメソッドの文脈で研究する。
完全独立性を保証しない最大平均離散値基準の緩和版を解析し、最適化問題を抽出可能とした。
この緩和された最適化問題に対するクローズドフォームソリューションを導出し、新たに生成された機能とセンシティブな機能の間の依存関係の研究を補完する。
このような不明瞭な特徴を生成するための重要な要素は、データから推定する必要があるヒルベルト空間値条件付き期待である。
本稿では,プラグインアプローチを提案し,推定誤差の制御方法を示す。
私たちのテクニックはバイアスを減らすのに役立ちますが、データセットの処理後がうまく設計された実験の代替になり得ることを指摘しておきたいと思います。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Error Feedback under $(L_0,L_1)$-Smoothness: Normalization and Momentum [56.37522020675243]
機械学習の幅広い問題にまたがる正規化誤差フィードバックアルゴリズムに対する収束の最初の証明を提供する。
提案手法では,許容可能なステップサイズが大きくなったため,新しい正規化エラーフィードバックアルゴリズムは,各種タスクにおける非正規化エラーよりも優れていた。
論文 参考訳(メタデータ) (2024-10-22T10:19:27Z) - A randomized algorithm for nonconvex minimization with inexact evaluations and complexity guarantees [7.08249229857925]
勾配 Hessian に不連続な滑らかな非オラクル関数の最小化を考える。
提案手法の新たな特徴は, 負曲率の近似方向が選択された場合, 感覚緩和を等勾配で負となるように選択することである。
論文 参考訳(メタデータ) (2023-10-28T22:57:56Z) - Offline Minimax Soft-Q-learning Under Realizability and Partial Coverage [100.8180383245813]
オフライン強化学習(RL)のための値ベースアルゴリズムを提案する。
ソフトマージン条件下でのバニラQ関数の類似した結果を示す。
我々のアルゴリズムの損失関数は、推定問題を非線形凸最適化問題とラグランジフィケーションとしてキャストすることによって生じる。
論文 参考訳(メタデータ) (2023-02-05T14:22:41Z) - Data-Driven Influence Functions for Optimization-Based Causal Inference [105.5385525290466]
統計的汎関数に対するガトー微分を有限差分法で近似する構成的アルゴリズムについて検討する。
本研究では,確率分布を事前知識がないが,データから推定する必要がある場合について検討する。
論文 参考訳(メタデータ) (2022-08-29T16:16:22Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z) - A sampling criterion for constrained Bayesian optimization with
uncertainties [0.0]
本稿では,関数を最適化し,制約を満たす確率制約最適化の問題について考察する。
このような問題に対処するために,新しいベイズ最適化法を提案する。
これは、不確実性が入力の一部から生じる状況に適用され、共同制御された制御されていない入力空間における取得基準を定義することができる。
論文 参考訳(メタデータ) (2021-03-09T20:35:56Z) - Kernel k-Means, By All Means: Algorithms and Strong Consistency [21.013169939337583]
Kernel $k$クラスタリングは、非線形データの教師なし学習のための強力なツールである。
本稿では,最適化された局所解に対処するための一般的な手法を応用した結果を一般化する。
我々のアルゴリズムは、この非線形分離問題をよりよく解くために、Magricalization-minimization (MM) を利用している。
論文 参考訳(メタデータ) (2020-11-12T16:07:18Z) - High-Dimensional Robust Mean Estimation via Gradient Descent [73.61354272612752]
一定対向分数の存在下でのロバスト平均推定の問題は勾配降下によって解けることを示す。
我々の研究は、近辺の非補題推定とロバスト統計の間の興味深い関係を確立する。
論文 参考訳(メタデータ) (2020-05-04T10:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。