論文の概要: Individually Fair Gradient Boosting
- arxiv url: http://arxiv.org/abs/2103.16785v1
- Date: Wed, 31 Mar 2021 03:06:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 04:17:53.454155
- Title: Individually Fair Gradient Boosting
- Title(参考訳): 個別に公平な勾配ブースティング
- Authors: Alexander Vargo, Fan Zhang, Mikhail Yurochkin, Yuekai Sun
- Abstract要約: 我々は、グラデーションブーストにおいて個人の公平性を強制するタスクを検討する。
アルゴリズムがグローバルに収束し、一般化することを示す。
また,アルゴリズムバイアスの影響を受けやすい3つのml問題に対するアルゴリズムの有効性を示す。
- 参考スコア(独自算出の注目度): 86.1984206610373
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the task of enforcing individual fairness in gradient boosting.
Gradient boosting is a popular method for machine learning from tabular data,
which arise often in applications where algorithmic fairness is a concern. At a
high level, our approach is a functional gradient descent on a
(distributionally) robust loss function that encodes our intuition of
algorithmic fairness for the ML task at hand. Unlike prior approaches to
individual fairness that only work with smooth ML models, our approach also
works with non-smooth models such as decision trees. We show that our algorithm
converges globally and generalizes. We also demonstrate the efficacy of our
algorithm on three ML problems susceptible to algorithmic bias.
- Abstract(参考訳): 我々は,勾配向上における個人公正化の課題を考察する。
勾配ブースティング(gradient boosting)は、表データから機械学習を行う一般的な方法であり、アルゴリズムの公平性が懸念されるアプリケーションでしばしば発生する。
高いレベルでは、我々のアプローチは(分配的に)ロバストな損失関数の関数勾配降下であり、手前のMLタスクに対するアルゴリズム的公正性の直観を符号化する。
滑らかなMLモデルのみを扱う個別の公平性に対する従来のアプローチとは異なり、私たちのアプローチは決定木のような非滑らかなモデルでも機能する。
アルゴリズムがグローバルに収束し、一般化することを示す。
また,アルゴリズムバイアスの影響を受けやすい3つのml問題に対するアルゴリズムの有効性を示す。
関連論文リスト
- Adaptive Federated Learning Over the Air [108.62635460744109]
オーバー・ザ・エア・モデル・トレーニングの枠組みの中で,適応勾配法,特にAdaGradとAdamの連合バージョンを提案する。
解析の結果,AdaGrad に基づくトレーニングアルゴリズムは $mathcalO(ln(T) / T 1 - frac1alpha の速度で定常点に収束することがわかった。
論文 参考訳(メタデータ) (2024-03-11T09:10:37Z) - Efficient Gradient Estimation via Adaptive Sampling and Importance
Sampling [34.50693643119071]
適応的あるいは重要なサンプリングは、勾配推定におけるノイズを低減する。
本稿では,既存の重要関数をフレームワークに組み込むアルゴリズムを提案する。
計算オーバーヘッドを最小限に抑えた分類・回帰タスクにおける収束性の改善を観察する。
論文 参考訳(メタデータ) (2023-11-24T13:21:35Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - FAIRLEARN:Configurable and Interpretable Algorithmic Fairness [1.2183405753834557]
トレーニングサンプルから生じるバイアスや、データサンプルに関する暗黙の仮定を緩和する必要がある。
最適化の異なる段階でバイアスを検出し緩和することで、学習アルゴリズムを公平にするために多くのアプローチが提案されている。
本稿では,ユーザの制約を最適化手順に組み込むことで,公平なアルゴリズムを生成するFAIRLEARN手順を提案する。
論文 参考訳(メタデータ) (2021-11-17T03:07:18Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Meta-Regularization: An Approach to Adaptive Choice of the Learning Rate
in Gradient Descent [20.47598828422897]
第一次下降法における学習率の適応的選択のための新しいアプローチであるtextit-Meta-Regularizationを提案する。
本手法は,正規化項を追加して目的関数を修正し,共同処理パラメータをキャストする。
論文 参考訳(メタデータ) (2021-04-12T13:13:34Z) - Stochastic Hard Thresholding Algorithms for AUC Maximization [49.00683387735522]
分散分類におけるAUCのためのハードしきい値決定アルゴリズムを開発した。
提案アルゴリズムの有効性と有効性を示す実験を行った。
論文 参考訳(メタデータ) (2020-11-04T16:49:29Z) - A Relational Gradient Descent Algorithm For Support Vector Machine
Training [15.338931971492288]
我々は、データをリレーショナル形式にする場合に、SVM(Support Vector Machine)トレーニングのためのアルゴリズムのような勾配勾配を考える。
まず、SVM の目的関数の勾配の定数近似が非巡回結合に対しても$#P$-hardであることを示すことによって、減算問題を克服できないことを示す。
我々は、実際の勾配を用いて達成されたものと同等の速度で安定したインスタンスの収束を保証する疑似勾配'を計算する効率的なアルゴリズムを与える。
論文 参考訳(メタデータ) (2020-05-11T17:50:36Z) - StochasticRank: Global Optimization of Scale-Free Discrete Functions [28.224889996383396]
本稿では,ランキングメトリクスを直接最適化する強力な,効率的なフレームワークを提案する。
古典的平滑化アプローチは偏見を導入し, 適切な偏見の普遍解を示す。
我々のフレームワークは任意のスケールフリー離散損失関数に適用できる。
論文 参考訳(メタデータ) (2020-03-04T15:27:11Z) - Variance Reduction with Sparse Gradients [82.41780420431205]
SVRGやSpiderBoostのような分散還元法では、大きなバッチ勾配と小さなバッチ勾配が混在している。
我々は、新しい空間演算子:ランダムトップk演算子を導入する。
我々のアルゴリズムは、画像分類、自然言語処理、スパース行列分解など様々なタスクにおいて、一貫してSpiderBoostより優れています。
論文 参考訳(メタデータ) (2020-01-27T08:23:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。