論文の概要: RoCourseNet: Distributionally Robust Training of a Prediction Aware
Recourse Model
- arxiv url: http://arxiv.org/abs/2206.00700v2
- Date: Fri, 18 Aug 2023 14:31:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 01:38:40.158129
- Title: RoCourseNet: Distributionally Robust Training of a Prediction Aware
Recourse Model
- Title(参考訳): rocoursenet:予測を考慮したリコースモデルの分布的ロバストなトレーニング
- Authors: Hangzhi Guo, Feiran Jia, Jinghui Chen, Anna Squicciarini, Amulya Yadav
- Abstract要約: RoCourseNetは、将来のデータシフトに対して堅牢な予測とリコースを共同で最適化するトレーニングフレームワークである。
RoCourseNetは、ロバストな妥当性を96%以上達成し、ロバストな説明を生成する上で、最先端のベースラインを少なくとも10%上回っていることを示す。
- 参考スコア(独自算出の注目度): 29.057300578765663
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual (CF) explanations for machine learning (ML) models are
preferred by end-users, as they explain the predictions of ML models by
providing a recourse (or contrastive) case to individuals who are adversely
impacted by predicted outcomes. Existing CF explanation methods generate
recourses under the assumption that the underlying target ML model remains
stationary over time. However, due to commonly occurring distributional shifts
in training data, ML models constantly get updated in practice, which might
render previously generated recourses invalid and diminish end-users trust in
our algorithmic framework. To address this problem, we propose RoCourseNet, a
training framework that jointly optimizes predictions and recourses that are
robust to future data shifts. This work contains four key contributions: (1) We
formulate the robust recourse generation problem as a tri-level optimization
problem which consists of two sub-problems: (i) a bi-level problem that finds
the worst-case adversarial shift in the training data, and (ii) an outer
minimization problem to generate robust recourses against this worst-case
shift. (2) We leverage adversarial training to solve this tri-level
optimization problem by: (i) proposing a novel virtual data shift (VDS)
algorithm to find worst-case shifted ML models via explicitly considering the
worst-case data shift in the training dataset, and (ii) a block-wise coordinate
descent procedure to optimize for prediction and corresponding robust
recourses. (3) We evaluate RoCourseNet's performance on three real-world
datasets, and show that RoCourseNet consistently achieves more than 96% robust
validity and outperforms state-of-the-art baselines by at least 10% in
generating robust CF explanations. (4) Finally, we generalize the RoCourseNet
framework to accommodate any parametric post-hoc methods for improving robust
validity.
- Abstract(参考訳): 機械学習(ML)モデルに対する対実的(CF)説明は、予測結果に悪影響を及ぼした個人に対して、リコース(あるいは対照的な)ケースを提供することによってMLモデルの予測を説明するため、エンドユーザーによって好まれる。
既存のcf説明手法は、基盤となるターゲットmlモデルが時間とともに静止していると仮定して、リコースを生成する。
しかしながら、トレーニングデータの分散シフトが一般的に発生するため、mlモデルは常に更新されるため、従来生成されたリコースを無効にすることで、アルゴリズムフレームワークに対するエンドユーザの信頼を損なう可能性がある。
この問題に対処するために,将来のデータシフトにロバストな予測とリコースを共同で最適化するトレーニングフレームワークであるrocoursenetを提案する。
1) ロバストなリコース生成問題を2つのサブ問題からなる三段階最適化問題として定式化する。
(i)訓練データにおける最悪の敵意変化を見出す二段階問題、及び
(ii)この最悪のケースシフトに対してロバストなリコースを生成するための外的最小化問題。
2) この三段階最適化問題を解決するために, 逆訓練を利用する。
i)トレーニングデータセットの最悪のデータシフトを明示的に考慮し、最悪のMLモデルを見つけるために、新しい仮想データシフト(VDS)アルゴリズムを提案する。
(ii)予測と対応するロバストなリコースを最適化するブロック回りの座標降下手順。
3) 3つの実世界のデータセット上でのrocoursenetの性能を評価し,ロコースネットが一貫して96%強固な妥当性を達成し,ロバストなcf説明の生成において,最先端のベースラインを少なくとも10%上回っていることを示す。
(4) 最後に,rocoursenetフレームワークを一般化し,ロバストな妥当性向上のためのパラメトリックポストホック法に対応する。
関連論文リスト
- Scaling Laws for Predicting Downstream Performance in LLMs [75.28559015477137]
この研究は、性能評価のためのより効率的な指標として、事前学習損失に焦点を当てている。
我々は、データソース間のFLOPに基づいて、ドメイン固有の事前学習損失を予測するために、電力法解析関数を拡張した。
我々は2層ニューラルネットワークを用いて、複数のドメイン固有の損失と下流性能の非線形関係をモデル化する。
論文 参考訳(メタデータ) (2024-10-11T04:57:48Z) - Towards Stable Machine Learning Model Retraining via Slowly Varying Sequences [6.067007470552307]
そこで本研究では,繰り返しのトレーニングにおいて安定な機械学習モデルのシーケンスを見つける手法を提案する。
最適モデルの復元が保証される混合整数最適化の定式化を開発する。
本手法は, 予測力の小さい, 制御可能な犠牲を伴い, 厳密に訓練されたモデルよりも強い安定性を示す。
論文 参考訳(メタデータ) (2024-03-28T22:45:38Z) - Adversarial Collaborative Filtering for Free [27.949683060138064]
CF(Collaborative Filtering)は、ユーザが関心のある項目を見つけるのに役立つ。
既存の方法はノイズの多いデータ問題に悩まされ、推奨の質に悪影響を及ぼす。
本稿では, 計算コストを犠牲にすることなく, 対向学習を行う簡易かつ効果的な手法として, シャープネス対応協調フィルタリング(CF)を提案する。
論文 参考訳(メタデータ) (2023-08-20T19:25:38Z) - DF2: Distribution-Free Decision-Focused Learning [53.2476224456902]
決定中心学習(DFL)は近年,予測最適化問題に対する強力なアプローチとして出現している。
既存のエンドツーエンドDFL法は、モデル誤差、サンプル平均近似誤差、予測対象の分布に基づくパラメータ化の3つの重大なボトルネックによって妨げられている。
DF2は,これら3つのボトルネックに明示的に対処するために設計された,初となるテキストフリーな意思決定型学習手法である。
論文 参考訳(メタデータ) (2023-08-11T00:44:46Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - RoMA: Robust Model Adaptation for Offline Model-based Optimization [115.02677045518692]
入力出力クエリの静的データセットからブラックボックス目的関数を最大化する入力を探索する問題を考える。
この問題を解決するための一般的なアプローチは、真の客観的関数を近似するプロキシモデルを維持することである。
ここでの大きな課題は、検索中に逆最適化された入力を避ける方法である。
論文 参考訳(メタデータ) (2021-10-27T05:37:12Z) - CounterNet: End-to-End Training of Prediction Aware Counterfactual
Explanations [12.313007847721215]
CounterNetは、予測モデルトレーニングと対実的(CF)説明の生成を統合する、エンドツーエンドの学習フレームワークである。
ポストホック法とは異なり、CounterNetは予測モデルとともにCF説明生成を1回だけ最適化することができる。
複数の実世界のデータセットに対する実験により、CounterNetは高品質な予測を生成することが示された。
論文 参考訳(メタデータ) (2021-09-15T20:09:13Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。