論文の概要: RoCourseNet: Distributionally Robust Training of a Prediction Aware
Recourse Model
- arxiv url: http://arxiv.org/abs/2206.00700v1
- Date: Wed, 1 Jun 2022 18:18:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-04 06:43:15.665720
- Title: RoCourseNet: Distributionally Robust Training of a Prediction Aware
Recourse Model
- Title(参考訳): rocoursenet:予測を考慮したリコースモデルの分布的ロバストなトレーニング
- Authors: Hangzhi Guo, Feiran Jia, Jinghui Chen, Anna Squicciarini, Amulya Yadav
- Abstract要約: 我々は,将来的なデータシフトに対する予測と堅牢なリコースを共同で最適化するトレーニングフレームワークであるRoCourseNetを提案する。
我々は,RoCourseNet内の新しい三段階最適化問題を解くために,対向学習を活用している。
RoCourseNetは、堅牢なCF説明を生成する上で、最先端のベースラインを10%上回ります。
- 参考スコア(独自算出の注目度): 12.868822686549283
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual (CF) explanations for machine learning (ML) models are
preferred by end-users, as they explain the predictions of ML models by
providing a recourse case to individuals who are adversely impacted by
predicted outcomes. Existing CF explanation methods generate recourses under
the assumption that the underlying target ML model remains stationary over
time. However, due to commonly occurring distributional shifts in training
data, ML models constantly get updated in practice, which might render
previously generated recourses invalid and diminish end-users trust in our
algorithmic framework. To address this problem, we propose RoCourseNet, a
training framework that jointly optimizes for predictions and robust recourses
to future data shifts. We have three main contributions: (i) We propose a novel
virtual data shift (VDS) algorithm to find worst-case shifted ML models by
explicitly considering the worst-case data shift in the training dataset. (ii)
We leverage adversarial training to solve a novel tri-level optimization
problem inside RoCourseNet, which simultaneously generates predictions and
corresponding robust recourses. (iii) Finally, we evaluate RoCourseNet's
performance on three real-world datasets and show that RoCourseNet outperforms
state-of-the-art baselines by 10% in generating robust CF explanations.
- Abstract(参考訳): 機械学習(ML)モデルに対する対実的(CF)説明は、予測結果に悪影響を及ぼした個人にリコースケースを提供することで、機械学習モデルの予測を説明するエンドユーザーによって好まれる。
既存のcf説明手法は、基盤となるターゲットmlモデルが時間とともに静止していると仮定して、リコースを生成する。
しかしながら、トレーニングデータの分散シフトが一般的に発生するため、mlモデルは常に更新されるため、従来生成されたリコースを無効にすることで、アルゴリズムフレームワークに対するエンドユーザの信頼を損なう可能性がある。
この問題に対処するために,将来のデータシフトに対する予測とロバストなリコースを共同で最適化するトレーニングフレームワークであるrocoursenetを提案する。
主な貢献は3つあります
(i)トレーニングデータセットにおける最悪のデータシフトを明示的に考慮し,最悪ケースシフトMLモデルを見つけるための新しい仮想データシフト(VDS)アルゴリズムを提案する。
(ii)rocoursenet内の新しい三段階最適化問題を解くために,逆訓練を活用し,予測とそれに対応するロバストなリコースを同時に生成する。
(iii) 最後に、3つの実世界のデータセットにおけるrocoursenetのパフォーマンスを評価し、ロバストなcf説明の生成においてrocoursenetが最先端のベースラインを10%上回っていることを示す。
関連論文リスト
- Scaling Laws for Predicting Downstream Performance in LLMs [75.28559015477137]
この研究は、性能評価のためのより効率的な指標として、事前学習損失に焦点を当てている。
我々は、データソース間のFLOPに基づいて、ドメイン固有の事前学習損失を予測するために、電力法解析関数を拡張した。
我々は2層ニューラルネットワークを用いて、複数のドメイン固有の損失と下流性能の非線形関係をモデル化する。
論文 参考訳(メタデータ) (2024-10-11T04:57:48Z) - Towards Stable Machine Learning Model Retraining via Slowly Varying Sequences [6.067007470552307]
そこで本研究では,繰り返しのトレーニングにおいて安定な機械学習モデルのシーケンスを見つける手法を提案する。
最適モデルの復元が保証される混合整数最適化の定式化を開発する。
本手法は, 予測力の小さい, 制御可能な犠牲を伴い, 厳密に訓練されたモデルよりも強い安定性を示す。
論文 参考訳(メタデータ) (2024-03-28T22:45:38Z) - Adversarial Collaborative Filtering for Free [27.949683060138064]
CF(Collaborative Filtering)は、ユーザが関心のある項目を見つけるのに役立つ。
既存の方法はノイズの多いデータ問題に悩まされ、推奨の質に悪影響を及ぼす。
本稿では, 計算コストを犠牲にすることなく, 対向学習を行う簡易かつ効果的な手法として, シャープネス対応協調フィルタリング(CF)を提案する。
論文 参考訳(メタデータ) (2023-08-20T19:25:38Z) - DF2: Distribution-Free Decision-Focused Learning [53.2476224456902]
決定中心学習(DFL)は近年,予測最適化問題に対する強力なアプローチとして出現している。
既存のエンドツーエンドDFL法は、モデル誤差、サンプル平均近似誤差、予測対象の分布に基づくパラメータ化の3つの重大なボトルネックによって妨げられている。
DF2は,これら3つのボトルネックに明示的に対処するために設計された,初となるテキストフリーな意思決定型学習手法である。
論文 参考訳(メタデータ) (2023-08-11T00:44:46Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - RoMA: Robust Model Adaptation for Offline Model-based Optimization [115.02677045518692]
入力出力クエリの静的データセットからブラックボックス目的関数を最大化する入力を探索する問題を考える。
この問題を解決するための一般的なアプローチは、真の客観的関数を近似するプロキシモデルを維持することである。
ここでの大きな課題は、検索中に逆最適化された入力を避ける方法である。
論文 参考訳(メタデータ) (2021-10-27T05:37:12Z) - CounterNet: End-to-End Training of Prediction Aware Counterfactual
Explanations [12.313007847721215]
CounterNetは、予測モデルトレーニングと対実的(CF)説明の生成を統合する、エンドツーエンドの学習フレームワークである。
ポストホック法とは異なり、CounterNetは予測モデルとともにCF説明生成を1回だけ最適化することができる。
複数の実世界のデータセットに対する実験により、CounterNetは高品質な予測を生成することが示された。
論文 参考訳(メタデータ) (2021-09-15T20:09:13Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。