論文の概要: Learning-Augmented Robust Algorithmic Recourse
- arxiv url: http://arxiv.org/abs/2410.01580v1
- Date: Wed, 2 Oct 2024 14:15:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 16:54:49.200698
- Title: Learning-Augmented Robust Algorithmic Recourse
- Title(参考訳): 学習強化ロバストアルゴリズムの講義
- Authors: Kshitij Kayastha, Vasilis Gkatzelis, Shahin Jabbari,
- Abstract要約: アルゴリズムのリコースは、将来望ましい結果を達成するために、最小限のコスト改善を提案する。
機械学習モデルは時間とともに更新されることが多く、それによってリコースが無効になる可能性がある。
本稿では,この問題に対する新しいアルゴリズムを提案し,ロバスト性・一貫性のトレードオフについて検討し,予測精度が性能に与える影響を分析する。
- 参考スコア(独自算出の注目度): 7.217269034256654
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The widespread use of machine learning models in high-stakes domains can have a major negative impact, especially on individuals who receive undesirable outcomes. Algorithmic recourse provides such individuals with suggestions of minimum-cost improvements they can make to achieve a desirable outcome in the future. However, machine learning models often get updated over time and this can cause a recourse to become invalid (i.e., not lead to the desirable outcome). The robust recourse literature aims to choose recourses that are less sensitive, even against adversarial model changes, but this comes at a higher cost. To overcome this obstacle, we initiate the study of algorithmic recourse through the learning-augmented framework and evaluate the extent to which a designer equipped with a prediction regarding future model changes can reduce the cost of recourse when the prediction is accurate (consistency) while also limiting the cost even when the prediction is inaccurate (robustness). We propose a novel algorithm for this problem, study the robustness-consistency trade-off, and analyze how prediction accuracy affects performance.
- Abstract(参考訳): ハイテイク領域における機械学習モデルの普及は、特に望ましくない結果を受ける個人に対して大きなネガティブな影響を及ぼす可能性がある。
アルゴリズムによるリコースは、このような個人に、将来望ましい結果を達成するためにできる最小限のコスト改善の提案を提供する。
しかし、機械学習モデルは時間とともに更新されることが多く、それによってリコースが無効になる可能性がある(すなわち、望ましい結果に結びつかない)。
堅牢なリコース文献は、敵のモデル変更に対してさえ、より敏感でないリコースを選択することを目的としているが、これはよりコストがかかる。
この障害を克服するため、学習強化フレームワークを通じてアルゴリズムによる会話の研究を開始し、将来のモデル変更に関する予測を備えたデザイナが、予測が正確(一貫性)でありながら、予測が不正確(ロバストネス)であってもコストを抑えることができる範囲を評価する。
本稿では,この問題に対する新しいアルゴリズムを提案し,ロバスト性・一貫性のトレードオフについて検討し,予測精度が性能に与える影響を分析する。
関連論文リスト
- Optimistic Regret Bounds for Online Learning in Adversarial Markov Decision Processes [5.116582735311639]
コスト予測器のセットを活用して後悔を最小限に抑えることを目的とした,新たなAMDPの導入と研究を行う。
提案手法は,コスト予測器の推算力で優雅に劣化する残差である,確率の高いサブリニアな懐疑的後悔を実現するための新しいポリシー探索手法を開発する。
論文 参考訳(メタデータ) (2024-05-03T15:44:31Z) - Learning-Augmented Algorithms with Explicit Predictors [67.02156211760415]
アルゴリズム設計の最近の進歩は、過去のデータと現在のデータから得られた機械学習モデルによる予測の活用方法を示している。
この文脈における以前の研究は、予測器が過去のデータに基づいて事前訓練され、ブラックボックスとして使用されるパラダイムに焦点を当てていた。
本研究では,予測器を解き,アルゴリズムの課題の中で生じる学習問題を統合する。
論文 参考訳(メタデータ) (2024-03-12T08:40:21Z) - Re-thinking Data Availablity Attacks Against Deep Neural Networks [53.64624167867274]
本稿では、未学習例の概念を再検討し、既存のロバストな誤り最小化ノイズが不正確な最適化目標であることを示す。
本稿では,計算時間要件の低減による保護性能の向上を図った新しい最適化パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-18T04:03:51Z) - Learning Sample Difficulty from Pre-trained Models for Reliable
Prediction [55.77136037458667]
本稿では,大規模事前学習モデルを用いて,サンプル難易度を考慮したエントロピー正規化による下流モデルトレーニングを指導する。
我々は、挑戦的なベンチマークで精度と不確実性の校正を同時に改善する。
論文 参考訳(メタデータ) (2023-04-20T07:29:23Z) - Probabilistically Robust Recourse: Navigating the Trade-offs between
Costs and Robustness in Algorithmic Recourse [34.39887495671287]
本稿では,達成された(反感)と所望のリコース無効率とのギャップを同時に最小化する目的関数を提案する。
我々は,任意のインスタンスに対応するリコース無効化率を特徴付けるために,新しい理論的結果を開発した。
複数の実世界のデータセットを用いた実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-03-13T21:39:24Z) - Learning Uncertainty with Artificial Neural Networks for Improved
Remaining Time Prediction of Business Processes [0.15229257192293202]
本論文では,これらの手法を予測過程のモニタリングに応用する。
より正確な予測と迅速な作業に貢献できることが分かりました。
これは多くの興味深い応用をもたらし、より小さなデータセットを持つ予測システムを早期に導入し、人間とのより良い協力を促進する。
論文 参考訳(メタデータ) (2021-05-12T10:18:57Z) - Towards Robust and Reliable Algorithmic Recourse [11.887537452826624]
モデルシフトに堅牢なリコースを見つけるための敵対的トレーニングを活用する新しいフレームワークであるRObust Algorithmic Recourse(ROAR)を提案します。
また,モデルシフトにロバストなリコースの構築の重要性を強調する詳細な理論解析を行う。
論文 参考訳(メタデータ) (2021-02-26T17:38:52Z) - A Simple Fine-tuning Is All You Need: Towards Robust Deep Learning Via
Adversarial Fine-tuning [90.44219200633286]
我々は,$textitslow start, fast decay$ learning rate schedulingストラテジーに基づく,単純かつ非常に効果的な敵の微調整手法を提案する。
実験の結果,提案手法はCIFAR-10, CIFAR-100, ImageNetデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:50:15Z) - A comparison of Monte Carlo dropout and bootstrap aggregation on the
performance and uncertainty estimation in radiation therapy dose prediction
with deep learning neural networks [0.46180371154032895]
本稿では,モンテカルロ投棄法(MCDO)とブートストラップアグリゲーション(バッグング)をディープラーニングモデルに応用し,放射線治療用線量予測の不確かさを推定する手法を提案する。
パフォーマンス面では、バギングは調査対象のほとんどの指標において統計的に顕著な損失値と誤差を減少させる。
論文 参考訳(メタデータ) (2020-11-01T00:24:43Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Value-driven Hindsight Modelling [68.658900923595]
値推定は強化学習(RL)パラダイムの重要な構成要素である。
モデル学習は、観測系列に存在する豊富な遷移構造を利用することができるが、このアプローチは通常、報酬関数に敏感ではない。
この2つの極点の間に位置するRLにおける表現学習のアプローチを開発する。
これにより、タスクに直接関連し、値関数の学習を加速できる、抽出可能な予測ターゲットが提供される。
論文 参考訳(メタデータ) (2020-02-19T18:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。