論文の概要: Approximating Full Conformal Prediction at Scale via Influence Functions
- arxiv url: http://arxiv.org/abs/2202.01315v1
- Date: Wed, 2 Feb 2022 22:38:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-05 04:44:19.044731
- Title: Approximating Full Conformal Prediction at Scale via Influence Functions
- Title(参考訳): 影響関数による大規模コンフォーマル予測の近似
- Authors: Javier Abad, Umang Bhatt, Adrian Weller and Giovanni Cherubin
- Abstract要約: コンフォーマル予測(CP)は、従来の機械学習モデルを取り巻くラッパーである。
本稿では、フルCPを効率的に近似するために影響関数を用いる。
- 参考スコア(独自算出の注目度): 30.391742057634264
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conformal prediction (CP) is a wrapper around traditional machine learning
models, giving coverage guarantees under the sole assumption of
exchangeability; in classification problems, for a chosen significance level
$\varepsilon$, CP guarantees that the number of errors is at most
$\varepsilon$, irrespective of whether the underlying model is misspecified.
However, the prohibitive computational costs of full CP led researchers to
design scalable alternatives, which alas do not attain the same guarantees or
statistical power of full CP. In this paper, we use influence functions to
efficiently approximate full CP. We prove that our method is a consistent
approximation of full CP, and empirically show that the approximation error
becomes smaller as the training set increases; e.g., for $10^{3}$ training
points the two methods output p-values that are $<10^{-3}$ apart: a negligible
error for any practical application. Our methods enable scaling full CP to
large real-world datasets. We compare our full CP approximation ACP to
mainstream CP alternatives, and observe that our method is computationally
competitive whilst enjoying the statistical predictive power of full CP.
- Abstract(参考訳): 分類問題では、選択された意味レベル$\varepsilon$に対して、CPは、基礎となるモデルが不特定であるかどうかに関わらず、エラーの数が最大$\varepsilon$であることを保証する。
しかし、完全なCPの計算コストの禁止により、研究者はスケーラブルな代替案を設計した。
本稿では,影響関数を用いて全cpを効率的に近似する。
この方法は完全なcpの一貫した近似であることが証明され、トレーニングセットが増加するにつれて近似誤差が小さくなることを実証的に示す。例えば、10^{3}$トレーニングポイントの場合、2つのメソッドは$<10^{-3}$ apartであるp値を出力する。
提案手法により,大規模な実世界のデータセットに完全なCPを拡張できる。
そこで本研究では,本手法が計算的競争力を持ちながら,全CPの統計的予測力を享受しながら,全CP近似 ACP を主流のCP代替品と比較する。
関連論文リスト
- Robust Yet Efficient Conformal Prediction Sets [53.78604391939934]
コンフォーマル予測(CP)は、任意のモデルの出力を真のラベルを含むことが保証された予測セットに変換することができる。
整合性スコアの最悪のケース変化をバウンドすることで、証明可能なロバストな集合を導出する。
論文 参考訳(メタデータ) (2024-07-12T10:59:44Z) - Verifiably Robust Conformal Prediction [1.391198481393699]
本稿では、ニューラルネットワーク検証手法を利用して、敵攻撃時のカバレッジ保証を回復する新しいフレームワークであるVRCP(Verifiably Robust Conformal Prediction)を紹介する。
私たちのメソッドは、回帰タスクだけでなく、$ell1$, $ell2$, $ellinfty$といった任意のノルムで束縛された摂動をサポートする最初の方法です。
いずれの場合も、VRCPは名目上の範囲を達成し、SotAよりもはるかに効率的で情報的な予測領域が得られる。
論文 参考訳(メタデータ) (2024-05-29T09:50:43Z) - Efficient Conformal Prediction under Data Heterogeneity [79.35418041861327]
コンフォーマル予測(CP)は不確実性定量化のための頑健な枠組みである。
非交換性に対処するための既存のアプローチは、最も単純な例を超えて計算不可能なメソッドにつながる。
この研究は、比較的一般的な非交換可能なデータ分布に対して証明可能な信頼セットを生成する、CPに新しい効率的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-25T20:02:51Z) - Probabilistically robust conformal prediction [9.401004747930974]
コンフォーマル予測(CP)は、ディープニューラルネットワークを含む機械学習分類器の不確実性を定量化するフレームワークである。
CPに関する既存の作業のほとんど全てがクリーンなテストデータを前提としており、CPアルゴリズムの堅牢性についてはあまり知られていない。
本稿では,ほとんどの摂動に対して頑健性を保証する確率論的頑健な共形予測(PRCP)の問題について検討する。
論文 参考訳(メタデータ) (2023-07-31T01:32:06Z) - A novel Deep Learning approach for one-step Conformal Prediction
approximation [0.7646713951724009]
Conformal Prediction (CP) は、最小限の制約を与えられた最大エラー率を保証する汎用的なソリューションである。
本稿では,従来の2ステップCPアプローチを1ステップで近似する新しい共形損失関数を提案する。
論文 参考訳(メタデータ) (2022-07-25T17:46:09Z) - Learning Optimal Conformal Classifiers [32.68483191509137]
コンフォーマル予測(CP)は、真のクラスを含む信頼セットをユーザが特定した確率で予測するために用いられる。
本稿では, CP を用いた学習において, コンフォーマルラッパーをエンド・ツー・エンドとしたトレーニングモデルを用いて, CP による差別化戦略について検討する。
コンフォメーショントレーニング(ConfTr)は、平均信頼度セットのサイズを小さくすることで、最先端のCP手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-18T11:25:33Z) - Doubly Robust Off-Policy Actor-Critic: Convergence and Optimality [131.45028999325797]
ディスカウント型MDPのための2倍堅牢なオフポリチックAC(DR-Off-PAC)を開発した。
DR-Off-PACは、俳優と批評家の両方が一定のステップで同時に更新される単一のタイムスケール構造を採用しています。
有限時間収束速度を研究し, dr-off-pac のサンプル複雑性を特徴とし, $epsilon$-accurate optimal policy を得る。
論文 参考訳(メタデータ) (2021-02-23T18:56:13Z) - Exact Optimization of Conformal Predictors via Incremental and
Decremental Learning [46.9970555048259]
Conformal Predictors (CP) はMLメソッドのラッパーであり、データ分散に対する弱い仮定の下でエラー保証を提供する。
分類や回帰から異常検出まで幅広い問題に適している。
本研究では,基礎となるML手法と組み合わせて学習し,漸進的・漸進的学習を活用することにより,CP分類器を著しく高速化できることを示す。
論文 参考訳(メタデータ) (2021-02-05T15:31:37Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z) - Provably Efficient Safe Exploration via Primal-Dual Policy Optimization [105.7510838453122]
制約付きマルコフ決定過程(CMDP)を用いた安全強化学習(SRL)問題について検討する。
本稿では,関数近似設定において,安全な探索を行うCMDPの効率の良いオンラインポリシー最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-03-01T17:47:03Z) - Computing Valid p-value for Optimal Changepoint by Selective Inference
using Dynamic Programming [21.361641617994714]
変化点(CP)の意義を統計的に推測する新しい手法を提案する。
選択的推論(SI)フレームワークに基づき、CPの意義をテストするための有効なp値を計算するための正確な(漸近的でない)アプローチを提案する。
合成と実世界の両方のデータセットで実験を行い、提案手法が既存の手法よりも強力であることを示す。
論文 参考訳(メタデータ) (2020-02-21T05:07:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。