論文の概要: Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning
- arxiv url: http://arxiv.org/abs/2011.12344v1
- Date: Tue, 24 Nov 2020 19:52:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 14:22:49.582471
- Title: Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning
- Title(参考訳): 信頼と検証:偽りの制約付き学習による予測信頼性の割り当て
- Authors: Luiz F. O. Chamon and Santiago Paternain and Alejandro Ribeiro
- Abstract要約: 予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
- 参考スコア(独自算出の注目度): 123.3472310767721
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prediction credibility measures, in the form of confidence intervals or
probability distributions, are fundamental in statistics and machine learning
to characterize model robustness, detect out-of-distribution samples
(outliers), and protect against adversarial attacks. To be effective, these
measures should (i) account for the wide variety of models used in practice,
(ii) be computable for trained models or at least avoid modifying established
training procedures, (iii) forgo the use of data, which can expose them to the
same robustness issues and attacks as the underlying model, and (iv) be
followed by theoretical guarantees. These principles underly the framework
developed in this work, which expresses the credibility as a risk-fit
trade-off, i.e., a compromise between how much can fit be improved by
perturbing the model input and the magnitude of this perturbation (risk). Using
a constrained optimization formulation and duality theory, we analyze this
compromise and show that this balance can be determined counterfactually,
without having to test multiple perturbations. This results in an unsupervised,
a posteriori method of assigning prediction credibility for any (possibly
non-convex) differentiable model, from RKHS-based solutions to any architecture
of (feedforward, convolutional, graph) neural network. Its use is illustrated
in data filtering and defense against adversarial attacks.
- Abstract(参考訳): 信頼区間や確率分布の形での予測信頼性測定は、統計学や機械学習において、モデルの堅牢性を特徴づけ、配布外サンプル(アウトリー)を検出し、敵の攻撃から保護する基礎となる。
効果的には これらの措置は
(i)実用の多種多様なモデルについて説明。
二 訓練モデルの計算可能、又は少なくとも確立した訓練手順の変更を避けること。
三 基礎となるモデルと同じ堅牢性の問題及び攻撃にそれらを公開することができるデータの使用を禁止し、
(iv)理論的な保証が続く。
これらの原則は、この研究で開発された枠組みを基礎として、リスクに適合するトレードオフとしての信頼性、すなわちモデル入力を摂動させることによる適合度の向上と、この摂動の大きさ(リスク)との妥協を表現している。
制約付き最適化定式化と双対性理論を用いて、この妥協を解析し、複数の摂動をテストすることなく、このバランスが反実的に決定可能であることを示す。
この結果、任意の(おそらく凸でない)微分可能モデルに対する予測信頼性を、rkhsベースの解から任意のニューラルネットワークのアーキテクチャ(フィードフォワード、畳み込み、グラフ)に割り当てる、教師なしの後続的な方法が生まれる。
その用途は、データフィルタリングと敵の攻撃に対する防御で示される。
関連論文リスト
- Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - FullCert: Deterministic End-to-End Certification for Training and Inference of Neural Networks [62.897993591443594]
FullCertは、音と決定論的境界を持つ最初のエンドツーエンドの認証器である。
2つのデータセットに対してFullCertの有効性を実験的に示す。
論文 参考訳(メタデータ) (2024-06-17T13:23:52Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Decorrelative Network Architecture for Robust Electrocardiogram
Classification [4.808817930937323]
すべてのシナリオで正確であるネットワークをトレーニングすることはできない。
深層学習法は不確実性を推定するためにモデルパラメータ空間をサンプリングする。
これらのパラメータは、しばしば、敵の攻撃によって悪用される、同じ脆弱性にさらされる。
本稿では,特徴デコレーションとフーリエ分割に基づく新たなアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2022-07-19T02:36:36Z) - Robustness of Machine Learning Models Beyond Adversarial Attacks [0.0]
本稿では,MLモデルのロバスト性を決定する上で,敵対的ロバスト性や近縁なメトリクスが必ずしも有効な指標ではないことを示す。
アプリケーション毎に個別に入力データの摂動をモデル化するフレキシブルなアプローチを提案する。
これは、現実の摂動が予測を変える可能性を計算する確率論的アプローチと組み合わせられる。
論文 参考訳(メタデータ) (2022-04-21T12:09:49Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Robust Validation: Confident Predictions Even When Distributions Shift [19.327409270934474]
本稿では,モデルが点予測ではなく,その予測に対して不確実な推定を行うような,頑健な予測推論の手順について述べる。
本稿では, トレーニング集団の周囲に$f$-divergence のボールを用いて, 任意のテスト分布に対して適切なカバレッジレベルを与える予測セットを生成する手法を提案する。
私たちの方法論の重要な構成要素は、将来のデータシフトの量を見積り、それに対する堅牢性を構築することです。
論文 参考訳(メタデータ) (2020-08-10T17:09:16Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - A comprehensive study on the prediction reliability of graph neural
networks for virtual screening [0.0]
本稿では,モデルアーキテクチャ,正規化手法,損失関数が分類結果の予測性能および信頼性に与える影響について検討する。
その結果,高い成功率を達成するためには,正則化と推論手法の正しい選択が重要であることが明らかとなった。
論文 参考訳(メタデータ) (2020-03-17T10:13:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。