論文の概要: Self-Certifying Classification by Linearized Deep Assignment
- arxiv url: http://arxiv.org/abs/2201.11162v1
- Date: Wed, 26 Jan 2022 19:59:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-28 14:46:56.423530
- Title: Self-Certifying Classification by Linearized Deep Assignment
- Title(参考訳): リニアライズドディープ代入による自己認証分類
- Authors: Bastian Boll, Alexander Zeilmann, Stefania Petra, Christoph Schn\"orr
- Abstract要約: そこで我々は,PAC-Bayesリスク認定パラダイム内で,グラフ上のメトリックデータを分類するための新しい深層予測器のクラスを提案する。
PAC-Bayesの最近の文献とデータに依存した先行研究に基づいて、この手法は仮説空間上の後続分布の学習を可能にする。
- 参考スコア(独自算出の注目度): 65.0100925582087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel class of deep stochastic predictors for classifying metric
data on graphs within the PAC-Bayes risk certification paradigm. Classifiers
are realized as linearly parametrized deep assignment flows with random initial
conditions. Building on the recent PAC-Bayes literature and data-dependent
priors, this approach enables (i) to use risk bounds as training objectives for
learning posterior distributions on the hypothesis space and (ii) to compute
tight out-of-sample risk certificates of randomized classifiers more
efficiently than related work. Comparison with empirical test set errors
illustrates the performance and practicality of this self-certifying
classification method.
- Abstract(参考訳): 本稿では,PAC-Bayesリスク認定パラダイム内のグラフ上のメトリックデータを分類するための,新しい確率予測器を提案する。
分類器は、ランダム初期条件を持つ線形パラメータ付きディープ代入フローとして実現される。
最近のpac-bayes文献とデータ依存優先に基づいて、このアプローチが実現される
(i)仮説空間の後方分布を学習するための学習目標としてのリスク境界の利用と活用
ランダム化分類器のサンプル外リスク証明書を関連作業よりも効率的に計算する。
経験的テストセットエラーとの比較は,本手法の性能と実用性を示している。
関連論文リスト
- Risk-based Calibration for Probabilistic Classifiers [4.792851066169872]
リスクベースキャリブレーション(RC)と呼ばれる一般的な反復的手法を導入し,0-1損失による経験的リスクを最小限に抑える。
RCは、元の閉形式学習アルゴリズムの経験的誤りを改善し、より顕著に、勾配降下法よりも一貫して優れている。
論文 参考訳(メタデータ) (2024-09-05T14:06:56Z) - Learning Robust Classifiers with Self-Guided Spurious Correlation Mitigation [26.544938760265136]
ディープニューラル分類器は、入力のスプリアス属性とターゲットの間のスプリアス相関に頼り、予測を行う。
本稿では,自己誘導型スプリアス相関緩和フレームワークを提案する。
予測行動の違いを識別するために分類器の訓練を行うことで,事前知識を必要とせず,素因関係への依存を軽減できることを示す。
論文 参考訳(メタデータ) (2024-05-06T17:12:21Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Likelihood Ratio Confidence Sets for Sequential Decision Making [51.66638486226482]
確率に基づく推論の原理を再検討し、確率比を用いて妥当な信頼シーケンスを構築することを提案する。
本手法は, 精度の高い問題に特に適している。
提案手法は,オンライン凸最適化への接続に光を当てることにより,推定器の最適シーケンスを確実に選択する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T00:10:21Z) - Adaptive conformal classification with noisy labels [22.33857704379073]
キャリブレーション試料のランダムなラベル汚染に自動的に適応できる分類タスクに対する新しいコンフォメーション予測手法を開発した。
これは、ラベル汚染の有無で標準共形推論によって影響を受ける効果的なカバレッジインフレーションを正確に評価することで可能となる。
提案手法の利点は、広範囲なシミュレーションと、CIFAR-10H画像データセットを用いたオブジェクト分類への応用によって実証される。
論文 参考訳(メタデータ) (2023-09-10T17:35:43Z) - Adaptive Dimension Reduction and Variational Inference for Transductive
Few-Shot Classification [2.922007656878633]
適応次元の削減によりさらに改善された変分ベイズ推定に基づく新しいクラスタリング法を提案する。
提案手法は,Few-Shotベンチマークにおける現実的非バランスなトランスダクティブ設定の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2022-09-18T10:29:02Z) - Risk Consistent Multi-Class Learning from Label Proportions [64.0125322353281]
本研究は,バッグにトレーニングインスタンスを提供するMCLLP設定によるマルチクラス学習に対処する。
既存のほとんどのMCLLPメソッドは、インスタンスの予測や擬似ラベルの割り当てにバッグワイズな制約を課している。
経験的リスク最小化フレームワークを用いたリスク一貫性手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T03:49:04Z) - When in Doubt: Improving Classification Performance with Alternating
Normalization [57.39356691967766]
分類のための非パラメトリック後処理ステップである交互正規化(CAN)を用いた分類を導入する。
CANは、予測されたクラス確率分布を再調整することで、挑戦的な例の分類精度を向上させる。
多様な分類課題にまたがってその効果を実証的に示す。
論文 参考訳(メタデータ) (2021-09-28T02:55:42Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。