論文の概要: Bound to Disagree : Generalization Bounds via Certifiable Surrogates
- arxiv url: http://arxiv.org/abs/2602.23128v1
- Date: Thu, 26 Feb 2026 15:42:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.758323
- Title: Bound to Disagree : Generalization Bounds via Certifiable Surrogates
- Title(参考訳): 診断の境界 : 認証されたサロゲートによる一般化境界
- Authors: Mathieu Bazinet, Valentina Zantedeschi, Pascal Germain,
- Abstract要約: 2つの予測器の真のリスクのギャップについて、不一致ベースの証明書を提供する。
次に、厳密な一般化保証を享受する代理モデルを介して、関心の予測者の真のリスクを束縛する。
- 参考スコア(独自算出の注目度): 9.96593708433481
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generalization bounds for deep learning models are typically vacuous, not computable or restricted to specific model classes. In this paper, we tackle these issues by providing new disagreement-based certificates for the gap between the true risk of any two predictors. We then bound the true risk of the predictor of interest via a surrogate model that enjoys tight generalization guarantees, and evaluating our disagreement bound on an unlabeled dataset. We empirically demonstrate the tightness of the obtained certificates and showcase the versatility of the approach by training surrogate models leveraging three different frameworks: sample compression, model compression and PAC-Bayes theory. Importantly, such guarantees are achieved without modifying the target model, nor adapting the training procedure to the generalization framework.
- Abstract(参考訳): ディープラーニングモデルの一般化境界は、一般に空白であり、計算可能でなく、特定のモデルクラスに限定される。
本稿では,2つの予測器の真のリスクのギャップを埋めるために,新たな不一致ベースの証明書を提供することにより,これらの課題に対処する。
次に、厳密な一般化保証を享受する代理モデルを介して、関心の予測者の真のリスクを限定し、ラベルのないデータセットに縛られた不一致を評価する。
得られた証明の厳密さを実証的に示すとともに,サンプル圧縮,モデル圧縮,PAC-Bayes理論という3つの異なるフレームワークを活用したサロゲートモデルをトレーニングすることで,アプローチの汎用性を示す。
重要なことは、そのような保証はターゲットモデルを変更したり、一般化フレームワークにトレーニング手順を適用することなく達成される。
関連論文リスト
- Improving Group Robustness on Spurious Correlation via Evidential Alignment [26.544938760265136]
ディープニューラルネットワークは、しばしば急激な相関、すなわち非因果的特徴と標的の間の表面的関連を学習し、依存する。
既存のメソッドは通常、外部のグループアノテーションや補助的な決定論的モデルを使用することでこの問題を軽減する。
偏りのあるモデルの振る舞いを理解するために不確実性定量化を利用する新しいフレームワークであるエビデンシャルアライメントを提案する。
論文 参考訳(メタデータ) (2025-06-12T22:47:21Z) - A Model-Based Approach to Imitation Learning through Multi-Step Predictions [8.888213496593556]
モデル予測制御に着想を得たモデルベース模倣学習フレームワークを提案する。
本手法は,従来のクローン型数値ベンチマークよりも優れる。
提案手法の複雑さと誤差境界について理論的に保証し,その収束特性について考察する。
論文 参考訳(メタデータ) (2025-04-18T02:19:30Z) - FullCert: Deterministic End-to-End Certification for Training and Inference of Neural Networks [62.897993591443594]
FullCertは、音と決定論的境界を持つ最初のエンドツーエンドの認証器である。
2つのデータセットに対してFullCertの有効性を実験的に示す。
論文 参考訳(メタデータ) (2024-06-17T13:23:52Z) - Learning with Complementary Labels Revisited: The Selected-Completely-at-Random Setting Is More Practical [66.57396042747706]
補完ラベル学習は、弱教師付き学習問題である。
均一分布仮定に依存しない一貫したアプローチを提案する。
相補的なラベル学習は、負のラベル付きバイナリ分類問題の集合として表現できる。
論文 参考訳(メタデータ) (2023-11-27T02:59:17Z) - On Regularization and Inference with Label Constraints [62.60903248392479]
機械学習パイプラインにおけるラベル制約を符号化するための2つの戦略、制約付き正規化、制約付き推論を比較した。
正規化については、制約に不整合なモデルを前置することで一般化ギャップを狭めることを示す。
制約付き推論では、モデルの違反を訂正することで人口リスクを低減し、それによってその違反を有利にすることを示す。
論文 参考訳(メタデータ) (2023-07-08T03:39:22Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Posterior Differential Regularization with f-divergence for Improving
Model Robustness [95.05725916287376]
クリーン入力とノイズ入力のモデル後部差を規則化する手法に着目する。
後微分正則化を$f$-divergencesの族に一般化する。
実験の結果, 後方微分を$f$-divergenceで正規化することで, モデルロバスト性の向上が期待できることがわかった。
論文 参考訳(メタデータ) (2020-10-23T19:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。