論文の概要: Support is All You Need for Certified VAE Training
- arxiv url: http://arxiv.org/abs/2504.11831v1
- Date: Wed, 16 Apr 2025 07:41:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 14:37:25.019849
- Title: Support is All You Need for Certified VAE Training
- Title(参考訳): 認定VAEトレーニングに必要なサポート
- Authors: Changming Xu, Debangshu Banerjee, Deepak Vasisht, Gagandeep Singh,
- Abstract要約: 変分オートエンコーダ(VAE)はますます普及し、安全クリティカルなアプリケーションにデプロイされている。
本稿では,VAEの認定トレーニングのための新しい手法であるCIVETを提案する。
- 参考スコア(独自算出の注目度): 7.406988112174778
- License:
- Abstract: Variational Autoencoders (VAEs) have become increasingly popular and deployed in safety-critical applications. In such applications, we want to give certified probabilistic guarantees on performance under adversarial attacks. We propose a novel method, CIVET, for certified training of VAEs. CIVET depends on the key insight that we can bound worst-case VAE error by bounding the error on carefully chosen support sets at the latent layer. We show this point mathematically and present a novel training algorithm utilizing this insight. We show in an extensive evaluation across different datasets (in both the wireless and vision application areas), architectures, and perturbation magnitudes that our method outperforms SOTA methods achieving good standard performance with strong robustness guarantees.
- Abstract(参考訳): 変分オートエンコーダ(VAE)はますます普及し、安全クリティカルなアプリケーションにデプロイされている。
このようなアプリケーションでは、敵攻撃による性能の保証を保証したい。
本稿では,VAEの認定トレーニングのための新しい手法であるCIVETを提案する。
CIVETは、遅延層で慎重に選択されたサポートセットにエラーをバウンドすることで、最悪のVAEエラーをバウンドできるという重要な洞察に依存します。
本稿では,この点を数学的に示すとともに,この知見を利用した新しい学習アルゴリズムを提案する。
我々は,異なるデータセット(無線および視覚アプリケーション領域の両方),アーキテクチャ,摂動の等級において,高い堅牢性保証と優れた標準性能を達成できるSOTA法より優れていることを示す。
関連論文リスト
- Cross-Input Certified Training for Universal Perturbations [4.456428506059651]
現在の認定訓練方法は、単一入力の摂動に対して頑健なモデルを訓練するが、最適以下の清浄とUAPの精度を達成する。
UAP攻撃者に対して堅牢なネットワークの認証トレーニングのための新しい手法CITRUSを提案する。
提案手法は標準精度(最大10.3%)で従来の認証されたトレーニング手法より優れており,より実用的な認証済みのUAP精度でSOTA性能を実現することができる。
論文 参考訳(メタデータ) (2024-05-15T08:33:41Z) - SURE: SUrvey REcipes for building reliable and robust deep networks [12.268921703825258]
本稿では,深層ニューラルネットワークにおける不確実性推定手法を再検討し,信頼性を高めるために一連の手法を統合する。
我々は,不確実性推定の有効性を示す重要なテストベッドである故障予測のベンチマークに対して,SUREを厳格に評価する。
データ破損、ラベルノイズ、長い尾のクラス分布といった現実世界の課題に適用した場合、SUREは顕著な堅牢性を示し、現在の最先端の特殊手法と同等あるいは同等な結果をもたらす。
論文 参考訳(メタデータ) (2024-03-01T13:58:19Z) - Adaptive Testing Environment Generation for Connected and Automated
Vehicles with Dense Reinforcement Learning [7.6589102528398065]
複数のサロゲートモデルを組み込んだアダプティブテスト環境を構築する。
そこで本研究では,高効率な高密度強化学習手法を提案し,新しい適応政策を考案する。
論文 参考訳(メタデータ) (2024-02-29T15:42:33Z) - Adaptive Hierarchical Certification for Segmentation using Randomized Smoothing [87.48628403354351]
機械学習の認証は、特定の条件下では、敵対的なサンプルが特定の範囲内でモデルを回避できないことを証明している。
セグメンテーションの一般的な認証方法は、平らな粒度のクラスを使い、モデルの不確実性による高い断続率をもたらす。
本稿では,複数レベルの階層内で画素を認証し,不安定なコンポーネントに対して粗いレベルに適応的に認証を緩和する,新しい,より実用的な設定を提案する。
論文 参考訳(メタデータ) (2024-02-13T11:59:43Z) - Empirically Validating Conformal Prediction on Modern Vision
Architectures Under Distribution Shift and Long-tailed Data [18.19171031755595]
コンフォーマル予測は、確実な不確実性推定と安全性保証を備えたディープラーニングモデルを提供するための厳密な手段として登場した。
そこで本研究では,分散シフトと長期クラス分布の下で,いくつかのポストホックおよびトレーニングに基づく共形予測手法の性能を特徴付ける。
多数のコンフォメーション手法やニューラルネットワークファミリにおいて,分散シフトによる性能低下が安全保証を侵害していることを示す。
論文 参考訳(メタデータ) (2023-07-03T15:08:28Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Certified Interpretability Robustness for Class Activation Mapping [77.58769591550225]
本稿では,解釈可能性マップのためのCORGI(Certifiable prOvable Robustness Guarantees)を提案する。
CORGIは入力画像を取り込み、そのCAM解釈可能性マップのロバスト性に対する証明可能な下限を与えるアルゴリズムである。
交通標識データを用いたケーススタディによるCORGIの有効性を示す。
論文 参考訳(メタデータ) (2023-01-26T18:58:11Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - CROP: Certifying Robust Policies for Reinforcement Learning through
Functional Smoothing [41.093241772796475]
本稿では, 逆境状態の摂動に対する強化学習(CROP)のためのロバスト政策の認定のための最初の枠組みを提案する。
本研究では,国家ごとの行動の堅牢性と累積報酬の低限界の2種類のロバスト性認定基準を提案する。
論文 参考訳(メタデータ) (2021-06-17T07:58:32Z) - Certifiably Robust Variational Autoencoders [74.28099923969754]
敵攻撃に対して確実に堅牢な変分自動エンコーダ(VAE)を訓練するためのアプローチを提案する。
VAEの再構築を変更するために必要な入力摂動の最小サイズの行動可能な境界を導出する。
これらのパラメータをどのように制御できるかを示すことにより、VAEが望ましいレベルの堅牢性を達成するためのメカニズムを提供します。
論文 参考訳(メタデータ) (2021-02-15T13:56:54Z) - SAMBA: Safe Model-Based & Active Reinforcement Learning [59.01424351231993]
SAMBAは、確率論的モデリング、情報理論、統計学といった側面を組み合わせた安全な強化学習のためのフレームワークである。
我々は,低次元および高次元の状態表現を含む安全な力学系ベンチマークを用いて,アルゴリズムの評価を行った。
アクティブなメトリクスと安全性の制約を詳細に分析することで,フレームワークの有効性を直感的に評価する。
論文 参考訳(メタデータ) (2020-06-12T10:40:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。