論文の概要: Simpler Certified Radius Maximization by Propagating Covariances
- arxiv url: http://arxiv.org/abs/2104.05888v1
- Date: Tue, 13 Apr 2021 01:38:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 13:49:36.660904
- Title: Simpler Certified Radius Maximization by Propagating Covariances
- Title(参考訳): 共分散伝播による簡易認定半径最大化
- Authors: Xingjian Zhen, Rudrasis Chakraborty, Vikas Singh
- Abstract要約: Cifar-10、ImageNet、Places365などのデータセットの認定半径を最大化するアルゴリズムを示します。
これらの基準を満たすことで、データセットの認定半径を適度な深さで最大化し、全体の精度を小さくするアルゴリズムが得られることを示す。
- 参考スコア(独自算出の注目度): 39.851641822878996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One strategy for adversarially training a robust model is to maximize its
certified radius -- the neighborhood around a given training sample for which
the model's prediction remains unchanged. The scheme typically involves
analyzing a "smoothed" classifier where one estimates the prediction
corresponding to Gaussian samples in the neighborhood of each sample in the
mini-batch, accomplished in practice by Monte Carlo sampling. In this paper, we
investigate the hypothesis that this sampling bottleneck can potentially be
mitigated by identifying ways to directly propagate the covariance matrix of
the smoothed distribution through the network. To this end, we find that other
than certain adjustments to the network, propagating the covariances must also
be accompanied by additional accounting that keeps track of how the
distributional moments transform and interact at each stage in the network. We
show how satisfying these criteria yields an algorithm for maximizing the
certified radius on datasets including Cifar-10, ImageNet, and Places365 while
offering runtime savings on networks with moderate depth, with a small
compromise in overall accuracy. We describe the details of the key
modifications that enable practical use. Via various experiments, we evaluate
when our simplifications are sensible, and what the key benefits and
limitations are.
- Abstract(参考訳): 頑健なモデルを逆行的に訓練するための戦略の1つは、その認定された半径を最大化することである。
このスキームは通常、モンテカルロサンプリングによって実際に達成されたミニバッチの各サンプルの近傍のガウスサンプルに対応する予測を推定する「スムースド」分類器の解析を含む。
本稿では,ネットワークを介して平滑化分布の共分散行列を直接伝播する方法を同定することで,このサンプリングボトルネックを軽減できるという仮説について検討する。
この目的のために、ネットワークの特定の調整以外に、共分散の伝播には、ネットワークの各段階で分布モーメントがどのように変化し相互作用するかを追跡できる追加の会計を伴う必要がある。
これらの基準を満たすと、Cifar-10、ImageNet、Places365などのデータセット上で認証された半径を最大化するアルゴリズムが得られ、その一方で、適度な深さのネットワーク上では、全体的な精度の妥協は少ない。
実用性を実現する重要な変更点の詳細について述べる。
様々な実験によって、単純化が適切であり、重要な利点と限界が何であるかを評価する。
関連論文リスト
- Improving Distribution Alignment with Diversity-based Sampling [0.0]
ドメインシフトは機械学習においてユビキタスであり、実際のデータにデプロイすると、モデルのパフォーマンスが大幅に低下する可能性がある。
本稿では,各サンプル小バッチの多様性を誘導することにより,これらの推定値を改善することを提案する。
同時にデータのバランスを保ち、勾配のばらつきを低減し、それによってモデルの一般化能力を高める。
論文 参考訳(メタデータ) (2024-10-05T17:26:03Z) - Implicit Variational Inference for High-Dimensional Posteriors [7.924706533725115]
変分推論において、ベイズモデルの利点は、真の後続分布を正確に捉えることに依存する。
複雑な多重モーダルおよび相関後部を近似するのに適した暗黙分布を特定するニューラルサンプリング手法を提案する。
提案手法では,ニューラルネットワークを局所的に線形化することにより,暗黙分布を用いた近似推論の新たなバウンダリを導入する。
論文 参考訳(メタデータ) (2023-10-10T14:06:56Z) - The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - Variational Density Propagation Continual Learning [0.0]
現実世界にデプロイされるディープニューラルネットワーク(DNN)は、定期的にオフ・オブ・ディストリビューション(OoD)データの対象となっている。
本稿では,ベンチマーク連続学習データセットによってモデル化されたデータ分散ドリフトに適応するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-22T21:51:39Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Learning Structured Gaussians to Approximate Deep Ensembles [10.055143995729415]
本稿では,スパース構造多変量ガウシアンを用いて,高密度画像予測タスクのための閉形式近似器を提案する。
正規分布における予測の不確かさと構造的相関を、サンプリング単独で暗黙的にではなく、明示的に捉える。
単分子深度推定におけるアプローチの利点を実証し,本手法の利点が同等の定量的性能で得られることを示す。
論文 参考訳(メタデータ) (2022-03-29T12:34:43Z) - KL Guided Domain Adaptation [88.19298405363452]
ドメイン適応は重要な問題であり、現実世界のアプリケーションにしばしば必要である。
ドメイン適応文学における一般的なアプローチは、ソースとターゲットドメインに同じ分布を持つ入力の表現を学ぶことである。
確率的表現ネットワークにより、KL項はミニバッチサンプルにより効率的に推定できることを示す。
論文 参考訳(メタデータ) (2021-06-14T22:24:23Z) - Making Affine Correspondences Work in Camera Geometry Computation [62.7633180470428]
局所的な特徴は、ポイント・ツー・ポイント対応ではなく、リージョン・ツー・リージョンを提供する。
本稿では,全モデル推定パイプラインにおいて,地域間マッチングを効果的に活用するためのガイドラインを提案する。
実験により、アフィンソルバはより高速な実行時にポイントベースソルバに匹敵する精度を達成できることが示された。
論文 参考訳(メタデータ) (2020-07-20T12:07:48Z) - Calibrated Adversarial Refinement for Stochastic Semantic Segmentation [5.849736173068868]
本稿では,各予測に関連付けられた確率が,その根拠となる真偽の正しさを反映する,セマンティックマップ上の校正された予測分布を学習するための戦略を提案する。
マルチグレーダのLIDCデータセットと、注入曖昧さのあるCityscapesデータセットに対して、最先端の成果を達成し、アプローチの汎用性と堅牢性を実証する。
本研究は,おもちゃの回帰データセットを用いて実験することにより,校正された予測分布の学習を必要とする他のタスクにコア設計を適用することができることを示す。
論文 参考訳(メタデータ) (2020-06-23T16:39:59Z) - Spatially Adaptive Inference with Stochastic Feature Sampling and
Interpolation [72.40827239394565]
スパースサンプリングされた場所のみの機能を計算することを提案する。
次に、効率的な手順で特徴写像を密に再構築する。
提案したネットワークは、様々なコンピュータビジョンタスクの精度を維持しながら、かなりの計算を省くために実験的に示されている。
論文 参考訳(メタデータ) (2020-03-19T15:36:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。