論文の概要: Adversarial Robustness of Supervised Sparse Coding
- arxiv url: http://arxiv.org/abs/2010.12088v2
- Date: Mon, 4 Jan 2021 15:10:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 05:49:31.399297
- Title: Adversarial Robustness of Supervised Sparse Coding
- Title(参考訳): 教師付きスパース符号化の逆ロバスト性
- Authors: Jeremias Sulam, Ramchandran Muthukumar, Raman Arora
- Abstract要約: 表現を学習すると同時に、正確な一般化境界と堅牢性証明を与えるモデルを考える。
線形エンコーダと組み合わされたスパーシティプロモーティングエンコーダを組み合わせた仮説クラスに着目した。
エンドツーエンドの分類のための堅牢性証明を提供する。
- 参考スコア(独自算出の注目度): 34.94566482399662
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Several recent results provide theoretical insights into the phenomena of
adversarial examples. Existing results, however, are often limited due to a gap
between the simplicity of the models studied and the complexity of those
deployed in practice. In this work, we strike a better balance by considering a
model that involves learning a representation while at the same time giving a
precise generalization bound and a robustness certificate. We focus on the
hypothesis class obtained by combining a sparsity-promoting encoder coupled
with a linear classifier, and show an interesting interplay between the
expressivity and stability of the (supervised) representation map and a notion
of margin in the feature space. We bound the robust risk (to $\ell_2$-bounded
perturbations) of hypotheses parameterized by dictionaries that achieve a mild
encoder gap on training data. Furthermore, we provide a robustness certificate
for end-to-end classification. We demonstrate the applicability of our analysis
by computing certified accuracy on real data, and compare with other
alternatives for certified robustness.
- Abstract(参考訳): いくつかの最近の結果は、敵の例の現象に関する理論的洞察を与えている。
しかし、既存の結果はしばしば、研究されたモデルの単純さと実際にデプロイされたモデルの複雑さのギャップのために制限される。
本研究では,表現の学習を伴うモデルを考えると同時に,正確な一般化境界とロバスト性証明を与えることにより,より優れたバランスをとる。
線形分類器と結合したスパルシリティプロモーティングエンコーダを組み合わせることにより得られた仮説クラスに着目し,(教師あり)表現写像の表現性と安定性と特徴空間におけるマージンの概念との間に興味深い相互作用を示す。
我々は、トレーニングデータに緩やかなエンコーダギャップを達成できる辞書によってパラメータ化された仮説の頑健なリスク($\ell_2$-bounded perturbations)に縛り付ける。
さらに、エンドツーエンド分類のための堅牢性証明を提供する。
実データ上での認証精度の計算による解析の適用性を実証し,信頼性の高い他の代替手法と比較する。
関連論文リスト
- On the KL-Divergence-based Robust Satisficing Model [2.425685918104288]
頑丈さを満足させる枠組みは 学界から注目を集めています
本稿では,解析的解釈,多様な性能保証,効率的で安定した数値法,収束解析,階層型データ構造に適した拡張について述べる。
我々は、最先端のベンチマークと比較して、モデルの性能が優れていることを実証する。
論文 参考訳(メタデータ) (2024-08-17T10:05:05Z) - Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - Certified $\ell_2$ Attribution Robustness via Uniformly Smoothed Attributions [20.487079380753876]
本研究では,ある空間から一様にサンプリングされた雑音によってバニラ属性を増大させる一様平滑化手法を提案する。
攻撃領域内の全ての摂動に対して、摂動試料の均一なスムーズな属性と非摂動試料とのコサイン類似性を低くすることが保証された。
論文 参考訳(メタデータ) (2024-05-10T09:56:02Z) - Mapping the Multiverse of Latent Representations [17.2089620240192]
PRESTOは、潜在表現に依存する機械学習モデルのマルチバースをマッピングするための、原則化されたフレームワークである。
我々のフレームワークは、多種多様な機械学習手法の組み合わせから生じる潜伏空間を特徴付けるために永続的ホモロジーを使用する。
論文 参考訳(メタデータ) (2024-02-02T15:54:53Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - Explicit Tradeoffs between Adversarial and Natural Distributional
Robustness [48.44639585732391]
実際、モデルは信頼性を確保するために両方のタイプの堅牢さを享受する必要があります。
本研究では, 対角線と自然分布の強靭性の間には, 明らかなトレードオフが存在することを示す。
論文 参考訳(メタデータ) (2022-09-15T19:58:01Z) - Certified Distributional Robustness on Smoothed Classifiers [27.006844966157317]
本稿では,ロバスト性証明として,入力分布に対する最悪の逆損失を提案する。
双対性と滑らか性を利用して、証明書のサロゲートとして容易に計算できる上限を与える。
論文 参考訳(メタデータ) (2020-10-21T13:22:25Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。