論文の概要: Where Does the Robustness Come from? A Study of the Transformation-based
Ensemble Defence
- arxiv url: http://arxiv.org/abs/2009.13033v2
- Date: Thu, 8 Oct 2020 09:16:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 20:39:29.717247
- Title: Where Does the Robustness Come from? A Study of the Transformation-based
Ensemble Defence
- Title(参考訳): 堅牢性はどこから来るのか?
変換に基づくアンサンブル防御に関する研究
- Authors: Chang Liao, Yao Cheng, Chengfang Fang, Jie Shi
- Abstract要約: 堅牢性の改善がトランスフォーメーションやアンサンブルの結果であるかどうかは不明だ。
我々は,1) 異なる可逆変換後のデータレコード上で訓練されたモデルの中に,逆例の転送可能性が存在すること,2) 変換に基づくアンサンブルによるロバスト性は限定的であること,3) この制限されたロバスト性は,多くのモデルのアンサンブルではなく,主に可逆変換によるものであること,を示す実験を行う。
- 参考スコア(独自算出の注目度): 12.973226757056462
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims to provide a thorough study on the effectiveness of the
transformation-based ensemble defence for image classification and its reasons.
It has been empirically shown that they can enhance the robustness against
evasion attacks, while there is little analysis on the reasons. In particular,
it is not clear whether the robustness improvement is a result of
transformation or ensemble. In this paper, we design two adaptive attacks to
better evaluate the transformation-based ensemble defence. We conduct
experiments to show that 1) the transferability of adversarial examples exists
among the models trained on data records after different reversible
transformations; 2) the robustness gained through transformation-based ensemble
is limited; 3) this limited robustness is mainly from the irreversible
transformations rather than the ensemble of a number of models; and 4) blindly
increasing the number of sub-models in a transformation-based ensemble does not
bring extra robustness gain.
- Abstract(参考訳): 本稿では,画像分類における変換型アンサンブルディフェンスの有効性とその理由について,詳細な研究を行う。
回避攻撃に対するロバスト性を高めることが実証されているが、その理由についてはほとんど分析されていない。
特に、堅牢性の改善がトランスフォーメーションの結果なのか、あるいはアンサンブルの結果なのかは明らかではない。
本稿では,変換に基づくアンサンブル防御をよりよく評価するために,適応攻撃を2つ設計する。
私たちはそれを実証するために実験を行います
1) 逆転変換後のデータ記録で訓練されたモデルのうち、逆転例の転送可能性が存在する。
2) 変換に基づくアンサンブルによる堅牢性は限られている。
3) この制限されたロバスト性は、主に複数のモデルの集合ではなく、可逆変換に由来する。
4) 変換ベースのアンサンブルにおけるサブモデル数が盲目的に増加すると、ロバスト性が増すことはない。
関連論文リスト
- Transformation-Dependent Adversarial Attacks [15.374381635334897]
変換依存的敵攻撃(transform-dependent adversarial attack)は、単一の加法摂動が多様で制御可能な誤予測を引き起こす新たな種類の脅威である。
静的な影響を持つ従来の攻撃とは異なり、我々の摂動は変換パラメータの関数として異なる敵攻撃を可能にする変成特性を埋め込む。
論文 参考訳(メタデータ) (2024-06-12T17:31:36Z) - RBFormer: Improve Adversarial Robustness of Transformer by Robust Bias [18.705151702198854]
強靭性を考慮に入れた敵の例の導入は、十分に確立された畳み込みに基づく構造の性能に深く、有害な影響を及ぼした。
本稿では,このような脆弱性を軽減するために合理的な構造設計手法を用いる。
本稿では,Robust Bias Transformer-based Structure (RBFormer) という新しい構造を導入する。
論文 参考訳(メタデータ) (2023-09-23T03:55:51Z) - Benchmarking Robustness of Adaptation Methods on Pre-trained
Vision-Language Models [49.595973365500775]
マルチモーダルな汚職下では、4つの視覚言語データセットにまたがる11種類の広く使われている適応手法のロバスト性を評価する。
1)適応法は視覚的汚職よりもテキストの汚損に敏感である。
予測とは対照的に,適応データやパラメータの増大は強靭性を保証するものではないことが示唆された。
論文 参考訳(メタデータ) (2023-06-03T11:05:04Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - GSmooth: Certified Robustness against Semantic Transformations via
Generalized Randomized Smoothing [40.38555458216436]
一般的な意味変換に対する堅牢性を証明するための統一的な理論的枠組みを提案する。
GSmoothフレームワークでは,画像と画像の代理ネットワークを用いて複雑な変換を近似するスケーラブルなアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-09T07:12:17Z) - An Intermediate-level Attack Framework on The Basis of Linear Regression [89.85593878754571]
本論文はECCVにおいて,いくつかのベースライン対向例の転送性を改善するため,中間レベルアタック(中間レベルアタック)を提案し,本研究を実質的に拡張するものである。
我々は,中間レベルの相違点(対角的特徴と良性的特徴)から,対角的例の分類的損失への直接的な線形写像の確立を提唱する。
1) 様々な線形回帰モデルがマッピングを確立するために考慮可能であること,2) 最終的に得られた中間レベル差の大きさが逆転率と線形に相関していること,3) ベースラインアタックを複数回実行することで,さらなる性能向上が達成できること,などが示される。
論文 参考訳(メタデータ) (2022-03-21T03:54:53Z) - Towards Robust and Adaptive Motion Forecasting: A Causal Representation
Perspective [72.55093886515824]
本稿では,3つの潜伏変数群からなる動的過程として,運動予測の因果的形式化を導入する。
我々は、因果グラフを近似するために、不変なメカニズムやスタイルの共創者の表現を分解するモジュラーアーキテクチャを考案する。
合成および実データを用いた実験結果から,提案した3つの成分は,学習した動き表現の頑健性と再利用性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2021-11-29T18:59:09Z) - Adaptive Image Transformations for Transfer-based Adversarial Attack [73.74904401540743]
適応画像変換学習(AITL)と呼ばれる新しいアーキテクチャを提案する。
精巧に設計した学習者は、入力画像固有の画像変換の最も効果的な組み合わせを適応的に選択する。
本手法は、通常訓練されたモデルと防衛モデルの両方において、各種設定下での攻撃成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-11-27T08:15:44Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Data Augmentation via Structured Adversarial Perturbations [25.31035665982414]
そこで本研究では,所望の自然構造を維持する逆例を生成する手法を提案する。
我々はこの手法を、測光と幾何の2種類の画像変換を通して実証する。
論文 参考訳(メタデータ) (2020-11-05T18:07:55Z) - TREND: Transferability based Robust ENsemble Design [6.663641564969944]
本稿では, ネットワークアーキテクチャ, 入力, 重量, アクティベーションの量子化が, 対向サンプルの転送性に及ぼす影響について検討する。
本研究では,ソースとターゲット間の入力量子化によってトランスファービリティが著しく阻害されていることを示す。
我々は、これに対抗するために、新しい最先端のアンサンブル攻撃を提案する。
論文 参考訳(メタデータ) (2020-08-04T13:38:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。