論文の概要: LoRA as a Flexible Framework for Securing Large Vision Systems
- arxiv url: http://arxiv.org/abs/2506.00661v2
- Date: Thu, 03 Jul 2025 18:01:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.372864
- Title: LoRA as a Flexible Framework for Securing Large Vision Systems
- Title(参考訳): 大規模ビジョンシステムのためのフレキシブルなフレームワークとしてのLoRA
- Authors: Zander W. Blasingame, Richard E. Neddo, Chen Liu,
- Abstract要約: 敵の攻撃は自動運転システムにとって重要な脅威として浮上している。
本稿では,パラメータを効率よく微調整し,ローランク適応(LoRA)を用いて軽量なセキュリティパッチをトレーニングする方法を提案する。
我々は,事前学習したモデルにパッチを当てて,敵対的事例が存在する場合,最大78.01%の分類精度を向上できることを実証した。
- 参考スコア(独自算出の注目度): 1.9035583634286277
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks have emerged as a critical threat to autonomous driving systems. These attacks exploit the underlying neural network, allowing small -- nearly invisible -- perturbations to completely alter the behavior of such systems in potentially malicious ways. E.g., causing a traffic sign classification network to misclassify a stop sign as a speed limit sign. Prior working in hardening such systems to adversarial attacks have looked at robust training of the system or adding additional pre-processing steps to the input pipeline. Such solutions either have a hard time generalizing, require knowledge of the adversarial attacks during training, or are computationally undesirable. Instead, we propose to take insights for parameter efficient fine-tuning and use low-rank adaptation (LoRA) to train a lightweight security patch -- enabling us to dynamically patch a large preexisting vision system as new vulnerabilities are discovered. We demonstrate that our framework can patch a pre-trained model to improve classification accuracy by up to 78.01% in the presence of adversarial examples.
- Abstract(参考訳): 敵の攻撃は自動運転システムにとって重要な脅威として浮上している。
これらの攻撃は基盤となるニューラルネットワークを悪用し、小さな(ほとんど見えない)摂動によって、潜在的に悪意のある方法でシステムの振る舞いを完全に変えてしまう。
例えば、交通標識分類ネットワークが停止標識を速度制限符号として誤分類する原因となる。
このようなシステムを敵攻撃に強化する以前には、システムの堅牢なトレーニングや、入力パイプラインに追加の事前処理ステップが検討されていた。
このような解は一般化が難しいか、訓練中の敵攻撃の知識を必要とするか、計算的に望ましくないかのいずれかである。
代わりに、パラメータを効率的に微調整し、ローランク適応(LoRA)を使用して、軽量なセキュリティパッチをトレーニングすることを提案します。
我々は,事前学習したモデルにパッチを当てて,敵対的事例が存在する場合,最大78.01%の分類精度を向上できることを実証した。
関連論文リスト
- Downstream Transfer Attack: Adversarial Attacks on Downstream Models with Pre-trained Vision Transformers [95.22517830759193]
本稿では、事前訓練されたViTモデルから下流タスクへのこのような逆の脆弱性の伝達可能性について検討する。
DTAは攻撃成功率(ASR)が90%を超え、既存の手法をはるかに上回っていることを示す。
論文 参考訳(メタデータ) (2024-08-03T08:07:03Z) - Transform-Dependent Adversarial Attacks [15.374381635334897]
深層ネットワークに対する変換依存型敵攻撃を導入する。
我々の摂動は変成特性を示し、変換パラメータの関数として多様な逆効果を可能にする。
変換に依存した摂動は、ブラックボックスのシナリオにおいて、最先端の移動攻撃よりも17~31%優れ、高い目標攻撃成功率が得られることを示す。
論文 参考訳(メタデータ) (2024-06-12T17:31:36Z) - AutoAugment Input Transformation for Highly Transferable Targeted
Attacks [9.970326131028159]
我々は,AutoAugment Input Transformation (AAIT) と呼ばれる新たな敵攻撃を提案する。
AAITは、様々な操作からなる変換空間から最適な変換ポリシーを探索する。
検出された最適な変換ポリシーを使用して敵の例を作成し、標的攻撃における敵の移動可能性を高める。
論文 参考訳(メタデータ) (2023-12-21T12:49:36Z) - Attention Deficit is Ordered! Fooling Deformable Vision Transformers
with Collaborative Adversarial Patches [3.4673556247932225]
変形可能な視覚変換器は、注意モデリングの複雑さを著しく低減する。
最近の研究は、従来の視覚変換器に対する敵攻撃を実証している。
我々は,対象のパッチに注意を向けるようにソースパッチが操作する新たなコラボレーティブアタックを開発する。
論文 参考訳(メタデータ) (2023-11-21T17:55:46Z) - Enhancing the Self-Universality for Transferable Targeted Attacks [88.6081640779354]
本手法は,高次対角的摂動が標的攻撃に対してより伝達しやすい傾向にあることを示す。
異なる画像上の摂動を最適化する代わりに、異なる領域を最適化して自己ユニバーシティを実現することで、余分なデータを排除することができる。
特徴的類似性欠如により,本手法は,良性画像よりも対向性摂動の特徴が支配的となる。
論文 参考訳(メタデータ) (2022-09-08T11:21:26Z) - Unrestricted Adversarial Attacks on ImageNet Competition [70.8952435964555]
制限のない敵攻撃は一般的で実践的な方向であるが、徹底的に研究されていない。
我々はこの競争を、より効果的に非制限の敵攻撃アルゴリズムを探索するために組織する。
論文 参考訳(メタデータ) (2021-10-17T04:27:15Z) - Towards Transferable Adversarial Attacks on Vision Transformers [110.55845478440807]
視覚変換器(ViT)は、コンピュータビジョンの一連のタスクにおいて印象的なパフォーマンスを示してきたが、それでも敵の例に悩まされている。
本稿では、PNA攻撃とPatchOut攻撃を含むデュアルアタックフレームワークを導入し、異なるViT間での対向サンプルの転送性を改善する。
論文 参考訳(メタデータ) (2021-09-09T11:28:25Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。