論文の概要: Poster: Adapting Pretrained Vision Transformers with LoRA Against Attack Vectors
- arxiv url: http://arxiv.org/abs/2506.00661v1
- Date: Sat, 31 May 2025 18:16:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.472992
- Title: Poster: Adapting Pretrained Vision Transformers with LoRA Against Attack Vectors
- Title(参考訳): ポスター:LoRAで予め訓練済みの視覚変換器をアタックベクターに適応させる
- Authors: Richard E. Neddo, Sean Willis, Zander Blasingame, Chen Liu,
- Abstract要約: 入力画像の変更による悪質な誤分類の原因となる摂動を含む敵の攻撃について広範囲にわたる議論がある。
本研究は、低ランク適応で事前訓練された視覚トランスフォーマーの重みとクラスを調整し、敵攻撃に対してより堅牢になり、再訓練なしにスケーラブルな微調整を可能にすることによる攻撃対策を提案する。
- 参考スコア(独自算出の注目度): 1.86751383337198
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image classifiers, such as those used for autonomous vehicle navigation, are largely known to be susceptible to adversarial attacks that target the input image set. There is extensive discussion on adversarial attacks including perturbations that alter the input images to cause malicious misclassifications without perceivable modification. This work proposes a countermeasure for such attacks by adjusting the weights and classes of pretrained vision transformers with a low-rank adaptation to become more robust against adversarial attacks and allow for scalable fine-tuning without retraining.
- Abstract(参考訳): 自動運転車のナビゲーションに使用される画像分類器は、主に入力された画像集合を標的とする敵の攻撃を受けやすいことが知られている。
入力画像を変化させる摂動を含む敵の攻撃について広範囲にわたる議論が行われ、悪意のある誤分類を引き起こす。
本研究は、低ランク適応で事前訓練された視覚トランスフォーマーの重みとクラスを調整し、敵攻撃に対してより堅牢になり、再訓練なしにスケーラブルな微調整を可能にすることによる攻撃対策を提案する。
関連論文リスト
- Downstream Transfer Attack: Adversarial Attacks on Downstream Models with Pre-trained Vision Transformers [95.22517830759193]
本稿では、事前訓練されたViTモデルから下流タスクへのこのような逆の脆弱性の伝達可能性について検討する。
DTAは攻撃成功率(ASR)が90%を超え、既存の手法をはるかに上回っていることを示す。
論文 参考訳(メタデータ) (2024-08-03T08:07:03Z) - Transform-Dependent Adversarial Attacks [15.374381635334897]
深層ネットワークに対する変換依存型敵攻撃を導入する。
我々の摂動は変成特性を示し、変換パラメータの関数として多様な逆効果を可能にする。
変換に依存した摂動は、ブラックボックスのシナリオにおいて、最先端の移動攻撃よりも17~31%優れ、高い目標攻撃成功率が得られることを示す。
論文 参考訳(メタデータ) (2024-06-12T17:31:36Z) - AutoAugment Input Transformation for Highly Transferable Targeted
Attacks [9.970326131028159]
我々は,AutoAugment Input Transformation (AAIT) と呼ばれる新たな敵攻撃を提案する。
AAITは、様々な操作からなる変換空間から最適な変換ポリシーを探索する。
検出された最適な変換ポリシーを使用して敵の例を作成し、標的攻撃における敵の移動可能性を高める。
論文 参考訳(メタデータ) (2023-12-21T12:49:36Z) - Attention Deficit is Ordered! Fooling Deformable Vision Transformers
with Collaborative Adversarial Patches [3.4673556247932225]
変形可能な視覚変換器は、注意モデリングの複雑さを著しく低減する。
最近の研究は、従来の視覚変換器に対する敵攻撃を実証している。
我々は,対象のパッチに注意を向けるようにソースパッチが操作する新たなコラボレーティブアタックを開発する。
論文 参考訳(メタデータ) (2023-11-21T17:55:46Z) - Enhancing the Self-Universality for Transferable Targeted Attacks [88.6081640779354]
本手法は,高次対角的摂動が標的攻撃に対してより伝達しやすい傾向にあることを示す。
異なる画像上の摂動を最適化する代わりに、異なる領域を最適化して自己ユニバーシティを実現することで、余分なデータを排除することができる。
特徴的類似性欠如により,本手法は,良性画像よりも対向性摂動の特徴が支配的となる。
論文 参考訳(メタデータ) (2022-09-08T11:21:26Z) - Unrestricted Adversarial Attacks on ImageNet Competition [70.8952435964555]
制限のない敵攻撃は一般的で実践的な方向であるが、徹底的に研究されていない。
我々はこの競争を、より効果的に非制限の敵攻撃アルゴリズムを探索するために組織する。
論文 参考訳(メタデータ) (2021-10-17T04:27:15Z) - Towards Transferable Adversarial Attacks on Vision Transformers [110.55845478440807]
視覚変換器(ViT)は、コンピュータビジョンの一連のタスクにおいて印象的なパフォーマンスを示してきたが、それでも敵の例に悩まされている。
本稿では、PNA攻撃とPatchOut攻撃を含むデュアルアタックフレームワークを導入し、異なるViT間での対向サンプルの転送性を改善する。
論文 参考訳(メタデータ) (2021-09-09T11:28:25Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。