論文の概要: Don't Lag, RAG: Training-Free Adversarial Detection Using RAG
- arxiv url: http://arxiv.org/abs/2504.04858v1
- Date: Mon, 07 Apr 2025 09:14:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:14:03.210333
- Title: Don't Lag, RAG: Training-Free Adversarial Detection Using RAG
- Title(参考訳): Don't Lag, RAG: RAGを用いたトレーニング不要の逆検出
- Authors: Roie Kazoom, Raz Lapid, Moshe Sipper, Ofer Hadar,
- Abstract要約: アドリアパッチ攻撃は、深層モデルの誤解を招く局所的な摂動を埋め込むことによって、視覚システムに重大な脅威をもたらす。
本稿では,視覚言語モデルを統合して対向的パッチ検出を行う,トレーニング不要なVisual Retrieval-Augmented Generationフレームワークを提案する。
我々は、クローズドソースモデルであるGemini-2.0とともに、Qwen-VL-Plus、Qwen2.5-VL-72B、UI-TARS-72B-DPOを含むオープンソースの大規模VLMを広範囲に評価した。
- 参考スコア(独自算出の注目度): 2.3374134413353254
- License:
- Abstract: Adversarial patch attacks pose a major threat to vision systems by embedding localized perturbations that mislead deep models. Traditional defense methods often require retraining or fine-tuning, making them impractical for real-world deployment. We propose a training-free Visual Retrieval-Augmented Generation (VRAG) framework that integrates Vision-Language Models (VLMs) for adversarial patch detection. By retrieving visually similar patches and images that resemble stored attacks in a continuously expanding database, VRAG performs generative reasoning to identify diverse attack types, all without additional training or fine-tuning. We extensively evaluate open-source large-scale VLMs, including Qwen-VL-Plus, Qwen2.5-VL-72B, and UI-TARS-72B-DPO, alongside Gemini-2.0, a closed-source model. Notably, the open-source UI-TARS-72B-DPO model achieves up to 95 percent classification accuracy, setting a new state-of-the-art for open-source adversarial patch detection. Gemini-2.0 attains the highest overall accuracy, 98 percent, but remains closed-source. Experimental results demonstrate VRAG's effectiveness in identifying a variety of adversarial patches with minimal human annotation, paving the way for robust, practical defenses against evolving adversarial patch attacks.
- Abstract(参考訳): 敵パッチ攻撃は、深層モデルの誤解を招く局所的な摂動を埋め込むことによって、視覚システムに重大な脅威をもたらす。
従来の防衛方法は、しばしば再訓練や微調整を必要とし、現実の配備には実用的ではない。
本稿では,VLM(Vision-Language Models)を統合したVRAG(Visual Retrieval-Augmented Generation)フレームワークを提案する。
継続的に拡張されたデータベースに格納された攻撃に似た、視覚的に類似したパッチやイメージを取得することで、VRAGは、さまざまな攻撃タイプを識別するための生成的推論を実行する。
我々は、クローズドソースモデルであるGemini-2.0とともに、Qwen-VL-Plus、Qwen2.5-VL-72B、UI-TARS-72B-DPOを含むオープンソースの大規模VLMを広範囲に評価した。
特に、オープンソースのUI-TARS-72B-DPOモデルは、最大95%の分類精度を実現し、オープンソースの逆パッチ検出のための新しい最先端技術を設定している。
Gemini-2.0の全体的な精度は98%に達しているが、クローズドソースのままである。
実験により、VRAGは、最小限の人間のアノテーションで様々な敵パッチを識別し、敵パッチ攻撃の進行に対する堅牢で実践的な防御を図った。
関連論文リスト
- GCP: Guarded Collaborative Perception with Spatial-Temporal Aware Malicious Agent Detection [11.336965062177722]
協調的知覚は、悪意のあるエージェントからの敵対的なメッセージ攻撃に対して脆弱である。
本稿では,既存の単発外乱検出手法を損なう新しい盲検領域混乱(BAC)攻撃を明らかにする。
本稿では、空間的時間的認識による悪意のあるエージェント検出に基づくガード付き協調認識フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-05T06:03:26Z) - BadScan: An Architectural Backdoor Attack on Visual State Space Models [2.2499166814992435]
最近導入されたVisual State Space Model (VMamba) は視覚変換器 (ViT) と比較して非常に優れた性能を示している。
一般的なアプローチの1つは、トレーニングデータにトリガーを組み込んでモデルを再トレーニングすることで、データサンプルをターゲットクラスに誤分類する。
我々は、VMambaモデルを欺くように設計されたBadScanと呼ばれる新しいアーキテクチャバックドアアタックを導入する。
論文 参考訳(メタデータ) (2024-11-26T10:13:09Z) - Effective and Efficient Adversarial Detection for Vision-Language Models via A Single Vector [97.92369017531038]
Diverse hArmful Responses (RADAR) を用いた新しい laRge-scale Adervsarial 画像データセットを構築した。
そこで我々は,視覚言語モデル (VLM) の隠れ状態から抽出した1つのベクトルを利用して,入力中の良質な画像に対して対向画像を検出する,新しいiN時間埋め込み型AdveRSarial Image Detectction (NEARSIDE) 法を開発した。
論文 参考訳(メタデータ) (2024-10-30T10:33:10Z) - Revisiting Backdoor Attacks against Large Vision-Language Models from Domain Shift [104.76588209308666]
本稿では,LVLMの学習訓練におけるバックドア攻撃について検討する。
我々は,攻撃の堅牢性を評価するために,新たな評価次元,バックドア領域の一般化を導入する。
本稿では,ドメイン非依存的トリガを臨界領域に注入するマルチモーダルアトリビューションバックドアアタック(MABA)を提案する。
論文 参考訳(メタデータ) (2024-06-27T02:31:03Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Fool the Hydra: Adversarial Attacks against Multi-view Object Detection
Systems [3.4673556247932225]
Adrial patchは、現実のシナリオにおける機械学習(ML)モデルに対する敵対的な攻撃によって引き起こされる脅威の、明白な顕在化を実証するものだ。
マルチビューオブジェクトシステムは、複数のビューからのデータを組み合わせて、困難な環境でも信頼性の高い検出結果を得ることができる。
現実の視覚アプリケーションにおいて重要であるにもかかわらず、マルチビューシステムの敵パッチに対する脆弱性は十分に調査されていない。
論文 参考訳(メタデータ) (2023-11-30T20:11:44Z) - RADAP: A Robust and Adaptive Defense Against Diverse Adversarial Patches
on Face Recognition [13.618387142029663]
ディープラーニングを利用した顔認識システムは、敵の攻撃に対して脆弱である。
多様な敵パッチに対する堅牢かつ適応的な防御機構であるRADAPを提案する。
RADAPの有効性を検証するための総合的な実験を行った。
論文 参考訳(メタデータ) (2023-11-29T03:37:14Z) - Defensive Patches for Robust Recognition in the Physical World [111.46724655123813]
データエンドディフェンスは、モデルを変更する代わりに入力データの操作によって堅牢性を改善する。
従来のデータエンドディフェンスは、様々なノイズに対する低一般化と、複数のモデル間での弱い転送可能性を示している。
モデルがこれらの機能をよりよく活用することを支援することにより、これらの問題に対処するための防御パッチ生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-13T07:34:51Z) - Investigating Robustness of Adversarial Samples Detection for Automatic
Speaker Verification [78.51092318750102]
本研究は,ASVシステムに対して,別個の検出ネットワークによる敵攻撃から防御することを提案する。
VGGライクな二分分類検出器を導入し、対向サンプルの検出に有効であることが実証された。
論文 参考訳(メタデータ) (2020-06-11T04:31:56Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。