論文の概要: IPG: Incremental Patch Generation for Generalized Adversarial Patch Training
- arxiv url: http://arxiv.org/abs/2508.10946v1
- Date: Wed, 13 Aug 2025 15:53:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.601582
- Title: IPG: Incremental Patch Generation for Generalized Adversarial Patch Training
- Title(参考訳): IPG: 一般化逆パッチトレーニングのためのインクリメンタルパッチ生成
- Authors: Wonho Lee, Hyunsik Na, Jisu Lee, Daeseon Choi,
- Abstract要約: 敵パッチの出現は、AIモデルの堅牢性に重大な課題をもたらす。
本稿では,既存のアプローチの最大11.1倍の効率で敵パッチを生成する手法であるインクリメンタルパッチ生成(IPG)を提案する。
IPGの有効性は、YOLOの特徴分布の可視化や逆行訓練結果を含む実験およびアブレーション研究によって実証される。
- 参考スコア(独自算出の注目度): 1.54369283425087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advent of adversarial patches poses a significant challenge to the robustness of AI models, particularly in the domain of computer vision tasks such as object detection. In contradistinction to traditional adversarial examples, these patches target specific regions of an image, resulting in the malfunction of AI models. This paper proposes Incremental Patch Generation (IPG), a method that generates adversarial patches up to 11.1 times more efficiently than existing approaches while maintaining comparable attack performance. The efficacy of IPG is demonstrated by experiments and ablation studies including YOLO's feature distribution visualization and adversarial training results, which show that it produces well-generalized patches that effectively cover a broader range of model vulnerabilities. Furthermore, IPG-generated datasets can serve as a robust knowledge foundation for constructing a robust model, enabling structured representation, advanced reasoning, and proactive defenses in AI security ecosystems. The findings of this study suggest that IPG has considerable potential for future utilization not only in adversarial patch defense but also in real-world applications such as autonomous vehicles, security systems, and medical imaging, where AI models must remain resilient to adversarial attacks in dynamic and high-stakes environments.
- Abstract(参考訳): 敵パッチの出現は、AIモデルの堅牢性、特にオブジェクト検出などのコンピュータビジョンタスクの領域において、大きな課題となる。
従来の敵対的な例とは対照的に、これらのパッチは画像の特定の領域をターゲットにしており、結果としてAIモデルの誤動作が発生する。
本稿では,攻撃性能を同等に保ちつつ,既存手法の最大11.1倍の効率で敵パッチを生成する手法であるインクリメンタルパッチ生成(IPG)を提案する。
IPGの有効性は、YOLOの特徴分布の可視化や逆行訓練の結果を含む実験およびアブレーション研究によって実証され、より広範囲のモデル脆弱性を効果的にカバーする、十分に一般化されたパッチを生成することが示されている。
さらに、IGG生成データセットは、堅牢なモデルを構築するための堅牢な知識基盤として機能し、構造化された表現、高度な推論、AIセキュリティエコシステムにおける積極的な防御を可能にする。
本研究の結果から,IDGは敵のパッチ防衛だけでなく,自律走行車やセキュリティシステム,医療画像などの現実の応用にも,将来的な利用の可能性があることが示唆された。
関連論文リスト
- MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - RADEP: A Resilient Adaptive Defense Framework Against Model Extraction Attacks [6.6680585862156105]
モデル抽出攻撃防御(RADEP)のためのレジリエント・アダプティブ・ディフェンス・フレームワークについて紹介する。
RADEPは、抽出の試みに対するモデルレジリエンスを高めるために、プログレッシブ・逆行訓練を採用している。
オーナーシップ検証は、組み込みのウォーターマーキングとバックドアトリガーを通じて実施される。
論文 参考訳(メタデータ) (2025-05-25T23:28:05Z) - Adversarial Robustness through Dynamic Ensemble Learning [0.0]
敵対的攻撃は、事前訓練された言語モデル(PLM)の信頼性に重大な脅威をもたらす
本稿では,このような攻撃に対するPLMの堅牢性を高めるための新しいスキームであるDynamic Ensemble Learning (ARDEL) による対逆ロバスト性について述べる。
論文 参考訳(メタデータ) (2024-12-20T05:36:19Z) - Robust Image Classification: Defensive Strategies against FGSM and PGD Adversarial Attacks [0.0]
敵対的攻撃は、画像分類におけるディープラーニングモデルの堅牢性に重大な脅威をもたらす。
本稿では,ニューラルネットワークのレジリエンスを高めるために,これらの攻撃に対する防御機構を探索し,洗練する。
論文 参考訳(メタデータ) (2024-08-20T02:00:02Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - The Pitfalls and Promise of Conformal Inference Under Adversarial Attacks [90.52808174102157]
医療画像や自律運転などの安全クリティカルな応用においては、高い敵の堅牢性を維持し、潜在的敵の攻撃から保護することが不可欠である。
敵対的に訓練されたモデルに固有の不確実性に関して、注目すべき知識ギャップが残っている。
本研究では,共形予測(CP)の性能を標準対向攻撃の文脈で検証することにより,ディープラーニングモデルの不確実性について検討する。
論文 参考訳(メタデータ) (2024-05-14T18:05:19Z) - Embodied Active Defense: Leveraging Recurrent Feedback to Counter Adversarial Patches [37.317604316147985]
敵のパッチに対するディープニューラルネットワークの脆弱性は、モデルロバスト性を高めるための多くの防衛戦略を動機付けている。
本研究では,環境情報を積極的に文脈化して,現実の3次元環境における不整合に対処するEmbodied Active Defense (EAD) を開発した。
論文 参考訳(メタデータ) (2024-03-31T03:02:35Z) - Enhancing Object Detection Robustness: Detecting and Restoring Confidence in the Presence of Adversarial Patch Attacks [2.963101656293054]
敵パッチに対するYOLOv5モデルの防御機構について検討した。
我々はSegment and Complete (SAC)、Inpainting、Latent Diffusion Modelsを含むいくつかの防衛実験を行った。
その結果, 対向パッチは平均検出信頼度を22.06%低下させることがわかった。
論文 参考訳(メタデータ) (2024-03-04T13:32:48Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。