論文の概要: Robustness Analysis against Adversarial Patch Attacks in Fully Unmanned Stores
- arxiv url: http://arxiv.org/abs/2505.08835v1
- Date: Tue, 13 May 2025 06:24:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.249199
- Title: Robustness Analysis against Adversarial Patch Attacks in Fully Unmanned Stores
- Title(参考訳): 完全無人店舗における対向的パッチ攻撃に対するロバストネス解析
- Authors: Hyunsik Na, Wonho Lee, Seungdeok Roh, Sohee Park, Daeseon Choi,
- Abstract要約: 敵パッチ攻撃(Hiding, Creating, Altering)の3種類について検討する。
また,対象のクラスオブジェクトの色情報に対する攻撃者の知識を活用することで,新たな色ヒストグラム類似度損失関数を導入する。
本研究は、無人店舗を敵の脅威から守るための堅牢な防衛戦略の必要性を浮き彫りにするものである。
- 参考スコア(独自算出の注目度): 1.1767330101986737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advent of convenient and efficient fully unmanned stores equipped with artificial intelligence-based automated checkout systems marks a new era in retail. However, these systems have inherent artificial intelligence security vulnerabilities, which are exploited via adversarial patch attacks, particularly in physical environments. This study demonstrated that adversarial patches can severely disrupt object detection models used in unmanned stores, leading to issues such as theft, inventory discrepancies, and interference. We investigated three types of adversarial patch attacks -- Hiding, Creating, and Altering attacks -- and highlighted their effectiveness. We also introduce the novel color histogram similarity loss function by leveraging attacker knowledge of the color information of a target class object. Besides the traditional confusion-matrix-based attack success rate, we introduce a new bounding-boxes-based metric to analyze the practical impact of these attacks. Starting with attacks on object detection models trained on snack and fruit datasets in a digital environment, we evaluated the effectiveness of adversarial patches in a physical testbed that mimicked a real unmanned store with RGB cameras and realistic conditions. Furthermore, we assessed the robustness of these attacks in black-box scenarios, demonstrating that shadow attacks can enhance success rates of attacks even without direct access to model parameters. Our study underscores the necessity for robust defense strategies to protect unmanned stores from adversarial threats. Highlighting the limitations of the current defense mechanisms in real-time detection systems and discussing various proactive measures, we provide insights into improving the robustness of object detection models and fortifying unmanned retail environments against these attacks.
- Abstract(参考訳): 人工知能ベースの自動チェックアウトシステムを備えた、便利で効率的な完全無人店舗の出現は、小売業の新しい時代を告げるものだ。
しかし、これらのシステムには固有の人工知能のセキュリティ脆弱性があり、特に物理的環境において、敵のパッチ攻撃によって悪用される。
本研究は, 敵のパッチが, 無人店舗で使用される物体検出モデルを著しく破壊し, 盗難, 在庫の相違, 干渉などの問題を引き起こすことを示した。
われわれは、Hiding、Creating、Alteringの3種類の敵パッチ攻撃を調査し、その効果を強調した。
また,対象のクラスオブジェクトの色情報に対する攻撃者の知識を活用することで,新たな色ヒストグラム類似度損失関数を導入する。
従来の混乱行列に基づく攻撃成功率に加えて、これらの攻撃の実践的影響を分析するために、新しいバウンディングボックスベースのメトリクスを導入する。
デジタル環境でのスナックや果物のデータセットで訓練されたオブジェクト検出モデルに対する攻撃から始めて,RGBカメラと現実的な条件で実店舗を模倣した物理的テストベッドにおける敵パッチの有効性を評価した。
さらに、ブラックボックスシナリオにおけるこれらの攻撃の堅牢性を評価し、モデルパラメータに直接アクセスしなくても、シャドー攻撃が攻撃の成功率を高めることを実証した。
本研究は、無人店舗を敵の脅威から守るための堅牢な防衛戦略の必要性を浮き彫りにするものである。
リアルタイム検知システムにおける現在の防衛機構の限界を強調し、様々な積極的な対策を議論し、オブジェクト検出モデルの堅牢性向上と、これらの攻撃に対する無人の小売環境の強化に関する洞察を提供する。
関連論文リスト
- Mind the Gap: Detecting Black-box Adversarial Attacks in the Making through Query Update Analysis [3.795071937009966]
アドリアックは機械学習(ML)モデルの整合性を損なう可能性がある。
本稿では,逆ノイズインスタンスが生成されているかどうかを検出するフレームワークを提案する。
適応攻撃を含む8つの最先端攻撃に対するアプローチを評価する。
論文 参考訳(メタデータ) (2025-03-04T20:25:12Z) - Mask-based Invisible Backdoor Attacks on Object Detection [0.0]
ディープラーニングモデルは、バックドア攻撃に弱い。
本研究では,マスクベースのアプローチを用いて,物体検出に対する効果的な視覚的バックドア攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-20T12:27:30Z) - Improving the Robustness of Object Detection and Classification AI models against Adversarial Patch Attacks [2.963101656293054]
我々は攻撃手法を解析し、堅牢な防御手法を提案する。
我々は,物体形状,テクスチャ,位置を利用する逆パッチ攻撃を用いて,モデル信頼度を20%以上下げることに成功した。
敵攻撃にも拘わらず,本手法はモデルレジリエンスを著しく向上させ,高精度かつ信頼性の高いローカライゼーションを実現している。
論文 参考訳(メタデータ) (2024-03-04T13:32:48Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。