論文の概要: NSA: Naturalistic Support Artifact to Boost Network Confidence
- arxiv url: http://arxiv.org/abs/2307.14917v1
- Date: Thu, 27 Jul 2023 15:00:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-28 14:13:21.483914
- Title: NSA: Naturalistic Support Artifact to Boost Network Confidence
- Title(参考訳): NSA: ネットワーク信頼を高める自然主義的支援文書
- Authors: Abhijith Sharma, Phil Munz, Apurva Narayan
- Abstract要約: 本稿では, 頑健な予測のために, ナチュラル・サポート・アーティファクト(NSA)の考え方を提案する。
NSAは、モデルパラメータがアクセス不能で、シーンにアーティファクトを追加することが不可能なシナリオで有益であることが示されている。
我々は、Imagenetteデータセット上の自然汚職に対してテストを行い、予測信頼度を4倍に改善した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual AI systems are vulnerable to natural and synthetic physical corruption
in the real-world. Such corruption often arises unexpectedly and alters the
model's performance. In recent years, the primary focus has been on adversarial
attacks. However, natural corruptions (e.g., snow, fog, dust) are an
omnipresent threat to visual AI systems and should be considered equally
important. Many existing works propose interesting solutions to train robust
models against natural corruption. These works either leverage image
augmentations, which come with the additional cost of model training, or place
suspicious patches in the scene to design unadversarial examples. In this work,
we propose the idea of naturalistic support artifacts (NSA) for robust
prediction. The NSAs are shown to be beneficial in scenarios where model
parameters are inaccessible and adding artifacts in the scene is feasible. The
NSAs are natural looking objects generated through artifact training using
DC-GAN to have high visual fidelity in the scene. We test against natural
corruptions on the Imagenette dataset and observe the improvement in prediction
confidence score by four times. We also demonstrate NSA's capability to
increase adversarial accuracy by 8\% on average. Lastly, we qualitatively
analyze NSAs using saliency maps to understand how they help improve prediction
confidence.
- Abstract(参考訳): ビジュアルAIシステムは、現実世界の自然および合成物理的腐敗に対して脆弱である。
このような汚職はしばしば予期せず発生し、モデルの性能を変化させる。
近年、主に敵の攻撃に焦点が当てられている。
しかし、自然の腐敗(例えば、雪、霧、ほこり)は視覚AIシステムに対する全知的な脅威であり、同様に重要視されるべきである。
多くの既存の研究は、自然腐敗に対する堅牢なモデルを訓練するための興味深い解決策を提案している。
これらの作業は、追加のモデルトレーニングコストを伴う画像強化を活用するか、あるいは不審なパッチを現場に配置して非逆例を設計する。
本研究では,頑健な予測のための自然主義支援人工物(NSA)の構想を提案する。
NSAは、モデルパラメータがアクセス不能で、シーンにアーティファクトを追加することが不可能なシナリオで有効であることが示されている。
NSAは、DC-GANを用いたアーティファクトトレーニングによって生成された自然なオブジェクトであり、現場での視覚的忠実度が高い。
我々は、Imagenetteデータセット上の自然汚職に対してテストを行い、予測信頼度を4倍に改善した。
また、NSAが敵の精度を平均8倍に向上する能力を示す。
最後に、我々はNSAの正当性マップを用いて質的に分析し、予測信頼性を向上させる方法を理解する。
関連論文リスト
- Unsupervised Domain Adaptive Detection with Network Stability Analysis [20.965986862669016]
ドメイン適応検出は、ラベル付きソースドメインから学習された、ラベル付きターゲットドメイン上の検出器の一般性を改善することを目的としている。
安定解析による教師なし領域適応検出を実現する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-16T07:21:25Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - Beyond Pretrained Features: Noisy Image Modeling Provides Adversarial
Defense [52.66971714830943]
マスク付き画像モデリング(MIM)は、自己教師付き視覚表現学習のフレームワークとして普及している。
本稿では,この強力な自己教師型学習パラダイムが,下流の分類器に対して対角的ロバスト性を提供する方法について検討する。
本稿では,デノナイジングのためのデコーダを用いて,デノナイジングのための対角防御手法を提案する。
論文 参考訳(メタデータ) (2023-02-02T12:37:24Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [57.46379460600939]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - TnT Attacks! Universal Naturalistic Adversarial Patches Against Deep
Neural Network Systems [15.982408142401072]
ディープニューラルネットワークは、敵対的な入力からの攻撃に対して脆弱であり、最近では、トロイの木馬がモデルの判断を誤解したりハイジャックしたりする。
TnTは、シーン内でTnTでキャプチャされた任意の入力画像は、ネットワーク(未攻撃)を誤認する。
既存の最先端手法よりも高い攻撃成功率を達成するパッチを作成するための攻撃の一般化を示す。
論文 参考訳(メタデータ) (2021-11-19T01:35:10Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Physical world assistive signals for deep neural network classifiers --
neither defense nor attack [23.138996515998347]
攻撃中であろうとなかろうと、モデルの信頼度スコアを改善するために最適化されたアシスト信号の概念を導入する。
本手法により生成された補助信号が深層モデルの精度と信頼性を高めることを実験的に評価した。
我々は、現実世界の物体の検知可能性に寄与する可能性のあるパターンを再考したり、回避するために、これらの洞察を利用する方法について議論する。
論文 参考訳(メタデータ) (2021-05-03T04:02:48Z) - Adversarial Attacks are Reversible with Natural Supervision [28.61536318614705]
画像には、多くの敵攻撃の反転を可能にする固有の構造が含まれている。
自然構造を復元するために攻撃された画像を変更すると、多くの種類の攻撃が逆転することを示した。
この結果から,深層ネットワークは画像の自然な構造を強制しないため,敵対的な例に弱いことが示唆された。
論文 参考訳(メタデータ) (2021-03-26T02:21:40Z) - Assessing out-of-domain generalization for robust building damage
detection [78.6363825307044]
建築損傷検出は、衛星画像にコンピュータビジョン技術を適用することで自動化することができる。
モデルは、トレーニングで利用可能な災害画像と、新しいイベントの画像の間の分散の変化に対して堅牢でなければならない。
今後はOOD体制に重点を置くべきだと我々は主張する。
論文 参考訳(メタデータ) (2020-11-20T10:30:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。