論文の概要: Towards Adversarial Robustness of Deep Vision Algorithms
- arxiv url: http://arxiv.org/abs/2211.10670v2
- Date: Tue, 22 Nov 2022 02:22:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 16:14:52.384607
- Title: Towards Adversarial Robustness of Deep Vision Algorithms
- Title(参考訳): ディープビジョンアルゴリズムの逆ロバスト性に向けて
- Authors: Hanshu Yan
- Abstract要約: 本講演は,画像分類モデルと画像復調器の対角的堅牢性に焦点を当てた。
深層学習法はコンピュータビジョンタスクの解法において大きな成功を収めた。
- 参考スコア(独自算出の注目度): 6.09170287691728
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning methods have achieved great success in solving computer vision
tasks, and they have been widely utilized in artificially intelligent systems
for image processing, analysis, and understanding. However, deep neural
networks have been shown to be vulnerable to adversarial perturbations in input
data. The security issues of deep neural networks have thus come to the fore.
It is imperative to study the adversarial robustness of deep vision algorithms
comprehensively. This talk focuses on the adversarial robustness of image
classification models and image denoisers. We will discuss the robustness of
deep vision algorithms from three perspectives: 1) robustness evaluation (we
propose the ObsAtk to evaluate the robustness of denoisers), 2) robustness
improvement (HAT, TisODE, and CIFS are developed to robustify vision models),
and 3) the connection between adversarial robustness and generalization
capability to new domains (we find that adversarially robust denoisers can deal
with unseen types of real-world noise).
- Abstract(参考訳): 深層学習法はコンピュータビジョンタスクの解法において大きな成功を収めており、画像処理、解析、理解のために人工知能システムで広く利用されている。
しかし、深層ニューラルネットワークは入力データにおける敵の摂動に弱いことが示されている。
そのため、ディープニューラルネットワークのセキュリティ問題が前面に浮かび上がっている。
ディープビジョンアルゴリズムの敵対的堅牢性を包括的に研究することが不可欠である。
本講演は,画像分類モデルと画像復調器の対角的堅牢性に焦点を当てた。
深部ビジョンアルゴリズムのロバスト性について3つの視点から論じる。
1)ロバスト性評価(難聴者のロバスト性評価のためのObsAtkを提案する)
2)堅牢性向上(HAT、TisODE、CIFSはビジョンモデルを強化するために開発されている)、
3)新しい領域への可逆的ロバスト性と一般化能力の関係(可逆的ロバストなデノイザーが実世界のノイズに対処できることが分かる)。
関連論文リスト
- A Survey of Neural Network Robustness Assessment in Image Recognition [4.581878177334397]
近年,ニューラルネットワークの堅牢性評価に注目が集まっている。
ディープラーニングの堅牢性問題は特に重要であり、画像分類モデルに対する敵対的攻撃の発見によって強調される。
本稿では, ニューラルネットワーク評価において, 対向ロバスト性 (AR) と汚職ロバスト性 (CR) の両方を詳細に検討した。
論文 参考訳(メタデータ) (2024-04-12T07:19:16Z) - On Inherent Adversarial Robustness of Active Vision Systems [7.803487547944363]
GFNetとFALconの2つのアクティブビジョン手法は、最先端の敵攻撃下での標準的な受動畳み込みネットワークに比べて(2-3)強靭性を実現していることを示す。
さらに重要なことは、異なる固定点からの推論を行うと、アクティブな視覚メソッドが悪意のある入力に対して脆弱になることを示す、図解的で解釈可能な可視化分析を提供することである。
論文 参考訳(メタデータ) (2024-03-29T22:51:45Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Adversarial Attacks Assessment of Salient Object Detection via Symbolic
Learning [4.613806493425003]
脳プログラミングは、優れた古き良き人工知能の分野における象徴的な学習である。
この研究は、信頼できる視覚的注意システムの設計において、記号的学習の堅牢性が不可欠であることを示す。
我々は,この手法を5つの異なるディープラーニングアプローチと比較し,ロバスト性に関する象徴的パラダイムと一致しないことを示した。
論文 参考訳(メタデータ) (2023-09-12T01:03:43Z) - A Comprehensive Study on Robustness of Image Classification Models:
Benchmarking and Rethinking [54.89987482509155]
ディープニューラルネットワークのロバスト性は、通常、敵の例、共通の腐敗、分散シフトに欠けている。
画像分類タスクにおいてtextbfARES-Bench と呼ばれる総合的なベンチマークロバスト性を確立する。
それに応じてトレーニング設定を設計することにより、新しい最先端の対人ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-02-28T04:26:20Z) - Beyond Pretrained Features: Noisy Image Modeling Provides Adversarial
Defense [52.66971714830943]
マスク付き画像モデリング(MIM)は、自己教師付き視覚表現学習のフレームワークとして普及している。
本稿では,この強力な自己教師型学習パラダイムが,下流の分類器に対して対角的ロバスト性を提供する方法について検討する。
本稿では,デノナイジングのためのデコーダを用いて,デノナイジングのための対角防御手法を提案する。
論文 参考訳(メタデータ) (2023-02-02T12:37:24Z) - On the Adversarial Robustness of Camera-based 3D Object Detection [21.091078268929667]
本研究では, カメラを用いた3次元物体検出手法の諸条件下でのロバスト性について検討する。
鳥眼ビューに基づく表現は, 局所攻撃に対する強い強靭性を示す。
深さ推定のないアプローチは、強い強靭性を示す可能性がある。
マルチフレームベニグインプットを組み込むことで、敵攻撃を効果的に軽減することができる。
論文 参考訳(メタデータ) (2023-01-25T18:59:15Z) - Robustness in Deep Learning for Computer Vision: Mind the gap? [13.576376492050185]
我々は、コンピュータビジョンのためのディープラーニングにおいて、現在の定義と非敵対的堅牢性に向けての進歩を特定し、分析し、要約する。
この研究の分野は、敵対的機械学習に対して、不当にあまり注目されていないことがわかりました。
論文 参考訳(メタデータ) (2021-12-01T16:42:38Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - Optimism in the Face of Adversity: Understanding and Improving Deep
Learning through Adversarial Robustness [63.627760598441796]
深層学習における対角的強靭性の分野を詳細に検討する。
直感的な対向例と深層ニューラルネットワークの幾何学的関係を強調した。
セキュリティを超えた敵の堅牢性の主な応用について概説する。
論文 参考訳(メタデータ) (2020-10-19T16:03:46Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。