論文の概要: Is current research on adversarial robustness addressing the right
problem?
- arxiv url: http://arxiv.org/abs/2208.00539v2
- Date: Thu, 4 Aug 2022 04:03:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-05 10:27:54.060730
- Title: Is current research on adversarial robustness addressing the right
problem?
- Title(参考訳): 敵の強靭性に関する現在の研究は正しい問題に対処しているか?
- Authors: Ali Borji
- Abstract要約: 私は、この問題の現在の定式化は短期的な目標であり、より大きな利益を達成するために修正する必要があると論じます。
知覚不能な逆境の摂動を狭めるのではなく、より一般的な問題に対処すべきである。
- 参考スコア(独自算出の注目度): 47.64219291655723
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Short answer: Yes, Long answer: No! Indeed, research on adversarial
robustness has led to invaluable insights helping us understand and explore
different aspects of the problem. Many attacks and defenses have been proposed
over the last couple of years. The problem, however, remains largely unsolved
and poorly understood. Here, I argue that the current formulation of the
problem serves short term goals, and needs to be revised for us to achieve
bigger gains. Specifically, the bound on perturbation has created a somewhat
contrived setting and needs to be relaxed. This has misled us to focus on model
classes that are not expressive enough to begin with. Instead, inspired by
human vision and the fact that we rely more on robust features such as shape,
vertices, and foreground objects than non-robust features such as texture,
efforts should be steered towards looking for significantly different classes
of models. Maybe instead of narrowing down on imperceptible adversarial
perturbations, we should attack a more general problem which is finding
architectures that are simultaneously robust to perceptible perturbations,
geometric transformations (e.g. rotation, scaling), image distortions
(lighting, blur), and more (e.g. occlusion, shadow). Only then we may be able
to solve the problem of adversarial vulnerability.
- Abstract(参考訳): 短い答え: はい、長い答え: いいえ!
実際、敵対的堅牢性の研究は、問題のさまざまな側面を理解し、探求するのに役立つ貴重な洞察をもたらしました。
ここ数年、多くの攻撃や防衛策が提案されている。
しかし、問題は未解決であり、よく理解されていない。
ここで、この問題の現在の定式化は短期的な目標に役立ち、より大きな利益を達成するためには修正する必要があると論じます。
具体的には、摂動の束縛はやや複雑な設定を生み出し、緩和する必要がある。
これは、最初から表現力のないモデルクラスにフォーカスすることを誤解させました。
代わりに、人間のビジョンや、形状、頂点、前景といった堅牢な特徴よりも、テクスチャのような非ロバストな特徴に依存するという事実にインスパイアされた努力は、かなり異なるモデルのクラスを探すことに向けられなければならない。
恐らくは、知覚できない逆の摂動を狭める代わりに、知覚できる摂動、幾何学的変換(回転、スケーリング)、画像の歪み(光、ぼやけなど)、その他(オクルージョン、影など)に同時に堅牢なアーキテクチャを見つけるという、より一般的な問題に取り組むべきである。
それだけで、敵の脆弱性の問題を解決できるかもしれません。
関連論文リスト
- Evaluating the Adversarial Robustness of Semantic Segmentation: Trying Harder Pays Off [0.6554326244334868]
対人摂動に対する感度の良好な近似は、現在満足していると見なされているものよりもはるかに多くの労力を要すると我々は主張する。
我々は新たな攻撃を提案し、文学で利用可能な最強の攻撃と組み合わせる。
我々の結果は、異なるモデルが異なる攻撃に対して脆弱であることが多いため、多様な強力な攻撃が必要であることも示している。
論文 参考訳(メタデータ) (2024-07-12T10:32:53Z) - Unsegment Anything by Simulating Deformation [67.10966838805132]
「無声化」とは、「無声化の権利」を画像に付与する作業である。
我々は、全てのプロンプトベースセグメンテーションモデルに対して、転送可能な敵攻撃を実現することを目指している。
本手法は, 画像エンコーダの特徴を破壊し, 即時攻撃を実現することに焦点を当てる。
論文 参考訳(メタデータ) (2024-04-03T09:09:42Z) - On Evaluating the Adversarial Robustness of Semantic Segmentation Models [0.0]
敵の摂動に対する防御手段として、多くの敵の訓練アプローチが提案されている。
私たちは、前回の作業で堅牢であると主張するモデルが、実際にはまったく堅牢ではないことを初めて示しています。
次に, 強攻撃群においても, 合理的に堅牢なモデルを生成する, 単純な対向訓練アルゴリズムを評価する。
論文 参考訳(メタデータ) (2023-06-25T11:45:08Z) - Causal Triplet: An Open Challenge for Intervention-centric Causal
Representation Learning [98.78136504619539]
Causal Tripletは、視覚的に複雑なシーンを特徴とする因果表現学習ベンチマークである。
この結果から,不整合表現やオブジェクト中心表現の知識によって構築されたモデルが,分散表現よりもはるかに優れていることを示す。
論文 参考訳(メタデータ) (2023-01-12T17:43:38Z) - Meta Adversarial Perturbations [66.43754467275967]
メタ逆境摂動(MAP)の存在を示す。
MAPは1段階の上昇勾配更新によって更新された後、自然画像を高い確率で誤分類する。
これらの摂動は画像に依存しないだけでなく、モデルに依存しないものであり、単一の摂動は見えないデータポイントと異なるニューラルネットワークアーキテクチャにまたがってうまく一般化される。
論文 参考訳(メタデータ) (2021-11-19T16:01:45Z) - Robust Feature-Level Adversaries are Interpretability Tools [17.72884349429452]
イメージジェネレータの潜伏表現を操り、"機能レベル"の対向摂動を創りだす最近の研究は、認識可能な、解釈可能な対向攻撃を探求する機会を与えてくれる。
これらの敵は、独自に多目的であり、非常に堅牢であることを示す。
ImageNetスケールでターゲット、普遍、偽装、物理的に実現可能、およびブラックボックス攻撃を生成するために使用できる。
論文 参考訳(メタデータ) (2021-10-07T16:33:11Z) - Attack to Fool and Explain Deep Networks [59.97135687719244]
対人摂動における人為的意味のパターンの証拠を提供することによって、私たちは逆転する。
我々の主な貢献は、その後視覚モデルを理解するためのツールに変換される、新しい実用的対人攻撃である。
論文 参考訳(メタデータ) (2021-06-20T03:07:36Z) - Object-Centric Diagnosis of Visual Reasoning [118.36750454795428]
本稿では,地平とロバスト性に基づく視覚的推論の体系的対象中心の診断について述べる。
我々は,グラフ推論機械という診断モデルを開発した。
本モデルは、純粋に象徴的な視覚的表現を確率的シーングラフに置き換え、教師の強制訓練をビジュアル推論モジュールに適用する。
論文 参考訳(メタデータ) (2020-12-21T18:59:28Z) - Intriguing Properties of Adversarial ML Attacks in the Problem Space [Extended Version] [18.3238686304247]
問題空間における敵ML回避攻撃の一般化を提案する。
セマンティクスやアーティファクトの観点から過去の制限を克服する,Androidマルウェアに対する新たな問題空間攻撃を提案する。
我々の結果は、"サービスとしてのアドバイサル・マルウェア"が現実的な脅威であることを示している。
論文 参考訳(メタデータ) (2019-11-05T23:39:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。