論文の概要: Benign Adversarial Attack: Tricking Algorithm for Goodness
- arxiv url: http://arxiv.org/abs/2107.11986v1
- Date: Mon, 26 Jul 2021 06:46:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 16:24:14.545736
- Title: Benign Adversarial Attack: Tricking Algorithm for Goodness
- Title(参考訳): 良質な敵攻撃:善意のためのトリッキングアルゴリズム
- Authors: Xian Zhao, Jiaming Zhang, Zhiyu Lin and Jitao Sang
- Abstract要約: 本稿では,タスク関連とセマンティック・オリエンテーションに沿った視覚情報の新しい分類法を提案する。
これに触発され、3方向の良さを敵の例に活かすため、良心的敵攻撃と呼ばれる勇敢な新しいアイデアを提示する。
- 参考スコア(独自算出の注目度): 12.690996255211283
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In spite of the successful application in many fields, machine learning
algorithms today suffer from notorious problems like vulnerability to
adversarial examples. Beyond falling into the cat-and-mouse game between
adversarial attack and defense, this paper provides alternative perspective to
consider adversarial example and explore whether we can exploit it in benign
applications. We first propose a novel taxonomy of visual information along
task-relevance and semantic-orientation. The emergence of adversarial example
is attributed to algorithm's utilization of task-relevant non-semantic
information. While largely ignored in classical machine learning mechanisms,
task-relevant non-semantic information enjoys three interesting characteristics
as (1) exclusive to algorithm, (2) reflecting common weakness, and (3)
utilizable as features. Inspired by this, we present brave new idea called
benign adversarial attack to exploit adversarial examples for goodness in three
directions: (1) adversarial Turing test, (2) rejecting malicious algorithm, and
(3) adversarial data augmentation. Each direction is positioned with motivation
elaboration, justification analysis and prototype applications to showcase its
potential.
- Abstract(参考訳): 多くの分野で応用が成功したにもかかわらず、今日の機械学習アルゴリズムは、悪意のある例に対する脆弱性のような悪名高い問題に苦しめられている。
本稿では、敵の攻撃と防御の間の猫とマウスのゲームに陥るだけでなく、敵の例を考察し、良質な用途で活用できるかどうかを探求する別の視点を提供する。
まず,タスク関係と意味的指向に基づく視覚情報の新しい分類法を提案する。
逆例の出現は、アルゴリズムがタスク関連非意味情報を活用することに起因する。
従来の機械学習メカニズムでは無視されることが多いが,タスク関連非意味情報には,(1)アルゴリズム専用,(2)共通弱点の反映,(3)特徴として活用可能な3つの興味深い特徴がある。
そこで本研究では,(1)敵対的チューリングテスト,(2)悪質なアルゴリズムの拒絶,(3)敵対的データ拡張という3方向の善行の例を活用すべく,良質な敵対的攻撃と呼ばれる勇敢な新しいアイデアを提案する。
それぞれの方向は動機解明、正当化分析、そしてその可能性を示すためのプロトタイプアプリケーションによって位置づけられる。
関連論文リスト
- Forging the Forger: An Attempt to Improve Authorship Verification via Data Augmentation [52.72682366640554]
著者検証(英語: Authorship Verification, AV)とは、ある特定の著者によって書かれたか、別の人物によって書かれたのかを推測するテキスト分類タスクである。
多くのAVシステムは敵の攻撃に弱いことが示されており、悪意のある著者は、その書体スタイルを隠蔽するか、あるいは他の著者の書体を模倣することによって、積極的に分類者を騙そうとしている。
論文 参考訳(メタデータ) (2024-03-17T16:36:26Z) - Threat Trekker: An Approach to Cyber Threat Hunting [0.5371337604556311]
脅威狩りはサイバー攻撃を探索し、検出し、緩和するための積極的な方法論である。
本稿では,Threat Trekkerと呼ばれる新しい機械学習パラダイムを紹介する。
論文 参考訳(メタデータ) (2023-10-06T12:29:41Z) - Enhancing Robust Representation in Adversarial Training: Alignment and
Exclusion Criteria [61.048842737581865]
対人訓練 (AT) は, 頑健な特徴の学習を省略し, 対人的頑健さの低下を招いた。
非対称な負のコントラストと逆の注意によって、頑健な表現を得るためのATの一般的なフレームワークを提案する。
3つのベンチマークデータセットの実証評価により,ATの堅牢性を大幅に向上し,最先端の性能を実現することができた。
論文 参考訳(メタデータ) (2023-10-05T07:29:29Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Identification of Attack-Specific Signatures in Adversarial Examples [62.17639067715379]
異なる攻撃アルゴリズムは, その効果だけでなく, 被害者の質的な影響も示している。
以上の結果から, 予測的対人攻撃は, 模擬モデルにおける成功率だけでなく, 被害者に対するより深い下流効果によって比較されるべきであることが示唆された。
論文 参考訳(メタデータ) (2021-10-13T15:40:48Z) - TREATED:Towards Universal Defense against Textual Adversarial Attacks [28.454310179377302]
本稿では,様々な摂動レベルの攻撃に対して,仮定なしに防御できる汎用的対向検出手法であるTREATEDを提案する。
3つの競合するニューラルネットワークと2つの広く使われているデータセットの大規模な実験により、本手法はベースラインよりも優れた検出性能が得られることが示された。
論文 参考訳(メタデータ) (2021-09-13T03:31:20Z) - Object Hider: Adversarial Patch Attack Against Object Detectors [10.920696684006488]
本稿では,現在最先端の物体検出モデルに対する敵攻撃に着目した。
現実的な代替手段として、攻撃には敵パッチを使用します。
実験の結果,提案手法は高い有効性,伝達性,汎用性を示した。
論文 参考訳(メタデータ) (2020-10-28T13:34:16Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - Adversarial Machine Learning in Image Classification: A Survey Towards
the Defender's Perspective [1.933681537640272]
逆の例は、悪意のある最適化アルゴリズムによって生成される微妙な摂動を含む画像である。
ディープラーニングアルゴリズムは、生体認証システムや自動運転車など、セキュリティクリティカルなアプリケーションで使われてきた。
論文 参考訳(メタデータ) (2020-09-08T13:21:55Z) - Discovering Imperfectly Observable Adversarial Actions using Anomaly
Detection [0.24244694855867271]
異常検出は異常で不審な振る舞いを発見する方法である。
このようなゲームを解くためのアルゴリズムを2つ提案する。
実験により、両方のアルゴリズムが低特徴空間次元の場合に適用可能であることが示された。
論文 参考訳(メタデータ) (2020-04-22T15:31:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。