論文の概要: Toward Defensive Letter Design
- arxiv url: http://arxiv.org/abs/2309.01452v1
- Date: Mon, 4 Sep 2023 09:02:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 19:24:07.164571
- Title: Toward Defensive Letter Design
- Title(参考訳): ディフェンシブレターデザインに向けて
- Authors: Rentaro Kataoka, Akisato Kimura, Seiichi Uchida
- Abstract要約: 敵攻撃に対する防御のための主要なアプローチは、画像分類器だけがより弾力性を持つように制御することを目的としている。
対照的に、文字は人工的なシンボルであり、可読性を失わずにその外観を自由に制御できる。
本稿では,文字画像の敵対的脆弱性に関する3つの研究課題を提起する。
- 参考スコア(独自算出の注目度): 12.03150391651337
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A major approach for defending against adversarial attacks aims at
controlling only image classifiers to be more resilient, and it does not care
about visual objects, such as pandas and cars, in images. This means that
visual objects themselves cannot take any defensive actions, and they are still
vulnerable to adversarial attacks. In contrast, letters are artificial symbols,
and we can freely control their appearance unless losing their readability. In
other words, we can make the letters more defensive to the attacks. This paper
poses three research questions related to the adversarial vulnerability of
letter images: (1) How defensive are the letters against adversarial attacks?
(2) Can we estimate how defensive a given letter image is before attacks? (3)
Can we control the letter images to be more defensive against adversarial
attacks? For answering the first and second questions, we measure the
defensibility of letters by employing Iterative Fast Gradient Sign Method
(I-FGSM) and then build a deep regression model for estimating the
defensibility of each letter image. We also propose a two-step method based on
a generative adversarial network (GAN) for generating character images with
higher defensibility, which solves the third research question.
- Abstract(参考訳): 敵対的攻撃に対抗するための主要なアプローチは、画像分類器のみをより弾力的に制御することであり、パンダや車などの視覚的対象をイメージに含まないことである。
これは、ビジュアルオブジェクト自体がいかなる防御アクションも受けられず、敵の攻撃に対して脆弱であることを意味する。
対照的に文字は人工的なシンボルであり、可読性を失うことなく自由にその外観を制御できる。
言い換えれば、攻撃に対して文字をより防御的にできるのです。
本論文は, 文字画像の敵意的脆弱性に関する3つの研究課題を提起する:(1) 敵意的攻撃に対する文字の防御力はどの程度か?
2)攻撃前の文字画像の防御効果を推定できるのか?
3) 敵の攻撃に対する防御性を高めるために,文字画像の制御は可能か?
第1および第2の質問に答えるために,反復型高速勾配符号法(i-fgsm)を用いて文字の難読度を測定し,各文字画像の難読度を推定するための深い回帰モデルを構築した。
また,第3の研究課題を解決するために,高精細度キャラクタ画像を生成するための生成逆ネットワーク(gan)に基づく2段階の手法を提案する。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Baseline Defenses for Adversarial Attacks Against Aligned Language
Models [109.75753454188705]
最近の研究は、テキストのモデレーションが防御をバイパスするジェイルブレイクのプロンプトを生み出すことを示している。
検出(複雑度に基づく)、入力前処理(言い換えと再帰化)、対人訓練の3種類の防衛について検討する。
テキストに対する既存の離散化の弱点と比較的高いコストの最適化が組み合わさって、標準適応攻撃をより困難にしていることがわかった。
論文 参考訳(メタデータ) (2023-09-01T17:59:44Z) - The Best Defense is a Good Offense: Adversarial Augmentation against
Adversarial Attacks [91.56314751983133]
A5$は、手元の入力に対する攻撃が失敗することを保証するために防御的摂動を構築するためのフレームワークである。
我々は,地上の真理ラベルを無視するロバスト化ネットワークを用いて,実機での防御強化を効果的に示す。
また、A5$を適用して、確実に堅牢な物理オブジェクトを作成する方法も示します。
論文 参考訳(メタデータ) (2023-05-23T16:07:58Z) - Adversarial Defense via Image Denoising with Chaotic Encryption [65.48888274263756]
攻撃者には秘密鍵以外の全てを利用できると仮定する新しい防御法を提案する。
我々のフレームワークは、離散化ベイカーマップによる暗号化と併用した画像復号化手法を用いている。
論文 参考訳(メタデータ) (2022-03-19T10:25:02Z) - Semantic Host-free Trojan Attack [54.25471812198403]
本稿では,意味空間に固定されているが,必ずしも画素空間に固定されていないトリガーを用いた新規なホストフリートロイア攻撃を提案する。
クリーンな入力イメージをホストとして使用して小さな無意味なトリガーパターンを担っている既存のトロイの木馬攻撃とは対照的に、我々の攻撃はトリガーを意味論的に意味のあるオブジェクトクラスに属するフルサイズのイメージとみなす。
論文 参考訳(メタデータ) (2021-10-26T05:01:22Z) - Adversarial Attacks are Reversible with Natural Supervision [28.61536318614705]
画像には、多くの敵攻撃の反転を可能にする固有の構造が含まれている。
自然構造を復元するために攻撃された画像を変更すると、多くの種類の攻撃が逆転することを示した。
この結果から,深層ネットワークは画像の自然な構造を強制しないため,敵対的な例に弱いことが示唆された。
論文 参考訳(メタデータ) (2021-03-26T02:21:40Z) - Grey-box Adversarial Attack And Defence For Sentiment Classification [19.466940655682727]
感情分類のためのグレーボックスの敵対攻撃と防御フレームワークを紹介します。
敵攻撃と防御のための識別性, ラベル保存, 入力再構成の課題を, 1つの統合された枠組みで解決する。
論文 参考訳(メタデータ) (2021-03-22T04:05:17Z) - Defenses Against Multi-Sticker Physical Domain Attacks on Classifiers [24.809185168969066]
重要な攻撃の一つは、道路標識のような物体に白黒のステッカーを置くことで分類器を騙すことができる。
この攻撃から守るために設計された防御はない。
本稿では,マルチスティック攻撃から防御できる新たな防御策を提案する。
論文 参考訳(メタデータ) (2021-01-26T19:59:28Z) - Visual Attack and Defense on Text [18.513619521807286]
テキストの文字を視覚的に類似した文字に修正すると、検査システムやその他の条件を騙すためにスパムに悩まされることが多い。
我々は、通常のテキストを理解する能力を失うことなく、攻撃を防御するためのビジョンベースモデルと敵の訓練を謝罪する。
論文 参考訳(メタデータ) (2020-08-07T15:44:58Z) - Deflecting Adversarial Attacks [94.85315681223702]
我々は、攻撃者が攻撃対象クラスに似た入力を生成することによって、敵攻撃を「防御」するこのサイクルを終わらせる新しいアプローチを提案する。
本稿ではまず,3つの検出機構を組み合わせたカプセルネットワークに基づくより強力な防御手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T06:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。