論文の概要: Human Imperceptible Attacks and Applications to Improve Fairness
- arxiv url: http://arxiv.org/abs/2111.15603v1
- Date: Tue, 30 Nov 2021 17:54:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 15:17:41.291471
- Title: Human Imperceptible Attacks and Applications to Improve Fairness
- Title(参考訳): ヒューマン・インセプティブル・アタックと公平性向上への応用
- Authors: Xinru Hua, Huanzhong Xu, Jose Blanchet, Viet Nguyen
- Abstract要約: 人間には受け入れられない小さな摂動は、よく訓練されたディープニューラルネットワークの性能を著しく低下させる可能性がある。
本研究では,人間による画像品質評価手法を統合した分散ロバスト最適化フレームワークを提案する。
我々の攻撃アルゴリズムは、他の最先端の人間の知覚不可能な攻撃方法よりも高品質な(人間には認識できない)攻撃を生成する。
- 参考スコア(独自算出の注目度): 1.2375842401629515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern neural networks are able to perform at least as well as humans in
numerous tasks involving object classification and image generation. However,
small perturbations which are imperceptible to humans may significantly degrade
the performance of well-trained deep neural networks. We provide a
Distributionally Robust Optimization (DRO) framework which integrates
human-based image quality assessment methods to design optimal attacks that are
imperceptible to humans but significantly damaging to deep neural networks.
Through extensive experiments, we show that our attack algorithm generates
better-quality (less perceptible to humans) attacks than other state-of-the-art
human imperceptible attack methods. Moreover, we demonstrate that DRO training
using our optimally designed human imperceptible attacks can improve group
fairness in image classification. Towards the end, we provide an algorithmic
implementation to speed up DRO training significantly, which could be of
independent interest.
- Abstract(参考訳): 現代のニューラルネットワークは、オブジェクトの分類と画像生成を含む多くのタスクにおいて、少なくとも人間と同様に実行できる。
しかし、人間が知覚できない小さな摂動は、よく訓練されたディープニューラルネットワークの性能を著しく低下させる可能性がある。
我々は,人間には受け入れがたいがディープニューラルネットワークに重大なダメージを与える最適なアタックを設計するために,人間ベースの画像品質評価手法を統合する分散的ロバスト最適化(dro)フレームワークを提供する。
広範な実験により,我々の攻撃アルゴリズムは,他の最先端のヒューマン・インセプティブル・アタック手法よりも高品質な(人間に知覚できない)アタックを生成することを示した。
さらに,画像分類におけるグループフェアネスを向上させるために,最適に設計したヒト非受容的攻撃を用いたDRO訓練が有効であることを示す。
最後に,DROトレーニングを著しく高速化するアルゴリズムの実装を提案する。
関連論文リスト
- Leveraging the Human Ventral Visual Stream to Improve Neural Network Robustness [8.419105840498917]
人間の物体認識は、乱雑でダイナミックな視覚環境において顕著なレジリエンスを示す。
多くの視覚的タスクにまたがるパフォーマンスにもかかわらず、Deep Neural Networks(DNN)は人間よりもはるかに堅牢である。
ここでは,人間の腹側視覚ストリームの階層的な領域から神経表現によって誘導されたDNNが,敵の攻撃に対する堅牢性を高めていることを示す。
論文 参考訳(メタデータ) (2024-05-04T04:33:20Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - TSFool: Crafting Highly-Imperceptible Adversarial Time Series through Multi-Objective Attack [6.243453526766042]
TSFoolと呼ばれる効率的な手法を提案する。
中心となる考え方は、「カモフラージュ係数」(Camouflage Coefficient)と呼ばれる新しい大域的な最適化目標であり、クラス分布から反対サンプルの非受容性を捉えるものである。
11のUCRデータセットとUEAデータセットの実験では、TSFoolは6つのホワイトボックスと3つのブラックボックスベンチマークアタックを著しく上回っている。
論文 参考訳(メタデータ) (2022-09-14T03:02:22Z) - Preemptive Image Robustification for Protecting Users against
Man-in-the-Middle Adversarial Attacks [16.017328736786922]
Man-in-the-Middleの敵対者は、ウェブユーザーがオンラインでアップロードした画像を悪意を持って傍受し、妨害する。
この種の攻撃は、単純なパフォーマンス劣化の上に厳しい倫理的懸念を引き起こす可能性がある。
本研究では, 対向摂動に頑健な自然画像近傍の点を求める2段階最適化アルゴリズムを考案した。
論文 参考訳(メタデータ) (2021-12-10T16:06:03Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - A Simple Fine-tuning Is All You Need: Towards Robust Deep Learning Via
Adversarial Fine-tuning [90.44219200633286]
我々は,$textitslow start, fast decay$ learning rate schedulingストラテジーに基づく,単純かつ非常に効果的な敵の微調整手法を提案する。
実験の結果,提案手法はCIFAR-10, CIFAR-100, ImageNetデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:50:15Z) - Hardware Accelerator for Adversarial Attacks on Deep Learning Neural
Networks [7.20382137043754]
強靭な物理的摂動を生成するために, 対向攻撃ネットワークアルゴリズムのクラスが提案されている。
本稿では,メムリスタクロスバーアレーをベースとした敵攻撃用ハードウェアアクセラレータを提案する。
論文 参考訳(メタデータ) (2020-08-03T21:55:41Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z) - Adversarial Attacks on Convolutional Neural Networks in Facial
Recognition Domain [2.4704085162861693]
Deep Neural Network(DNN)分類器を実生活で脆弱にする敵攻撃は、自動運転車、マルウェアフィルター、生体認証システムにおいて深刻な脅威となる。
我々はFast Gradient Sign Methodを適用し、顔画像データセットに摂動を導入し、異なる分類器で出力をテストする。
我々は、最小の敵対的知識を前提に、さまざまなブラックボックス攻撃アルゴリズムを顔画像データセット上に構築する。
論文 参考訳(メタデータ) (2020-01-30T00:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。