論文の概要: Downscaling Attack and Defense: Turning What You See Back Into What You
Get
- arxiv url: http://arxiv.org/abs/2010.02456v2
- Date: Wed, 7 Oct 2020 18:24:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 05:09:43.925420
- Title: Downscaling Attack and Defense: Turning What You See Back Into What You
Get
- Title(参考訳): 攻撃と防御をダウンスケールする: 見たものを手に入るものに変える
- Authors: Andrew J. Lohn
- Abstract要約: イメージは、イメージが他のスケールとマシンビジョンスケールで完全に異なるように作成することができ、一般的なコンピュータビジョンや機械学習システムのデフォルト設定が脆弱である。
これらの攻撃と防御は、機械学習における入力衛生の役割を確立するのに役立つ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The resizing of images, which is typically a required part of preprocessing
for computer vision systems, is vulnerable to attack. Images can be created
such that the image is completely different at machine-vision scales than at
other scales and the default settings for some common computer vision and
machine learning systems are vulnerable. We show that defenses exist and are
trivial to administer provided that defenders are aware of the threat. These
attacks and defenses help to establish the role of input sanitization in
machine learning.
- Abstract(参考訳): イメージの再サイズは、一般的にコンピュータビジョンシステムの前処理の必須部分であり、攻撃に対して脆弱である。
イメージは、イメージが他のスケールとマシンビジョンスケールで完全に異なるように作成することができ、一般的なコンピュータビジョンや機械学習システムのデフォルト設定が脆弱である。
防御は存在しており、防御者が脅威に気づいていれば管理するのは自明である。
これらの攻撃と防御は、機械学習における入力衛生の役割を確立するのに役立つ。
関連論文リスト
- On the Detection of Image-Scaling Attacks in Machine Learning [11.103249083138213]
イメージスケーリングは、機械学習とコンピュータビジョンシステムにおいて不可欠な部分である。
縮小画像全体を修正した画像スケーリング攻撃は、適応的敵の下でも確実に検出できる。
本手法は,画像の一部のみを操作しても,強い検出性能が得られることを示す。
論文 参考訳(メタデータ) (2023-10-23T16:46:28Z) - Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - State-of-the-art optical-based physical adversarial attacks for deep
learning computer vision systems [3.3470481105928216]
敵対的攻撃は、人間の目には認識できない最初の入力に小さな摂動を埋め込むことで、深層学習モデルを誤認し、誤った予測をする可能性がある。
物理的敵対攻撃は、より現実的なもので、摂動が入力に導入され、キャプチャされてバイナリ画像に変換される。
本稿では,コンピュータビジョンシステムのための光学的物理対向攻撃技術に焦点を当てる。
論文 参考訳(メタデータ) (2023-03-22T01:14:52Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - Real-World Adversarial Examples involving Makeup Application [58.731070632586594]
フルフェイスメイクを用いた身体的敵攻撃を提案する。
我々の攻撃は、色や位置関連エラーなどのメークアップアプリケーションにおける手動エラーを効果的に克服できる。
論文 参考訳(メタデータ) (2021-09-04T05:29:28Z) - Adversarial Machine Learning for Cybersecurity and Computer Vision:
Current Developments and Challenges [2.132096006921048]
敵対的機械学習の研究は、機械学習技術の幅広い応用に対する重大な脅威に対処する。
まず、主に3つの機械学習テクニックに対する攻撃、すなわち中毒攻撃、回避攻撃、プライバシ攻撃について論じる。
サイバーセキュリティとコンピュータビジョンにおける敵のサンプルは根本的に異なることに気付きます。
論文 参考訳(メタデータ) (2021-06-30T03:05:58Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Scale-Adv: A Joint Attack on Image-Scaling and Machine Learning
Classifiers [22.72696699380479]
画像スケーリングと分類の段階を共同でターゲットとした新しい攻撃フレームワークであるScale-Advを提案する。
スケールアタックでは,5つの最先端の防御策のうち4つを,敵の例を組み込むことで回避できることが示される。
分類では、スケールアルゴリズムの弱点を利用して、scale-advは機械学習攻撃の性能を著しく向上できることを示す。
論文 参考訳(メタデータ) (2021-04-18T03:19:15Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - AdvFoolGen: Creating Persistent Troubles for Deep Classifiers [17.709146615433458]
本稿では,自然画像と同じ特徴空間から攻撃画像を生成するAdvFoolGenというブラックボックス攻撃を提案する。
我々は、最先端の防衛技術に直面する攻撃の有効性と堅牢性を実証する。
論文 参考訳(メタデータ) (2020-07-20T21:27:41Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。