論文の概要: Transparency Attacks: How Imperceptible Image Layers Can Fool AI
Perception
- arxiv url: http://arxiv.org/abs/2401.15817v1
- Date: Mon, 29 Jan 2024 00:52:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 16:41:25.210217
- Title: Transparency Attacks: How Imperceptible Image Layers Can Fool AI
Perception
- Title(参考訳): 透明性の攻撃:画像層がAIの知覚を弱める方法
- Authors: Forrest McKee, David Noever
- Abstract要約: 本稿では,認識不能な画像層が視覚モデルを任意のラベル代入とキャプションに結合する場合のアルゴリズム的脆弱性について検討する。
我々は、人間の目が知覚するものをAIが誤解釈するきっかけとなる、ステルス透明性を導入するための画像前処理手法について検討する。
ステルス透明性は、顔認識と監視の回避、デジタル透かし、コンテンツフィルタリング、データセットのキュレーション、自動車とドローンの自律性、法医学的証拠の改ざん、小売商品の誤分類など、視覚システムを確立した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates a novel algorithmic vulnerability when imperceptible
image layers confound multiple vision models into arbitrary label assignments
and captions. We explore image preprocessing methods to introduce stealth
transparency, which triggers AI misinterpretation of what the human eye
perceives. The research compiles a broad attack surface to investigate the
consequences ranging from traditional watermarking, steganography, and
background-foreground miscues. We demonstrate dataset poisoning using the
attack to mislabel a collection of grayscale landscapes and logos using either
a single attack layer or randomly selected poisoning classes. For example, a
military tank to the human eye is a mislabeled bridge to object classifiers
based on convolutional networks (YOLO, etc.) and vision transformers (ViT,
GPT-Vision, etc.). A notable attack limitation stems from its dependency on the
background (hidden) layer in grayscale as a rough match to the transparent
foreground image that the human eye perceives. This dependency limits the
practical success rate without manual tuning and exposes the hidden layers when
placed on the opposite display theme (e.g., light background, light transparent
foreground visible, works best against a light theme image viewer or browser).
The stealth transparency confounds established vision systems, including
evading facial recognition and surveillance, digital watermarking, content
filtering, dataset curating, automotive and drone autonomy, forensic evidence
tampering, and retail product misclassifying. This method stands in contrast to
traditional adversarial attacks that typically focus on modifying pixel values
in ways that are either slightly perceptible or entirely imperceptible for both
humans and machines.
- Abstract(参考訳): 本稿では,知覚不可能な画像層が複数の視覚モデルを任意のラベル代入とキャプションに結合する場合のアルゴリズム的脆弱性について検討する。
我々は、人間の目が知覚するものをAIが誤解釈するきっかけとなるステルス透明性を導入するために、画像前処理手法を検討する。
この研究は、従来の透かし、ステガノグラフィー、背景のミスキューなど、幅広い攻撃面をコンパイルし、その結果を調査する。
本研究では,この攻撃によるデータセット中毒を,単一攻撃層またはランダムに選択した中毒クラスを用いて,グレースケールの景観やロゴの集合体を誤識別することを示した。
例えば、人間の目に対する軍用戦車は、畳み込みネットワーク(YOLOなど)と視覚変換器(ViT、GPT-Visionなど)に基づくオブジェクト分類器への誤ラベルブリッジである。
注目すべき攻撃の制限は、人間の目が知覚する透明な前景画像と粗い一致としてグレースケールの背景(隠れた)層に依存することである。
この依存性は、手動チューニングなしで実用的成功率を制限し、反対の表示テーマ(例えば、明るい背景、明るい透明な前景が見え、ライトテーマのイメージビューアやブラウザに対して最もよく機能する)に置かれると、隠れたレイヤを露出させる。
ステルス透明性は、顔認識と監視の回避、デジタル透かし、コンテンツフィルタリング、データセットのキュレーション、自動車とドローンの自律性、法医学的証拠の改ざん、小売商品の誤分類など、視覚システムを確立した。
この手法は、通常、人間と機械の両方にとってわずかに知覚できない、あるいは完全に認識できない方法でピクセル値を変更することに焦点を当てる従来の敵攻撃とは対照的である。
関連論文リスト
- ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に対する潜在的な脅威となる。
この不正行為を防ぐため、プロアクティブな防御技術が提案され、操作プロセスを妨害した。
我々は,ID-Guardと呼ばれる,顔操作と戦うための新しい普遍的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - Semantic Contextualization of Face Forgery: A New Definition, Dataset, and Detection Method [77.65459419417533]
我々は,顔フォージェリを意味的文脈に配置し,意味的顔属性を変更する計算手法が顔フォージェリの源であることを定義した。
階層的なグラフで整理されたラベルの集合に各画像が関連付けられている大規模な顔偽画像データセットを構築した。
本稿では,ラベル関係を捕捉し,その優先課題を優先するセマンティクス指向の顔偽造検出手法を提案する。
論文 参考訳(メタデータ) (2024-05-14T10:24:19Z) - Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - AdvRain: Adversarial Raindrops to Attack Camera-based Smart Vision
Systems [5.476763798688862]
物理的敵攻撃として知られる「印刷された敵攻撃」は、認識モデルを誤解させることに成功した。
我々は,同じクラスの全てのオブジェクトに対して,カメラベースの認識システムを騙すことができるカメラベースの敵攻撃を提案する。
ImageNetとResnet34では、VGG19では平均モデルの精度が45%以上、40%以上低下しています。
論文 参考訳(メタデータ) (2023-03-02T15:14:46Z) - Two Souls in an Adversarial Image: Towards Universal Adversarial Example
Detection using Multi-view Inconsistency [10.08837640910022]
ディープニューラルネットワーク(DNN)に対する回避攻撃では、攻撃者は、良性サンプルと視覚的に区別できない敵のインスタンスを生成する。
本稿では,新しい観測結果に基づいて,新しい多視点逆画像検出器Argosを提案する。
アルゴスは、検出精度とロバスト性の両方において、2つの代表的な対向検出器を著しく上回っている。
論文 参考訳(メタデータ) (2021-09-25T23:47:13Z) - Attack to Fool and Explain Deep Networks [59.97135687719244]
対人摂動における人為的意味のパターンの証拠を提供することによって、私たちは逆転する。
我々の主な貢献は、その後視覚モデルを理解するためのツールに変換される、新しい実用的対人攻撃である。
論文 参考訳(メタデータ) (2021-06-20T03:07:36Z) - A Study of Face Obfuscation in ImageNet [94.2949777826947]
本稿では,imagenetチャレンジにおける画像難読化について検討する。
ImageNetチャレンジのほとんどのカテゴリは、人のカテゴリではありません。
さまざまな深層ニューラルネットワークを顔画像上でベンチマークし、異なるカテゴリに対する異なる影響を観察します。
結果は、顔が破れた画像で学んだ特徴が等しく転送可能であることを示している。
論文 参考訳(メタデータ) (2021-03-10T17:11:34Z) - Invisible Perturbations: Physical Adversarial Examples Exploiting the
Rolling Shutter Effect [16.876798038844445]
私たちは初めて、人間の目に見えない物理的敵の例を生成します。
我々は、攻撃者がシーンを逆向きに照らし、ターゲットの誤分類を引き起こす変調された信号を作る方法を実証する。
我々はLEDで様々なシミュレーションと物理実験を行い、目標攻撃率を最大84%まで示す。
論文 参考訳(メタデータ) (2020-11-26T16:34:47Z) - Self-Supervised Linear Motion Deblurring [112.75317069916579]
深層畳み込みニューラルネットワークは、画像の劣化の最先端技術である。
本稿では,自己監督型動作遅延に対する識別可能なreblurモデルを提案する。
我々の実験は、自己監督された単一画像の劣化が本当に実現可能であることを実証した。
論文 参考訳(メタデータ) (2020-02-10T20:15:21Z) - Attacking Optical Character Recognition (OCR) Systems with Adversarial
Watermarks [22.751944254451875]
本研究では,透かしに変装した自然歪みを発生させ,人間の目の検出を回避するための透かし攻撃手法を提案する。
実験結果から,透かし攻撃は,透かしを付加した自然な逆転例の集合となり,異なる攻撃シナリオにおける最先端手法と類似した攻撃性能が得られることが示された。
論文 参考訳(メタデータ) (2020-02-08T05:53:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。