論文の概要: Just Noticeable Difference for Machines to Generate Adversarial Images
- arxiv url: http://arxiv.org/abs/2001.11064v1
- Date: Wed, 29 Jan 2020 19:42:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 21:29:16.516382
- Title: Just Noticeable Difference for Machines to Generate Adversarial Images
- Title(参考訳): 逆画像生成のための機械の目立った違い
- Authors: Adil Kaan Akan, Mehmet Ali Genc, Fatos T. Yarman Vural
- Abstract要約: 提案手法は、Just Noticeable differenceと呼ばれる実験心理学の一般的な概念に基づいている。
本研究で生成した対向画像は, 対向画像生成装置の出力と比較すると, より自然なように見える。
- 参考スコア(独自算出の注目度): 0.34376560669160383
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: One way of designing a robust machine learning algorithm is to generate
authentic adversarial images which can trick the algorithms as much as
possible. In this study, we propose a new method to generate adversarial images
which are very similar to true images, yet, these images are discriminated from
the original ones and are assigned into another category by the model. The
proposed method is based on a popular concept of experimental psychology,
called, Just Noticeable Difference. We define Just Noticeable Difference for a
machine learning model and generate a least perceptible difference for
adversarial images which can trick a model. The suggested model iteratively
distorts a true image by gradient descent method until the machine learning
algorithm outputs a false label. Deep Neural Networks are trained for object
detection and classification tasks. The cost function includes regularization
terms to generate just noticeably different adversarial images which can be
detected by the model. The adversarial images generated in this study looks
more natural compared to the output of state of the art adversarial image
generators.
- Abstract(参考訳): 堅牢な機械学習アルゴリズムを設計する1つの方法は、アルゴリズムをできるだけ騙すことのできる真正逆画像を生成することである。
本研究では,実画像と非常に類似した敵画像を生成する新しい手法を提案するが,これらの画像は原画像と判別され,モデルによって別のカテゴリに割り当てられる。
提案手法は、Just Noticeable differenceと呼ばれる実験心理学の一般的な概念に基づいている。
機械学習モデルに対して注意すべき違いを定義し、モデルを騙すことのできる逆画像に対して、最小限の差を生成する。
提案モデルは、機械学習アルゴリズムが偽のラベルを出力するまで、勾配降下法による真の画像を反復的に歪ませる。
ディープニューラルネットワークは、オブジェクト検出と分類タスクのために訓練される。
コスト関数は正規化項を含み、モデルによって検出可能な、明らかに異なる逆画像を生成する。
本研究で生成した対向画像は, 対向画像生成装置の出力と比較すると, より自然なように見える。
関連論文リスト
- Data Attribution for Text-to-Image Models by Unlearning Synthesized Images [71.23012718682634]
テキスト・ツー・イメージ・モデルにおけるデータ帰属の目標は、新しい画像の生成に最も影響を与えるトレーニング画像を特定することである。
本稿では,高能率画像の同定を効果的に行う新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T17:59:44Z) - DeepFeatureX Net: Deep Features eXtractors based Network for discriminating synthetic from real images [6.75641797020186]
ディープラーニングアルゴリズムによって生成された合成画像であるDeepfakesは、Digital Forensicsの分野における最大の課題の1つだ。
ベースモデルと呼ばれる3つのブロックに基づく新しい手法を提案する。
そして、各ブロックから抽出された一般化特徴を処理して、入力画像の起源を判別する。
論文 参考訳(メタデータ) (2024-04-24T07:25:36Z) - GenDet: Towards Good Generalizations for AI-Generated Image Detection [27.899521298845357]
既存の方法では、目に見えないジェネレータが生成した画像を効果的に検出できるが、見えないジェネレータが生成した画像を検出することは困難である。
本稿では、異常検出の観点から、この課題を考慮し、未知のジェネレータ検出問題に対処する。
提案手法は,実画像の教師モデルと学生モデルとの出力の差を小さくし,偽画像の差を大きくすることを目的としている。
論文 参考訳(メタデータ) (2023-12-12T11:20:45Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Just Noticeable Difference for Machine Perception and Generation of
Regularized Adversarial Images with Minimal Perturbation [8.920717493647121]
人間の知覚のジャスト通知差(JND)の概念に触発された機械知覚の尺度を紹介します。
本稿では,機械学習モデルが偽ラベルを出力することで画像の変化を検出するまで,画像を付加雑音で反復的に歪曲する逆画像生成アルゴリズムを提案する。
CIFAR10、ImageNet、MS COCOデータセット上で、アルゴリズムが生成する対向画像の定性的および定量的評価を行います。
論文 参考訳(メタデータ) (2021-02-16T11:01:55Z) - Counterfactual Generative Networks [59.080843365828756]
画像生成過程を直接監督せずに訓練する独立した因果機構に分解することを提案する。
適切な誘導バイアスを活用することによって、これらのメカニズムは物体の形状、物体の質感、背景を解き放つ。
その結果, 偽画像は, 元の分類タスクにおける性能の低下を伴い, 分散性が向上することが示された。
論文 参考訳(メタデータ) (2021-01-15T10:23:12Z) - Combining Similarity and Adversarial Learning to Generate Visual
Explanation: Application to Medical Image Classification [0.0]
学習フレームワークを活用して視覚的説明法を作成する。
文献のメトリクスを用いることで,この手法は最先端のアプローチよりも優れています。
大規模な胸部X線データベース上でのアプローチを検証する。
論文 参考訳(メタデータ) (2020-12-14T08:34:12Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z) - Self-Supervised Linear Motion Deblurring [112.75317069916579]
深層畳み込みニューラルネットワークは、画像の劣化の最先端技術である。
本稿では,自己監督型動作遅延に対する識別可能なreblurモデルを提案する。
我々の実験は、自己監督された単一画像の劣化が本当に実現可能であることを実証した。
論文 参考訳(メタデータ) (2020-02-10T20:15:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。