論文の概要、ライセンス

# (参考訳) 法医学的CNNに対する敵対攻撃の移動性に及ぼすクラス定義の影響 [全文訳有]

The Effect of Class Definitions on the Transferability of Adversarial Attacks Against Forensic CNNs ( http://arxiv.org/abs/2101.11081v1 )

ライセンス: CC BY 4.0
Xinwei Zhao and Matthew C. Stamm(参考訳) 近年、畳み込みニューラルネットワーク(CNN)は、画像改ざん検出などのフォレンジックタスクを実行するために研究者によって広く使用されています。 同時に、CNNベースの分類器を騙すことができる敵攻撃も開発されている。 敵対攻撃、すなわちの移動可能性を理解する。 訓練されたCNNと異なるCNNを攻撃する攻撃能力は、攻撃に抵抗するCNNを設計する上で重要な意味を持っています。 オブジェクト認識CNNへの攻撃は転送可能であると考えられているが、Barniらによる最近の研究。 法医学的なCNNに対する攻撃は、異なるデータセットを使用してトレーニングされた他のCNNアーキテクチャやCNNへの転送が困難であることを示している。 本論文では、事実上同一のCNNアーキテクチャ間でも、フォレンジックCNNに対する敵対攻撃が以前考えられていたよりもさらに少ないことを実証する! 画像操作を識別するために訓練されたCNNに対するいくつかの一般的な敵攻撃は、クラス定義にのみ差があるCNNへの転送に失敗することを示した。 同じデータを使ってトレーニングされた同じCNNアーキテクチャ)。 クラス定義の全ての定式化は不変なクラスを含むことに注意する。 これは、敵対的および反法医学的攻撃に対して堅牢な法医学的CNNの設計に重要な意味を持つ。

In recent years, convolutional neural networks (CNNs) have been widely used by researchers to perform forensic tasks such as image tampering detection. At the same time, adversarial attacks have been developed that are capable of fooling CNN-based classifiers. Understanding the transferability of adversarial attacks, i.e. an attacks ability to attack a different CNN than the one it was trained against, has important implications for designing CNNs that are resistant to attacks. While attacks on object recognition CNNs are believed to be transferrable, recent work by Barni et al. has shown that attacks on forensic CNNs have difficulty transferring to other CNN architectures or CNNs trained using different datasets. In this paper, we demonstrate that adversarial attacks on forensic CNNs are even less transferrable than previously thought even between virtually identical CNN architectures! We show that several common adversarial attacks against CNNs trained to identify image manipulation fail to transfer to CNNs whose only difference is in the class definitions (i.e. the same CNN architectures trained using the same data). We note that all formulations of class definitions contain the unaltered class. This has important implications for the future design of forensic CNNs that are robust to adversarial and anti-forensic attacks.
公開日: Tue, 26 Jan 2021 20:59:37 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
The Effect sarial Attacks Against Forensic CNNs Xinwei Zhao and Matthew C. Stamm; Drexel University; Philadelphia, PA, cnn xinwei zhaoとmatthew c. stammに対するサリアル攻撃の効果 : drexel university, philadelphia, pa 0.57
of Class Definitions on xz355@drexel.edu, mstamm@coe.drexel.ed u クラス定義の オン xz355@drexel.edu, mstamm@coe.drexel.ed u 0.68
the Transferability of Adver- 転送性 広告について- 0.53
1 2 0 2 n a J 6 2 ] V C . 1 2 0 2 n a j 6 2 ] v c である。 0.81
s c [ 1 v 1 8 0 1 1 . s c [ 1 v 1 8 0 1 1 ] である。 0.79
1 0 1 2 : v i X r a 1 0 1 2 : v i X r a 0.85
Abstract In recent widely image 概要 最近は広く image 0.74
tasks adversarial adversarial CNN than タスクの逆転 対訳 CNN 0.45
(CNNs) have networks neural convolutional years, such forensic perform to researchers by used been time, atthe as tampering detection. (CNN) はニューラルネットワークによる畳み込みの年月を持ち、研究者は長年にわたって、触覚検出として研究を行ってきた。 0.61
At same fooling CNN-based tacks have been developed that are capable of atof transferability the Understanding classifiers. 同時にCNNベースのタックが開発され、理解分類器を移動可能にすることができる。 0.55
different the to an i.e. tacks, a ability attack’s attack for designimplications important trained against, has it was one While attacks on object are ing CNNs that resistant to attacks. i.e.と違う tacksは、攻撃に抵抗するcnn(cnn)を攻撃しているとき、重要な訓練を受けた設計単純化のための攻撃だ。 0.60
work to are CNNs recognition recent be believed difattacks on forensic CNNs have shown that et al by Barni has trained CNN architectures other transferring ficulty to or CNNs we this In different using that adpaper, demonstrate on transferrable versarial attacks forensic CNNs even are less CNN identical even thought previously than virtually between – attacks We architectures! 最近、CNNの法医学的CNNに対するディフアタックとして、Barni氏らがCNNアーキテクチャをトレーニングし、他のアーキテクチャやCNNに移行したことを証明している。
訳抜け防止モード: CNNは最近、フォレンジックCNNのディファタックだと信じられている。 とBarniはCNNアーキテクチャを訓練しました。 CNNはこれと違う アドペーパーを使って トランスファー可能な多元的攻撃をフォレンジックCNNで実証することは、それまでに考えていたCNNとほとんど同じではありません - 攻撃私たちアーキテクチャ!
0.71
show that several adversarial to transagainst CNNs trained to identify image manipulation fail fer (i.e. 画像操作が失敗する(つまり、CNNが画像操作を識別するために訓練された)ことに対するいくつかの逆転を示す。 0.45
definitions class the in We CNN the data). 定義はデータをWe CNNで分類します)。 0.86
the using same contain definitions note all “unalthe the future design implications tered” class. 使用中は同じ定義を含んでおり、すべての "将来の設計含意が終了" クラスに注意を払っている。 0.58
for of adversarial to and anti-forensic attacks. 敵意と反法医学的攻撃の為です。 0.55
to CNNs whose same that CNNに投稿します。 0.80
formulations This has that is difference trained class 定式化 これは 差分訓練の授業です 0.60
architectures of important are robust 建築は 重要なことは 0.71
forensic CNNs transferrable, 法医学CNN 転送可能 0.58
datasets. common データセット。 共通 0.68
only Introduction detect ただ はじめに 検出 0.62
as shown contents are investigation ご覧の通り 内容は調査です 0.63
The top integrity and authenticity of multimedia concerns scenarios, such and criminal in many news [1]. マルチメディアのトップインテグリティと信頼性は、そのような多くのニュース[1]で犯罪的なシナリオを懸念します。 0.65
Research reporting has editing operathat many tions, [2] resizing or such as contrast leave [3], will enhancement unique Many behind. 研究報告にはオペラの編集があり、[2]サイズ変更、またはコントラスト休暇[3]のような多くの操作は、ユニークな多くの背景を強化します。 0.56
traces forensic debeen have algorithms veloped to or identify editing recent [4–15]. traces forensic debeenは最近の[4–15]を編集するアルゴリズムをvelopedまたは識別する。 0.74
In operations years, convolutional neural networks have been widely (CNNs) perform forensic by used to researchers tasks tamimage as such and detection [9, 16–18] pering source identification [19–21]. 運用年数において、畳み込みニューラルネットワーク(CNN)は、研究者のタスクを改ざんし、ソースの識別ごとに検出する[9, 16–18][19–21]を用いてフォレンジックを実行してきた。 0.69
intelligent an some In scenarios, may attempt to attacker attacks an launch adversarial to fool algorithms [22–26]. Inのシナリオでは、愚かなアルゴリズム [22–26] に対して攻撃的な攻撃を試みます。 0.76
Many adversarial have been be to able fool deep [27–35]. 多くの敵は深い[27-35]を騙すことができる。 0.73
learning based have Researchers already sign demonstrated fast (FGSM) method and [36] (GAN) generative adversarial [37, 38] based attacks can be to Therefore, used fool is it important to unadversarial limitations of capability and the the derstand attacks. 学習ベースの研究者は、すでに高速(FGSM)メソッドと[36](GAN)生成逆転 [37, 38]ベースの攻撃が可能であることを実証した署名を持っています。
訳抜け防止モード: 研究者が高速(FGSM)法にすでに署名している学習ベース and [ 36 ] (GAN ) generative adversarial [37。 38 ] ベースの攻撃は、従って、使用中の愚かさは、能力の非敵的制限と、それに基づく攻撃が重要である。
0.69
problems of is the well-known one pertainissues [39–42]. 問題はよく知られた問題[39–42]です。 0.70
attacks Transferability occur different attack attempts to CNN than a the attacks trained Since many against. トランスファービリティは、多くの攻撃に対して訓練された攻撃とcnnに対する攻撃とが異なる。 0.67
opboundaries the across examples adversarial to able to important is for the attacks be obthe the target respect to input 攻撃が入力に対してターゲットを遮られることに対する敵意が重要なものである。 0.61
Transferability adversarial ing to the when attacker one that were the pushing by erate it class, target of the serve the gradient of Transferability adversarial ing to the when attacker that was the push by it class, target of the serve the gradient of ♪ 0.69
gradient network forensic CNNs. 勾配ネットワーク法定CNN。 0.56
attacks algorithms that アルゴリズムを攻撃し 0.80
forensic found to classifier with 鑑識が見つけた 分類器 0.58
explicitly the data. 明確に はあ? データだ 0.57
However, when the CNN used to train the attack cannot mimic examples may can ancy しかし、cnnが攻撃の訓練に使った場合、例をまねることはできない。 0.68
boundaries be transferability 境界は転送可能である 0.54
not attacks’ reasons data 攻撃ではない」 理由データ 0.74
attacks adversarial be can transferability, it 相手は カンカン・トランスファービリティーを攻撃し 0.67
fully obtained adversarial the target CNN, the of that common Two transfer. ターゲットCNN、その一般的な2つの転送の完全に逆転を取得。 0.58
to able issues are training discrepdiscrepancy. 課題は訓練の欠如である。 0.49
transferability of the If information implications. If情報の意味の転送可能性。 0.63
an effects attacks attack. against researchers helps attacks could against object different 攻撃力は攻撃力。 研究者は 異なる物体に対する攻撃を 0.71
has discovbe can knowledge of feasible how be. ディスコブには 実現可能な知識があります 0.58
While previous research recognition CNNs can transusing architectures an shown atto different これまでの研究認識cnnは、異なるアーキテクチャを変換できるが 0.68
in multimedia by work Barni difficulty have or CNNs 仕事によるマルチメディアでは、barniの難易度やcnnは 0.56
shows forensics et has transferring Additionally, understand 鑑識等が 転校し また、理解する 0.62
trained trained using al. 訓練 訓練 利用 アル 0.56
or cause and CNN architecture Understanding security important negatively that ered defend CNNs used to transferability attack adversarial real-world shown that attacks has fer to different opposite attacks that tack other datasets In あるいは cause と CNN アーキテクチャ セキュリティ上の重要なことを理解する エルドディフェント CNN がトランスファービリティ攻撃に使われたことは、攻撃が他のデータセットに取り組む異なる反対の攻撃に関係していることを示している。
訳抜け防止モード: あるいは cause and CNN architecture understand security importantly that ered defend CNNs used to transferability attack adversarial real— World shows that 攻撃は、他のデータセットをタグ付けする異なる反対の攻撃を推測する。
0.81
attack data, result. on CNN 攻撃データ 結果 CNNで 0.63
CNNs with recent [43]. CNNの最新記事 [43]. 0.76
this research Specifically, forensic CNNs architectures これ 特に研究、フォレンジックCNNアーキテクチャ 0.66
attacks demonstrate that transferrable identical CNN 攻撃 デモ 転送可能な同一のCNN 0.59
common adversarial between CNNs whose (i.e. CNN間の共通の対立(すなわち) 0.80
We adversarial on we paper, than previously thought are forensic CNNs even less Particuarchitectures ! 私たち 以前考えられていたよりも、我々は紙に逆転、フォレンジックCNNは、さらに少ないParticuarchitectures ! 0.58
virtually – between even against attacks that larly, we discover several only differforensic CNNs fail to transfer same CNN architectures the definitions class in ence the is of formulations all that note data). 事実上 - 主に攻撃に対してさえも、我々は、同じCNNアーキテクチャを転送できないいくつかの唯一の異なるフォレンジックCNNを発見します 定義クラス すなわち、そのすべてのノートデータの定式化です)。 0.60
same using trained the the investigate “unaltered” the contain definitions class To class. 同じ方法で、調査対象のcontaind definitionsクラスをクラスに“変更”する。 0.70
atassume forensic CNNs, we on definitions of impact class that tacker knows every details of the CNNs, including the forensic informaonly missing CNN architecture. atassume forensic cnns, we on definitions of impact class that tacker knows all details of the cnns, including the forensic informaonly missing cnn architecture (英語) 0.74
data training and The three definition. データトレーニングと3つの定義。 0.79
attacker the tion the of is Next, we defined CNNs forensic definitions class typical image manipulation by grouping individual manipulation of parameterization indior that images attacked use vidual manipulation. attacker the tion the is Next, we defined CNNs forensic definitions class typical image manipulation by grouping individual operations of parametersization indior that images attacked usingvidual manipulation. (日本語版記事) 0.88
are the CNNs other the CNN to forensic by produced fooling fool the defined definition. cnn以外のcnnは、定義した定義を愚かに作り上げたcnnである。 0.65
We class the only whose difference sucscores transferability and attack cessful (SARs) (T-scores) to measure the and transferability of adversarial attacks. 我々は,SAR (Sucscores Transferability and attack cessful) (T-scores) の違いを分類し,敵対攻撃の移動性と移動性を測定する。 0.75
amount of experiments, we found that By conducting an extensive to other class definitions adversarial attacks are difficult the of a of (i.e grouping all ours is manipulation than robust slightly more implications important has two the for future to that are robust adversarial and 実験の量によって、他のクラス定義を幅広く行うことで、敵攻撃は、(例えば、我々のすべてのグループをグループ化することは、より頑丈な意味よりも操作である)1つの点で困難であることがわかった。 0.64
to transfer same CNN architecture. 同じCNNアーキテクチャを転送する。 0.69
Moreover, that binary classification of さらに、その二項分類。 0.77
performs one class) definitions. 1つのクラス)定義を実行する。 0.62
This forensic CNNs other the anti-forensic この法医学CNN その他の反法学 0.56
Then we one is into class design そして私達は クラスデザインに 0.69
rates success forensic CNNs 成功率 法医学CNN 0.61
class for secondary attacks. クラス 二次 攻撃だ 0.57
finding Background that assume attacker then launches and 発見 攻撃者が起動すると仮定する背景 0.68
to an images We an 画像に 私たち アン 0.56
applies some an adversarial editing operations attack attempted to 敵に逆らう 編集作業の攻撃は 0.49
英語(論文から抽出)日本語訳スコア
the has For はあ? あり のために 0.42
[37, 42]. attacker’s [37, 42]. 攻撃者 0.64
form class knowledge フォームクラス 知識 0.73
definitions. “unaltered” 定義。 unaltered」 0.62
a or not. investigator will そうでないか 捜査官は 0.62
forensic CNN to CNNのフォレンジック 0.64
several of the forensic manipulation いくつかは 法医学的操作 0.60
use unaltered unalteredの使用 0.80
The presented was shown investigator’s 提示された investigator (複数形 investigators) 0.64
detection. the image single 検出 イメージ・シングルは 0.63
the algorithm determines identification CNN, instance, アルゴリズムは 識別 cnn、例、 0.57
there an definior multiversions definitions デフィニオール・マルチバージョンの定義があります 0.71
or manipulated, multi-class individual manipulations, parameterized vs. Each above class または操作されたマルチクラス個別操作、パラメータ化 vs. 上のクラス 0.61
knowledge scenario research target attacks can knowledge scenarios 知識シナリオ 研究目標 攻撃は知識シナリオを 0.83
bypass the identify if For a to different ways exists binary unaltered decisions of vs of tions unaltered several class unaltered of definitions individual manipulations. 識別をバイパスする a が異なる方法で存在する場合、vs と vs の 2 つの不変決定が存在する。 0.53
of includes class. Near-perfect Previous pertaining to the how easy successful and depending Therefore, on be of the amount is it common to attackers, to accessible categorize the knowledge scenario and perfect the into knowledge partial knowledge is scenario The perfect scenarios. クラスを含む。 ほぼ完全な前例 成功の容易さと依存の程度に関連するため、攻撃者にとって一般的に、知識のシナリオを分類し、知識の部分的な知識に完全化することは、シナリオである。 0.73
can when attackers investigator’s the of every the observe detail investigaof identical algorithm or they can copy the obtain an algorithm. 攻撃犯が同一のアルゴリズムの詳細な調査を行う場合や、取得したアルゴリズムをコピーできる場合もあります。 0.75
tor’s knowledge Under the perfect scenario, attackers attack and their investigator’s CNN into the directly integrate can identificathe of the bypass explicitly the train attack detection knowlpartial as are scenarios other CNN. Torの知識 完璧なシナリオでは、攻撃者とその調査員のCNNを直接統合することで、他のCNNのシナリオと同様に、列車攻撃検出ノベルパーティルを明示的にバイパスを識別することができる。 0.69
All tion categorized has partial scenarios. 全ての分類は部分的シナリオを持つ。 0.72
edge Under knowledge scenarios, attackers no full access to the investigator’s CNN. edge 知識のシナリオでは、攻撃者は調査員のCNNに完全にアクセスできません。 0.65
As attackers a result, different capable is to have of attack trained their ensure fooling fails an If against. その結果、異なる能力を持つ攻撃者は、攻撃を訓練し、愚かがifに失敗することを保証する。 0.70
than CNNs attack trained Two of transferability to fool different CNNs, the occurs. CNNによる攻撃よりも、異なるCNNを騙すために2つのトランスファービリティを訓練した。 0.68
attack common reasons that attack’s transferability are the de[39, 43]. 攻撃の転送性がde[39, 43]である一般的な理由を攻撃せよ。 0.79
and CNN architectures pendencies attacks CNNのアーキテクチャーがペンダント攻撃 0.73
investigate To we definition, by duced class near-perfect the scenario, edge knows attacker scenario, the and also will CNN architecture only missing The investigator. 定義を調査するために、シナリオのほぼ完全なクラスを誘導することで、エッジは攻撃者のシナリオを知っており、CNNアーキテクチャも失われる。 0.61
the class target CNN (i.e definition of how the investigator forms tification CNN. CNN (class target CNN) は、CNNの分類方法の定義である。 0.77
). of transferability adversarial formulate a special knowledge scenario. ). 伝達可能性の逆は特別な知識シナリオを定式化する。 0.67
every details of the training identical use of information the attacker the for 攻撃者が入力した情報の 同一利用の訓練の詳細は 0.78
inknowlthis investigator’s the data as is attacker the does not know the forensic iden- inknowl this investigation’s data as as a attacker who not know the ensic iden. 0.80
that cause training data トレーニングデータや 0.46
the CNN explicitly the output classes CNNは明らかに 出力クラスは 0.80
partial Under partial~ 下 0.68
the of class the はあ? ですから クラス 0.45
the attacker, To investigate impact adversarial of we categorized three different attempting forensic CNNs forensic CNNs six different achieve baseline their implemented 3) We 攻撃者だ 我々は,CNNが実施した6つの異なる基準を達成できる3つの異なる法医学的CNNを分類した。 0.64
Investigation procedure on definition transferabilof procedure: following 1) used could be used class definitions that 2) We image to editing. 定義転置手続に関する調査手順: 1) 使用するクラス定義は、(2) 編集のためのイメージとして使用できる。 0.77
detection perform editing definiunder and obknowledge perfect each atevaluated only differknowledge of evalu- 検出は、evaluの認識の相違のみを評価済みの各々の完全な編集と確認を行う。 0.52
ity We by trained and tion. ity 私たちは訓練と配給によって。 0.55
tain their Successful Attack Rate (without scenario tack’s ability to is ence the class scenario, then our ate 成功した攻撃率を維持する(クラスシナリオをエンセントするシナリオタックの能力なしで)。
訳抜け防止モード: 成功した攻撃率(シナリオタックの能力なしで)をクラスシナリオに組み込む。 そして私たちの食事は
0.75
to performance two popular adversarial (SAR) in the transfer). 転送で2つの一般的な逆転(SAR)を実行する。 0.63
attempting 4) We CNN whose transfer an to identical definition used the in near perfect A results. 試行4)我々は、同じ定義への転送がほぼ完璧なAの結果で使用CNN。 0.65
the interpreted detailed procedure, as well as the metrics below. 解釈された詳細な手順と 下記の指標です 0.63
is provided experimental the 用意されている 実験で 0.60
description used class attacks 使用説明 クラス攻撃 0.76
identify attacks each to 識別 攻撃 各々 へ 0.71
Class definitions There several ways are identify sic CNN created to include definitions the クラス定義 そこ 定義を含むために作成されたsic CNNを識別するいくつかの方法 0.69
to define by image manipulation. 画像操作によって定義する。 0.70
While classes the その間 クラス はあ? 0.54
used forena class all classes may differ 使用 forenaクラス すべてのクラスが異なるかもしれない 0.66
“unaltered class” 「変わらず」 class」 0.67
other depending on if rameterizations class. その他 相対化のクラスによって。 0.57
class In this work, we consider definitions. クラス 本研究では、定義を考察する。 0.68
Manipulation used: grouped 使用操作:グループ化。 0.60
classes editing class know if クラスを編集します。 0.68
are is definition would an image has Manipulation classification: “unaltered” to assigned class is dividual editing operation. unaltered" to assigned class is dividual editing operation.is is definition if a image have Manipulation classification: “unaltered” to assigned class is dividual editing operation. 0.73
All together operation are grouped single be nition would used if the not has the been modified, but also wants image. すべての操作は単一のベニションでグループ化され、もしnotが修正されていれば使用されるが、イメージも欲しがる。 0.62
applied ual manipulation to the parameterization: Manipulation In is assigned to “unaltered” and separate パラメータ化に応用された ual 操作: manipulation in は “ unaltered” と separate に割り当てられる 0.88
image detection: class In “unaltered”. image 検出:class in "unaltered"。 0.75
“manipulated” “manipulated” into together be investigator used if been modified in any means. 操作された”操作された”は、何らかの方法で修正された場合、調査官が一緒に使用する。 0.30
definition, Any class. 定義、任意のクラス。 0.87
only this and the the only type ただ これと... タイプだけです 0.57
wants two of This to 欲しがる このうち二つは 0.67
multi-class In this class one along with of parameterizations class. multi-class このクラスではパラメータ化クラスと一緒に1つです。 0.70
into a This only wants investigator to know the 捜査員にしか知られないように 0.55
one case, each for inthat editing class defito know if individ- 1つのケースは、各編集クラスが不個別であるかどうかを知るために、 0.49
different manipulations, of manipulations, are 様々な操作、操作、 は 0.61
paone the following three different CNN paone the following three different cnn (英語) 0.63
as well grouped different into グループ化も 違うのは 0.65
as together class classes to each pair of manipulation and parameterization (or For rameterizations). 一緒に 各操作とパラメータ化(またはパラメータ化)のペアに対するクラスクラス。 0.79
filtering with a dow would separate be This window. dowでフィルタリングすると、このウィンドウが分離される。 0.78
class wants to know very or クラスはよく知りたいか 0.59
class definition detailed identify inconsistencies クラス定義 詳細識別の不一致 0.74
filtering with than median if used could be about information a 使用した場合は、中央値よりもフィルタリングします。 0.54
case, one this multi-class are assigned range of pa3x3 wina 5x5 investigator forger このマルチクラスは pa3x3 Wina 5x5 Researchigator Forger の範囲が割り当てられています。 0.59
in editing within an image. 画像内で編集することです 0.75
the possible example, median 可能性 例えば 中央値は 0.67
a Image forensic CNNs あ... 画像法医学CNN 0.40
we paper, examined DenseNet 私たち 紙だ 精査 DenseNet 0.69
[44], PHNet [44],PHNet 0.62
six well-known In this CNN architecincluding MISLnet tures, SR[45], [9], TransferNet Net [47] [46], the of some [48]. 有名6名 MISLnet turesを含むこのCNNアーカイブでは、SR[45]、[9]、TransferNetネット[47] [46]、いくつかの[48]。
訳抜け防止モード: 有名6名 このCNNアーカイブには、MISLnet tures, SR[45 ], [9 ]が含まれている。 TransferNet Net [ 47 ] [ 46 ], いくつか [ 48 ].
0.76
and VGG-19 While CNN architectures were vision steor computer for initially used ganalysis they can to train for tasks, forensics. そしてvgg-19 cnnのアーキテクチャは、当初はg analysisを使ってタスクのトレーニングを行うためのビジョンステアコンピュータだった。 0.73
be adapted image trained forensic CNNs using each CNN architecture, we For above three All CNNs were using same dataset (more Furthermore, CNNs with is provided in the architecture were same the hyperparameall for class definitions. 上記の3つのCNNは、同じデータセットを使用していました(さらに、アーキテクチャで提供されるCNNは、クラス定義のハイパーパラメオールと同じでした)。
訳抜け防止モード: 各CNNアーキテクチャを使用して画像訓練フォレンジックCNNを適応させる。 すべてのCNNは、同じデータセットを使用していました。 CNNsはアーキテクチャで提供されます。 クラス定義のハイパーパラメータは同じでした。
0.69
class trained created from the Dresden Image Database Dresden Image Databaseから生成されたクラス 0.78
the the detail the ters section). ターの細部は セクション)。 0.51
using definitions. trained results 利用 定義。 訓練 結果 0.71
same Adversarial attacks As a where 同じだ 逆境 攻撃 場所として 0.62
other) CNNs. (or targeted a fashion, target. その他) cnn。 または、ファッション、ターゲットを狙う。 0.63
images modified by an attack should To fool a forensic CNN, result, that “unaltered” as be classified by operate attacks used our work in the attack’s class “unaltered” the always is adversarial two well-known used We fast iterative the ments: gradient adversarial and attack the tack. 攻撃によって修正された画像は、法医学的なCNNを騙すべきであり、結果として、攻撃のクラスである"unaltered"で我々の作業を使用した操作によって分類された"unaltered"は、常によく知られた2つの敵である。 0.67
These two are forensics well (as scribed below. これら2つはフォレンジックである(後述)。 0.63
(targeted I-FGSM): sign method targeted fast gradient Iterative to noise by operates iteratively adding a small examples adversarial the to push and Iadv I (i.e this each unaltered class in At calculated with respect is (ターゲットI-FGSM): シグネチャメソッドは、t push と Iadv I の小さな例を反復的に追加することにより、ノイズに対する高速勾配反復を目標とする。
訳抜け防止モード: (ターゲットi - fgsm) : トプッシュに逆らう小さな例を反復的に加えることにより、雑音に反復する高速勾配を目標とする手話法 iadv i(つまり、計算された各未変更クラスは
0.76
attacks in sign method (GAN) used and sign method (GAN) における攻撃と使用 0.91
targeted generative attack methods as ターゲットとする生成攻撃方法 0.84
network very broader ML ネットワークは非常に広いML 0.69
our experi(I-FGSM) atbased in antideare アンチデアにおける実験(i-fgsm) 0.53
the original target to the iteration, the attacked image produced targeted I-FGSM attacks 攻撃された画像がターゲットのI-FGSM攻撃を生成します。 0.81
context). to the equation of 文脈)。 方程式に当てはまります 0.60
commonly community), 一般的なコミュニティ)。 0.66
It image classes gradient from previous is, 以前のisからの勾配をイメージします 0.62
iteration. The 繰り返しだ あらすじ 0.42
the I0 adv = I In+1 = In adv − ε × sign∇In adv adv はあ? I0 adv = I In+1 = In adv − ε × sign\In adv adv 0.61
J(In adv , yunaltered) J (adv で、 Yunaltered です。 0.76
(1) (2) (1) (2) 0.85
英語(論文から抽出)日本語訳スコア
where J(·) denotes label. ここで J(·) はラベルを表す。 0.68
n denotes the the loss index of function, nは 損失は 関数のインデックス。 0.63
iteration, ε denotes and yunaltered 反復, ε が意味し, ぎこちない 0.71
denotes target a 表記 ターゲット あ... 0.48
small number, class 小さい 番号・クラス 0.75
Generative Adversarial Network (GAN)-Based Attack: network produce Generative Adversarial Network (GAN) ベースの攻撃:ネットワーク生成 0.88
operates method training generator and then the generator unaltered statistics of the can mimic メソッドトレーニングジェネレータとcanの未変更統計を模倣するジェネレータを運用する 0.68
GAN-based obtain image GANに基づく取得画像 0.73
GAN to by uses ガント 利用によって 0.43
images. a that A traditional GAN [28] 画像。 伝統的なGAN[28]。 0.66
a is I∼pr (I)[log D(I)] + E あ... は I*pr (I)[log D(I)] + E です。 0.50
trained using a min-max function, Iadv∼pg(Iadv)[log(1 − D(Iadv))] min-max 関数を使用して訓練された Iadv\pg(Iadv)[log(1 − D(Iadv))] 0.91
(3) to an min G (3) アンに min G 0.75
max D E where G denotes distribution of denotes the adversarial distribution of taking expected value. 最大D へえ ここで G は期待値の逆分布を表す分布を表す。 0.65
the generator, D denotes ジェネレータ、Dが示す 0.58
unaltered images images, and E denotes 未修正画像 image と E が示します 0.78
the discriminator, denotes operation 動作を意味する識別器 0.66
pg(Iadv) the pg (複数形 pgs) 0.77
pr(I) the of pr (複数形 prs) 0.59
a the and あ... はあ? そして 0.41
discriminator discriminator 0.85
camera of model three major カメラ モデル3メジャー 0.57
fooling consisted and We adopted MISLGAN method which was has been initially CNNs [34]. 愚かな行為は 当初CNNであったMISLGAN法を採用した[34]。 0.52
identification generator, a components, pre-trained forensic CNN. 識別ジェネレータ、コンポーネント、事前訓練されたcnn。 0.55
While the generas fashion the same to force the generinformation forensic the manipulation detection synthetic CFA removing paper, page of the about and original paper. 遺伝子は同じファッションで、遺伝子情報フォレンジックを強制的に操作検出合成CFA除去紙、約のページおよびオリジナルペーパーを削除します。 0.65
designed for MISLGAN is a discriminator ator the traditional GAN, can mimic that image to produce ator an of To attack the “unaltered” image. MISLGANのために設計されたこの画像は、従来のGANの差別化エーターであり、その画像を模倣して“修正されていない”イメージを攻撃できる。
訳抜け防止モード: MISLGAN用に設計された 従来のGANは イメージを模倣できる to produce ator an of To attack the "unaltered ” image。
0.73
CNNs, we modified MISLGAN by to module the in advise we details loss formulation of MISLGAN in the Evaluation metrics cnns,我々はmislganをモジュール化することで修正した。 評価指標におけるmislganの損失定式化の詳細についてアドバイスする。 0.50
the introduced the the introduced―the introduced 0.64
the architecture are pre-trained 建築は is pre‐trained 0.68
generator. readers to the limitation 発電機だ 読者は 限界は 0.71
trained is Due find the the 訓練は 捜し出して その... 0.50
in We define the evaluate the classifiers. で 分類器の評価を定義する。 0.73
to against to against ~ 0.83
the successful performance 成功したパフォーマンス 0.87
attack rate and and transferability score attack 攻撃率と 転移性スコアアタックは 0.65
the transferability of はあ? 転送性 ですから 0.50
Successful the anti-forensic 抗法医学を成功させる 0.42
of tion CNNs, we ages this a stronger SARs. tion CNNsでは、これはより強力なSARです。 0.81
are percentage classified as resistance パーセンテージは 抵抗として分類される 0.53
attack rate (SAR): To evaluate manipulation crafted against images that percentage the the calculated by “unaltered” CNN, each rate attack anti-forensic 攻撃率(SAR):CNNが計算した画像に対する操作を評価するために、各レートが反法医学攻撃を行う。 0.81
adversarial and (SAR). adversarial および (SAR)。 0.75
CNNs attack should performance detecimdefine have lower cnnの攻撃は 性能のデテクテンデフィンは低い 0.64
as successful to we that have 成功して 私たちには 0.71
the an is an the はあ? アン は えッ? 0.49
classifier unknown (T-Score): 分類器 不明 (Tスコア): 0.69
Transferability score calculated over 転送性スコア 計算すると 0.63
To transferability the SAR of the SARを転送可能にします。 0.64
evaluate as score known classifier. スコア既知の分類器として評価する。 0.50
transferability, we the known classifier classifier unknown the classifying for used by created the attack an result, when attack. 転送可能性 既知の分類器は 攻撃時に 攻撃結果を作成して 使用された分類器を知らない 0.73
As a ferability, the high. 受精率として、高い。 0.46
Otherwise, should be transferability score transferability would For low. さもなければ、転送性スコア転送性が低いはずです。 0.56
all example, when images by fooling forensic CNN can fool one produced seen CNNs, transferability score the out point to transferability the that It be can higher 1. than because more effective on the unknown typically when fiers, known the the attack. 例えば、法医学的なCNNを騙すことで画像が生成したCNNを騙すことができる場合、トランスファービリティーは、攻撃を知っており、未知の状況においてより効果的であるため、トランスファービリティーは、転送可能性のアウトポイントをスコアする。 0.55
attack’s SAR of The is directly used when launching the attack and the images transthe adversarial other unlike We would to 1. and be positive should be attack may adversarial than the known classito are more 攻撃のSARは、攻撃を起動するときに直接使用され、画像は1に私たちとは異なり、他の逆転を横断し、正になるべき攻撃は、既知のクラシトよりも逆転する可能性があります。 0.65
equals score the adversarial good スコアは等しく 敵対的善 0.61
classifiers classifiers resistant 分類器 分類器 耐性 0.65
has be is Experiments conducted a of multiple Our taken あり な は 実験は複数の撮影を行い 0.59
We ferability tectures. 私達はferability tectures。 0.70
images database by 画像 データベースバイ 0.71
27 series of experiments several against attacks is created using 27 いくつかの攻撃に対する一連の実験は 0.82
camera models from カメラ モデル from ~ 0.75
to evaluated the transforensic CNN archiJPEG 84,810 the Image Transforensic CNN archiJPEG 84,810 の画像を評価します。 0.73
full-size Dresden フルサイズドレスデン 0.60
1 for the 1 ですから はあ? 0.58
cost [49] there コスト [49] そこ 0.77
Table range shows テーブル 範囲 ショー 0.74
patches classes. (images パッチ クラス。 (画像) 0.68
detector). reasonable (manipulation 検出器)。 合理的 (操作) 0.65
computational constraints, we each manipulation. 計算 制約は 各操作。 0.55
over up-to-date up‐to‐date 0.48
training, 10% for validation and 10% for トレーニングは10% 検証は10% 検証は10% 0.77
patches. image classes 16 obtained パッチ。 画像クラス16取得。 0.71
that same the manipulated and five parameters 操作された5つのパラメータが 0.64
unaltered the Along with to unaltered corresponding parameterizer). unaltered the along with to unaltered corresponding parameterizer)。 0.74
are from 70 unique devices). 70のユニークなデバイスから)。 0.70
We randomly Database testing. ランダムにデータベーステストを行います。 0.63
selected 80% for into non-overlapping 256 by 256 images Next, we divided the full are result, we a ensure As each image set. 選択した80%をオーバーラップしない256×256画像に分割すると、全結果が分割され、各画像セットが保証される。 0.72
for image same no image patches coming from the set from the statistics. 画像は同じで、統計からセットからイメージパッチが来ません。 0.73
To and create image share the same patches, we that three manipulations selected span a Then we manipulated each image patch in the database and obtained 15 unique sets of manipulated image vs classes, we paThese rameterized manipulations images were also grouped into 4 classes of unaltered vs individual (manipulation classifier), and 2 classes of unaltered manipulations vs manipulated (manipulation choand parameters we used to created manipulated sen manipulations image Due to limited to three manipulations with five parameterizations each. To and create image share the same patches, we that three manipulations selected span a Then we manipulated each image patch in the database and obtained 15 unique sets of manipulated image vs classes, we paThese rameterized manipulations images were also grouped into 4 classes of unaltered vs individual (manipulation classifier), and 2 classes of unaltered manipulations vs manipulated (manipulation choand parameters we used to created manipulated sen manipulations image Due to limited to three manipulations with five parameterizations each. 0.87
ourselves Since we used 5 parameters per manipulation to create forged imJPEG images in ages, we created total in bar with the which are training CNNs. 私達自身は、鍛造されたimJPEG画像を作成するために操作ごとに5つのパラメータを使用したので、我々はCNNを訓練しているバーで合計を作成しました。
訳抜け防止モード: 操作ごとに5つのパラメータを使用して偽造imJPEG画像を作成しました。 私たちはCNNを訓練しているバーで合計を作成しました。
0.66
Table 1: Editing operations and their associated parameters. 表1:操作とその関連パラメータを編集します。 0.80
Manipulations Additive Gaussian white Gaussian blurring Median filtering Baseline performance of 加算ガウス白色ガウスぼやけた中央フィルタリングベースライン性能の操作 0.63
Parameters µ = 0,σ = 0.5, 1, 1.5, 2, 2.5 σ = 1, 1.5, 2, 2.5, 3, 3.5, 4, 4.5 window size= 3, 5, 7, 9, 11 forensic CNNs six using CNN was optimizer μ = 0,σ = 0.5, 1, 1.5, 2, 2.5 σ = 1, 1.5, 2, 2.5, 3, 3.5, 4, 4.5 ウィンドウサイズ= 3, 5, 7, 9, 9, 11 cnns six using cnn was optimizer
訳抜け防止モード: Parameters µ = 0,σ = 0.5, 1, 1.5, 2, 2.5 σ = 1, 1.5, 2, 2.5, 3, 3.5, 4, 4.5 ウィンドウサイズ= 3, 5, 7, 9 , 11 forensic CNNs 6 using CNN was optimizationr
0.90
CNN arby started forensic training trained and chitectures three definitions. CNNアービーは法医学の訓練を開始し、3つの定義を定義した。 0.49
class 43 for scratch from using gradient stochastic accuracies started deepochs and would if stop early validation and 0.0005 would decreasing. 43番クラスは グラディッシュ・確率的確証の使用から ひっかき傷が 深まり始めた 早期検証が止まれば 0.0005 が減少する 0.61
started rate learning with 25. 25歳から 率学習を始めました 0.62
On average, we crease Batch size was every 4 epochs. 平均して、バッチサイズは4エポック毎でした。 0.59
detector, 98.52% achieved 99.29% accuracy using manipulation 77.93% for manipulation paramfor manipulation classifier, and state-of-art perforeterizer. 98.52%の検出器は、操作 77.93% で操作 99.29% の精度を達成した。
訳抜け防止モード: 検出器98.52% 精度99.29% operation 77.93 % for operation paramfor operation classifier, and state - of - art perforeterizer.
0.72
These results are consistent with the Table 2 demonstrates clasdetection. これらの結果はテーブル2と一致している。 0.65
mance for manipulation by achieved sification trained manipulation detection CNNs. sificationの訓練された操作の検出CNNsによって操作のためのmance。 0.52
of CNN architecture one corresponds and class Table accuracies 2: CNN architectures and three class definitions. CNNアーキテクチャの1つは、CNNアーキテクチャと3つのクラス定義であるTable accuracies 2に対応する。 0.70
CNN Architect. CNNアーキテクト。 0.75
accuracies Each entry definition. accuracies 各エントリ定義。 0.68
Baseline CNNs Each decent ベースライン CNNはそれぞれまともだ 0.71
1,000,000 data The to half 10万データ 半分まで 0.60
classification sized for Manip. 分類 サイズは Manip 0.64
Parameterizer Manip. パラメーター Manip 0.62
Classifier full size Manip. 分類 全サイズ Manip 0.64
Detector achieved pairing 検出器 達成 ペアリング 0.66
noise We the 騒音 私たち はあ? 0.56
six by MISLnet TransferNet 六 で MISLnet TransferNet 0.74
PHNet SRNet DenseNet VGG-19 Average PHNet SRNet DenseNet VGG-19 平均値 0.75
BC 99.84% 99.20% 99.58% 99.16% 98.13% 99.87% 99.29% 紀元前 99.84% 99.20% 99.58% 99.16% 98.13% 99.87% 99.29% 0.61
99.55% 98.04% 98.94% 99.36% 95.66% 99.50% 98.51% 99.55% 98.04% 98.94% 99.36% 95.66% 99.50% 98.51% 0.61
86.24% 65.27% 86.58% 81.30% 65.50% 82.67% 77.93% 86.24% 65.27% 86.58% 81.30% 65.50% 82.67% 77.93% 0.61
attacks Launching adversarial images of set creating used We randomly we testing set, attacks. attack 使用済みセット作成の逆画像の起動 セット、攻撃をランダムにテストします。 0.72
come equally patches that nipulated form the Then we used the image attack set. 次に、イメージアタックセットを使用しました。 0.32
the in patch image attack attack tack each class. インパッチ・イメージ・アタックで 各クラスを攻撃。 0.77
targeted “unaltered” As a result, we obtained anti-forensically attacked images. その結果、我々は反法医学的に攻撃された画像を得ました。 0.52
started by From the image classes to to methods まずはイメージクラスからメソッドへ 0.56
the for selected 6,000 mafrom 15 manipulated attwo set and 216,000 選抜された6,000ma from 15 操作された attwo セットと 216,000 0.60
evaluating at 評価 に 0.71
英語(論文から抽出)日本語訳スコア
be be 0.1 image a な な 0.1 image a 0.62
each training equation For targeted 各訓練は 対象とする方程式 0.67
chose ε in to 100. generator ε を 100 に選択する。 ジェネレータ 0.70
I-FGSM, we attack by I-FGSM、攻撃する 0.81
targeted For to iteration the started we attack, each forensic CNNs, for class tered” each patch generator to attack randomly selected generator, we the set training equally that from the patches the GAN-based We image. 攻撃開始を反復するために、各フォレンジックCNNは、各パッチジェネレータがランダムに選択されたジェネレータを攻撃する「クラスtered」のために、私たちはパッチからGANベースのWeイメージを等しくトレーニングします。 0.64
ulated trained rameters original MISLGAN in the paper al [34]. 紙アル[34]で規制された訓練されたラメータオリジナルMISLGAN。 0.64
Baseline performance of adversarial 対戦相手のベースライン性能 0.80
to and the GAN-based “unalthe trained and then we used the To in set. とGANベースの“unalthe training and then we used the To in set”。 0.72
train 360,000 manipulated image from 15 manippaet 列車3万6千 マニパエの映像を操り 0.51
come attacked authored using by 攻撃を受けて 使って 0.60
the Chen image attack チェン image 攻撃 0.68
the at Table I-FGSM attack on manipulation classifiers and parameterizers. はあ? に 表I-FGSM 操作分類器とパラメータ化器に対する攻撃。 0.57
Transferability targeted of 転送性 ターゲット ですから 0.62
5: re-targeting 5: re‐targeting 0.71
CNN Architect. CNNアーキテクト。 0.75
Manip. Classifier Manip. Manip 分類 Manip 0.55
Parameterizer Manip. パラメーター Manip 0.62
Classifier Manip. Parameterizer 分類 Manip パラメーター 0.64
Successful Attack Rate Transferability Score 攻撃成功率 転移性スコア 0.66
MISLnet TransferNet PHNet SRNet DenseNet VGG-19 Average MISLnet TransferNet PHNet SRNet DenseNet VGG-19 平均値 0.81
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0.85
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0.85
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0.85
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0.85
Table I-FGSM attack on manipulation classifiers and parameterizers. 表I-FGSM 操作分類器とパラメータ化器に対する攻撃。 0.61
Transferability targeted of 転送性 ターゲット ですから 0.62
6: re-targeting 6: re‐targeting 0.71
attacks CNN Architect. 攻撃 CNNアーキテクト。 0.76
Manip. Detector Manip. Manip 検出器 Manip 0.57
Parameterizer Manip. パラメーター Manip 0.62
Detector Manip. Parameterizer 検出器 Manip パラメーター 0.65
Successful Attack Rate Transferability Score 攻撃成功率 転移性スコア 0.66
In this adversarial of the were trained CNN. この敵対者ではCNNを訓練された。 0.64
forensic perfect has the CNNs (i.e. フォレンジックパーフェクトはCNN(すなわち)を持っている。 0.49
performance like experiment, we would attacks forensic CNNs when the against of at target the class each attacker the to corresponds the data of investigator’s and full definition). 実験のようなパフォーマンス、我々は攻撃します フォレンジックCNNs ターゲットを攻撃する各攻撃者は、調査者のデータと完全な定義に対応するクラスを攻撃します)。 0.73
“unaltered” scenario when training class 授業中の「変わらず」シナリオ 0.65
directly It knowledge including CNN architecture 直接it知識は CNNアーキテクチャを含む 0.79
attacks to show the and the 攻撃する 見せて そして 0.60
to Table forensic CNNs. へ テーブル鑑定CNN。 0.59
3: Baseline performance 3: ベースライン パフォーマンス 0.79
of targeted ですから ターゲット 0.60
I-FGSM against CNN Architect. I-FGSM 反対 CNNアーキテクト。 0.62
Manip. Detector Successful Attack Rate Manip. Manip 検出器 攻撃率操作に成功。 0.64
Classifier Manip. Parameterizer 分類 Manip パラメーター 0.64
MISLnet TransferNet MISLnet TransferNet 0.85
PHNet SRNet DenseNet VGG-19 Average PHNet SRNet DenseNet VGG-19 平均値 0.75
1.00 0.99 0.87 0.88 0.63 0.85 0.87 1.00 0.99 0.87 0.88 0.63 0.85 0.87 0.43
1.00 1.00 0.96 0.78 0.98 1.00 0.95 1.00 1.00 0.96 0.78 0.98 1.00 0.95 0.43
1.00 1.00 1.00 1.00 0.91 0.98 0.98 1.00 1.00 1.00 1.00 0.91 0.98 0.98 0.43
MISLnet TransferNet PHNet SRNet DenseNet VGG-19 Average MISLnet TransferNet PHNet SRNet DenseNet VGG-19 平均値 0.81
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0.85
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0.85
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0.85
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0.85
Table on manipulation detectors and classifiers. 操作の探知器および分類器のテーブル。 0.69
Transferability targeted of 転送性 ターゲット ですから 0.62
7: I-FGSM attack 7: I-FGSM攻撃 0.77
re-targeting re‐targeting 0.58
CNN Architect. CNNアーキテクト。 0.75
Manip. Detector Manip. Manip 検出器 Manip 0.57
Classifier Manip. Detector 分類 Manip 検出器 0.63
Manip. Classifier Successful Attack Rate Manip 分類 攻撃成功率 0.64
Transferability Score MISLnet TransferNet PHNet SRNet DenseNet VGG-19 Average 転移性スコア MISLnet TransferNet PHNet SRNet DenseNet VGG-19 平均値 0.69
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0.85
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0.85
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0.85
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0.85
Table attack manipulation classifiers and parameterizers. テーブルアタック操作の分類器とパラメタライザー。 0.73
Transferability GAN-based 転送性 GANベース 0.65
of 8: re-targeting ですから 8: re‐targeting 0.65
on performance オン パフォーマンス 0.72
of GAN-based ですから GANベース 0.60
attack against CNN Architect. 攻撃 反対 CNNアーキテクト。 0.68
Manip. Classifier Manip. Manip 分類 Manip 0.55
Parameterizer Manip. パラメーター Manip 0.62
Classifier Manip. Parameterizer 分類 Manip パラメーター 0.64
Successful Attack Rate Transferability Score 攻撃成功率 転移性スコア 0.66
Table forensic CNNs. テーブル鑑定CNN。 0.54
4: Baseline CNN Architect. 4: ベースライン CNNアーキテクト。 0.77
Manip. Detector Successful Attack Rate Manip. Manip 検出器 攻撃率操作に成功。 0.64
Classifier Manip. Parameterizer 分類 Manip パラメーター 0.64
MISLnet TransferNet MISLnet TransferNet 0.85
PHNet SRNet DenseNet VGG-19 Average PHNet SRNet DenseNet VGG-19 平均値 0.75
0.55 0.81 0.90 0.88 0.90 0.71 0.79 0.55 0.81 0.90 0.88 0.90 0.71 0.79 0.43
0.95 0.84 0.97 0.90 0.94 0.97 0.93 0.95 0.84 0.97 0.90 0.94 0.97 0.93 0.43
0.84 0.98 0.94 0.82 0.94 0.96 0.91 0.84 0.98 0.94 0.82 0.94 0.96 0.91 0.43
3 the the obtained 3 はあ? はあ? 取得 0.55
SARs we Table 4 using sars we 表 4 の使用 0.76
detectors using with withを使用する検出器 0.61
Table and forensic CNNs is テーブルと法医学CNNは 0.67
show I-FGSM and GAN-based I-FGSM と GAN ベースの表示 0.57
targeting at One definition. 0.87 SAR with Manipulation I-FGSM attack 一つの定義を狙う。 0.87 SAR 操作 I-FGSM 攻撃 0.73
for attacks. a particular average, using classifiers and 0.90 攻撃のために 分類器と0.90を用いる特定の平均 0.75
SAR when class fooled attack. SAR クラスが攻撃をだますとき。 0.74
using And manipulation I-FGSM and under I-FGSM の使用と操作 0.73
ing individual entry and CNN architecture be tion can GAN-based 0.68 SAR fooled 0.95 ing GAN-based attack. ing individual entry and CNN architecture be tion can be GAN-based 0.68 SAR fooled 0.95 ing GAN-based attack。 0.70
0.98 SAR using fooled with First we attack. 0.98 SAR using fooled with First we attack。 0.92
based scenarios, attacks both Second, we noticed that ulation definitions. シナリオに基づいて、両方の攻撃を行いました。 0.52
the manipulation detector using DenseNet other to over GAN-based for detector for ply ply用検出器用gan上への密度ネットを用いたマニピュレーション検出器 0.68
foolEach pair of manipulaI-FGSM and be usparameterizers be 0.91 SAR using GANknowledge the high SARs. foolEach a pair of manipulaI-FGSM and be usparameterizers is 0.91 SAR using GANknowledge the high SAR。 0.81
fooling manipclass other targeted I-FGSM achieved 0.63 SAR on compared architecture, two definitions. 他のターゲットI-FGSMは比較アーキテクチャで0.63 SARを達成した。 0.67
class fooling manipulation 0.85 SAR to over results may imto adversarial クラスだまし操作0.85 SARは結果に反抗する可能性がある 0.69
noticed can fool for both attacks SARs than どちらの攻撃もSARを騙すことができる 0.77
using MISLnet two the manipulation MISLnet を使った2つの操作 0.66
that perfect forensic CNNs with 完璧なフォレンジックCNNは 0.52
compared These robust これらのロバストを比べて 0.42
architecture, class detectors アーキテクチャ、クラス検出器 0.75
definitions. are more 0.90 SARs attack 定義。 より多く 0.90 SAR攻撃 0.73
can SAR can for achieved SARは可能か? 達成するために 0.60
fooling that fooling 0.55 だまされて 0.55をだまし 0.56
For example, consistently the SAR 例えば、 一貫して SAR 0.50
detectors for the lower 検出器 その為 低い 0.60
other two the the その他 二 はあ? はあ? 0.49
are MISLnet TransferNet PHNet SRNet DenseNet VGG-19 Average は MISLnet TransferNet PHNet SRNet DenseNet VGG-19 平均値 0.75
0.004 0.008 0.275 0.420 0.005 0.020 0.122 0.004 0.008 0.275 0.420 0.005 0.020 0.122 0.43
0.045 0.005 0.120 0.000 0.010 0.090 0.045 0.045 0.005 0.120 0.000 0.010 0.090 0.045 0.43
0.007 0.010 0.306 0.477 0.008 0.024 0.139 0.007 0.010 0.306 0.477 0.008 0.024 0.139 0.43
0.082 0.006 0.133 0.000 0.016 0.106 0.057 0.082 0.006 0.133 0.000 0.016 0.106 0.057 0.43
Table attack manipulation detectors and parameterizers. テーブル攻撃検知器およびパラメーター装置。 0.80
Transferability GAN-based 転送性 GANベース 0.65
of 9: re-targeting ですから 9: re‐targeting 0.65
on CNN Architect. オン CNNアーキテクト。 0.70
Manip. Detector Manip. Manip 検出器 Manip 0.57
Parameterizer Manip. パラメーター Manip 0.62
Detector Manip. Parameterizer 検出器 Manip パラメーター 0.65
Successful Attack Rate Transferability Score 攻撃成功率 転移性スコア 0.66
MISLnet TransferNet PHNet SRNet DenseNet VGG-19 Average MISLnet TransferNet PHNet SRNet DenseNet VGG-19 平均値 0.81
0.090 0.000 0.000 0.050 0.000 0.525 0.111 0.090 0.000 0.000 0.050 0.000 0.525 0.111 0.43
0.035 0.000 0.055 0.005 0.000 0.260 0.059 0.035 0.000 0.055 0.005 0.000 0.260 0.059 0.43
0.095 0.000 0.000 0.056 0.000 0.541 0.115 0.095 0.000 0.000 0.056 0.000 0.541 0.115 0.43
0.037 0.000 0.057 0.006 0.000 0.268 0.060 0.037 0.000 0.057 0.006 0.000 0.268 0.060 0.43
Table of GAN-based manipulation detectors and classifiers. GANベースの操作検出器と分類器の表。 0.62
Transferability 10: attack 転送性 10: 攻撃 0.76
re-targeting re‐targeting 0.58
on CNN Architecture オン CNNアーキテクチャ 0.71
Manip. Detector Manip. Manip 検出器 Manip 0.57
Classifier Manip. Detector 分類 Manip 検出器 0.63
Manip. Classifier Successful Attack Rate Manip 分類 攻撃成功率 0.64
Transferability Score MISLnet TransferNet PHNet SRNet DenseNet VGG-19 Average 転移性スコア MISLnet TransferNet PHNet SRNet DenseNet VGG-19 平均値 0.69
0.365 0.000 0.065 0.350 0.535 0.235 0.259 0.365 0.000 0.065 0.350 0.535 0.235 0.259 0.43
0.035 0.000 0.490 0.440 0.135 0.185 0.214 0.035 0.000 0.490 0.440 0.135 0.185 0.214 0.43
0.435 0.000 0.069 0.427 0.588 0.240 0.290 0.435 0.000 0.069 0.427 0.588 0.240 0.290 0.43
0.042 0.000 0.521 0.537 0.148 0.189 0.240 0.042 0.000 0.521 0.537 0.148 0.189 0.240 0.43
under attacks knowledge Transferability of adversarial evaluated under ~ 敵の知識伝達能力に対する攻撃評価 0.68
experiment, we perfect scenario. 実験して 完璧 シナリオ 0.61
attacks the the In versarial nition of we used 攻撃する はあ? 我々 が使用する多元的な nition で。 0.52
this against attacks the target CNNs forensic CNNs この攻撃はCNNのフォレンジックCNNを攻撃し 0.68
forensic CNNs when is built with 法医学的なCNNが構築されるとき 0.48
For other changed. only その他 変わった ただ 0.64
performance the of the addeficlass each CNN architecture, class clas- パフォーマンス CNN アーキテクチャ、クラス clas の addeficlass です。 0.59
definitions to 定義 へ 0.71
英語(論文から抽出)日本語訳スコア
the the table はあ? はあ? テーブル 0.49
shows trained adversarial if 訓練されたショー 敵対者なら 0.50
images adversarial images adversarial 0.85
detector, we of MISLnet 検出器、MISLnetの私たち。 0.52
used to classify these これらを分類するために 0.52
by two the SARs of and SARとSARの2つによって 0.64
produced by individual to produced images were the manipulation attacked 個人が生成した画像は 操作が攻撃され 0.74
For attack. sify the fool a MISexample, classifiers Lnet manipulation parameterizers images. 攻撃のため。 sify the fool a misample, classifiers lnet manipulation parameterizers image. (英語) 0.79
and Table 5 - 10 show the successful attack rates and transferabilleft attacks. そしてテーブル5 - 10は成功した攻撃率およびtransferabilleft攻撃を示します。 0.81
The adversarial scores side achieved ity pairing particular one fooling of each of shows side and definition, the right of each CNN architecture class respect definition with each class to the T-Scores table of Table 5-7 shows for targeted Ithe definition. 敵対的なスコア側は、各々のショーと定義の特定の1つをだまし、各々のCNNアーキテクチャクラスの尊重の定義の右は、テーブル5-7のTスコアテーブルに、ターゲットItheの定義を示しています。 0.75
class are and T-scores re-targeting 0’s when FGSM attack, SARs both It means the targeted I-FGSM attack on different class definitions. クラスは FGSM 攻撃時に 0 を再ターゲットする T スコア、SAR の両方 異なるクラス定義に対するターゲット I-FGSM 攻撃を意味します。 0.81
definitions. class cannot average SARs the attack, are less than 26% than less are T-scores 0.30. 定義。 クラスは攻撃の平均sarsができないが、t-scores 0.30よりも26%少ない。 0.77
Shown in Table slightly trained transfer when attacks can definitions architecCNN and of class only cases we tested, 4 cases cases are less then 0.1. テーブルに示すように、攻撃がarchiteccnnを定義することができる場合、クラスのみのテストケースでは、4つのケースは0.1未満です。 0.66
The attack were the GAN-based arusing DenseNet However, detectors. 攻撃はGANベースのArusing DenseNetですが、検出器でした。 0.60
that account class defresults demonstrated definiclass across im- その説明クラスdefresultsはim全体でdefiniclassを実証した- 0.53
transfer to other For GAN-based the and the GAN-based 8-10, paring particular with 36 Among the transferability tures. 他への転送 GANベースと GANベースの8-10は、トランスファービリティのチャールのうち、36に特化している。 0.52
over 0.5 T-scores 20 achieved T-score was achieved when highest manipulation trained to re-targeted chitecture, 40% SAR drop there still only inition was that attacks tions. 0.5以上のTスコア20がTスコアを達成し、最高の操作が再ターゲットキテクチャを訓練したときに達成されました。 0.59
Changing class pact from adversarial 敵対者からクラス協定を変更する 0.58
changed cannot definitions would significantly mitigate attacks. 変更できない定義は攻撃を著しく軽減する。 0.81
parameterizer at manipulation in These well 操作時のパラメータ化器 0.52
fool then over the adversarial 愚かで 敵を乗り越えて 0.63
factor. transfer 要因だ transfer~ 0.66
average taken that 平均 取られた あれ 0.62
and is of そして は ですから 0.66
we investigated Conclusion paper, this In transferability of the tions on the shown that has research architectures different CNN across are attacks adversarial ered that less by Particularly, thought. 私たち 調査 結論論文、これ CNNの異なる研究アーキテクチャが横断している図上の行為の移管可能性は、特に考えることの少ない敵対的攻撃です。 0.63
the only changing significantly decrease can forensic CNN, we of attacks. 大幅に減少する唯一の変化は、CNNの法医学的攻撃だ。 0.63
The attacks adversarial multiple finding secondary a chitectures. 攻撃は敵対的な複数の二次アキテクチャーを見つけます。 0.51
Besides, adversarial robust to be more definitions may lower SARs Particularly, when are the perfect scenario. さらに、より定義に固執する敵は、特に完璧なシナリオである場合、sarsを低くする可能性がある。 0.54
knowledge under definiimpact class the previous attacks.While adversarial transfer attacks cannot adversarial we data, or discovtraining previously than transferable definition class of a performance the the consistent when using attack many well-known CNN arclass others. 知識は definiimpactクラス 前回のアタック.adversarial transfer attackでは、weデータに逆らうことはできないが、パフォーマンスの転送可能な定義クラスよりも前にディスラプトできない。 0.68
detection that attacks binary 検出 バイナリーを攻撃し 0.68
finding to some than adversarial 見つけ出す 他にも 敵 0.61
fooling shows holds 愚か者 ショー 保持 0.66
the of Acknowledgment based under conclusions those the はあ? ですから それらの結論に基づく承認。 0.46
Science findings, material of views This material Force Research PGSC-SC-111346-03. 科学の発見、ビューの材料 この物質的な力の研究PGSC-SC-111346-03。 0.53
distribute reproduce any contained as either いずれかの属する再生物を配布する 0.51
Air ber to and notwithstanding conclusions not or Force Research Laboratory 結論に拘わらずエアバー又はフォース研究所 0.58
be interpreted endorsements, This material is Foundation and are and do not the National Science Foundation. 支持を解釈する。 この資料は財団であり、国立科学財団ではありません。 0.57
upon work supported Grant No. 仕事中、グラント・ノーを支持した。 0.35
1553610. or recommendations authors 1553610 あるいはレコメンデーション作家 0.65
the National by Any opinions, this the あらゆる意見による国家、これ。 0.57
in necessarily reflect expressed 必ずしも反映する 表現 0.70
under agreement under ~ agreement 0.78
is based on research sponsored by DARPA and num(AFRL) Laboratory is authorized U.S. DARPAが主催する研究に基づいており、num(AFRL) Laboratoryは米国に認可されています。 0.67
The Government purposes Governmental for reprints and The notation copyright thereon. 政府は、再印刷のための政府目的とそれに関する表記の著作権。 0.62
views and of are herein those the authors should the representing necessarily policies official implied, or expressed of DARPA and Air (AFRL) or the U.S. Government. 著者は、DARPAとAir(AFRL)または米国政府の公式に暗示された、または表現された、必ずしもポリシーを表す必要があります。
訳抜け防止モード: 著者は、必ずしも公式に暗示されたポリシーを表す必要があります。 またはDARPAおよび空気(AFRL)または米国政府で表現される。
0.70
[2] [3] [4] [2] [3] [4] 0.85
[5] [6] [7] [5] [6] [7] 0.85
[8] [9] [10] [8] [9] [10] 0.85
[11] [12] [13] [11] [12] [13] 0.85
[14] [15] [16] [14] [15] [16] 0.85
[17] References [1] [17] 参考文献 [1] 0.86
of the security, ですから はあ? 警備だ 0.44
Conference 2011. of and 会議 2011年 そして 0.74
statistical R. Kirchner, 統計 R。 Kirchner 0.68
“Fast using feaand 「速い。 利用 フェアード 0.60
vol. detection “Accurate Vol. 検出 「正確」 0.64
image security, vol. image 警備だ Vol. 0.66
7, pp. pp. 7, pp. pp. 0.85
S. Lyu, IEEE Transactions S.Lyu。 IEEEトランザクション 0.77
IEEE Transactions spectral the 10th IEEE 取引 スペクトル 第10回 0.75
and K. decade,” 5, no. そして「十年」。 5位はノー。 0.75
4, pp. 857–867, Dec 2010. 4, pp。 857-867, 2010年12月。 0.68
Caldelli, for Caldelli (複数形 Caldellis) 0.50
and Fridrich, J. R. Liu, IEEE そしてフリドリヒ。 J. R. Liu, IEEE 0.65
lateral forensics lateral‐forensics 0.86
and G. detection image Forensics G. 検出 image‐forensics 0.75
chromatic and duplication on クロマティックと 重複 0.53
1053–1056. 1053–1056. 0.71
“Region detection Information forensics: An pp. 「地域」 検出情報 法医学: pp。 0.70
167–200, “Information Access, 1, 167–200, 「情報アクセス1」 0.64
by in Proceedings of by Proceedings of... 0.46
and aberration,” 13, roIEEE InterProcessing. そして収差」13。 roIEEE InterProcessing。 0.61
forgery on 1762–1777, 1762-1777年の偽造。 0.49
copy-move of Digital Forensic Re- デジタル鑑識のコピー・モーブ- 0.66
efficient IEEE Transactions no. 効率的なIEEEトランザクションいいえ。 0.56
efficient “An N. Memon, in forgery,” 2009 Signal and Speech 効率的な "An N. Memon, in forgery" 2009 信号と音声 0.88
resampling residue,” and “Forensic fingerprints,” 残基の再サンプリング” と “forensic fingerprints” です。 0.75
Pan matching,” vol. pan matching”(パンマッチング)だ。 0.51
and M. C. Stamm, using そして、M.C. Stamm 0.75
M. C. Stamm, M. Wu, overview first 2013. and M. reliable predictor analysis of fixed linear pp. M. C. Stamm, M. Wu, outline first 2013 and M. reliable predictor analysis of fixed linear pp。 0.93
11–20. 2008, ACM workshop on Multimedia image manipuof detection Stamm and K. R. Liu, M. C. lation using intrinsic on Information Forensics and Security, vol. 11–20. 2008年 ACM Workshop on Multimedia image manipuof detection Stamm and K. R. Liu, M. C. lation using intrinsic on Information Forensics and Security, vol。 0.82
5, no. 3, pp. 5位はノー。 3、p。 0.68
492–506, 2010. 492–506, 2010. 0.84
A. Del Serra, L. I. Ballan, Amerini, Bimbo, copy–move attack forensic method “A sift-based and recovery,” transformation IEEE Transactions on Information Forenpp. A. Del Serra, L. I. Ballan, Amerini, Bimbo, copy-move attack forensic method “A sift-based and recovery”, transformation IEEE Transactions on Information Forenpp。 0.93
1099–1110, Sep. no. 1099–1110, sep. no. 0.72
3, Security, vol. 3. セキュリティ、vol.1。 0.68
6, sics J. and Luk´aˇs, “Detection D. J. Soukal, in forgery images,” in digital in Proceedings 2003. 2003年のProceedingsで6, sics J. and Luk ́aís, “Detection D.J. Soukal, in forgery images” をデジタル化した。 0.74
Citeseer, search Workshop. Citeseer, search Workshop 0.64
and T. H. S. Sencar, Bayram, copy-move detecting bust method for national on Acoustics, IEEE, 2009, X. and ture Security, O. Mayer detection information 2018. そしてT.H.S. Sencar, Bayram, copy-move detection bust method for national on Acoustics, IEEE, 2009 X. and ture Security, O. Mayer detection information 2018。 0.95
B. Bayar and M. C. Stamm, works: new A lation detection,” pp. B.BayarとM.C.Stammは、新しいAレーション検出に取り組んでいます。 0.59
2691–2706, Nov 11, 13, no. 2691-2706, 11月11日 13, No。 0.68
Security, vol. セキュリティ、Vol。 0.68
forgery “Image Piva, and A. Bianchi T. artifacts,” of analysis grained jpeg IEEE 7, vol. forgery “Image Piva, and A. Bianchi T. artifacts” of analysis grained jpeg IEEE 7, vol。 0.85
no. 3, Security, and tion Forensics and M. J. Chen, M. Luk´aˇs, J. Fridrich, forgeries,” as digital x-ray for noise revealing Springer, shop on 342–358. ダメよ 3、Security, and tion Forensics and M.J. Chen, M. Luk ́aís, J. Fridrich, forgeries”は、342-358で販売されている。
訳抜け防止モード: ダメよ 3 セキュリティ及びオプション鑑定及びM.J.陳 M. Luk ́a's, J. Fridrich, forgeries, ” as digital x -ray for noise revealing Springer, shop on 342–358.
0.70
pp. Verdoliva, L. and Cozzolino, D. in image blind detector,” 2015 IEEE and Security. pp. Verdoliva, L. and Cozzolino, D. in image blind detector” 2015 IEEE and Security。 0.86
on Information Forensics shop from jpeg H. Farid, and security, actions 2009. on information forensics shop from jpeg h. farid, and security, actions 2009 (英語) 0.87
160, T. Bianchi, P. Ferrara, fusion for M. Barni, background in 2015 on Multimedia Expo Workshops, H. Li, W. Luo, X. Qiu, age operations Circuits and Systems Jan 2018. 160, T. Bianchi, P. Ferrara, fusion for M. Barni, background in 2015 on Multimedia Expo Workshops, H. Li, W. Luo, X. Qiu, age operations Circuits and Systems Jan 2018 0.94
O. Mayer on IEEE Transactions 2020. O. Mayer on IEEE Transactions 2020。 0.93
1331–1346, pp. 1331-1346, pp。 0.65
S. L. Lameri, Bondi, “Tampering S. Tubaro, of cnn S. L. Lameri, Bondi, “Tampering S. Tubaro, of cnn” 0.90
convolutional image purpose Information Forensics 2018. localization via blockon Transactions Informapp. convolutional image purpose Information Forensics 2018. Localization via blockon Transactions Informapp 0.80
1003–1017, 2012. 1003–1017, 2012. 0.84
Goljan, imIEEE Transactions on for Video Technology, vol. Goljan imIEEE Transactions on for Video Technology, vol. 0.69
28, no. 1, pp. 31–45, 28歳。 1、p。 31–45, 0.61
De A. Rosa, A. forgery localization International IEEE pp. de A. Rosa, A. forgery localization International IEEE pp。 0.94
1–6. 2015, “Identification features,” 1–6. 2015年「識別機能」。 0.68
“Splicebuster: new International WorkIEEE, 2015, pp. Splicebuster: New International WorkIEEE, 2015, pp. 0.70
1–6. ghosts,” IEEE transvol. 1–6. とIEEEはトランスボリューションした。 0.61
4, no. 1, pp. 4、いいえ。 1、p。 0.68
154– June J. Huang, using residual-based 154– 6月 J. Huang,残余ベースで 0.73
sensor in International Work2007, 国際ワーク2007のセンサー。 0.83
Bestagini, and localization in Conference Bestagini と Conference のローカリゼーション 0.58
M. Fontani, “Unsupervised information,” M. Fontani, “Unsupervised information” 0.84
“Constrained general on E. J. through on Computer 「参謀総長」 E. J. through on Computer 0.65
approach IEEE Transactions IEEEトランザクションへのアプローチ 0.68
similarity for digital Security, デジタルセキュリティの類似性。 0.76
D. Guera, detection features,” D. Guera, detection features”。 0.90
Piva, and exploiting Conference Piva, and exploiting Conference 0.85
neural netmanipuand Neural netmanipuand 0.72
Delp, and clustering Vision Delpとクラスタリングビジョン 0.62
“Exposing on information and M. C. Stamm, “Forensic 「情報開示」 とM.C. Stamm氏は語る。 0.61
images,” vol. 15, と言いました。 15, 0.55
Information Hiding. Information 情報を隠してる 情報 0.70
Forensics and G. splicing 法医学 そして G. スプライシング 0.64
Berlin, Heidelberg, ベルリン、ハイデルベルク。 0.65
digital forgeries デジタル forgeries 0.81
forensics and of 鑑識 そして ですから 0.57
various Poggi, A 様々 Poggi A 0.69
camera-based P. towards カメラベース P。 へ 0.67
“Imaging 「イメージ」 0.64
英語(論文から抽出)日本語訳スコア
[18] [19] [20] [18] [19] [20] 0.85
[21] [22] [23] [21] [22] [23] 0.85
[24] [25] [26] [24] [25] [26] 0.85
[27] [28] [29] [27] [28] [29] 0.85
[30] [31] [32] [30] [31] [32] 0.85
[33] [34] pp. [33] [34] pp. 0.85
J. its the and J。 その はあ? そして 0.63
01 July jpeg 01 7月 jpeg 0.78
2017, traces IEEE, 2017, 痕跡 IEEE 0.68
1855– related double 1855– 関連 double 0.77
technique of median Cozzolino 技法 中央値は コッツォーノ 0.56
Tian, in “Anti-forensic Tian, in 『反法学』 0.64
in digthe of in digthe―in digthe 0.61
in digital Security, デジタルセキュリティにおいて 0.85
Li, H. Zhang, H. Luo, Li, H. Zhang, H. Luo 0.94
a Information and with Letters, 情報 そして、手紙で。 0.54
“Noiseprint: on 「Noiseprint: on」 0.89
filtering Proceedings 24, Sharma, A. V. フィルタリング処理 24) Sharma, A. V。 0.80
comcnn,” Multime- “Detecting operations with とmultime- 「操作を検知する」 0.59
Bestagini, model Signal ベスタニーニ モデル信号 0.48
Emand S. l1-l2 using Information 情報を用いたEmand S. l1-l2 0.45
and and Applications, そしてアプリケーションや 0.55
S. Tan, anti-forensic 2019. S.Tan, anti-forensic 2019 0.80
E. Delp, identification Processing E. Delp, 識別処理 0.94
Security, L. Bondi, Tubaro, “First セキュリティ, L. Bondi, Tubaro, “まずは” 0.86
identificain Infor1–6. identificain Infor1–6。 0.62
camera Forensics camera‐forensics 0.80
“Camera model networks,” neural pp. neural pp. “camera model networks”(カメラモデルネットワーク)。 0.68
IEEE, 2016, cnn-based IEEE、2016年、cnnベース 0.70
and Pattern Recognition Workshops. そしてパターン認識の研修会。 0.67
1864. B. pression dia Tools and M. Chaumont, A. Tuama, F. Comby, convolutional deep of tion with use (WIFS). 1864. B. pression dia Tools and M. Chaumont, A. Tuama, F. Comby, convolutional deep of tion with use (WIFS)。 0.89
Security and mation Forensics L. D. Verdoliva, and fingerprint,” model Transactions IEEE 2019. pp. セキュリティ・アンド・mation forensics l. d. verdoliva, and fingerprint”. model transactions ieee 2019. pp. 0.82
144–159, vol. 15, and P. D. Baroffio, L. G ¨uera, camera toward S. steps neural networks,” convolutional IEEE 2017. pp. 144-159頁。 とconvolutional ieee 2017 pp. p. d. baroffio, l. g suera, camera toward s. steps neural networks)。
訳抜け防止モード: 144-159頁。 15歳、P.D. Baroffio, L.G suera, camera towards S. step neural network”。 革命IEEE 2017 . pp。
0.74
259–263, March vol. 259–263, March vol。 0.83
no. 3, Jain, A. Mehrish, Subramanyam, M. S. filtering median for manuel, in tv model,” International Workshop on 2016 IEEE pp. ダメよ 3、Jain, A. Mehrish, Subramanyam, M.S. filtering median for manuel, in tv model」と2016年IEEE ppの国際ワークショップ。 0.70
2016, 1–6. 2016, 1–6. 0.84
Security, Dec and Forensics traces “Hiding and M. Barni, M. Fontani ital in images,” Conference, Processing Signal 1239–1243. Security, Dec and Forensics traces “Hiding and M. Barni, M. Fontani Ital in images”, Conference, Processing Signal 1239–1243。 0.91
pp. IEEE, 2012, 20th European. pp. IEEE、2012年、20th European。 0.82
“Hiding resampling of and R. Bohme, M. Kirchner images,” on Information Forensics and IEEE Transactions 2008. Information Forensics and IEEE Transactions 2008」に「Hiding resampling of and R. Bohme, M. Kirchner images」が掲載されました。 0.80
582–592, 4, pp. 582-592, 4, pp。 0.84
3, no. vol. 3、いいえ。 Vol. 0.71
Ni, R. Zhao, G. and H. Y. Cao, images,” digital enhancement in Security, 2010, Workshop on Multimedia and “Anti-forensics J. R. Liu, M. C. Stamm and K. pression,” Information Transactions on Sep. 2011. rity, pp. Ni, R. Zhao, G. and H. Y. Cao, images", digital enhancement in Security, 2010, Workshop on Multimedia and "Anti-forensics J. R. Liu, M. C. Stamm and K. pression", Information Transactions on Sep. 2011 rity, pp. 0.97
1050–1065, vol. 1050–1065、vol。 0.71
6, and S.-M. Moosavi-Dezfooli, P. “Deepfool: method simple A accurate deep fool in and Pattern Recognition, IEEE Conference The on Computer Vision June 2016. S.M. Moosavi-Dezfooli, P. “Deepfool: method simple A accurate Deep fool in and Pattern Recognition, IEEE Conference The on Computer Vision June 2016。 0.86
I. Goodfellow, S. Ozair, A. Courville, in neural Advances 2672–2680. I. Goodfellow, S. Ozair, A. Courville, in Neural Advances 2672–2680 0.86
Papernot, N. A. Swami, in Proceedings and chinery, pp. Papernot, N. A. Swami, in Proceedings and chinery, pp。 0.95
I. J. Goodfellow, nessing 2014. I. J. Goodfellow, nessing 2014 0.90
N. neural vacy, May B. Biggio, G. Giacinto, at test time,” and P. Laskov, “Poisoning B. Biggio, B. Nelson, 2012. vector machines,” port Zhao, and M. C. an C. Chen, X. framework using a generative falsification camera model in network,” 25th 2018 IEEE Conference (ICIP). N. neural vacy, May B. Biggio, G. Giacinto, at test time” and P. Laskov, “Poisoning B. Biggio, B. Nelson, 2012 vector machines”, port Zhao, and M. C. an C. Chen, X. framework using a Generative falsification camera model in network” (第25回IEEE Conference (ICIP)。 0.94
IEEE, 2018, Processing IEEE, 2018, Processing 0.85
J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, nets,” pp. J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, nets。 0.80
networks,” 2017, I. Corona, D. Maiorca, “Evasion and F. Roli, pp. 2017年、I. Corona, D. Maiorca, “Evasion and F. Roli, pp.”。 0.90
387–402, 2013. 387–402, 2013. 0.84
“Anti-forensics of the Proceedings pp. 「Proceedings pp.の反法医学。 0.58
25–34. of digital Forensics 25–34. デジタル法医学の 0.71
black-box 2017 ACM on Asia Conference Security. ブラックボックス2017 ACM on Asia Conference Security。 0.86
P. McDaniel, “Practical the Communications P. McDaniel, “Practical the Communications” 0.93
506–519. Shlens, J. and examples,” adversarial 506–519. Shlens, J. and example” 敵。 0.76
Celik, and learning,” on Computer Computing Ma- Celik, and Learning” on Computer Computing Ma- 0.83
anti-forensic adversarial on Image 画像上の反forensic adversarial 0.76
D. Wagner, 2017 39–57. D. Wagner、2017 39–57。 0.76
ˇSrndi´c, against machine Srndi ́c, against machine 0.78
hararXiv:1412.6572, hararXiv:1412.6572 0.51
S. Z. B. against machine S.Z。 B. 対 機械 0.82
adversarial systems, 2014, adversarial systems、2014年。 0.64
I. Goodfellow, attacks I.Goodfellow、攻撃。 0.75
and Y. Bengio, information Y. Bengio, information 0.77
B. Nelson, N. attacks B.ネルソン、N.攻撃 0.74
“Generative processing robustness and 「生成処理」 頑丈さと 0.72
P. Laskov, learning P. Laskov、学びます。 0.65
“Towards IEEE evaluating on IEEEに向けて Evaluation on ~ 0.73
Frossard, neural Frossard (複数形 Frossards) 0.41
the Security contrast ACM セキュリティ コントラストACM 0.62
Fawzi, to Fawzi (複数形 Fawzis) 0.47
IEEE no. 3, IEEE No。 3, 0.83
image and C. arXiv 画像と C. arXiv 0.82
comSecu- International comSecu- 国際 0.78
“Explaining of 12th Association 「説明」 12日 協会 0.71
Symposium networks,” シンポジウム ネットワーク”だ。 0.69
of Pri- “Mislgan: 律令 『ミスルガン』 0.28
535–539. in pp. 535–539. pp. 0.63
Szegedy, preprint Szegedy プレプリント 0.55
Stamm, against Carlini Stamm 反対 カルリーニ 0.51
attacks 2017, sup- 攻撃 2017, sup- 0.80
Jha, and and ジャ! そして そして 0.64
in of for で ですから ですから 0.60
and A. pp. そして A。 pp. 0.77
[35] [36] [37] [35] [36] [37] 0.85
[38] [39] [40] [38] [39] [40] 0.85
[41] [42] [43] [41] [42] [43] 0.85
[44] [45] [46] [44] [45] [46] 0.85
[47] [48] [49] [47] [48] [49] 0.85
P. S. on M. P。 S。 オン M。 0.74
and and and そして そして そして 0.72
into using Guera, 入り込む 利用 Guera 0.61
Bondi, Tubaro, ボンダイ Tubaro 0.39
in ad- Bestagini, adversarial 広告 ベストギニ。 敵 0.46
Fredrikson, transferable フレドリックソン。 転送可能 0.59
Z. B. Celik, Z。 B.Celik。 0.74
in adversarial in adversarial―in adversarial 0.54
I. neural P. and arXiv I. 神経 P. と arXiv 0.78
arXiv:1605.07277, arXiv:1605.07277 0.56
Abbeel, preprint Abbeel (複数形 Abbeels) 0.20
Duan, Y. policies,” デュアン、Y.ポリシー」。 0.53
learning: samples,” “Delving 2016. 学習:サンプル" 2016年発売。 0.59
Goodfellow, network Goodfellow, Network 0.84
S. Choi, anti-forensics S. Choi, anti-forensics 0.74
adversarial identification,” pp. 敵の識別」。 pp. 0.70
1840–1847. 1840–1847. 0.71
C. Zhao, deep-learning-based C。 Zhao, ディープラーニングベース 0.69
“Transferability attacks using 2016. 2016年、トランスファビリティ攻撃。 0.61
Liu, Chen, C. examples and P. McDaniel, Liu, Chen, C. example and P. McDaniel 0.91
Song, attacks,” Goodfellow, to black-box 歌、攻撃、グッドフェロー、ブラックボックスへ 0.69
“Generative model Security, and and H. K. Lee, 「生成モデルセキュリティ、h.k.リー」 0.51
in Computer Vision 2017, X. against Computer Vision 2017 では、X 0.66
and “A counter-forensic method for cnn-based camera model cnnベースのカメラモデルに対する反法医学的手法 0.69
E. J. idenand Pattern Recognition Workshops. E.J. idenandパターン認識ワークショップ。 0.72
and D. black-box I. from phenomena preprint arXiv S. Jha, M. P. McDaniel, of deep learning “The limitations Symposium European IEEE 372–387. D. Black-box I. from phenomena preprint arXiv S. Jha, M.P. McDaniel, of Deep Learning “The limit Symposium European IEEE 372–387.”。 0.83
IEEE, 2016, pp. IEEE、2016 pp。 0.63
M. Stamm, and B. challenges Overview and M. Stamm と B. Challenge の概要と課題 0.76
Papernot, N. Huang, S. on “Adversarial attacks 2017. arXiv:1702.02284, D. Y. Wang, L. Delp, tification,” July IEEE, Stamm, C. Chen, camera attacks 2019. Papernot, N. Huang, S. on “Adversarial attack 2017 arXiv:1702.02284, D.Y. Wang, L. Delp, tification” 7月 IEEE, Stamm, C. Chen, camera attack 2019。 0.88
Information Forensics on IEEE Transactions “Median Jang, D. Kim, H. U. S. M. Mun, image filtered netrestoration works,” IEEE Signal Processing Letters, vol. IEEESignal Processing Letters, vol., “Median Jang, D. Kim, H. U.S.M. Mun, image filtered netrestoration works”. IEEE Signal Processing Letters.com.com 0.86
25, no. 2, pp. 278–282, 2018. 25だ 2、p。 278–282, 2018. 0.62
Feb Y. Liu, X. adversarial N. Papernot, machine versarial N. Papernot, A. Swami, in 2016 roS&P). Feb Y. Liu, X. adversarial N. Papernot, machine versarial N. Papernot, A. Swami, in 2016 roS&P)。 0.95
M. Barni, forensics: Signal Processing Conference. M. Barni, forensics: Signal Processing Conference (英語) 0.78
M. Barni, K. Kallas, adversarial ability pp. M. Barni, K. Kallas, adversarial ability pp。 0.96
2019. Y. on ings dia M. cessing 213–1, residual Fridrich, and J. M. Boroumand, M. Chen, images,” of for digital steganalysis on IEEE Transactions pp. 2019. Y. on ings dia M. cessing 213–1, remaining Fridrich, and J. M. Boroumand, M. Chen, images” of for digital steganalysis on IEEE Transactions pp。 0.90
1181–1193, 14, vol. 1181-1193, 14, vol。 0.72
no. 5, Security, and tion Forensics Maaten, L. Z. G. and Der Liu, Huang, Van networks,” convolutional “Densely connected IEEE conference vision and pp. ダメよ 5、Security, and tion Forensics Maaten, L.Z.G. and Der Liu, Huang, Van Network”、Convolutional “Deensely Connected IEEE conference vision and pp.”。 0.72
4700–4708. 4700–4708. 0.71
K. Simonyan for large-scale 2014. K. Simonyan for large-scale 2014 0.86
T. Gloe marking tice, vol. T. Gloe marking tice, vol. 0.96
8286–8290, “Image Zhan, Y. Chen, Q. Zhang, network,” transfer the 5th ACM Workshop on Information Hiding of pp. 8286-8290, “Image Zhan, Y. Chen, Q. Zhang, network”, transfer the 5th ACM Workshop on Information Hiding of pp。 0.90
165–170. IH&MMSec ’17, Security, ser. 165–170. IH&MMSec ’17、セキュリティ、サー。 0.73
and Boroumand learning “Deep Fridrich, history Imaging, images,” Electronic of 2018. Boroumandは2018年に“Deep Fridrich, history imaging, image”を勉強した。 0.75
“Adversarial Tondi, in ahead,” 2018 pp. 2018 pp. “Adversarial Tondi, in ahead” 2018 pp。 0.75
IEEE, 2018, Tondi, cnn-based IEEE, 2018, Tondi, cnnベース 0.90
networks arXiv preprint arXiv:1409.1556, ネットワーク arXiv preprint arXiv:1409.1556 0.73
962–966. the “On transferforensics,” image 962–966. on transferforensics” (複数形 on transferforensicss) 0.62
image benchof Digital Forensic Prac- Digital Forensic Pracの画像ベンチ- 0.83
Q. Weinberger, of the 2017, Q. Weinberger、2017年。 0.77
K. in Proceedings recognition, K. in Proceedings recognition (英語) 0.53
based in Proceedand Multime- Proceedand Multimeをベースとする 0.69
and A. Zisserman, image recognition,” A. Zisserman、画像認識。 0.57
for provol. 2018, no. プロボのために 2018年、ノー。 0.40
7, pp. and X. Kang, neural 7, pp。 X.Kang、ニューラル。 0.72
multimedia 26th European マルチメディア26thヨーロッパ 0.84
and settings,” (Eu- と設定した(うーーーーーーーーーーーーーーーーーー 0.46
B¨ohme, image 2-4, network Informa2018. 画像は2-4。 ネットワークInforma2018。 0.62
E. Nowroozi, examples E. Nowrooziの例 0.86
forensics,” pp. 150–159, 法医学』、pp.。 150–159, 0.57
and R. digital 3, no. そしてR.デジタル3、いいえ。 0.80
Journal 2010. convolutional 2010年刊行。 convolutional~ 0.72
convolutional convolutional~ 0.70
on computer detecting コンピュータで 検出 0.75
forensics database learning 鑑識 データベース 学習 0.66
Security dresden セキュリティ ドレスデン 0.64
Privacy pattern プライバシー パターン 0.73
against and B. “Deep 反対 そしてB。 「ディープ」 0.59
“Very “The deep 「ええ。 「ああ。 深く 0.66
and and for そして そして ですから 0.66
C. of J. C。 ですから J。 0.69
英語(論文から抽出)日本語訳スコア
This figure "logo.png" is available in "png"(cid:10) format from: この図 "logo.png" は "png"(cid:10) 形式で利用できます。 0.85
http://arxiv.org/ps/ 2101.11081v1 http://arxiv.org/ps/ 2101.11081v1 0.29
               ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。