論文の概要: Artwork Protection Against Neural Style Transfer Using Locally Adaptive
Adversarial Color Attack
- arxiv url: http://arxiv.org/abs/2401.09673v1
- Date: Thu, 18 Jan 2024 01:18:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-19 18:11:33.330840
- Title: Artwork Protection Against Neural Style Transfer Using Locally Adaptive
Adversarial Color Attack
- Title(参考訳): 局所適応逆色攻撃を用いたニューラルスタイル伝達に対するアートワーク保護
- Authors: Zhongliang Guo, Kaixuan Wang, Weiye Li, Yifei Qian, Ognjen
Arandjelovi\'c and Lei Fang
- Abstract要約: 本稿では,アーティストの知的財産を保護するために,LAACA(Locally Adaptive Adversarial Color Attack)を提案する。
中間特徴を乱して発生する高周波コンテンツに富んだ画像領域を対象とする摂動を設計する。
実験とユーザスタディにより、提案手法を用いてニューラルスタイル転送を攻撃することにより、視覚的に悪いニューラルスタイル転送をもたらすことが確認された。
- 参考スコア(独自算出の注目度): 13.518581693303647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural style transfer (NST) is widely adopted in computer vision to generate
new images with arbitrary styles. This process leverages neural networks to
merge aesthetic elements of a style image with the structural aspects of a
content image into a harmoniously integrated visual result. However,
unauthorized NST can exploit artwork. Such misuse raises socio-technical
concerns regarding artists' rights and motivates the development of technical
approaches for the proactive protection of original creations. Adversarial
attack is a concept primarily explored in machine learning security. Our work
introduces this technique to protect artists' intellectual property. In this
paper Locally Adaptive Adversarial Color Attack (LAACA), a method for altering
images in a manner imperceptible to the human eyes but disruptive to NST.
Specifically, we design perturbations targeting image areas rich in
high-frequency content, generated by disrupting intermediate features. Our
experiments and user study confirm that by attacking NST using the proposed
method results in visually worse neural style transfer, thus making it an
effective solution for visual artwork protection.
- Abstract(参考訳): ニューラルスタイル転送(NST)はコンピュータビジョンにおいて任意のスタイルで新しい画像を生成するために広く採用されている。
このプロセスはニューラルネットワークを利用して、スタイルイメージの美的要素とコンテンツイメージの構造的側面を調和して統合された視覚結果にマージする。
しかし、未許可のNSTはアートワークを活用できる。
このような誤用は、芸術家の権利に関する社会技術的懸念を提起し、オリジナル作品の積極的な保護のための技術的アプローチの開発を動機付ける。
敵攻撃(Adversarial attack)とは、主に機械学習のセキュリティに関する概念である。
私たちの作品は、アーティストの知的財産を保護するためにこの技術を導入しています。
本稿では,人間の目では認識できないがNSTでは破壊的な方法で画像を変更する手法であるLAACA(Locally Adversarial Color Attack)を提案する。
具体的には,中間的特徴を乱すことによって生じる高頻度コンテンツに富む画像領域を対象とした摂動をデザインする。
本研究では,提案手法を用いてnstを攻撃することにより,視認性が低下し,視覚アートワークの保護に有効なソリューションとなることを確認した。
関連論文リスト
- Diffusing Colors: Image Colorization with Text Guided Diffusion [11.727899027933466]
粒状テキストプロンプトを用いた画像拡散技術を利用した新しい画像カラー化フレームワークを提案する。
本手法は,視覚的品質とセマンティック・コヒーレンスの観点から,既存の技術よりも優れた自動化と制御のバランスを与える。
我々のアプローチは、特に色強調と歴史的イメージのカラー化の可能性を秘めている。
論文 参考訳(メタデータ) (2023-12-07T08:59:20Z) - IMPRESS: Evaluating the Resilience of Imperceptible Perturbations
Against Unauthorized Data Usage in Diffusion-Based Generative AI [52.90082445349903]
拡散ベースの画像生成モデルは、アーティストのスタイルを模倣するアートイメージを作成したり、偽のコンテンツのためにオリジナルの画像を悪意を持って編集することができる。
知覚不能な摂動を追加することによって、元のイメージをそのような不正なデータ使用から保護する試みがいくつかなされている。
本研究では, IMPRESS という浄化摂動プラットフォームを導入し, 非受容性摂動の有効性を保護策として評価する。
論文 参考訳(メタデータ) (2023-10-30T03:33:41Z) - Content-based Unrestricted Adversarial Attack [53.181920529225906]
本稿では,コンテンツベース非制限攻撃という新たな非制限攻撃フレームワークを提案する。
自然像を表す低次元多様体を利用することで、像を多様体上に写像し、その逆方向に沿って最適化する。
論文 参考訳(メタデータ) (2023-05-18T02:57:43Z) - Natural Color Fool: Towards Boosting Black-box Unrestricted Attacks [68.48271396073156]
本研究では, 画像品質を損なうことなく, 反対例の転写性を向上するNatural Color Fool (NCF) を提案する。
その結果、NCFは、通常訓練されたモデルを騙す場合の15.0%$sim$32.9%、防御手法を回避する場合の10.0%$sim$25.3%で、最先端のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2022-10-05T06:24:16Z) - CCPL: Contrastive Coherence Preserving Loss for Versatile Style Transfer [58.020470877242865]
我々は,芸術的,写真的,映像的スタイルのトランスファーを共同で行うことができる汎用的なスタイルトランスファー手法を考案した。
我々は,グローバル不整合が局所的不整合に支配されているという軽度かつ合理的な仮定を定め,局所的パッチに適用した汎用的コントラストコヒーレンス保存損失(CCPL)を考案する。
CCPLは、スタイル化を低下させることなく、スタイル転送中のコンテンツソースのコヒーレンスを保存することができる。
論文 参考訳(メタデータ) (2022-07-11T12:09:41Z) - Interactive Style Transfer: All is Your Palette [74.06681967115594]
本稿では,ユーザが対話的に調和したスタイルのイメージを作成できる,図形的な対話型スタイル転送(IST)手法を提案する。
私たちのISTメソッドは、どこからでもブラシやディップスタイルとして機能し、ターゲットのコンテンツイメージの任意の領域にペイントします。
論文 参考訳(メタデータ) (2022-03-25T06:38:46Z) - Deep Saliency Prior for Reducing Visual Distraction [12.28561668097479]
画像の歪みを軽減するための強力な編集効果を多数生成する。
結果として生じる効果は、人間の視覚システムに関する認知研究と一致している。
本研究は,様々な自然画像に対して,オリジナル画像と編集結果との視線変化を評価し,評価するための知覚的研究を行う。
論文 参考訳(メタデータ) (2021-09-05T03:19:21Z) - ReGO: Reference-Guided Outpainting for Scenery Image [82.21559299694555]
生成的敵対学習は、与えられた画像に対して意味的一貫したコンテンツを生成することによって、画像の画質を向上した。
本研究は, 近隣の画素を借用することにより, テクスチャに富んだ結果を合成する原理について検討する。
生成した部品のスタイルが参照画像の影響を受けないようにするために,ReGOを増強し,スタイル一貫性のある結果を合成するスタイルランキングの損失が提案されている。
論文 参考訳(メタデータ) (2021-06-20T02:34:55Z) - Essential Features: Reducing the Attack Surface of Adversarial
Perturbations with Robust Content-Aware Image Preprocessing [5.831840281853604]
画像に摂動を加えることで、機械学習モデルを騙して誤った予測をすることができる。
このような摂動に対する防御の1つのアプローチは、摂動の影響を取り除くために画像前処理関数を適用することである。
本稿では,イメージをロバストな特徴空間に変換する,Essential Featuresと呼ばれる新しい画像前処理手法を提案する。
論文 参考訳(メタデータ) (2020-12-03T04:40:51Z) - Adversarial Image Color Transformations in Explicit Color Filter Space [5.682107851677069]
逆色フィルタ(AdvCF)は、単純な色フィルタのパラメータ空間の勾配情報に最適化された新しい色変換攻撃である。
本稿では,AdvCFが画像の受容性と効率の両面において,最先端の人間解釈可能な色変換攻撃よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-12T23:51:37Z) - Towards Feature Space Adversarial Attack [18.874224858723494]
本稿では,画像分類のためのニューラルネットに対する新たな敵攻撃を提案する。
私たちの攻撃は、抽象的な特徴、具体的にはスタイルを表す特徴の摂動に焦点を当てています。
我々の攻撃は、最先端の攻撃よりも自然に見える敵のサンプルを生成できることを示す。
論文 参考訳(メタデータ) (2020-04-26T13:56:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。