論文の概要: Uncolorable Examples: Preventing Unauthorized AI Colorization via Perception-Aware Chroma-Restrictive Perturbation
- arxiv url: http://arxiv.org/abs/2510.08979v2
- Date: Wed, 15 Oct 2025 06:52:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 13:11:49.450077
- Title: Uncolorable Examples: Preventing Unauthorized AI Colorization via Perception-Aware Chroma-Restrictive Perturbation
- Title(参考訳): 非彩色可能な例:知覚を意識したクロマ制限的摂動による無許可のAI着色防止
- Authors: Yuki Nii, Futa Waseda, Ching-Chun Chang, Isao Echizen,
- Abstract要約: 非着色可能な例では、知覚不能な摂動をグレースケールのイメージに埋め込んで、無許可の着色を無効にする。
ImageNetとDanbooruデータセットの実験により、PAChromaは視覚的外観を維持しながら色付け品質を効果的に低下させることが示された。
この研究は、不正なAIのカラー化から視覚的コンテンツを保護し、生成メディアにおける著作権を意識した防御の道を開くための第一歩となる。
- 参考スコア(独自算出の注目度): 10.834598775130805
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: AI-based colorization has shown remarkable capability in generating realistic color images from grayscale inputs. However, it poses risks of copyright infringement -- for example, the unauthorized colorization and resale of monochrome manga and films. Despite these concerns, no effective method currently exists to prevent such misuse. To address this, we introduce the first defensive paradigm, Uncolorable Examples, which embed imperceptible perturbations into grayscale images to invalidate unauthorized colorization. To ensure real-world applicability, we establish four criteria: effectiveness, imperceptibility, transferability, and robustness. Our method, Perception-Aware Chroma-Restrictive Perturbation (PAChroma), generates Uncolorable Examples that meet these four criteria by optimizing imperceptible perturbations with a Laplacian filter to preserve perceptual quality, and applying diverse input transformations during optimization to enhance transferability across models and robustness against common post-processing (e.g., compression). Experiments on ImageNet and Danbooru datasets demonstrate that PAChroma effectively degrades colorization quality while maintaining the visual appearance. This work marks the first step toward protecting visual content from illegitimate AI colorization, paving the way for copyright-aware defenses in generative media.
- Abstract(参考訳): AIベースのカラー化は、グレースケールの入力からリアルなカラー画像を生成する際、顕著な能力を示している。
しかし、著作権侵害のリスクがあり、例えば、モノクロ・マンガや映画の無許可の着色と再販がある。
これらの懸念にもかかわらず、そのような誤用を防ぐための効果的な方法はまだ存在しない。
これを解決するために, グレースケール画像に知覚不能な摂動を埋め込んだ最初の防御パラダイムであるUncolorable Examplesを導入し, 無許可色化を無効化する。
実世界の適用性を確保するために,有効性,不受容性,伝達性,堅牢性という4つの基準を確立する。
提案手法は,知覚的品質を維持するためにラプラシアフィルタを用いて知覚不可能な摂動を最適化し,モデル間の変換性を高め,一般的な後処理(圧縮など)に対する堅牢性を高めるために,最適化中の多様な入力変換を適用することで,これら4つの基準を満たす無彩度例を生成する。
ImageNetとDanbooruデータセットの実験により、PAChromaは視覚的外観を維持しながら色付け品質を効果的に低下させることが示された。
この研究は、不正なAIのカラー化から視覚的コンテンツを保護し、生成メディアにおける著作権を意識した防御の道を開くための第一歩となる。
関連論文リスト
- Free-Lunch Color-Texture Disentanglement for Stylized Image Generation [58.406368812760256]
本稿では,タイマライズされたT2I生成において,フリーランチなカラーテクスチャ・ディコンタングルを実現するための,最初のチューニング自由アプローチを提案する。
色とテクスチャの基準画像からCTE(Color-Texture Embeddings)を分離・抽出する技術を開発した。
生成した画像の色パレットが色基準と密接に一致していることを確認するため、白と彩色変換を適用する。
論文 参考訳(メタデータ) (2025-03-18T14:10:43Z) - Multimodal Semantic-Aware Automatic Colorization with Diffusion Prior [15.188673173327658]
色を可塑性意味論で合成する前に拡散の異常な生成能力を利用する。
モデルが画像の内容を理解し、飽和色を提供するのに役立つため、マルチモーダルなハイレベルセマンティクスを前もって採用する。
輝度対応デコーダは細部を復元し、全体的な視覚的品質を向上させるように設計されている。
論文 参考訳(メタデータ) (2024-04-25T15:28:22Z) - Control Color: Multimodal Diffusion-based Interactive Image Colorization [81.68817300796644]
Control Color (Ctrl Color) は、事前訓練された安定拡散(SD)モデルを利用する多モードカラー化手法である。
ユーザのストロークをエンコードして、局所的な色操作を正確に行うための効果的な方法を提案する。
また、カラーオーバーフローと不正確な色付けの長年の問題に対処するために、自己注意に基づく新しいモジュールとコンテンツ誘導型変形可能なオートエンコーダを導入する。
論文 参考訳(メタデータ) (2024-02-16T17:51:13Z) - Towards Enhanced Image Inpainting: Mitigating Unwanted Object Insertion and Preserving Color Consistency [78.0488707697235]
ASUKA(Aigned Stable Inpainting with UnKnown Areas)と呼ばれるポストプロセッシングアプローチは、インパインティングモデルを改善する。
Masked Auto-Encoder (MAE) は、オブジェクト幻覚を緩和する。
ローカルタスクとしてラテント・ツー・イメージ・デコーディングを扱う特殊なVAEデコーダ。
論文 参考訳(メタデータ) (2023-12-08T05:08:06Z) - IMPRESS: Evaluating the Resilience of Imperceptible Perturbations
Against Unauthorized Data Usage in Diffusion-Based Generative AI [52.90082445349903]
拡散ベースの画像生成モデルは、アーティストのスタイルを模倣するアートイメージを作成したり、偽のコンテンツのためにオリジナルの画像を悪意を持って編集することができる。
知覚不能な摂動を追加することによって、元のイメージをそのような不正なデータ使用から保護する試みがいくつかなされている。
本研究では, IMPRESS という浄化摂動プラットフォームを導入し, 非受容性摂動の有効性を保護策として評価する。
論文 参考訳(メタデータ) (2023-10-30T03:33:41Z) - DDColor: Towards Photo-Realistic Image Colorization via Dual Decoders [19.560271615736212]
DDColorは画像カラー化のためのデュアルデコーダを備えたエンドツーエンドの手法である。
我々のアプローチには、ピクセルデコーダとクエリベースのカラーデコーダが含まれる。
我々の2つのデコーダは、色とマルチスケールの意味表現の相関を確立するために協力する。
論文 参考訳(メタデータ) (2022-12-22T11:17:57Z) - Natural Color Fool: Towards Boosting Black-box Unrestricted Attacks [68.48271396073156]
本研究では, 画像品質を損なうことなく, 反対例の転写性を向上するNatural Color Fool (NCF) を提案する。
その結果、NCFは、通常訓練されたモデルを騙す場合の15.0%$sim$32.9%、防御手法を回避する場合の10.0%$sim$25.3%で、最先端のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2022-10-05T06:24:16Z) - Essential Features: Reducing the Attack Surface of Adversarial
Perturbations with Robust Content-Aware Image Preprocessing [5.831840281853604]
画像に摂動を加えることで、機械学習モデルを騙して誤った予測をすることができる。
このような摂動に対する防御の1つのアプローチは、摂動の影響を取り除くために画像前処理関数を適用することである。
本稿では,イメージをロバストな特徴空間に変換する,Essential Featuresと呼ばれる新しい画像前処理手法を提案する。
論文 参考訳(メタデータ) (2020-12-03T04:40:51Z) - Adversarial Image Color Transformations in Explicit Color Filter Space [5.682107851677069]
逆色フィルタ(AdvCF)は、単純な色フィルタのパラメータ空間の勾配情報に最適化された新しい色変換攻撃である。
本稿では,AdvCFが画像の受容性と効率の両面において,最先端の人間解釈可能な色変換攻撃よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-12T23:51:37Z) - Color and Edge-Aware Adversarial Image Perturbations [0.0]
対向摂動を構成するための2つの新しい手法を開発した。
Edge-Aware法は、画像の滑らかな領域で許容される摂動の大きさを減らす。
Color-Aware と Edge-Aware のメソッドも同時に実装できる。
論文 参考訳(メタデータ) (2020-08-28T03:02:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。