論文の概要: Watermarking across Modalities for Content Tracing and Generative AI
- arxiv url: http://arxiv.org/abs/2502.05215v1
- Date: Tue, 04 Feb 2025 18:49:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:35:45.043944
- Title: Watermarking across Modalities for Content Tracing and Generative AI
- Title(参考訳): コンテンツ追跡と生成AIのためのモダリティ間の透かし
- Authors: Pierre Fernandez,
- Abstract要約: この論文には、画像、オーディオ、テキストのための新しい透かし技術の開発が含まれている。
まず,ソーシャルプラットフォーム上で画像の能動的モデレーションを行う手法を紹介する。
そして、AI生成コンテンツのための特定の技術を開発する。
- 参考スコア(独自算出の注目度): 2.456311843339488
- License:
- Abstract: Watermarking embeds information into digital content like images, audio, or text, imperceptible to humans but robustly detectable by specific algorithms. This technology has important applications in many challenges of the industry such as content moderation, tracing AI-generated content, and monitoring the usage of AI models. The contributions of this thesis include the development of new watermarking techniques for images, audio, and text. We first introduce methods for active moderation of images on social platforms. We then develop specific techniques for AI-generated content. We specifically demonstrate methods to adapt latent generative models to embed watermarks in all generated content, identify watermarked sections in speech, and improve watermarking in large language models with tests that ensure low false positive rates. Furthermore, we explore the use of digital watermarking to detect model misuse, including the detection of watermarks in language models fine-tuned on watermarked text, and introduce training-free watermarks for the weights of large transformers. Through these contributions, the thesis provides effective solutions for the challenges posed by the increasing use of generative AI models and the need for model monitoring and content moderation. It finally examines the challenges and limitations of watermarking techniques and discuss potential future directions for research in this area.
- Abstract(参考訳): ウォーターマーキングは、画像、オーディオ、テキストなどのデジタルコンテンツに情報を埋め込む。
この技術は、コンテンツモデレーション、AI生成したコンテンツのトレース、AIモデルの使用状況の監視など、業界における多くの課題に重要な応用がある。
この論文の貢献は、画像、オーディオ、テキストのための新しい透かし技術の開発である。
まず,ソーシャルプラットフォーム上で画像の能動的モデレーションを行う手法を紹介する。
そして、AI生成コンテンツのための特定の技術を開発する。
具体的には、潜在生成モデルを適用して、すべての生成されたコンテンツに透かしを埋め込む方法、音声中の透かしを識別する方法、および偽陽性率の低いテストによる大規模言語モデルにおける透かしを改善する方法を示す。
さらに,電子透かしを用いた誤用の検出についても検討し,透かしを微調整した言語モデルにおける透かしの検出や,大型変圧器の重みに対する無訓練透かしの導入などを行った。
これらの貢献を通じて、この論文は、生成AIモデルの使用の増加と、モデル監視とコンテンツモデレーションの必要性によって引き起こされる課題に対する効果的な解決策を提供する。
最終的に、透かし技術の課題と限界を調べ、この分野の研究の今後の方向性について論じる。
関連論文リスト
- Dynamic watermarks in images generated by diffusion models [46.1135899490656]
高忠実度テキストから画像への拡散モデルが視覚コンテンツ生成に革命をもたらしたが、その普及は重大な倫理的懸念を提起している。
本稿では,拡散モデルのための新しい多段階透かしフレームワークを提案する。
我々の研究は、モデルオーナシップの検証と誤用防止のためのスケーラブルなソリューションを提供することで、AI生成コンテンツセキュリティの分野を前進させます。
論文 参考訳(メタデータ) (2025-02-13T03:23:17Z) - BiMarker: Enhancing Text Watermark Detection for Large Language Models with Bipolar Watermarks [19.689433249830465]
既存の透かし技術は、低い透かし強度と厳しい偽陽性要件に苦しむ。
ツールは生成されたテキストを正極と負極に分割し、追加の計算リソースを必要とせずに検出を強化する。
論文 参考訳(メタデータ) (2025-01-21T14:32:50Z) - RoboSignature: Robust Signature and Watermarking on Network Attacks [0.5461938536945723]
本稿では,モデルが意図した透かしを埋め込む能力を阻害する新たな逆調整攻撃を提案する。
本研究は, 発生システムにおける潜在的な脆弱性を予知し, 防御することの重要性を強調した。
論文 参考訳(メタデータ) (2024-12-22T04:36:27Z) - Watermarking Training Data of Music Generation Models [6.902279764206365]
本研究では,音声透かし技術を用いてコンテンツの不正使用を検知する方法について検討する。
非透かしデータでトレーニングされたモデルと非透かしデータでトレーニングされたモデルで生成された出力を比較した。
以上の結果から,人間には認識できないものを含む音声透かし技術が,モデル出力の顕著な変化を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-12-11T17:10:44Z) - SoK: Watermarking for AI-Generated Content [112.9218881276487]
ウォーターマーキングスキームは、AI生成コンテンツに隠された信号を埋め込んで、信頼性の高い検出を可能にする。
透かしは、誤情報や偽造と戦ってAIの安全性と信頼性を高める上で重要な役割を果たす。
本研究の目的は、研究者が透かし法や応用の進歩を指導し、GenAIの幅広い意味に対処する政策立案者を支援することである。
論文 参考訳(メタデータ) (2024-11-27T16:22:33Z) - De-mark: Watermark Removal in Large Language Models [59.00698153097887]
我々は、n-gramベースの透かしを効果的に除去するために設計された高度なフレームワークであるDe-markを紹介する。
提案手法は,透かしの強度を評価するために,ランダム選択探索と呼ばれる新しいクエリ手法を利用する。
論文 参考訳(メタデータ) (2024-10-17T17:42:10Z) - On the Learnability of Watermarks for Language Models [80.97358663708592]
言語モデルが透かし付きテキストを生成するために直接学習できるかどうかを問う。
本稿では,教師モデルとして振舞う学生モデルを訓練する透かし蒸留法を提案する。
モデルは、高い検出性で透かし付きテキストを生成することができる。
論文 参考訳(メタデータ) (2023-12-07T17:41:44Z) - Watermarking Conditional Text Generation for AI Detection: Unveiling
Challenges and a Semantic-Aware Watermark Remedy [52.765898203824975]
本研究では,条件付きテキスト生成と入力コンテキストの特性を考慮した意味認識型透かしアルゴリズムを提案する。
実験結果から,提案手法は様々なテキスト生成モデルに対して大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2023-07-25T20:24:22Z) - Evading Watermark based Detection of AI-Generated Content [45.47476727209842]
生成AIモデルは、非常に現実的なコンテンツを生成することができる。
WatermarkはAI生成コンテンツの検出に活用されている。
類似の透かしをデコードできれば、コンテンツはAI生成として検出される。
論文 参考訳(メタデータ) (2023-05-05T19:20:29Z) - Watermarking Images in Self-Supervised Latent Spaces [75.99287942537138]
我々は,自己教師型アプローチに照らして,事前学習した深層ネットワークに基づく透かし手法を再検討する。
我々は、マーク時間におけるデータの増大を利用して、マークとバイナリのメッセージをその潜在空間に埋め込む方法を提案する。
論文 参考訳(メタデータ) (2021-12-17T15:52:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。