論文の概要: On-Device Watermarking: A Socio-Technical Imperative For Authenticity In The Age of Generative AI
- arxiv url: http://arxiv.org/abs/2504.13205v1
- Date: Tue, 15 Apr 2025 20:36:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-28 21:06:40.923217
- Title: On-Device Watermarking: A Socio-Technical Imperative For Authenticity In The Age of Generative AI
- Title(参考訳): デバイス上でのウォーターマーキング - 生成AI時代における正当性のためのソシオテクノロジー・インペラティクス
- Authors: Houssam Kherraz,
- Abstract要約: 私たちは間違ったアプローチを採用しており、暗号署名による透かしに注力すべきだと論じています。
特に音声・視覚コンテンツについては、実際のコンテンツはすべて物理的世界に根ざし、ハードウェアセンサーを介してキャプチャされる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As generative AI models produce increasingly realistic output, both academia and industry are focusing on the ability to detect whether an output was generated by an AI model or not. Many of the research efforts and policy discourse are centered around robust watermarking of AI outputs. While plenty of progress has been made, all watermarking and AI detection techniques face severe limitations. In this position paper, we argue that we are adopting the wrong approach, and should instead focus on watermarking via cryptographic signatures trustworthy content rather than AI generated ones. For audio-visual content, in particular, all real content is grounded in the physical world and captured via hardware sensors. This presents a unique opportunity to watermark at the hardware layer, and we lay out a socio-technical framework and draw parallels with HTTPS certification and Blu-Ray verification protocols. While acknowledging implementation challenges, we contend that hardware-based authentication offers a more tractable path forward, particularly from a policy perspective. As generative models approach perceptual indistinguishability, the research community should be wary of being overly optimistic with AI watermarking, and we argue that AI watermarking research efforts are better spent in the text and LLM space, which are ultimately not traceable to a physical sensor.
- Abstract(参考訳): 生成AIモデルがますます現実的なアウトプットを生み出すにつれて、学術と産業の両方が、AIモデルによってアウトプットが生成されたかどうかを検出する能力に注力している。
研究活動や政策談話の多くは、AI出力の堅牢な透かしを中心にしている。
多くの進歩があったが、すべての透かしとAI検出技術は厳しい制限に直面している。
このポジションペーパーでは、我々は間違ったアプローチを採用しており、代わりに、AI生成コンテンツではなく、信頼できるコンテンツの暗号署名による透かしに焦点を当てるべきである、と論じている。
特に音声・視覚コンテンツについては、実際のコンテンツはすべて物理的世界に根ざし、ハードウェアセンサーを介してキャプチャされる。
これはハードウェア層を透かし出すユニークな機会であり、私たちは社会技術フレームワークを構築し、HTTPS認証とBlu-Ray検証プロトコルで並列を描画します。
実装上の課題を認識しながら、ハードウェアベースの認証は、特にポリシーの観点から、より魅力的なパスを提供する、と我々は主張する。
AI透かしの研究努力はテキストやLSM空間に費やされているが、最終的には物理的なセンサーに追跡できない、と我々は論じている。
関連論文リスト
- Could AI Trace and Explain the Origins of AI-Generated Images and Text? [53.11173194293537]
AI生成コンテンツは、現実の世界ではますます普及している。
敵は、大規模なマルチモーダルモデルを利用して、倫理的または法的基準に違反した画像を作成するかもしれない。
ペーパーレビュアーは、大きな言語モデルを誤用して、真の知的努力なしにレビューを生成する。
論文 参考訳(メタデータ) (2025-04-05T20:51:54Z) - Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
誤分類は、偽の盗作行為の告発や、オンラインコンテンツにおけるAIの普及に関する誤解を招く可能性がある。
我々は、AI-Polished-Text Evaluationデータセットを用いて、最先端の11のAIテキスト検出を体系的に評価した。
我々の発見によると、検出器は、最小限に磨き上げられたテキストをAI生成と誤分類し、AIの関与度を区別し、古いモデルと小さなモデルに偏見を示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - Watermarking across Modalities for Content Tracing and Generative AI [2.456311843339488]
この論文には、画像、オーディオ、テキストのための新しい透かし技術の開発が含まれている。
まず,ソーシャルプラットフォーム上で画像の能動的モデレーションを行う手法を紹介する。
そして、AI生成コンテンツのための特定の技術を開発する。
論文 参考訳(メタデータ) (2025-02-04T18:49:50Z) - SoK: Watermarking for AI-Generated Content [112.9218881276487]
ウォーターマーキングスキームは、AI生成コンテンツに隠された信号を埋め込んで、信頼性の高い検出を可能にする。
透かしは、誤情報や偽造と戦ってAIの安全性と信頼性を高める上で重要な役割を果たす。
本研究の目的は、研究者が透かし法や応用の進歩を指導し、GenAIの幅広い意味に対処する政策立案者を支援することである。
論文 参考訳(メタデータ) (2024-11-27T16:22:33Z) - SoK: On the Role and Future of AIGC Watermarking in the Era of Gen-AI [24.187726079290357]
AIGCの透かしは、悪意のあるアクティビティを緩和するための効果的なソリューションを提供する。
透かしのコア特性に基づいた分類法を提供する。
我々はAIGC透かしの機能とセキュリティの脅威について論じる。
論文 参考訳(メタデータ) (2024-11-18T11:26:42Z) - Certifiably Robust Image Watermark [57.546016845801134]
ジェネレーティブAIは、偽情報やプロパガンダキャンペーンの促進など、多くの社会的懸念を提起する。
ウォーターマークAI生成コンテンツは、これらの懸念に対処するための重要な技術である。
本報告では, 除去・偽造攻撃に対するロバスト性保証を保証した最初の画像透かしを提案する。
論文 参考訳(メタデータ) (2024-07-04T17:56:04Z) - ACW: Enhancing Traceability of AI-Generated Codes Based on Watermarking [5.782554045290121]
コードの一部がAIによって生成されるのか、どのAIが創造者であるのかを知ることが望ましい。
ウォーターマーキングは広く有望なソリューションと考えられており、AI生成テキストの特定に成功している。
本稿では,AI生成コードの透かし手法であるACW(AI Code Watermarking)を提案する。
論文 参考訳(メタデータ) (2024-02-12T09:40:18Z) - Evading Watermark based Detection of AI-Generated Content [45.47476727209842]
生成AIモデルは、非常に現実的なコンテンツを生成することができる。
WatermarkはAI生成コンテンツの検出に活用されている。
類似の透かしをデコードできれば、コンテンツはAI生成として検出される。
論文 参考訳(メタデータ) (2023-05-05T19:20:29Z) - Can AI-Generated Text be Reliably Detected? [50.95804851595018]
大規模言語モデル(LLM)は、様々なアプリケーションで非常によく機能します。
盗作、偽ニュースの発生、スパムなどの活動においてこれらのモデルが誤用される可能性があることは、彼らの責任ある使用に対する懸念を引き起こしている。
我々は、攻撃者の存在下で、これらのAIテキスト検出装置の堅牢性を強調テストする。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。