論文の概要: Provenance Verification of AI-Generated Images via a Perceptual Hash Registry Anchored on Blockchain
- arxiv url: http://arxiv.org/abs/2602.02412v1
- Date: Mon, 02 Feb 2026 18:13:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.348523
- Title: Provenance Verification of AI-Generated Images via a Perceptual Hash Registry Anchored on Blockchain
- Title(参考訳): ブロックチェーン上に記録された知覚的ハッシュレジストリによるAI生成画像の精度検証
- Authors: Apoorv Mohit, Bhavya Aggarwal, Chinmay Gondhalekar,
- Abstract要約: 本稿では,レジストリベースの証明機構を用いて,AI生成画像の検証を行うブロックチェーン支援フレームワークを提案する。
提案システムは,すべての合成画像を普遍的に検出することではなく,生成時に登録されたAI生成コンテンツの証明に重点を置いている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The rapid advancement of artificial intelligence has made the generation of synthetic images widely accessible, increasing concerns related to misinformation, digital forgery, and content authenticity on large-scale online platforms. This paper proposes a blockchain-backed framework for verifying AI-generated images through a registry-based provenance mechanism. Each AI-generated image is assigned a digital fingerprint that preserves similarity using perceptual hashing and is registered at creation time by participating generation platforms. The hashes are stored on a hybrid on-chain/off-chain public blockchain using a Merkle Patricia Trie for tamper-resistant storage (on-chain) and a Burkhard-Keller tree (off-chain) to enable efficient similarity search over large image registries. Verification is performed when images are re-uploaded to digital platforms such as social media services, enabling identification of previously registered AI-generated images even after benign transformations or partial modifications. The proposed system does not aim to universally detect all synthetic images, but instead focuses on verifying the provenance of AI-generated content that has been registered at creation time. By design, this approach complements existing watermarking and learning-based detection methods, providing a platform-agnostic, tamper-proof mechanism for scalable content provenance and authenticity verification at the point of large-scale online distribution.
- Abstract(参考訳): 人工知能の急速な進歩により、合成画像が広くアクセス可能となり、大規模なオンラインプラットフォームにおける誤情報、デジタル偽造、コンテンツ信頼性に関する懸念が高まっている。
本稿では,レジストリベースの証明機構を用いて,AI生成画像の検証を行うブロックチェーン支援フレームワークを提案する。
それぞれのAI生成画像は、知覚ハッシュを用いて類似性を保ち、生成プラットフォームに参加することによって作成時に登録されるデジタル指紋が割り当てられる。
ハッシュはMerkle Patricia Trieを使用してハイブリッドオンチェーン/オフチェーンのパブリックブロックチェーン上に格納され、タンパー耐性ストレージ(オンチェーン)とBurkhard-Kellerツリー(オフチェーン)を使用して、大規模なイメージレジストリ上で効率的な類似性検索を可能にする。
画像がソーシャルメディアサービスなどのデジタルプラットフォームに再アップロードされた際に検証が行われ、良質な変換や部分的な修正後であっても、事前に登録されたAI生成画像の識別が可能になる。
提案システムは,すべての合成画像を普遍的に検出することではなく,生成時に登録されたAI生成コンテンツの証明に重点を置いている。
提案手法は,既存の透かしと学習に基づく検出手法を補完し,大規模オンライン配信の時点での,スケーラブルなコンテンツ証明と信頼性検証のためのプラットフォームに依存しない,タンパー保護機構を提供する。
関連論文リスト
- Adapter Shield: A Unified Framework with Built-in Authentication for Preventing Unauthorized Zero-Shot Image-to-Image Generation [74.5813283875938]
ゼロショット画像・画像生成は知的財産権侵害に重大なリスクをもたらす。
この研究は、個人イメージを誤用から守ることを目的とした、最初の普遍的および認証統合ソリューションであるAdapter Shieldを提示する。
提案手法は, ゼロショット画像合成の不正化において, 最先端の防御を克服する。
論文 参考訳(メタデータ) (2025-11-25T04:49:16Z) - Provenance of AI-Generated Images: A Vector Similarity and Blockchain-based Approach [3.632189127068905]
本稿では,AI生成画像と実(人間による)画像とを識別する組込み型AI画像検出フレームワークを提案する。
提案手法は,AI生成画像が他のAI生成コンテンツに近接していることを示す仮説に基づいている。
以上の結果から,中程度の摂動と高摂動が埋め込みシグネチャに最小限に影響を及ぼすことが確認された。
論文 参考訳(メタデータ) (2025-10-15T00:49:56Z) - A Watermark for Auto-Regressive Image Generation Models [50.599325258178254]
画像生成モデル用に明示的に設計された歪みのない透かし法であるC-reweightを提案する。
C-reweightは画像の忠実性を維持しながら再起動ミスマッチを緩和する。
論文 参考訳(メタデータ) (2025-06-13T00:15:54Z) - Provenance Detection for AI-Generated Images: Combining Perceptual Hashing, Homomorphic Encryption, and AI Detection Models [0.0]
我々は、セキュアでトランスフォーメーションに耐性のあるAIコンテンツ検出のためのフレームワークを開発する。
我々は、対角的に頑健な最先端の知覚ハッシュモデルDinoHashを開発した。
我々は,ユーザクエリとレジストリプライバシの両方の保護を確保するために,MP-FHE(Multi-Party Fully Homomorphic Encryption)方式を提案フレームワークに統合する。
論文 参考訳(メタデータ) (2025-03-14T08:42:18Z) - Safe-SD: Safe and Traceable Stable Diffusion with Text Prompt Trigger for Invisible Generative Watermarking [20.320229647850017]
安定拡散(SD)モデルは一般的に画像合成とパーソナライズされた編集の分野で栄えている。
AIが作成したコンテンツを公開プラットフォームに公開することで、法的および倫理的リスクが高まる可能性がある。
本研究では,透かしを認識不能な構造に適応させる,安全かつ高追従性安定拡散フレームワーク(SafeSD)を提案する。
論文 参考訳(メタデータ) (2024-07-18T05:53:17Z) - Solutions to Deepfakes: Can Camera Hardware, Cryptography, and Deep Learning Verify Real Images? [51.3344199560726]
信頼性の高い合成データから実際のデータを分離する手法を確立することが不可欠である。
この文書は、どの画像が本物かを検証するために使用できる検出と暗号に関する既知の戦略を提示することを目的としている。
論文 参考訳(メタデータ) (2024-07-04T22:01:21Z) - Unrecognizable Yet Identifiable: Image Distortion with Preserved Embeddings [22.338328674283062]
本稿では,ニューラルネットワークモデルによる顔画像の識別性を保ちながら,目に対して認識不能な顔画像を描画する,革新的な画像変換手法を提案する。
提案手法は、様々な人工知能アプリケーションにおいて、視覚データを歪曲し、派生した特徴を近接に保つために使用することができる。
同一の認識精度を維持しつつ、画像内容が70%以上変化する歪みを構築することができることを示す。
論文 参考訳(メタデータ) (2024-01-26T18:20:53Z) - Catch You Everything Everywhere: Guarding Textual Inversion via Concept Watermarking [67.60174799881597]
本稿では,透かし情報を対象概念に埋め込んで,その概念に基づいて生成された画像から抽出する新しい概念透かしを提案する。
実際には、コンセプトオーナは、自身のコンセプトを異なる透かし(e, serial number)をプラットフォームにアップロードすることができ、プラットフォームは異なるシリアル番号を、その後の追跡と法医学のために割り当てる。
論文 参考訳(メタデータ) (2023-09-12T03:33:13Z) - Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。