論文の概要: Text-Guided Image Invariant Feature Learning for Robust Image Watermarking
- arxiv url: http://arxiv.org/abs/2503.13805v1
- Date: Tue, 18 Mar 2025 01:32:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 14:16:54.987814
- Title: Text-Guided Image Invariant Feature Learning for Robust Image Watermarking
- Title(参考訳): ロバスト画像透かしのためのテキストガイド画像不変特徴学習
- Authors: Muhammad Ahtesham, Xin Zhong,
- Abstract要約: 本稿では,ロバストな画像透かしのための新しいテキスト誘導不変特徴学習フレームワークを提案する。
提案手法を複数のデータセットにまたがって評価し,様々な画像変換に対して優れたロバスト性を示す。
- 参考スコア(独自算出の注目度): 1.4042211166197214
- License:
- Abstract: Ensuring robustness in image watermarking is crucial for and maintaining content integrity under diverse transformations. Recent self-supervised learning (SSL) approaches, such as DINO, have been leveraged for watermarking but primarily focus on general feature representation rather than explicitly learning invariant features. In this work, we propose a novel text-guided invariant feature learning framework for robust image watermarking. Our approach leverages CLIP's multimodal capabilities, using text embeddings as stable semantic anchors to enforce feature invariance under distortions. We evaluate the proposed method across multiple datasets, demonstrating superior robustness against various image transformations. Compared to state-of-the-art SSL methods, our model achieves higher cosine similarity in feature consistency tests and outperforms existing watermarking schemes in extraction accuracy under severe distortions. These results highlight the efficacy of our method in learning invariant representations tailored for robust deep learning-based watermarking.
- Abstract(参考訳): 画像透かしの堅牢性を保証することは、多様な変換の下でコンテンツ整合性を維持するために不可欠である。
最近の自己教師付き学習(SSL)アプローチであるDINOは、透かしに活用されているが、主に不変の特徴を明示的に学習するのではなく、一般的な特徴表現に焦点を当てている。
本研究では,ロバストな画像透かしのための新しいテキスト誘導不変特徴学習フレームワークを提案する。
我々のアプローチはCLIPのマルチモーダル機能を活用し、テキスト埋め込みを安定なセマンティックアンカーとして使用し、歪みの下で特徴不変性を強制する。
提案手法を複数のデータセットにまたがって評価し,様々な画像変換に対して優れたロバスト性を示す。
最新のSSL法と比較すると,特徴整合性試験におけるコサイン類似性が向上し,高精度な歪み下での抽出精度において既存の透かし方式よりも優れる。
これらの結果は,頑健な深層学習に基づく透かしに適した不変表現の学習における本手法の有効性を強調した。
関連論文リスト
- ViLa-MIL: Dual-scale Vision-Language Multiple Instance Learning for Whole Slide Image Classification [52.405499816861635]
多重インスタンス学習(MIL)ベースのフレームワークは、スライド画像全体(WSI)を処理する上で主流になっている。
スライド画像全体の分類のための2次元視覚言語多言語学習(ViLa-MIL)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-12T13:28:46Z) - ConDL: Detector-Free Dense Image Matching [2.7582789611575897]
本稿では,高密度画像の対応性を推定するためのディープラーニングフレームワークを提案する。
我々の完全畳み込みモデルは画像の高密度な特徴マップを生成し、各ピクセルは複数の画像にマッチするディスクリプタに関連付けられている。
論文 参考訳(メタデータ) (2024-08-05T18:34:15Z) - SWIFT: Semantic Watermarking for Image Forgery Thwarting [12.515429388063534]
我々は、画像キャプションを表す高次元実ベクトルを埋め込んで抽出するために、HiDDeNディープラーニング透かしアーキテクチャを変更した。
本手法は良性編集と良性編集の両方において有意に改善する。
論文 参考訳(メタデータ) (2024-07-26T09:50:13Z) - Fine-grained Image-to-LiDAR Contrastive Distillation with Visual Foundation Models [55.99654128127689]
Visual Foundation Models (VFM) は、弱い教師付きピクセル対ポイントのコントラスト蒸留のためのセマンティックラベルを生成するために使用される。
我々は,空間分布とカテゴリー周波数の不均衡に対応するために,点のサンプリング確率を適応させる。
我々の手法は、下流タスクにおける既存の画像からLiDARへのコントラスト蒸留法を一貫して超越している。
論文 参考訳(メタデータ) (2024-05-23T07:48:19Z) - Deep Learning-based Text-in-Image Watermarking [4.938567115890841]
テキスト・イン・イメージ・透かしに対する新しい深層学習手法を提案する。
データセキュリティと整合性を高めるため,画像内にテキスト情報を埋め込んで抽出する。
論文 参考訳(メタデータ) (2024-04-19T18:52:07Z) - Introspective Deep Metric Learning [91.47907685364036]
本稿では,不確実性を考慮した画像比較のためのイントロスペクティブな深度学習フレームワークを提案する。
提案するIDMLフレームワークは,不確実性モデリングによるディープメトリック学習の性能を向上させる。
論文 参考訳(メタデータ) (2023-09-11T16:21:13Z) - Improving Diffusion-based Image Translation using Asymmetric Gradient
Guidance [51.188396199083336]
非対称勾配法の適用により拡散サンプリングの逆過程を導出する手法を提案する。
我々のモデルの適応性は、画像融合モデルと潜時拡散モデルの両方で実装できる。
実験により,本手法は画像翻訳タスクにおいて,様々な最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-06-07T12:56:56Z) - Masked and Adaptive Transformer for Exemplar Based Image Translation [16.93344592811513]
ドメイン間のセマンティックマッチングは難しい。
正確なクロスドメイン対応を学習するためのマスク付き適応変換器(MAT)を提案する。
品質識別型スタイル表現を得るための新しいコントラスト型スタイル学習法を考案する。
論文 参考訳(メタデータ) (2023-03-30T03:21:14Z) - Introspective Deep Metric Learning for Image Retrieval [80.29866561553483]
良好な類似性モデルは、より堅牢なトレーニングのために曖昧なイメージをよりよく扱うように注意しながら、意味的な相違を考慮すべきである、と我々は主張する。
本稿では,画像の意味的特徴とあいまいさを記述した,意味的埋め込みだけでなく,付随する不確実性埋め込みを用いて画像を表現することを提案する。
提案したIDMLフレームワークは,不確実性モデリングによるディープメトリック学習の性能向上を実現し,広く使用されているCUB-200-2011,Cars196,Stanford Online Productsデータセットの最先端結果を得る。
論文 参考訳(メタデータ) (2022-05-09T17:51:44Z) - Learning Contrastive Representation for Semantic Correspondence [150.29135856909477]
セマンティックマッチングのためのマルチレベルコントラスト学習手法を提案する。
画像レベルのコントラスト学習は、畳み込み特徴が類似したオブジェクト間の対応を見出すための鍵となる要素であることを示す。
論文 参考訳(メタデータ) (2021-09-22T18:34:14Z) - Learning Transformation-Aware Embeddings for Image Forensics [15.484408315588569]
Image Provenance Analysisは、コンテンツを共有するさまざまな操作されたイメージバージョン間の関係を見つけることを目的としている。
証明分析のための主要なサブプロブレムの1つは、完全なコンテンツを共有したり、ほぼ重複している画像の編集順序である。
本稿では,1つの画像から生成した画像に対して,変換を通じて妥当な順序付けを行うための,新しい深層学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-01-13T22:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。