論文の概要: Implicit Steganography Beyond the Constraints of Modality
- arxiv url: http://arxiv.org/abs/2312.05496v3
- Date: Tue, 31 Dec 2024 12:18:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-03 14:35:03.436690
- Title: Implicit Steganography Beyond the Constraints of Modality
- Title(参考訳): モダリティの制約を超えたインプシット・ステガノグラフィー
- Authors: Sojeong Song, Seoyun Yang, Chang D. Yoo, Junmo Kim,
- Abstract要約: クロスモーダルステガノグラフィーは、あるモダリティの秘密情報を他のモダリティに隠蔽する。
Inlicit Neural Representations (INR) に基づく革新的なクロスモーダルステガノグラフィーフレームワーク INRSteg を提案する。
本稿では,複数のデータを隠蔽し,画像,オーディオ,ビデオ,3次元形状を横断的に共有することのできる,マスク付きパラメータ更新による新しいネットワーク割当フレームワークを提案する。
- 参考スコア(独自算出の注目度): 38.24251238174342
- License:
- Abstract: Cross-modal steganography is committed to hiding secret information of one modality in another modality. Despite the advancement in the field of steganography by the introduction of deep learning, cross-modal steganography still remains to be a challenge to the field. The incompatibility between different modalities not only complicate the hiding process but also results in increased vulnerability to detection. To rectify these limitations, we present INRSteg, an innovative cross-modal steganography framework based on Implicit Neural Representations (INRs). We introduce a novel network allocating framework with a masked parameter update which facilitates hiding multiple data and enables cross modality across image, audio, video and 3D shape. Moreover, we eliminate the necessity of training a deep neural network and therefore substantially reduce the memory and computational cost and avoid domain adaptation issues. To the best of our knowledge, in the field of steganography, this is the first to introduce diverse modalities to both the secret and cover data. Detailed experiments in extreme modality settings demonstrate the flexibility, security, and robustness of INRSteg.
- Abstract(参考訳): クロスモーダルステガノグラフィーは、あるモダリティの秘密情報を他のモダリティに隠蔽する。
深層学習の導入によるステガノグラフィーの分野の進歩にもかかわらず、クロスモーダルステガノグラフィーは依然としてこの分野の課題である。
異なるモダリティ間の非互換性は、隠蔽プロセスを複雑にするだけでなく、検出に対する脆弱性の増加をもたらす。
Inlicit Neural Representations (INRs) に基づく革新的なクロスモーダルステガノグラフィーフレームワーク INRSteg を提案する。
本稿では,複数のデータを隠蔽し,画像,オーディオ,ビデオ,3次元形状を横断的に共有することのできる,マスク付きパラメータ更新による新しいネットワーク割当フレームワークを提案する。
さらに、深層ニューラルネットワークのトレーニングの必要性を排除し、メモリと計算コストを大幅に削減し、ドメイン適応の問題を回避する。
私たちの知る限りでは、ステガノグラフィーの分野では、秘密データとカバーデータの両方に多様なモダリティを導入するのはこれが初めてです。
極端なモダリティ設定における詳細な実験は、INRStegの柔軟性、セキュリティ、堅牢性を示している。
関連論文リスト
- TMI-CLNet: Triple-Modal Interaction Network for Chronic Liver Disease Prognosis From Imaging, Clinical, and Radiomic Data Fusion [3.2805467531625556]
慢性肝疾患は世界中で大きな健康上の課題となっている。
最近の証拠は、マルチモーダルデータを統合することで、より包括的な予後情報が得られることを示唆している。
本稿ではTMI-CLNet(Triple-Modal Interaction chronic Liver Network)について紹介する。
論文 参考訳(メタデータ) (2025-02-02T07:05:28Z) - MFCLIP: Multi-modal Fine-grained CLIP for Generalizable Diffusion Face Forgery Detection [64.29452783056253]
フォトリアリスティック・フェイスジェネレーション手法の急速な発展は、社会やアカデミックにおいて大きな関心を集めている。
既存のアプローチは主に画像モダリティを用いて顔の偽造パターンをキャプチャするが、きめ細かいノイズやテキストのような他のモダリティは完全には探索されていない。
そこで本研究では,画像ノイズの多点にわたる包括的かつきめ細かなフォージェリートレースをマイニングする,MFCLIP(MF-modal Fine-fine-fine-fine-fine-fine CLIP)モデルを提案する。
論文 参考訳(メタデータ) (2024-09-15T13:08:59Z) - Natias: Neuron Attribution based Transferable Image Adversarial Steganography [62.906821876314275]
逆行性ステガナグラフィーは、ディープラーニングに基づくステガナリシスを効果的に欺く能力から、かなりの注目を集めている。
そこで我々は,Natias という新たな逆向きステガノグラフィー手法を提案する。
提案手法は既存の逆向きステガノグラフィーフレームワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2024-09-08T04:09:51Z) - Unveiling Incomplete Modality Brain Tumor Segmentation: Leveraging Masked Predicted Auto-Encoder and Divergence Learning [6.44069573245889]
脳腫瘍のセグメンテーションは、特にマルチモーダルMRI(Multi-modal magnetic resonance imaging)における重要な課題である。
本稿では,不完全なモダリティデータから頑健な特徴学習を可能にする,マスク付き予測事前学習方式を提案する。
微調整段階において、我々は知識蒸留技術を用いて、完全なモダリティデータと欠落したモダリティデータの間に特徴を整列させ、同時にモデルロバスト性を向上する。
論文 参考訳(メタデータ) (2024-06-12T20:35:16Z) - FORESEE: Multimodal and Multi-view Representation Learning for Robust Prediction of Cancer Survival [3.4686401890974197]
マルチモーダル情報のマイニングにより患者生存を確実に予測する新しいエンドツーエンドフレームワークFOESEEを提案する。
クロスフュージョントランスフォーマーは、細胞レベル、組織レベル、腫瘍の不均一度レベルの特徴を効果的に利用し、予後を相関させる。
ハイブリットアテンションエンコーダ(HAE)は、コンテキストアテンションモジュールを用いて、コンテキスト関係の特徴を取得する。
また、モダリティ内の損失情報を再構成する非対称マスク型3重マスク型オートエンコーダを提案する。
論文 参考訳(メタデータ) (2024-05-13T12:39:08Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Deep Cross-Modal Steganography Using Neural Representations [24.16485513152904]
Inlicit Neural Representations (INR) を用いたクロスモーダルステガノグラフィーフレームワークを提案する。
提案フレームワークは秘密データを表現するためにINRを用いており、様々なモダリティや解像度のデータを扱うことができる。
論文 参考訳(メタデータ) (2023-07-02T08:08:02Z) - CLIP-Driven Fine-grained Text-Image Person Re-identification [50.94827165464813]
TIReIDは、候補画像のプールから与えられたテキストクエリに対応する画像を取得することを目的としている。
TIReIDにおけるCLIPの強力な知識をフル活用するための,CLIP駆動のきめ細かい情報抽出フレームワーク(CFine)を提案する。
論文 参考訳(メタデータ) (2022-10-19T03:43:12Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。