論文の概要: Flexible Cross-Modal Steganography via Implicit Representations
- arxiv url: http://arxiv.org/abs/2312.05496v2
- Date: Tue, 12 Dec 2023 06:23:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 12:42:08.204537
- Title: Flexible Cross-Modal Steganography via Implicit Representations
- Title(参考訳): 命令表現によるフレキシブル・クロスモーダル・ステガノグラフィ
- Authors: Seoyun Yang, Sojeong Song, Chang D. Yoo, Junmo Kim
- Abstract要約: 我々のフレームワークは、高品質なステゴデータを保証するために、元のINRを変更することなく、複数のデータを効果的に隠蔽すると考えられる。
本フレームワークは,画像,音声,ビデオ,3次元形状など,様々な形態のクロスモーダルステガノグラフィーを行うことができる。
- 参考スコア(独自算出の注目度): 41.777197453697056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present INRSteg, an innovative lossless steganography framework based on a
novel data form Implicit Neural Representations (INR) that is modal-agnostic.
Our framework is considered for effectively hiding multiple data without
altering the original INR ensuring high-quality stego data. The neural
representations of secret data are first concatenated to have independent paths
that do not overlap, then weight freezing techniques are applied to the
diagonal blocks of the weight matrices for the concatenated network to preserve
the weights of secret data while additional free weights in the off-diagonal
blocks of weight matrices are fitted to the cover data. Our framework can
perform unexplored cross-modal steganography for various modalities including
image, audio, video, and 3D shapes, and it achieves state-of-the-art
performance compared to previous intra-modal steganographic methods.
- Abstract(参考訳): Inlicit Neural Representation (INR) という, モーダル非依存な新しいデータ形式に基づく, 革新的な無損失ステガノグラフィーフレームワーク INRSteg を提案する。
我々のフレームワークは、高品質なステゴデータを保証するために、元のINRを変更することなく、複数のデータを効果的に隠蔽すると考えられる。
秘密データの神経表現は、まず、重複しない独立した経路を有するように連結され、次いで、連結されたネットワークの重み行列の対角ブロックに重み凍結技術を適用して秘密データの重みを保存するとともに、重み行列の対角ブロックの余剰自由重量をカバーデータに取付ける。
本フレームワークは,画像,音声,映像,3次元形状など,さまざまなモードに対して,探索されていないクロスモーダルステガノグラフィを動作させることができる。
関連論文リスト
- TMI-CLNet: Triple-Modal Interaction Network for Chronic Liver Disease Prognosis From Imaging, Clinical, and Radiomic Data Fusion [3.2805467531625556]
慢性肝疾患は世界中で大きな健康上の課題となっている。
最近の証拠は、マルチモーダルデータを統合することで、より包括的な予後情報が得られることを示唆している。
本稿ではTMI-CLNet(Triple-Modal Interaction chronic Liver Network)について紹介する。
論文 参考訳(メタデータ) (2025-02-02T07:05:28Z) - MFCLIP: Multi-modal Fine-grained CLIP for Generalizable Diffusion Face Forgery Detection [64.29452783056253]
フォトリアリスティック・フェイスジェネレーション手法の急速な発展は、社会やアカデミックにおいて大きな関心を集めている。
既存のアプローチは主に画像モダリティを用いて顔の偽造パターンをキャプチャするが、きめ細かいノイズやテキストのような他のモダリティは完全には探索されていない。
そこで本研究では,画像ノイズの多点にわたる包括的かつきめ細かなフォージェリートレースをマイニングする,MFCLIP(MF-modal Fine-fine-fine-fine-fine-fine CLIP)モデルを提案する。
論文 参考訳(メタデータ) (2024-09-15T13:08:59Z) - Natias: Neuron Attribution based Transferable Image Adversarial Steganography [62.906821876314275]
逆行性ステガナグラフィーは、ディープラーニングに基づくステガナリシスを効果的に欺く能力から、かなりの注目を集めている。
そこで我々は,Natias という新たな逆向きステガノグラフィー手法を提案する。
提案手法は既存の逆向きステガノグラフィーフレームワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2024-09-08T04:09:51Z) - Unveiling Incomplete Modality Brain Tumor Segmentation: Leveraging Masked Predicted Auto-Encoder and Divergence Learning [6.44069573245889]
脳腫瘍のセグメンテーションは、特にマルチモーダルMRI(Multi-modal magnetic resonance imaging)における重要な課題である。
本稿では,不完全なモダリティデータから頑健な特徴学習を可能にする,マスク付き予測事前学習方式を提案する。
微調整段階において、我々は知識蒸留技術を用いて、完全なモダリティデータと欠落したモダリティデータの間に特徴を整列させ、同時にモデルロバスト性を向上する。
論文 参考訳(メタデータ) (2024-06-12T20:35:16Z) - FORESEE: Multimodal and Multi-view Representation Learning for Robust Prediction of Cancer Survival [3.4686401890974197]
マルチモーダル情報のマイニングにより患者生存を確実に予測する新しいエンドツーエンドフレームワークFOESEEを提案する。
クロスフュージョントランスフォーマーは、細胞レベル、組織レベル、腫瘍の不均一度レベルの特徴を効果的に利用し、予後を相関させる。
ハイブリットアテンションエンコーダ(HAE)は、コンテキストアテンションモジュールを用いて、コンテキスト関係の特徴を取得する。
また、モダリティ内の損失情報を再構成する非対称マスク型3重マスク型オートエンコーダを提案する。
論文 参考訳(メタデータ) (2024-05-13T12:39:08Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Deep Cross-Modal Steganography Using Neural Representations [24.16485513152904]
Inlicit Neural Representations (INR) を用いたクロスモーダルステガノグラフィーフレームワークを提案する。
提案フレームワークは秘密データを表現するためにINRを用いており、様々なモダリティや解像度のデータを扱うことができる。
論文 参考訳(メタデータ) (2023-07-02T08:08:02Z) - CLIP-Driven Fine-grained Text-Image Person Re-identification [50.94827165464813]
TIReIDは、候補画像のプールから与えられたテキストクエリに対応する画像を取得することを目的としている。
TIReIDにおけるCLIPの強力な知識をフル活用するための,CLIP駆動のきめ細かい情報抽出フレームワーク(CFine)を提案する。
論文 参考訳(メタデータ) (2022-10-19T03:43:12Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。