論文の概要: Generative Image Steganography Based on Point Cloud
- arxiv url: http://arxiv.org/abs/2410.11673v2
- Date: Tue, 22 Oct 2024 09:10:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-23 14:26:21.796934
- Title: Generative Image Steganography Based on Point Cloud
- Title(参考訳): 点雲を用いた画像ステレオグラフィー
- Authors: Zhong Yangjie, Liu Jia, Liu Meiqi, Ke Yan, Zhang Minqing,
- Abstract要約: 本稿では,点雲表現に基づく画像ステガノグラフィーを提案する。
実際のニーズに応じて任意の解像度で画像を生成することができ、画像ステガノグラフィーのための明示的なデータの必要性を省略することができる。
実験により, このスキームによって生成されたステガノグラフ画像は, 画像品質が極めて高く, メッセージ抽出精度が99%以上に達することが示された。
- 参考スコア(独自算出の注目度): 2.141273115179375
- License:
- Abstract: In deep steganography, the model size is usually related to the underlying mesh resolution, and a separate neural network needs to be trained as a message extractor. In this paper, we propose a generative image steganography based on point cloud representation, which represents image data as a point cloud, learns the distribution of the point cloud data, and represents it in the form of a continuous function. This method breaks through the limitation of the image resolution, and can generate images with arbitrary resolution according to the actual need, and omits the need for explicit data for image steganography. At the same time, using a fixed point cloud extractor transfers the training of the network to the point cloud data, which saves the training time and avoids the risk of exposing the steganography behavior caused by the transmission of the message extractor. Experiments prove that the steganographic images generated by the scheme have very high image quality and the accuracy of message extraction reaches more than 99%.
- Abstract(参考訳): ディープステガノグラフィーでは、モデルサイズは通常、基盤となるメッシュ解像度に関連しており、個別のニューラルネットワークをメッセージ抽出器としてトレーニングする必要がある。
本稿では、画像データを点クラウドとして表現し、点クラウドデータの分布を学習し、連続関数の形で表現する点クラウド表現に基づく生成画像ステガノグラフィを提案する。
この方法は画像解像度の限界を突破し、実際のニーズに応じて任意の解像度で画像を生成することができ、画像ステガノグラフィーのための明示的なデータの必要性を省く。
同時に、固定点クラウド抽出器を使用することで、ネットワークのトレーニングをポイントクラウドデータに転送し、トレーニング時間を節約し、メッセージ抽出器の送信によるステガノグラフィーの挙動を露呈するリスクを回避する。
実験により, このスキームによって生成されたステガノグラフ画像は, 画像品質が極めて高く, メッセージ抽出精度が99%以上に達することが示された。
関連論文リスト
- Image steganography based on generative implicit neural representation [2.2972561982722346]
本稿では,生成的暗黙的神経表現に基づく画像ステガノグラフィーを提案する。
ニューラルネットワークをメッセージ抽出器として固定することにより、トレーニング負荷を画像自体に効果的にリダイレクトする。
メッセージ抽出の精度は、100%の印象的なマークを得た。
論文 参考訳(メタデータ) (2024-06-04T03:00:47Z) - HVDistill: Transferring Knowledge from Images to Point Clouds via Unsupervised Hybrid-View Distillation [106.09886920774002]
本稿では,HVDistillと呼ばれるハイブリッドビューに基づく知識蒸留フレームワークを提案する。
提案手法は,スクラッチからトレーニングしたベースラインに対して一貫した改善を実現し,既存のスキームを大幅に上回っている。
論文 参考訳(メタデータ) (2024-03-18T14:18:08Z) - Learned representation-guided diffusion models for large-image generation [58.192263311786824]
自己教師型学習(SSL)からの埋め込みを条件とした拡散モデルを訓練する新しいアプローチを導入する。
我々の拡散モデルは、これらの特徴を高品質な病理組織学およびリモートセンシング画像に投影することに成功した。
実画像のバリエーションを生成して実データを増やすことにより、パッチレベルおよび大規模画像分類タスクの下流精度が向上する。
論文 参考訳(メタデータ) (2023-12-12T14:45:45Z) - Zero-shot spatial layout conditioning for text-to-image diffusion models [52.24744018240424]
大規模テキスト・画像拡散モデルでは、生成画像モデリングにおける技術の現状が大幅に改善されている。
画像キャンバスのセグメントに関連付けられたテキストからの画像生成を考察し、直感的な自然言語インタフェースと生成されたコンテンツの正確な空間制御を組み合わせた。
ZestGuideは,事前学習したテキスト・画像拡散モデルにプラグイン可能なゼロショットセグメンテーション誘導手法である。
論文 参考訳(メタデータ) (2023-06-23T19:24:48Z) - Transcending Grids: Point Clouds and Surface Representations Powering
Neurological Processing [13.124650851374316]
医療分野では、医療画像の正確な分類が不可欠であるが、従来の方法では、一貫したグリッド構造で医療データをヒンジすることが多い。
最近の医学研究は、データの表現を考慮せずに、より優れたパフォーマンスを達成するためにアーキテクチャを微調整することに焦点を当てている。
グリッドベースのデータを高次元表現に変換するための新しい手法を提案し、非構造化点クラウドデータ構造を利用する。
論文 参考訳(メタデータ) (2023-05-17T19:34:44Z) - Discriminative Class Tokens for Text-to-Image Diffusion Models [107.98436819341592]
自由形式のテキストの表現可能性を利用した非侵襲的な微調整手法を提案する。
本手法は,従来の微調整法と比較して高速で,クラス内の画像の収集を必要としない。
i)標準拡散モデルよりも正確で高品質な生成画像,(ii)低リソース環境でのトレーニングデータの拡張,および(iii)誘導分類器の訓練に使用されるデータ情報を明らかにする。
論文 参考訳(メタデータ) (2023-03-30T05:25:20Z) - Image Steganography based on Style Transfer [12.756859984638961]
スタイル転送に基づく画像ステガノグラフィーネットワークを提案する。
コンテンツイメージスタイルを変換しながら、秘密情報を埋め込みます。
潜時空間では、秘密情報をカバー画像の潜時表現に統合してステゴ画像を生成する。
論文 参考訳(メタデータ) (2022-03-09T02:58:29Z) - Sharp-GAN: Sharpness Loss Regularized GAN for Histopathology Image
Synthesis [65.47507533905188]
コンディショナル・ジェネレーショナル・ジェネレーティブ・逆境ネットワークは、合成病理像を生成するために応用されている。
そこで我々は,現実的な病理像を合成するために,シャープネスロス正則化生成対向ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T18:54:25Z) - Using GANs to Augment Data for Cloud Image Segmentation Task [2.294014185517203]
本稿では,GAN(Generative Adversarial Networks)によるデータ生成の有効性を示す。
また,GAN生成した画像の2進2進写像を推定し,画像として有効に活用する方法を提案する。
論文 参考訳(メタデータ) (2021-06-06T09:01:43Z) - Data Augmentation for Object Detection via Differentiable Neural
Rendering [71.00447761415388]
注釈付きデータが乏しい場合、堅牢なオブジェクト検出器を訓練することは困難です。
この問題に対処する既存のアプローチには、ラベル付きデータからラベル付きデータを補間する半教師付き学習が含まれる。
オブジェクト検出のためのオフラインデータ拡張手法を導入し、新しいビューでトレーニングデータを意味的に補間する。
論文 参考訳(メタデータ) (2021-03-04T06:31:06Z) - Single Image Cloud Detection via Multi-Image Fusion [23.641624507709274]
アルゴリズム開発における主な課題は、注釈付きトレーニングデータを集めるコストである。
マルチイメージフュージョンの最近の進歩が、シングルイメージクラウド検出のブートストラップにどのように活用できるかを実証する。
我々は、ランドカバー用のピクセルごとのセマンティックラベリングとともに、Sentinel-2画像の大規模なデータセットを収集した。
論文 参考訳(メタデータ) (2020-07-29T22:52:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。