論文の概要: Raster Domain Text Steganography: A Unified Framework for Multimodal Secure Embedding
- arxiv url: http://arxiv.org/abs/2512.21698v1
- Date: Thu, 25 Dec 2025 14:48:09 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 11:52:31.670051
- Title: Raster Domain Text Steganography: A Unified Framework for Multimodal Secure Embedding
- Title(参考訳): Raster Domain Text Steganography: マルチモーダルなセキュアな埋め込みのための統一フレームワーク
- Authors: A V Uday Kiran Kandala,
- Abstract要約: この研究は、テキスト、画像、オーディオ、ビデオなどの異種データをグリフのピクセル空間に直接埋め込むことができる統一されたドメイン・ステガノグラフィー・フレームワークを導入している。
言語的・構造的テキストベースステガノグラフィーとは異なり、本手法はフォント描画後にのみ動作する。
各グリフは、最小摂動インキ画素の濃度によってペイロード値が表現される秘密符号化ユニットとして機能する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This work introduces a unified raster domain steganographic framework, termed as the Glyph Perturbation Cardinality (GPC) framework, capable of embedding heterogeneous data such as text, images, audio, and video directly into the pixel space of rendered textual glyphs. Unlike linguistic or structural text based steganography, the proposed method operates exclusively after font rasterization, modifying only the bitmap produced by a deterministic text rendering pipeline. Each glyph functions as a covert encoding unit, where a payload value is expressed through the cardinality of minimally perturbed interior ink pixels. These minimal intensity increments remain visually imperceptible while forming a stable and decodable signal. The framework is demonstrated for text to text embedding and generalized to multimodal inputs by normalizing image intensities, audio derived scalar features, and video frame values into bounded integer sequences distributed across glyphs. Decoding is achieved by re-rasterizing the cover text, subtracting canonical glyph rasters, and recovering payload values via pixel count analysis. The approach is computationally lightweight, and grounded in deterministic raster behavior, enabling ordinary text to serve as a visually covert medium for multimodal data embedding.
- Abstract(参考訳): この研究は、Glyph Perturbation Cardinality(GPC)フレームワークと呼ばれる統一されたラスター領域のステガノグラフィーフレームワークを導入し、テキスト、画像、オーディオ、ビデオなどの異種データをレンダリングされたテキストグリフのピクセル空間に直接埋め込むことができる。
言語的,構造的テキストベースのステガノグラフィとは異なり,提案手法はフォントラスタ化後にのみ動作し,決定論的テキストレンダリングパイプラインによって生成されるビットマップのみを変更する。
各グリフは、最小摂動インキ画素の濃度によってペイロード値が表現される秘密符号化ユニットとして機能する。
これらの最小強度の増分は、安定かつ退化可能なシグナルを形成しながら視覚的に知覚できないままである。
このフレームワークは、画像強度、音声導出スカラー特徴、およびビデオフレーム値をグリフに分散した有界整数列に正規化することにより、テキストからテキストへの埋め込みを実証し、マルチモーダル入力に一般化する。
復号化は、カバーテキストの再ラスタ化、標準グリフラスタの減算、ピクセルカウント解析によるペイロード値の回復によって達成される。
このアプローチは計算的に軽量であり、決定論的ラスタの振る舞いに基礎を置いており、通常のテキストはマルチモーダルデータ埋め込みのための視覚的に隠蔽された媒体として機能することができる。
関連論文リスト
- GlyphMastero: A Glyph Encoder for High-Fidelity Scene Text Editing [23.64662356622401]
GlyphMasteroという特殊なグリフエンコーダは、ストロークレベルの精度でテキストを生成するために、潜時拡散モデルを導出するために設計されている。
本手法は,現状のシーンテキスト編集ベースラインよりも文精度が18.02%向上した。
論文 参考訳(メタデータ) (2025-05-08T03:11:58Z) - A Novel Framework For Text Detection From Natural Scene Images With Complex Background [0.0]
本稿では,ウェーブレット変換を用いた複雑な背景を持つ画像からテキスト領域を検出する手法を提案する。
このフレームワークは、元の画像をグレースケールでウェーブレット変換し、次にサブバンドフィルタリングする。
論文 参考訳(メタデータ) (2024-09-15T07:12:33Z) - Decoder Pre-Training with only Text for Scene Text Recognition [54.93037783663204]
シーンテキスト認識(STR)事前学習法は,主に合成データセットに依存し,顕著な進歩を遂げている。
STR(DPTR)用テキストのみを用いたDecoder Pre-trainingという新しい手法を提案する。
DPTRはCLIPテキストエンコーダが生成したテキスト埋め込みを擬似視覚埋め込みとして扱い、デコーダの事前訓練に使用する。
論文 参考訳(メタデータ) (2024-08-11T06:36:42Z) - Text Reading Order in Uncontrolled Conditions by Sparse Graph
Segmentation [71.40119152422295]
テキストの読み出し順序を識別するための軽量でスケーラブルで一般化可能なアプローチを提案する。
モデルは言語に依存しず、多言語データセットで効果的に実行される。
モバイルデバイスを含むあらゆるプラットフォームにデプロイできるほど小さい。
論文 参考訳(メタデータ) (2023-05-04T06:21:00Z) - SpaText: Spatio-Textual Representation for Controllable Image Generation [61.89548017729586]
SpaTextはオープン語彙シーン制御を用いたテキスト・ツー・イメージ生成の新しい手法である。
シーン全体を記述したグローバルテキストプロンプトに加えて、ユーザはセグメンテーションマップを提供する。
現状拡散モデルである画素ベースと潜在条件ベースでの有効性を示す。
論文 参考訳(メタデータ) (2022-11-25T18:59:10Z) - Aggregated Text Transformer for Scene Text Detection [5.387121933662753]
本稿では,シーン画像中のテキストをマルチスケールの自己認識機構で表現するアグリゲートテキストTRansformer(ATTR)を提案する。
マルチスケール画像表現は頑健であり、様々なサイズのテキストコンテンツに関する豊富な情報を含んでいる。
提案手法は,各テキストインスタンスを個々のバイナリマスクとして表現することで,シーンテキストを検出する。
論文 参考訳(メタデータ) (2022-11-25T09:47:34Z) - Self-supervised Character-to-Character Distillation for Text Recognition [54.12490492265583]
そこで本研究では,テキスト表現学習を容易にする汎用的な拡張を可能にする,自己教師型文字-文字-文字間蒸留法CCDを提案する。
CCDは、テキスト認識の1.38%、テキストセグメンテーションの1.7%、PSNRの0.24dB、超解像の0.0321(SSIM)で、最先端の結果を達成する。
論文 参考訳(メタデータ) (2022-11-01T05:48:18Z) - Language-driven Semantic Segmentation [88.21498323896475]
本稿では,言語駆動型セマンティックイメージセグメンテーションの新しいモデルLSegを提案する。
テキストエンコーダを用いて記述型入力ラベルの埋め込みを計算する。
エンコーダは、画素埋め込みを対応するセマンティッククラスのテキスト埋め込みに合わせるために、対照的な目的で訓練される。
論文 参考訳(メタデータ) (2022-01-10T18:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。