論文の概要: Embedding Textual Information in Images Using Quinary Pixel Combinations
- arxiv url: http://arxiv.org/abs/2601.04302v1
- Date: Wed, 07 Jan 2026 18:58:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:52.876087
- Title: Embedding Textual Information in Images Using Quinary Pixel Combinations
- Title(参考訳): Quinary Pixel Combination を用いた画像中のテキスト情報の埋め込み
- Authors: A V Uday Kiran Kandala,
- Abstract要約: 本稿では,RGB空間に画素インテンシティを連続的に組み合わせた画像にテキストデータを埋め込む手法を提案する。
提案手法は,RGB空間において,R,G,Bの各チャネルにおける5つの異なる画素強度の変動が最大100,20個の異なる画素強度の組み合わせで定式化されるようなクエンタリー画素強度の組み合わせに作用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel technique for embedding textual data into images using quinary combinations of pixel intensities in RGB space. Existing methods predominantly rely on least and most significant bit (LSB & MSB) manipulation, Pixel Value Differencing (PVD), spatial perturbations in RGB channels, transform domain based methods, Quantization methods, Edge and Region based methods and more recently through deep learning methods and generative AI techniques for hiding textual information in spatial domain of images. Most of them are dependent on pixel intensity flipping over multiple pixels, such as LSB and combination of LSB based methodologies, and on transform coefficients, often resulting in the form of noise. Encoding and Decoding are deterministic in most of the existing approaches and are computationally heavy in case of higher models such as deep learning and gen AI approaches. The proposed method works on quinary pixel intensity combinations in RGB space, where five controlled different pixel intensity variations in each of the R, G, and B channels formulate up to one hundred and twenty five distinct pixel intensity combinations. These combinations are mapped to textual symbols, enabling the representation of uppercase and lowercase alphabetic characters, numeric digits, whitespace, and commonly used special characters. Different metrics such as MSE, MAE, SNR, PSNR, SSIM, Histogram Comparison and Heatmap analysis, were evaluated for both original and encoded images resulting in no significant distortion in the images. Furthermore, the method achieves improved embedding efficiency by encoding a complete textual symbol within a single RGB pixel, in contrast to LSB and MSB based approaches that typically require multiple pixels or multi-step processes, as well as transform and learning based methods that incur higher computational overhead.
- Abstract(参考訳): 本稿では,RGB空間に画素インテンシティを連続的に組み合わせた画像にテキストデータを埋め込む手法を提案する。
既存の手法は主に、最小かつ最も重要なビット(LSB & MSB)操作、Pixel Value Difference(PVD)操作、RGBチャネルにおける空間摂動、変換ドメインベースのメソッド、量子化メソッド、エッジとリージョンベースのメソッド、最近では画像の空間領域にテキスト情報を隠蔽するディープラーニング手法と生成AI技術に頼っている。
それらの多くは、LSBやLSBベースの手法の組み合わせのような複数のピクセル上の画素強度の反転と変換係数に依存しており、しばしばノイズの形で生じる。
エンコーディングとデコーディングは、既存のアプローチのほとんどで決定論的であり、ディープラーニングやジェネリックAIアプローチのような高度なモデルの場合、計算的に重い。
提案手法は,RGB空間において,R,G,Bの各チャネルにおける5つの異なる画素強度の変動が最大100,20個の異なる画素強度の組み合わせで定式化されるようなクエンタリー画素強度の組み合わせに作用する。
これらの組み合わせはテキストのシンボルにマッピングされ、大文字と小文字のアルファベット文字、数字の数字、空白文字、そして一般的に使われる特殊文字を表現できる。
MSE, MAE, SNR, PSNR, SSIM, Histogram Comparison, Heatmap analysisなどの異なる指標を, 原画像と符号化画像の両方に対して評価した。
さらに,複数の画素やマルチステッププロセスを必要とするLSBやMSBベースのアプローチとは対照的に,完全なテキストシンボルを1つのRGBピクセル内に符号化することで,埋め込み効率を向上させるとともに,高い計算オーバーヘッドを発生させる変換と学習に基づく手法を実現する。
関連論文リスト
- Learning Invariant Inter-pixel Correlations for Superpixel Generation [12.605604620139497]
学習可能な特徴は、制約付き判別能力を示し、不満足なピクセルグループ化性能をもたらす。
本稿では,不変画素間相関と統計特性を選択的に分離するContentangle Superpixelアルゴリズムを提案する。
4つのベンチマークデータセットの実験結果は、既存の最先端手法に対するアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-02-28T09:46:56Z) - Pixel-Inconsistency Modeling for Image Manipulation Localization [59.968362815126326]
デジタル画像法医学は、画像認証と操作のローカライゼーションにおいて重要な役割を果たす。
本稿では,画素不整合アーチファクトの解析を通じて,一般化されたロバストな操作ローカライゼーションモデルを提案する。
実験により,本手法は固有の画素不整合偽指紋を抽出することに成功した。
論文 参考訳(メタデータ) (2023-09-30T02:54:51Z) - Beyond Learned Metadata-based Raw Image Reconstruction [86.1667769209103]
生画像は、線形性や微細な量子化レベルなど、sRGB画像に対して明確な利点がある。
ストレージの要求が大きいため、一般ユーザからは広く採用されていない。
本稿では,メタデータとして,潜在空間におけるコンパクトな表現を学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-21T06:59:07Z) - Unsupervised Superpixel Generation using Edge-Sparse Embedding [18.92698251515116]
特徴に対する画素の類似性に基づいて画像をスーパーピクセルに分割することは、データの複雑さを著しく減らし、その後の画像処理タスクを改善する。
コントラストの少ない非畳み込み画像デコーダを提案し、再構成画像にスムーズで接続されたエッジを強制する。
我々はデコーダの最後に隠された層から、余分な空間情報をスムーズなアクティベーションマップに符号化してエッジスパース画素埋め込みを生成し、標準クラスタリングアルゴリズムを用いて高品質なスーパーピクセルを抽出する。
論文 参考訳(メタデータ) (2022-11-28T15:55:05Z) - Learning Weighting Map for Bit-Depth Expansion within a Rational Range [64.15915577164894]
ビット深化(BDE)は、低ビット深化(LBD)ソースから高ビット深化(HBD)画像を表示する新興技術の1つである。
既存のBDEメソッドは、様々なBDE状況に対して統一的なソリューションを持っていない。
我々は,各画素の重みを求めるためにビット復元ネットワーク(BRNet)を設計し,補充値の比率を合理的範囲内で示す。
論文 参考訳(メタデータ) (2022-04-26T02:27:39Z) - Saliency Enhancement using Superpixel Similarity [77.34726150561087]
Saliency Object Detection (SOD) は画像解析にいくつかの応用がある。
深層学習に基づくSOD法は最も効果的であるが、類似した色を持つ前景の部品を見逃すことがある。
スーパーピクセル類似性(SESS)に対するtextitSaliency Enhancement というポストプロセッシング手法を導入する。
我々は,SESSが5つの画像データセット上での3つのディープラーニングに基づくSOD手法の結果を連続的に,かつ著しく改善できることを実証した。
論文 参考訳(メタデータ) (2021-12-01T17:22:54Z) - FeatMatch: Feature-Based Augmentation for Semi-Supervised Learning [64.32306537419498]
本稿では,複雑な変換を多様に生成する特徴量に基づく改良・拡張手法を提案する。
これらの変換は、クラスタリングを通じて抽出したクラス内およびクラス間の両方の情報も利用します。
提案手法は,大規模データセットにスケールアップしながら,より小さなデータセットに対して,現在の最先端技術に匹敵するものであることを実証する。
論文 参考訳(メタデータ) (2020-07-16T17:55:31Z) - Robust superpixels using color and contour features along linear path [5.746869663956391]
リニアパス(SCALP)を用いた輪郭アヒーレンス付き高精度で正規なスーパーピクセルを提供するフレームワークを提案する。
また、画素をスーパーピクセルに関連付ける際に、画像境界の交差を防止するために、輪郭前も使用される。
SCALPは、標準セグメンテーションデータセット上で広範囲に評価され、得られた結果は最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2019-03-17T23:00:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。