論文の概要: $\mathbf{S^2LM}$: Towards Semantic Steganography via Large Language Models
- arxiv url: http://arxiv.org/abs/2511.05319v1
- Date: Fri, 07 Nov 2025 15:17:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.810786
- Title: $\mathbf{S^2LM}$: Towards Semantic Steganography via Large Language Models
- Title(参考訳): $\mathbf{S^2LM}$:大規模言語モデルによる意味的ステレオグラフィーを目指して
- Authors: Huanqi Wu, Huangbiao Xu, Runfeng Xie, Jiaxin Cai, Kaixin Zhang, Xiao Ke,
- Abstract要約: Sentence-to-Image Steganographyは、任意の文レベルのメッセージをカバーイメージ内に隠蔽できる新しいタスクである。
意味ステレオ言語モデル(Semantic Steganographic Language Model)は、文や段落などの高レベルのテキスト情報を画像に埋め込む。
$mathrmS2LM$は、新しく設計されたパイプラインを通じて意味的にリッチなコンテンツの統合を可能にする。
- 参考スコア(独自算出の注目度): 12.563873091938364
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Although steganography has made significant advancements in recent years, it still struggles to embed semantically rich, sentence-level information into carriers. However, in the era of AIGC, the capacity of steganography is more critical than ever. In this work, we present Sentence-to-Image Steganography, an instance of Semantic Steganography, a novel task that enables the hiding of arbitrary sentence-level messages within a cover image. Furthermore, we establish a benchmark named Invisible Text (IVT), comprising a diverse set of sentence-level texts as secret messages for evaluation. Finally, we present $\mathbf{S^2LM}$: Semantic Steganographic Language Model, which utilizes large language models (LLMs) to embed high-level textual information, such as sentences or even paragraphs, into images. Unlike traditional bit-level counterparts, $\mathrm{S^2LM}$ enables the integration of semantically rich content through a newly designed pipeline in which the LLM is involved throughout the entire process. Both quantitative and qualitative experiments demonstrate that our method effectively unlocks new semantic steganographic capabilities for LLMs. The source code will be released soon.
- Abstract(参考訳): ステガノグラフィーは近年大きな進歩を遂げているが、それでも意味的に豊かな文レベルの情報をキャリアに埋め込むのに苦戦している。
しかし、AIGCの時代には、ステガノグラフィーの能力はこれまで以上に重要である。
本研究ではセマンティック・ステガノグラフィー(Semantic Steganography)の例であるSentence-to-Image Steganographyについて述べる。
さらに,インビジブルテキスト (IVT) という,多種多様な文レベルのテキストを秘密メッセージとして評価するベンチマークを構築した。
最後に,大言語モデル(LLM)を用いて文や段落などの高レベルテキスト情報を画像に埋め込むセマンティックステレオ言語モデルを提案する。
従来のビットレベルとは違って、$\mathrm{S^2LM}$は、LLMがプロセス全体に関わるような、新しく設計されたパイプラインを通じて意味的にリッチなコンテンツの統合を可能にする。
定量的および定性的な実験は,本手法がLLMの新たな意味的聴取能力を効果的に解き放つことを実証している。
ソースコードはまもなくリリースされる予定だ。
関連論文リスト
- Semantic Steganography: A Framework for Robust and High-Capacity Information Hiding using Large Language Models [25.52890764952079]
生成言語ステガノグラフィーは、モデル生成テキストに情報を隠蔽する一般的な技術となっている。
大規模言語モデル(LLM)に基づく意味的ステガノグラフィーフレームワークを提案する。
このフレームワークは複雑なチャネルでの送信に対して堅牢性と信頼性を提供し、テキストレンダリングやワードブロッキングに対する耐性を提供する。
論文 参考訳(メタデータ) (2024-12-15T04:04:23Z) - Generative Text Steganography with Large Language Model [10.572149957139736]
LLM-Stegaと呼ばれる大規模言語モデルのユーザインタフェースに基づくブラックボックス生成テキストステガノグラフィー手法。
まず、キーワードセットを構築し、秘密メッセージを埋め込むための新しい暗号化されたステガノグラフマッピングを設計する。
総合的な実験により、LLM-Stegaは現在の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-04-16T02:19:28Z) - Fantastic Semantics and Where to Find Them: Investigating Which Layers of Generative LLMs Reflect Lexical Semantics [50.982315553104975]
本稿では,Llama2という人気言語モデルに対する語彙意味論のボトムアップ進化について検討する。
実験の結果,下位層の表現は語彙的意味論を符号化しているが,上位層はより弱い意味帰納的帰納的帰納的帰納的帰納的帰納的帰納的帰属的帰属的帰属的帰属的存在であることがわかった。
これは、高層層がより良い語彙意味論を得るマスク言語モデリングのような差別的な目的を持つモデルとは対照的である。
論文 参考訳(メタデータ) (2024-03-03T13:14:47Z) - Dynamically Allocated Interval-Based Generative Linguistic Steganography with Roulette Wheel [10.72286166021398]
既存の言語ステガノグラフィースキームは、しばしば候補プール内のトークンの条件付き確率(CP)を見落としている。
本稿では, DAIRstegaと呼ばれる, 割り当てられた間隔に基づくスキームを提案する。
論文 参考訳(メタデータ) (2024-01-28T13:21:44Z) - Large Language Models on Graphs: A Comprehensive Survey [77.16803297418201]
グラフ上の大規模言語モデルに関連するシナリオとテクニックを体系的にレビューする。
まず,LLMをグラフに適用する可能性シナリオを,純グラフ,テキスト分散グラフ,テキストペアグラフの3つのカテゴリにまとめる。
本稿では,そのような手法の現実的な応用について論じ,オープンソースコードとベンチマークデータセットを要約する。
論文 参考訳(メタデータ) (2023-12-05T14:14:27Z) - Multi-source Semantic Graph-based Multimodal Sarcasm Explanation
Generation [53.97962603641629]
本稿では,mulTi-source sEmantic grAph-based Multimodal sarcasm explanation scheme, TEAMを提案する。
TEAMは、入力画像から従来のグローバルな視覚的特徴の代わりに、オブジェクトレベルのセマンティックメタデータを抽出する。
TEAMはマルチソース意味関係を包括的に特徴付けるマルチソース意味グラフを導入している。
論文 参考訳(メタデータ) (2023-06-29T03:26:10Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。