論文の概要: Defining Cost Function of Steganography with Large Language Models
- arxiv url: http://arxiv.org/abs/2512.09769v1
- Date: Wed, 10 Dec 2025 15:52:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.578393
- Title: Defining Cost Function of Steganography with Large Language Models
- Title(参考訳): 大規模言語モデルを用いたステガノグラフィーのコスト関数の定義
- Authors: Hanzhou Wu, Yige Wang,
- Abstract要約: 大規模言語モデル(LLM)を用いたステガノグラフィーのコスト関数定義に向けた最初の試みを行う。
LLM誘導プログラム合成と進化探索を組み合わせた2段階戦略を提案手法に適用した。
提案手法により, ステガノグラフィーの新たなコスト関数の設計が可能となり, 従来のステガノグラフィーツールよりも優れた性能が得られた。
- 参考スコア(独自算出の注目度): 8.307012833087546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we make the first attempt towards defining cost function of steganography with large language models (LLMs), which is totally different from previous works that rely heavily on expert knowledge or require large-scale datasets for cost learning. To achieve this goal, a two-stage strategy combining LLM-guided program synthesis with evolutionary search is applied in the proposed method. In the first stage, a certain number of cost functions in the form of computer program are synthesized from LLM responses to structured prompts. These cost functions are then evaluated with pretrained steganalysis models so that candidate cost functions suited to steganography can be collected. In the second stage, by retraining a steganalysis model for each candidate cost function, the optimal cost function(s) can be determined according to the detection accuracy. This two-stage strategy is performed by an iterative fashion so that the best cost function can be collected at the last iteration. Experiments show that the proposed method enables LLMs to design new cost functions of steganography that significantly outperform existing works in terms of resisting steganalysis tools, which verifies the superiority of the proposed method. To the best knowledge of the authors, this is the first work applying LLMs to the design of advanced cost function of steganography, which presents a novel perspective for steganography design and may shed light on further research.
- Abstract(参考訳): 本稿では,大規模言語モデル (LLM) を用いたステガノグラフィーのコスト関数を定義するための最初の試みを行う。
この目的を達成するために,LLM誘導プログラム合成と進化探索を組み合わせた2段階戦略を提案手法に適用した。
第1段階では、構造化プロンプトに対するLCM応答から、コンピュータプログラムの形式での一定数のコスト関数を合成する。
これらのコスト関数は、事前訓練されたステガナリシスモデルを用いて評価され、ステガナリシスに適した候補コスト関数を収集できる。
第2段階では、各候補コスト関数のステガナリシスモデルを再訓練することにより、検出精度に応じて最適なコスト関数を決定することができる。
この2段階戦略は、最終イテレーションで最高のコスト関数を収集できるように反復的に実行される。
提案手法は, 従来のステガナリシスツールよりも高い性能を示し, 提案手法の優位性を検証した。
著者らの知る限りでは, ステガノグラフィーの高度コスト関数設計にLSMを適用した最初の研究であり, ステガノグラフィー設計の新たな視点を示し, さらなる研究に光を当てる可能性がある。
関連論文リスト
- Modalities, a PyTorch-native Framework For Large-scale LLM Training and Research [33.56269788349648]
Modalitiesは、大規模モデルトレーニングのためのエンドツーエンドのPyTorchネイティブフレームワークである。
データ駆動型LLM研究と2つの角度から大規模なモデルトレーニングを統合する。
論文 参考訳(メタデータ) (2026-02-09T08:39:41Z) - Nearly Optimal Active Preference Learning and Its Application to LLM Alignment [68.56793807995417]
大規模言語モデルの調整は、人間の好みラベルの高品質なデータセットに依存する。
既存の多くのアプローチでは、G-やD-最適化のような古典的な実験的な設計基準が採用されている。
本研究では,これら設計目標の適合性に疑問を呈する,選好学習に特有な単純な直観を同定する。
論文 参考訳(メタデータ) (2026-02-02T03:21:29Z) - How to Set the Learning Rate for Large-Scale Pre-training? [73.03133634525635]
我々はこの調査を2つの異なる研究パラダイムであるフィッティングとトランスファーに定式化する。
フィッティングパラダイムでは,探索係数のスケーリング法則を導入し,O(n3) から O(n*C_D*C_) への探索複雑性を予測モデルにより効果的に低減する。
我々は、$Transferの原則をMixture of Experts (MoE)アーキテクチャに拡張し、モデル深さ、重量減衰、トークン水平線を含む適用範囲を広げる。
論文 参考訳(メタデータ) (2026-01-08T15:55:13Z) - SCAN: Structured Capability Assessment and Navigation for LLMs [54.54085382131134]
textbfSCAN (Structured Capability Assessment and Navigation) は、大規模言語モデルの詳細な特徴付けを可能にする実用的なフレームワークである。
SCANには4つの重要なコンポーネントが含まれている。
TaxBuilder – クエリから機能表示タグを抽出して階層的な分類構造を構築する。
RealMixは、各機能タグに対する十分な評価データを保証するクエリ合成とフィルタリングのメカニズムである。
PC$2$ベースのLCM-as-a-Judge法は従来のLCM-as-a-Judge法と比較して大幅に精度が向上する
論文 参考訳(メタデータ) (2025-05-10T16:52:40Z) - Direct Retrieval-augmented Optimization: Synergizing Knowledge Selection and Language Models [83.8639566087953]
本稿では,2つの主要コンポーネントのエンドツーエンドトレーニングを可能にするDROという,直接検索拡張最適化フレームワークを提案する。
DROは、 (i) 文書置換推定と (ii) 再重み付けされ、段階的に改善されたRAGコンポーネントの2つのフェーズの間で交代する。
理論解析により,DROは強化学習における政策段階的な手法に類似していることが明らかとなった。
論文 参考訳(メタデータ) (2025-05-05T23:54:53Z) - Zero-Shot Document-Level Biomedical Relation Extraction via Scenario-based Prompt Design in Two-Stage with LLM [6.26004554105527]
ハードウェアと労働コストの低い汎用大言語モデル (LLM) を用いて, 注釈のない完全文書から同じ結果を得るための新しい手法を提案する。
我々のアプローチは、名前付きエンティティ認識(NER)と関係抽出(RE)の2つの主要な段階を組み合わせる。
本稿では,プロンプトの有効性を高めるために,5部テンプレート構造とシナリオに基づくプロンプト設計の原理を提案する。
論文 参考訳(メタデータ) (2025-05-02T07:33:20Z) - Autoformulation of Mathematical Optimization Models Using LLMs [50.030647274271516]
本稿では,自然言語問題記述から解法対応最適化モデルを自動生成する,$textitautoformulation$の問題にアプローチする。
オートフォーミュレーションの3つの主要な課題を識別する: $textit(1)$ 巨大で問題に依存した仮説空間、および$textit(2)$ 不確実性の下でこの空間を効率的かつ多様に探索する。
我々は,$textitLarge Language Models$と$textitMonte-Carlo Tree Search$を併用した新しい手法を提案する。
論文 参考訳(メタデータ) (2024-11-03T20:41:38Z) - Rational Metareasoning for Large Language Models [17.479428400594028]
大きな言語モデル(LLM)を使用するためのコアテクニックとして,推論への関与を促す声が上がっている。
本研究は,認知科学で用いられるメタレゾニングの計算モデルに基づく新しいアプローチを導入する。
我々は不必要な推論を罰することで計算の価値を組み込む報酬関数を開発する。
論文 参考訳(メタデータ) (2024-10-07T23:48:52Z) - Efficient Budget Allocation for Large-Scale LLM-Enabled Virtual Screening [0.9558392439655016]
そこで我々は,LLM-as- human-evaluatorアプローチによるスクリーニングを事実上実施し,コスト負担を低減した。
我々は,トップ$m$greedy評価機構を用いて,探索ファーストの上位$m$greedy (EFG-$m$) アルゴリズムを設計する。
驚いたことに、我々はボーナスランキング効果を発見し、アルゴリズムは選択されたサブセット内で、自然に無関心なランキングを誘導する。
論文 参考訳(メタデータ) (2024-08-18T16:44:41Z) - Monte Carlo Tree Search Boosts Reasoning via Iterative Preference Learning [55.96599486604344]
本稿では,Large Language Models (LLMs) の推論能力向上を目的とした,反復的な選好学習プロセスによるアプローチを提案する。
我々は、MCTS(Monte Carlo Tree Search)を用いて好みデータを反復的に収集し、そのルックアヘッド機能を利用して、インスタンスレベルの報酬をよりきめ細かいステップレベルの信号に分解する。
提案アルゴリズムはDPO(Direct Preference Optimization)を用いて,新たに生成されたステップレベルの優先度データを用いてLCMポリシーを更新する。
論文 参考訳(メタデータ) (2024-05-01T11:10:24Z) - Scalable Online Exploration via Coverability [45.66375686120087]
探索は、特に関数近似を必要とする高次元領域において、強化学習において大きな課題である。
従来の探索手法を一般化し,3つの基本デシラタをサポートする新しい目的である$L_Coverageを導入する。
$L_Coverageは、カバー可能性の低いMDPにおけるオンライン(リワードフリーまたは報酬駆動)強化学習のための、最初の計算効率のよいモデルベースおよびモデルフリーのアルゴリズムを可能にする。
論文 参考訳(メタデータ) (2024-03-11T10:14:06Z) - A Nearly Optimal and Low-Switching Algorithm for Reinforcement Learning with General Function Approximation [67.66904892192794]
我々は、強化学習のための新しいアルゴリズム、MQL-UCBを用いたモノトニックQ-Learningを提案する。
MQL-UCBは、$tildeO(dsqrtHK)$の最小限の後悔を実現する。
本研究は,非線形関数近似を用いたサンプル効率およびデプロイメント効率のよいQ-ラーニングの設計に重点を置いている。
論文 参考訳(メタデータ) (2023-11-26T08:31:57Z) - Cost-Sensitive Best Subset Selection for Logistic Regression: A
Mixed-Integer Conic Optimization Perspective [3.1468618177952785]
機械学習の主な課題は、透過的な予測を行うための最適なサブセットへの入力を削減できる解釈可能なモデルを設計することである。
混合整数コニック最適化の観点から,ロジスティック回帰のための最適特徴選択法を提案する。
これにより、異なる最適基数と予算制約のある特徴選択手順を体系的に評価できる。
論文 参考訳(メタデータ) (2023-10-09T07:13:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。