論文の概要: Natural Language Declarative Prompting (NLD-P): A Modular Governance Method for Prompt Design Under Model Drift
- arxiv url: http://arxiv.org/abs/2602.22790v1
- Date: Thu, 26 Feb 2026 09:23:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.620491
- Title: Natural Language Declarative Prompting (NLD-P): A Modular Governance Method for Prompt Design Under Model Drift
- Title(参考訳): 自然言語宣言型プロンプト(NLD-P):モデルドリフト下のプロンプト設計のためのモジュール型ガバナンス手法
- Authors: Hyunwoo Kim, Hanau Yi, Jaehee Bae, Yumin Kim,
- Abstract要約: 本稿では,宣言的ガバナンス手法として自然言語宣言型プロンプトを再認識する。
我々は、最小限のコンプライアンス基準を定義し、モデル依存スキーマの受容度を分析し、NLD-Pをアクセス可能なガバナンスフレームワークとして位置づける。
- 参考スコア(独自算出の注目度): 4.138182440811707
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The rapid evolution of large language models (LLMs) has transformed prompt engineering from a localized craft into a systems-level governance challenge. As models scale and update across generations, prompt behavior becomes sensitive to shifts in instruction-following policies, alignment regimes, and decoding strategies, a phenomenon we characterize as GPT-scale model drift. Under such conditions, surface-level formatting conventions and ad hoc refinement are insufficient to ensure stable, interpretable control. This paper reconceptualizes Natural Language Declarative Prompting (NLD-P) as a declarative governance method rather than a rigid field template. NLD-P is formalized as a modular control abstraction that separates provenance, constraint logic, task content, and post-generation evaluation, encoded directly in natural language without reliance on external orchestration code. We define minimal compliance criteria, analyze model-dependent schema receptivity, and position NLD-P as an accessible governance framework for non-developer practitioners operating within evolving LLM ecosystems. Portions of drafting and editorial refinement employed a schema-bound LLM assistant configured under NLD-P. All conceptual framing, methodological claims, and final revisions were directed, reviewed, and approved by the human author under a documented human-in-the-loop protocol. The paper concludes by outlining implications for declarative control under ongoing model evolution and identifying directions for future empirical validation.
- Abstract(参考訳): 大規模言語モデル(LLM)の急速な進化は、エンジニアリングをローカライズされたクラフトからシステムレベルのガバナンス課題へと変えました。
モデルが世代毎にスケールして更新されるにつれて、命令追従ポリシー、アライメントレシシ、デコード戦略のシフトに敏感になり、GPTスケールモデルドリフトとして特徴付けられる現象となる。
このような条件下では、表面レベルでのフォーマット規則やアドホックな改善は、安定かつ解釈可能な制御を保証するには不十分である。
本稿では,NLD-P(Natural Language Declarative Prompting)を,剛体テンプレートではなく宣言的ガバナンス手法として再認識する。
NLD-Pは、外部オーケストレーションコードに依存することなく、自然言語で直接エンコードされたプロファイナンス、制約ロジック、タスク内容、およびポストジェネレーション評価を分離するモジュール制御抽象化として形式化されている。
我々は、最小限のコンプライアンス基準を定義し、モデル依存スキーマの受容度を分析し、LDMエコシステム内で運用する開発者でない実践者のためのアクセス可能なガバナンスフレームワークとして、NLD-Pを位置づける。
草案作成と編集の改良には、NLD-P で設定されたスキーマバウンド LLM アシスタントが使用された。
概念的フレーミング、方法論的クレーム、最終改訂はすべて、文書化されたヒューマン・イン・ザ・ループ・プロトコルの下で、人間によって指示され、レビューされ、承認された。
本論文は,現在進行中のモデル進化における宣言的制御の意義を概説し,今後の実証的検証に向けての方向性を明らかにした。
関連論文リスト
- Reasoning Palette: Modulating Reasoning via Latent Contextualization for Controllable Exploration for (V)LMs [49.66344956133349]
推論能力は、大規模な(ビジョン)言語モデルのための推論時間性能と強化学習(RL)トレーニングの両方を形作る。
本稿では,戦略的文脈化のための潜在変数をモデルに付与する新しい潜在変調フレームワークであるReasoning Paletteを提案する。
論文 参考訳(メタデータ) (2025-12-19T03:32:53Z) - A-LAMP: Agentic LLM-Based Framework for Automated MDP Modeling and Policy Generation [2.5705703401045548]
自動MDPモデリングとポリシー生成のためのエージェント型大規模言語モデル(LLM)ベースのフレームワークを提案する。
A-LAMPは、自由形式の自然言語タスク記述をMDPの定式化と訓練されたポリシーに変換する。
A-LAMPは、単一の最先端モデルよりも高いポリシー生成能力を一貫して達成する。
論文 参考訳(メタデータ) (2025-12-12T04:21:17Z) - PCRLLM: Proof-Carrying Reasoning with Large Language Models under Stepwise Logical Constraints [2.8310349862016726]
大規模言語モデルを用いた韻法推論(PCRLLM)を提案する。
PCRLLMは、自然言語の定式化を維持しながら、単一ステップの推論を推論する。
大規模ステップレベルの推論データを生成するためのベンチマークスキーマを提案する。
論文 参考訳(メタデータ) (2025-11-11T16:10:38Z) - NLD-LLM: A systematic framework for evaluating small language transformer models on natural language description [4.240884806677703]
自然言語記述(英: Natural Language Description、NLD)は、自然言語入力から構造化された意味のある出力を生成するモデルを必要とする自然言語処理(NLP)タスクである。
NLD-LLMは、言語モデルの性能を評価し、正確かつ簡潔なソースコード記述を生成するための体系的なNLPフレームワークである。
論文 参考訳(メタデータ) (2025-10-01T19:03:20Z) - Self-Steering Language Models [113.96916935955842]
DisCIPL は "self-steering" 言語モデル (LM) の手法である。
DisCIPLは、Followerモデルの集団によって実行されるタスク固有の推論プログラムを生成する。
我々の研究は、高度に並列化されたモンテカルロ推論戦略の設計空間を開く。
論文 参考訳(メタデータ) (2025-04-09T17:54:22Z) - Verification and Refinement of Natural Language Explanations through LLM-Symbolic Theorem Proving [13.485604499678262]
本稿では,Large Language Models(LLMs)とTheorem Provers(TPs)の統合による自然言語説明の検証と改善について検討する。
本稿では, TPとLPMを統合して説明文の生成と定式化を行う, Explanation-Refiner というニューロシンボリック・フレームワークを提案する。
代わりに、TPは説明の論理的妥当性を公式に保証し、その後の改善のためのフィードバックを生成するために使用される。
論文 参考訳(メタデータ) (2024-05-02T15:20:01Z) - DECIDER: A Dual-System Rule-Controllable Decoding Framework for Language Generation [57.07295906718989]
制約付き復号法は,事前訓練された大言語(Ms と PLMs)が生成するテキストの意味やスタイルを,推論時に様々なタスクに対して制御することを目的としている。
これらの方法は、しばしば、欲求的かつ明示的にターゲットを選択することによって、もっともらしい連続を導く。
認知二重プロセス理論に着想を得て,新しい復号化フレームワークDECDERを提案する。
論文 参考訳(メタデータ) (2024-03-04T11:49:08Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - On Conditional and Compositional Language Model Differentiable Prompting [75.76546041094436]
プロンプトは、下流タスクでうまく機能するために、凍結した事前訓練言語モデル(PLM)を適応するための効果的な方法であることが示されている。
タスク命令や入力メタデータを連続的なプロンプトに変換することを学習する新しいモデル Prompt Production System (PRopS) を提案する。
論文 参考訳(メタデータ) (2023-07-04T02:47:42Z) - Autoregressive Structured Prediction with Language Models [73.11519625765301]
本稿では, PLM を用いた自己回帰的手法を用いて, モデル構造を行動列として記述する。
我々のアプローチは、私たちが見てきた全ての構造化予測タスクにおいて、新しい最先端を実現する。
論文 参考訳(メタデータ) (2022-10-26T13:27:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。