論文の概要: Strategic Doctrine Language Models (sdLM): A Learning-System Framework for Doctrinal Consistency and Geopolitical Forecasting
- arxiv url: http://arxiv.org/abs/2601.14862v1
- Date: Wed, 21 Jan 2026 10:45:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.334649
- Title: Strategic Doctrine Language Models (sdLM): A Learning-System Framework for Doctrinal Consistency and Geopolitical Forecasting
- Title(参考訳): 戦略ドクトリン言語モデル(sdLM): ドクトリン一貫性と地政学的予測のための学習システムフレームワーク
- Authors: Olaf Yunus Laitinen Imanov, Taner Yilmaz, Derya Umut Kulali,
- Abstract要約: 我々は,多文書戦略的推論のための学習システムフレームワークであるストラテジック・ドクトリン言語モデル(sdLM)を紹介した。
このアプローチは、多文書の注意、テンポラリエンコーディング、ドクトリン一貫性レイヤを組み合わせて、長期の予測と計画の妥当性を改善する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Strategic Doctrine Language Models (sdLM), a learning-system framework for multi-document strategic reasoning with doctrinal consistency constraints and calibrated uncertainty. The approach combines multi-document attention, temporal encoding, and a doctrine-consistency layer to improve long-horizon forecasting and plan plausibility while reducing severe doctrinal violations. We evaluate sdLM using (i) expert-panel scoring of strategic scenarios (N=47), (ii) doctrine consistency on 336 doctrine publications (12,847 statements), and (iii) geopolitical forecasting on 127 historical counterfactuals (1945-2020) across 12-60 month horizons. Across these benchmarks, sdLM achieves higher strategic quality and better calibration than strong general-purpose LLM baselines, and remains competitive with human experts on long-horizon judgments. We further report ablations, scaling trends, and deployment-oriented performance/latency characteristics to clarify which components drive improvements and how they translate to operational settings.
- Abstract(参考訳): 教義整合性制約と校正不確実性を考慮した多文書戦略的推論のための学習システムフレームワークであるストラテジック・ドクトリン言語モデル(sdLM)を紹介する。
このアプローチは、多文書の注意、テンポラルエンコーディング、およびドクトリン一貫性レイヤを組み合わせることで、厳しいドクトリン違反を軽減しつつ、長期の予測と計画の妥当性を向上させる。
sdLM の評価
一 戦略シナリオのエキスパートパネルスコア(N=47)
(二)教義の整合性(12,847文)及び
(三)12~60ヶ月の地平線にまたがる127の歴史的反事実(1945~2020)の地政学的予測
これらのベンチマーク全体を通して、sdLMは強力な汎用LSMベースラインよりも高い戦略的品質とキャリブレーションを実現し、長期的な判断に関して人間専門家と競争している。
さらに、改善を駆動するコンポーネントと、運用設定への変換方法を明らかにするために、改善、スケーリングトレンド、デプロイメント指向のパフォーマンス/レイテンシ特性について報告します。
関連論文リスト
- SynthStrategy: Extracting and Formalizing Latent Strategic Insights from LLMs in Organic Chemistry [4.220916808049659]
本稿では,大規模言語モデルを用いて合成知識をコードに抽出する手法を提案する。
本システムでは, 合成経路を解析し, 戦略原理を多種多様な戦略的, 戦術的ルールを表すPython関数に変換する。
この研究は、CASPにおける戦術的戦略的分割を橋渡しし、戦略的基準によるルートの仕様、探索、評価を可能にする。
論文 参考訳(メタデータ) (2025-12-01T10:33:00Z) - RedTWIZ: Diverse LLM Red Teaming via Adaptive Attack Planning [6.842844968623326]
RedTWIZは適応的で多様なマルチターンレッドチームリングフレームワークである。
AI支援ソフトウェア開発における大規模言語モデルの堅牢性を評価するように設計されている。
論文 参考訳(メタデータ) (2025-10-08T13:18:42Z) - Reinforced Strategy Optimization for Conversational Recommender Systems via Network-of-Experts [63.412646471177645]
会話レコメンダシステム(CRS)のための新しい強化戦略最適化(RSO)手法を提案する。
RSOは、戦略駆動型応答決定をマクロレベルの戦略計画とマイクロレベルの戦略適応に分解する。
実験の結果, RSOは最先端のベースラインと比較して, インタラクション性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2025-09-30T11:12:01Z) - Plan before Solving: Problem-Aware Strategy Routing for Mathematical Reasoning with LLMs [49.995906301946]
既存の手法は通常、数学的推論を行うためにLLM(Large Language Models)をガイドするための固定戦略を利用する。
分析の結果,単一戦略は問題固有の要件に適応できず,有効性と効率性のトレードオフを見落としていることが明らかとなった。
本稿では,PRISM(Planning and Routing through Instance-Specific Modeling)を提案する。
論文 参考訳(メタデータ) (2025-09-29T07:22:41Z) - Strategic Discourse Assessment: The Crooked Path to Innocence [23.337770980661677]
我々は,Gricean と Game-theoretic pragmatics を基盤とした SDA を導入し,言語の戦略的利用を評価する。
提案手法には,言論移動のコミットメントに基づく分類法と,Gricean maxims に根ざした推定可能プロキシの利用という,2つの重要な適応が組み込まれている。
我々は,ターンにおけるベネフィット(BAT),ターンにおけるペナルティ(PAT),ターンにおける正規化相対ベネフィット(NRBAT)の3つの解釈可能な指標を導出し,談話の動きによる戦略的影響を定量化する。
論文 参考訳(メタデータ) (2025-06-01T22:07:20Z) - EPO: Explicit Policy Optimization for Strategic Reasoning in LLMs via Reinforcement Learning [69.55982246413046]
戦略的推論のための明示的なポリシー最適化(EPO)を提案する。
我々は,マルチターン強化学習(RL)による戦略的推論モデルを訓練し,プロセス報酬と反復的な自己プレイを活用する。
本研究は, EPOに出現する様々な協調的推論機構と, 新規戦略の創出における有効性を明らかにするものである。
論文 参考訳(メタデータ) (2025-02-18T03:15:55Z) - Exploring and Benchmarking the Planning Capabilities of Large Language Models [57.23454975238014]
この研究は、大規模言語モデル(LLM)の計画能力を改善するための基礎を築いた。
我々は、古典的な計画ベンチマークと自然言語シナリオの両方を含む包括的なベンチマークスイートを構築した。
本研究は,LLM計画の強化を目的としたマルチショットインコンテキスト学習について検討し,文脈長の増大と計画性能の向上の関係について検討する。
論文 参考訳(メタデータ) (2024-06-18T22:57:06Z) - LLM as a Mastermind: A Survey of Strategic Reasoning with Large Language Models [75.89014602596673]
戦略推論は、戦略を調整しながら、マルチエージェント設定における敵の行動を理解し、予測する必要がある。
大規模言語モデルを用いた戦略的推論に関連するスコープ,アプリケーション,方法論,評価指標について検討する。
戦略的推論を重要な認知能力として重要視し、将来の研究の方向性や潜在的な改善に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - K-Level Reasoning: Establishing Higher Order Beliefs in Large Language Models for Strategic Reasoning [76.3114831562989]
マルチエージェント環境で戦略を動的に適応させるためには、LLM(Large Language Model)エージェントが必要である。
我々は,「K-Level Reasoning with Large Language Models (K-R)」という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-02T16:07:05Z) - Which is better? Exploring Prompting Strategy For LLM-based Metrics [6.681126871165601]
本稿では,DSBA が提案する Prompting Large Language Models を Explainable Metrics 共有タスクとして記述する。
BLEUやROUGEのような従来の類似性に基づくメトリクスは、人間の評価に悪影響を与えており、オープンな生成タスクには適していない。
論文 参考訳(メタデータ) (2023-11-07T06:36:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。