論文の概要: Foundation Models for Logistics: Toward Certifiable, Conversational Planning Interfaces
- arxiv url: http://arxiv.org/abs/2507.11352v1
- Date: Tue, 15 Jul 2025 14:24:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:03.150867
- Title: Foundation Models for Logistics: Toward Certifiable, Conversational Planning Interfaces
- Title(参考訳): ロジスティックスの基礎モデル:認定・会話型プランニングインタフェースを目指して
- Authors: Yunhao Yang, Neel P. Bhatt, Christian Ellis, Alvaro Velasquez, Zhangyang Wang, Ufuk Topcu,
- Abstract要約: 大規模言語モデル(LLM)は不確実性に対処し、導入障壁を低くしながら再計画の加速を約束する。
本稿では,自然言語対話のアクセシビリティと目標解釈の検証可能な保証とを組み合わせたニューロシンボリック・フレームワークを提案する。
わずか100個の不確実性フィルタで微調整された軽量モデルは、GPT-4.1のゼロショット性能を上回り、推論遅延を50%近く削減する。
- 参考スコア(独自算出の注目度): 59.80143393787701
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Logistics operators, from battlefield coordinators rerouting airlifts ahead of a storm to warehouse managers juggling late trucks, often face life-critical decisions that demand both domain expertise and rapid and continuous replanning. While popular methods like integer programming yield logistics plans that satisfy user-defined logical constraints, they are slow and assume an idealized mathematical model of the environment that does not account for uncertainty. On the other hand, large language models (LLMs) can handle uncertainty and promise to accelerate replanning while lowering the barrier to entry by translating free-form utterances into executable plans, yet they remain prone to misinterpretations and hallucinations that jeopardize safety and cost. We introduce a neurosymbolic framework that pairs the accessibility of natural-language dialogue with verifiable guarantees on goal interpretation. It converts user requests into structured planning specifications, quantifies its own uncertainty at the field and token level, and invokes an interactive clarification loop whenever confidence falls below an adaptive threshold. A lightweight model, fine-tuned on just 100 uncertainty-filtered examples, surpasses the zero-shot performance of GPT-4.1 while cutting inference latency by nearly 50%. These preliminary results highlight a practical path toward certifiable, real-time, and user-aligned decision-making for complex logistics.
- Abstract(参考訳): 戦場のコーディネーターや倉庫のマネジャーが遅れたトラックをジャグリングするなど、物流のオペレーターは、ドメインの専門知識と迅速かつ継続的な計画の両方を要求する、生命の危機的な決定に直面していることが多い。
整数プログラミングのような一般的な手法は、ユーザ定義の論理的制約を満たすロジスティクスを計画するが、それらは遅く、不確実性を考慮していない環境の理想的な数学的モデルを想定している。
一方、大きな言語モデル(LLM)は、自由形式の発話を実行可能な計画に翻訳することで、導入障壁を低くしながら、不確実性に対処し、再計画の加速を約束する。
本稿では,自然言語対話のアクセシビリティと目標解釈の検証可能な保証とを組み合わせたニューロシンボリック・フレームワークを提案する。
ユーザ要求を構造化された計画仕様に変換し、フィールドとトークンレベルで自身の不確実性を定量化し、信頼度が適応しきい値を下回るたびに対話的な明確化ループを起動する。
わずか100個の不確実性フィルタで微調整された軽量モデルは、GPT-4.1のゼロショット性能を上回り、推論遅延を50%近く削減する。
これらの予備的な結果は、複雑なロジスティクスのための認証、リアルタイム、およびユーザによる意思決定への実践的な道のりを浮き彫りにしている。
関連論文リスト
- T-CPDL: A Temporal Causal Probabilistic Description Logic for Developing Logic-RAG Agent [5.439020425819001]
T-CPDL(Temporal Causal Probabilistic Description Logic)は、Description Logicを時間間隔演算子、明示的な因果関係、確率的アノテーションで拡張する統合フレームワークである。
T-CPDLは、言語モデル出力の推論精度、解釈可能性、信頼性校正を大幅に改善する。
この研究は、高度なLogic-Retrieval-Augmented Generation (Logic-RAG)フレームワークの開発の基礎となる。
論文 参考訳(メタデータ) (2025-06-23T12:11:15Z) - Temporalizing Confidence: Evaluation of Chain-of-Thought Reasoning with Signal Temporal Logic [0.12499537119440243]
本稿では,段階的信頼度を時間的信号としてモデル化し,STL(Signal Temporal Logic)を用いて評価する構造化フレームワークを提案する。
特に,定型的なSTLに基づく制約を定義し,望ましい時間特性と,構造化された解釈可能な信頼度推定として機能するスコアを求める。
本手法はキャリブレーションの指標を常に改善し,従来の信頼度集計やポストホックキャリブレーションよりも信頼性の高い不確実性推定を提供する。
論文 参考訳(メタデータ) (2025-06-09T21:21:12Z) - Accelerated Test-Time Scaling with Model-Free Speculative Sampling [58.69141724095398]
STAND(Stochastic Adaptive N-gram Drafting)は,新しいモデルフリーな投機的デコード手法である。
従来の自己回帰復号法と比較して,STANDは推論遅延を60~65%削減することを示した。
モデルフリーのアプローチとして、STANDは追加のトレーニングなしで既存の言語モデルに適用できる。
論文 参考訳(メタデータ) (2025-06-05T07:31:18Z) - Enhancing LLM Reliability via Explicit Knowledge Boundary Modeling [48.15636223774418]
大規模言語モデル(LLM)は、不一致の自己認識に起因する幻覚の傾向にある。
本稿では,高速かつ低速な推論システムを統合し,信頼性とユーザビリティを調和させる明示的知識境界モデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-04T03:16:02Z) - A Prompt Refinement-based Large Language Model for Metro Passenger Flow Forecasting under Delay Conditions [30.552007081903263]
遅延条件下での地下鉄の乗客フローの短期予測は、緊急対応とサービス復旧に不可欠である。
遅延イベントが稀に発生するため、遅延条件下でのサンプルサイズが制限されることで、従来のモデルでは、遅延の複雑な影響が乗客の流れに与える影響を捉えることが困難になる。
本稿では,LLMを慎重に設計した急進的なエンジニアリングで合成する乗客フロー予測フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-19T13:46:46Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - Introspective Planning: Aligning Robots' Uncertainty with Inherent Task Ambiguity [0.659529078336196]
大規模言語モデル(LLM)は高度な推論能力を示し、ロボットが自然言語の指示を理解し、高レベルの行動を戦略的に計画することを可能にする。
LLMの幻覚は、ロボットがユーザー目標と不一致の計画を実行したり、クリティカルなシナリオでは安全でないりする可能性がある。
本稿では,LLMの不確かさとタスク固有のあいまいさを一致させる系統的手法であるイントロスペクティブプランニングを提案する。
論文 参考訳(メタデータ) (2024-02-09T16:40:59Z) - Formal Logic Enabled Personalized Federated Learning Through Property
Inference [5.873100924187382]
本研究では,時間的論理的推論を利用してこの問題に対処する新たなトレーニングパラダイムを提案する。
本手法では,各FLクライアントに対して機械的に生成された論理式を組み込むことで,学習プロセスの強化を図る。
提案手法は,15州からのセンサデータからなる実世界の交通量予測タスクと,合成データを用いたスマートシティマルチタスク予測という2つのタスクで評価する。
論文 参考訳(メタデータ) (2024-01-15T03:25:37Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Multi-Agent Reinforcement Learning with Temporal Logic Specifications [65.79056365594654]
本研究では,時間論理仕様を満たすための学習課題を,未知の環境下でエージェントのグループで検討する。
我々は、時間論理仕様のための最初のマルチエージェント強化学習手法を開発した。
主アルゴリズムの正確性と収束性を保証する。
論文 参考訳(メタデータ) (2021-02-01T01:13:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。