論文の概要: VTS-LLM: Domain-Adaptive LLM Agent for Enhancing Awareness in Vessel Traffic Services through Natural Language
- arxiv url: http://arxiv.org/abs/2505.00989v1
- Date: Fri, 02 May 2025 04:27:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:19.902146
- Title: VTS-LLM: Domain-Adaptive LLM Agent for Enhancing Awareness in Vessel Traffic Services through Natural Language
- Title(参考訳): VTS-LLM:自然言語による船舶交通サービスにおける認識向上のためのドメイン適応型LLMエージェント
- Authors: Sijin Sun, Liangbin Zhao, Ming Deng, Xiuju Fu,
- Abstract要約: 船舶交通サービス(VTS)は、リアルタイム交通管理を通じて海上安全と規制コンプライアンスに不可欠である。
既存のシステムは推論と人間の相互作用の限界に直面している。
VTS操作における対話型意思決定支援のためのドメインベースエージェントを提案する。
- 参考スコア(独自算出の注目度): 5.66318313918639
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vessel Traffic Services (VTS) are essential for maritime safety and regulatory compliance through real-time traffic management. However, with increasing traffic complexity and the prevalence of heterogeneous, multimodal data, existing VTS systems face limitations in spatiotemporal reasoning and intuitive human interaction. In this work, we propose VTS-LLM Agent, the first domain-adaptive large LLM agent tailored for interactive decision support in VTS operations. We formalize risk-prone vessel identification as a knowledge-augmented Text-to-SQL task, combining structured vessel databases with external maritime knowledge. To support this, we construct a curated benchmark dataset consisting of a custom schema, domain-specific corpus, and a query-SQL test set in multiple linguistic styles. Our framework incorporates NER-based relational reasoning, agent-based domain knowledge injection, semantic algebra intermediate representation, and query rethink mechanisms to enhance domain grounding and context-aware understanding. Experimental results show that VTS-LLM outperforms both general-purpose and SQL-focused baselines under command-style, operational-style, and formal natural language queries, respectively. Moreover, our analysis provides the first empirical evidence that linguistic style variation introduces systematic performance challenges in Text-to-SQL modeling. This work lays the foundation for natural language interfaces in vessel traffic services and opens new opportunities for proactive, LLM-driven maritime real-time traffic management.
- Abstract(参考訳): 船舶交通サービス(VTS)は、リアルタイム交通管理を通じて海上安全と規制コンプライアンスに不可欠である。
しかし、トラフィックの複雑さが増大し、異質なマルチモーダルデータの普及に伴い、既存のVTSシステムは時空間的推論と直感的な人間の相互作用の制限に直面している。
本稿では,VTS操作における対話型意思決定支援に適したドメイン適応型大規模LLMエージェントであるVTS-LLM Agentを提案する。
我々は、構造化された船舶データベースと外部海洋知識を組み合わせた知識強化型テキスト・トゥ・SQLタスクとしてリスク要因容器識別を定式化する。
これをサポートするために、カスタムスキーマ、ドメイン固有のコーパス、複数の言語スタイルでクエリ-SQLテストセットからなるキュレートされたベンチマークデータセットを構築した。
我々のフレームワークは, NERに基づく関係推論, エージェントベースのドメイン知識注入, セマンティック代数中間表現, および, ドメイン基盤とコンテキスト認識の理解を強化するためのクエリ再考機構を取り入れている。
実験結果から,VTS-LLMはコマンドスタイル,操作スタイル,形式的な自然言語クエリにおいて,汎用とSQLを重視したベースラインをそれぞれ上回ることがわかった。
さらに,本分析は,言語スタイルの変化がテキストからSQLへのモデリングにおいて,体系的なパフォーマンス課題をもたらすという,最初の実証的証拠を提供する。
この研究は、船舶交通サービスにおける自然言語インターフェースの基礎を築き、積極的にLLM駆動の海上交通管理のための新たな機会を開く。
関連論文リスト
- A Pre-training Framework for Relational Data with Information-theoretic Principles [57.93973948947743]
本稿では,リレーショナルグラフ上の集合に基づくアグリゲーションを通じて,監視信号を構成する新しい事前学習フレームワークであるTask Vector Estimation (TVE)を紹介する。
TVEは従来のトレーニング前のベースラインを一貫して上回っている。
本研究は,関係データベース上での予測モデルの設計原則として,タスクの不均一性と時間構造を符号化する事前学習目的を提唱する。
論文 参考訳(メタデータ) (2025-07-14T00:17:21Z) - Augmenting Multi-Agent Communication with State Delta Trajectory [31.127137626348098]
本稿では,自然言語トークンとトークンワイド状態遷移トラジェクトリの両方をひとつのエージェントから別のエージェントに転送する新しい通信プロトコルを提案する。
それぞれのトークンを生成した後のLSMの状態変化のシーケンスは、推論プロセスの裏側に隠された情報をよりよく反映できることがわかった。
実験の結果,SDEを用いたマルチエージェントシステムでは,他の通信プロトコルと比較してSOTAの性能が向上していることがわかった。
論文 参考訳(メタデータ) (2025-06-24T00:38:25Z) - Large Language Models are Good Relational Learners [55.40941576497973]
本稿では,グラフニューラルネットワーク(GNN)に基づくエンコーダを用いて,大規模言語モデル(LLM)のための構造化リレーショナルプロンプトを生成する新しいアーキテクチャであるRel-LLMを紹介する。
従来のテキストベースのシリアライズ手法とは異なり,本手法はデータベース固有の関係構造を保ちながら,LLMが複雑なエンティティ関係を処理・推論することを可能にする。
論文 参考訳(メタデータ) (2025-06-06T04:07:55Z) - Natural Language Interaction with Databases on Edge Devices in the Internet of Battlefield Things [0.0]
インターネット・オブ・バトルフィールド・モノズ(IoBT)は、状況意識を高める新たな機会をもたらす。
批判的意思決定における状況認識のためのIoBTの可能性を高めるために、これらのデバイスからのデータは、コンシューマ対応の情報オブジェクトに処理されなければならない。
本稿では、自然言語処理(NLP)を利用してデータベース技術に問い合わせ、自然言語で応答を返すワークフローを提案する。
論文 参考訳(メタデータ) (2025-06-05T20:52:13Z) - TAMO:Fine-Grained Root Cause Analysis via Tool-Assisted LLM Agent with Multi-Modality Observation Data [33.5606443790794]
大規模言語モデル(LLM)は、コンテキスト推論とドメイン知識の統合においてブレークスルーをもたらした。
細粒度根本原因解析のための多モード観測データ,すなわちTAMOを用いたツール支援LLMエージェントを提案する。
論文 参考訳(メタデータ) (2025-04-29T06:50:48Z) - A New Paradigm of User-Centric Wireless Communication Driven by Large Language Models [53.16213723669751]
次世代の無線通信は、人工知能とユーザー中心の通信ネットワークを深く統合しようとしている。
本稿では,構造化クエリ言語に対する自然言語を革新的に取り入れた,無線通信のための新しいパラダイムを提案する。
本稿では,物理層における動的意味表現ネットワークを符号化深度に適応させてユーザ要求を満たすプロトタイプシステムを提案する。
論文 参考訳(メタデータ) (2025-04-16T01:43:36Z) - LANGTRAJ: Diffusion Model and Dataset for Language-Conditioned Trajectory Simulation [94.84458417662404]
LangTrajは、トラフィックシナリオにおけるすべてのエージェントの共同動作をシミュレートする、言語条件のシーン拡散モデルである。
自然言語入力を条件付けすることで、LangTrajはインタラクティブな振る舞いを柔軟かつ直感的に制御できる。
LangTraj氏は、リアリズム、言語制御性、言語条件の安全クリティカルなシミュレーションにおいて、強力なパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-04-15T17:14:06Z) - Beyond Quacking: Deep Integration of Language Models and RAG into DuckDB [44.057784044659726]
大規模言語モデル(LLM)により、このような検索と推論データパイプラインのプロトタイプがより簡単になった。
これはしばしば、データシステムのオーケストレーション、データムーブメントの管理、低レベルの詳細処理を含む。
我々はFlockMTLを紹介した。FlockMTLはLLM機能と検索拡張生成を深く統合した抽象化用拡張である。
論文 参考訳(メタデータ) (2025-04-01T19:48:17Z) - Large Language Model as a Catalyst: A Paradigm Shift in Base Station Siting Optimization [62.16747639440893]
大規模言語モデル(LLM)とその関連技術は、特に迅速な工学とエージェント工学の領域において進歩している。
提案するフレームワークは、検索拡張生成(RAG)を組み込んで、ドメイン固有の知識を取得してソリューションを生成するシステムの能力を高める。
論文 参考訳(メタデータ) (2024-08-07T08:43:32Z) - Text-Video Retrieval with Global-Local Semantic Consistent Learning [122.15339128463715]
我々は,シンプルで効果的なグローバル局所意味的一貫性学習(GLSCL)を提案する。
GLSCLは、テキストビデオ検索のためのモダリティをまたいだ潜在共有セマンティクスを活用する。
本手法はSOTAと同等の性能を実現し,計算コストの約220倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-05-21T11:59:36Z) - Language Agent Tree Search Unifies Reasoning Acting and Planning in Language Models [31.509994889286183]
我々はLanguage Agent Tree Search (LATS)を紹介した。Language Agent Tree Search (LATS)は、推論、行動、計画において言語モデル(LM)の能力を相乗化する最初の一般的なフレームワークである。
当社のアプローチの重要な特徴は、より意図的で適応的な問題解決メカニズムを提供する外部フィードバック環境の導入である。
LATSは、GPT-4でHumanEval上でプログラミングするための最先端パス@1精度(92.7%)を達成し、GPTによるWebShop上のWebナビゲーションの勾配ベースの微調整に匹敵する勾配なし性能(平均スコア75.9)を示す。
論文 参考訳(メタデータ) (2023-10-06T17:55:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。