論文の概要: Context-Enriched Natural Language Descriptions of Vessel Trajectories
- arxiv url: http://arxiv.org/abs/2603.12287v1
- Date: Sun, 08 Mar 2026 15:17:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:11.671789
- Title: Context-Enriched Natural Language Descriptions of Vessel Trajectories
- Title(参考訳): 容器軌道の文脈に富んだ自然言語記述
- Authors: Kostas Patroumpas, Alexandros Troupiotis-Kapeliaris, Giannis Spiliopoulos, Panagiotis Betchavas, Dimitrios Skoutas, Dimitris Zissis, Nikos Bikakis,
- Abstract要約: 我々は,AISから収集した生血管軌跡データを,人間によって解釈される構造的・意味的に豊かな表現に変換する。
本稿では,ノイズの多いAISを,クリーンでモビリティに配慮したエピソードからなる個別の旅行に分割する,文脈対応トラジェクトリ抽象化フレームワークを提案する。
- 参考スコア(独自算出の注目度): 36.24770606535992
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We address the problem of transforming raw vessel trajectory data collected from AIS into structured and semantically enriched representations interpretable by humans and directly usable by machine reasoning systems. We propose a context-aware trajectory abstraction framework that segments noisy AIS sequences into distinct trips each consisting of clean, mobility-annotated episodes. Each episode is further enriched with multi-source contextual information, such as nearby geographic entities, offshore navigation features, and weather conditions. Crucially, such representations can support generation of controlled natural language descriptions using LLMs. We empirically examine the quality of such descriptions generated using several LLMs over AIS data along with open contextual features. By increasing semantic density and reducing spatiotemporal complexity, this abstraction can facilitate downstream analytics and enable integration with LLMs for higher-level maritime reasoning tasks.
- Abstract(参考訳): 本稿では,AISから収集した生の血管軌跡データを,人間によって解釈可能な構造的・意味的に豊かな表現に変換し,機械推論システムで直接利用できる問題に対処する。
本稿では, ノイズの多いAISシーケンスを, クリーンでモビリティに配慮したエピソードからなる個別のトリップに分割する, 文脈対応トラジェクトリ抽象化フレームワークを提案する。
各エピソードは、近隣の地理的エンティティ、オフショアナビゲーション機能、気象条件など、複数のソースのコンテキスト情報によってさらに豊かにされている。
重要なことに、このような表現は LLM を用いた制御された自然言語記述の生成をサポートすることができる。
本研究では,AISデータ上に複数 LLM を用いて生成した記述の質と,オープンな文脈的特徴を実証的に検討する。
意味密度の増大と時空間の複雑さの低減により、この抽象化は下流の分析を容易にし、高レベルの海事推論タスクのためのLLMとの統合を可能にする。
関連論文リスト
- OVerSeeC: Open-Vocabulary Costmap Generation from Satellite Images and Natural Language [11.384592553913778]
本稿では,この問題をInterpret--Synthesize:iに分解するゼロショットモジュラーフレームワークを提案する。
我々はOVerSeeCがランク付けや構成の好みを処理し,多様な領域にまたがる人力トラジェクトリと整合した経路を生成することを示す。
論文 参考訳(メタデータ) (2026-02-20T20:49:07Z) - Connecting the Dots: Training-Free Visual Grounding via Agentic Reasoning [63.109585527799005]
GroundingAgentは、タスク固有の微調整なしで動作するビジュアルグラウンドティングフレームワークである。
広く使用されているベンチマークでは、平均ゼロショットグラウンドの精度は65.1%である。
また、強い解釈可能性を提供し、各推論ステップを透過的に照らす。
論文 参考訳(メタデータ) (2025-11-24T03:11:08Z) - Understanding the Geospatial Reasoning Capabilities of LLMs: A Trajectory Recovery Perspective [31.228269455751363]
本稿では,Large Language Models (LLMs) が道路網地図を読み取ってナビゲーションを行うことができるかどうかを考察する。
トラジェクトリ・リカバリは,マスク付きGPSトレースを復元するモデルを必要とするプロキシ・タスクである。
我々のプロンプトフレームワークは,道路ネットワークをコンテキストとして使用することにより,外部ナビゲーションツールにアクセスすることなく,有効な経路を生成することができる。
論文 参考訳(メタデータ) (2025-10-02T03:37:41Z) - Vision-and-Language Navigation with Analogical Textual Descriptions in LLMs [41.977702477816756]
既存のVision-and-Language Navigation (VLN)エージェントは、画像をテキストシーン記述としてエンコードする。
複数の視点からテキスト記述を組み込むことで,ナビゲーションエージェントの文脈理解を改善した。
R2Rデータセットに対する我々のアプローチの評価を行い、ナビゲーション性能を大幅に改善したことを示す。
論文 参考訳(メタデータ) (2025-09-29T17:51:01Z) - TrajSceneLLM: A Multimodal Perspective on Semantic GPS Trajectory Analysis [0.0]
我々は,GPSトラジェクトリのセマンティック理解を強化するためのマルチモーダル視点であるTrajSceneLLMを提案する。
本稿では,旅行選択を分析し,移動行動を理解する上で重要な課題である旅行モード識別(TMI)の枠組みを検証した。
このセマンティックエンハンスメントは、さまざまな下流のアプリケーションや、人工知能の将来の研究に有意義な可能性を約束する。
論文 参考訳(メタデータ) (2025-06-19T15:31:40Z) - MuRAL: A Multi-Resident Ambient Sensor Dataset Annotated with Natural Language for Activities of Daily Living [4.187145402358247]
自然言語を用いた最初のマルチレジデント・アンビエント・センサ・データセットであるMuRALを紹介する。
Muralには、きめ細かい自然言語の記述、常駐のアイデンティティ、ハイレベルなアクティビティラベルが添付されている。
我々は、課題割り当て、アクション記述、アクティビティ分類の3つのコアタスクに対して、最先端のLLMを用いてMuRALをベンチマークする。
論文 参考訳(メタデータ) (2025-04-29T07:46:14Z) - Navigating Motion Agents in Dynamic and Cluttered Environments through LLM Reasoning [69.5875073447454]
本稿では,大規模言語モデル(LLM)によって強化された動作エージェントを,動的・乱雑な環境における自律的なナビゲーションに向けて前進させる。
トレーニング不要なフレームワークは、マルチエージェント調整、クローズドループ計画、動的障害物回避を、リトレーニングや微調整なしでサポートしています。
論文 参考訳(メタデータ) (2025-03-10T13:39:09Z) - OVER-NAV: Elevating Iterative Vision-and-Language Navigation with Open-Vocabulary Detection and StructurEd Representation [96.46961207887722]
OVER-NAVは、現在のIVLN技術を超えることを目指している。
解釈されたナビゲーションデータを完全に活用するために、構造化された表現、コード化されたOmnigraphを導入する。
論文 参考訳(メタデータ) (2024-03-26T02:34:48Z) - VELMA: Verbalization Embodiment of LLM Agents for Vision and Language
Navigation in Street View [81.58612867186633]
視覚と言語ナビゲーション(VLN)は、視覚的および自然言語の理解と空間的および時間的推論能力を必要とする。
VELMAは,2つのコンテキスト内例のみを用いて,ストリートビューでのナビゲーション指示に従うことができることを示す。
数千の例でLLMエージェントをさらに微調整し、従来の2つのデータセットのタスク完了に対する25%-30%の相対的な改善を実現した。
論文 参考訳(メタデータ) (2023-07-12T11:08:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。