論文の概要: Multi-Modal Drift Forecasting of Leeway Objects via Navier-Stokes-Guided CNN and Sequence-to-Sequence Attention-Based Models
- arxiv url: http://arxiv.org/abs/2508.18284v1
- Date: Sat, 16 Aug 2025 21:01:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-31 21:54:20.610096
- Title: Multi-Modal Drift Forecasting of Leeway Objects via Navier-Stokes-Guided CNN and Sequence-to-Sequence Attention-Based Models
- Title(参考訳): Navier-Stokes-Guided CNNとSequence-to-Sequence Attention-based ModelによるLeeway物体のマルチモーダルドリフト予測
- Authors: Rahmat K. Adesunkanmi, Alexander W. Brandt, Masoud Deylami, Gustavo A. Giraldo Echeverri, Hamidreza Karbasian, Adel Alaeddini,
- Abstract要約: 海上環境におけるリーウェイ物体の漂流(変位)を正確に予測することは、依然として重要な課題である。
本稿では,Sentence Transformerの埋め込みと注目に基づくシーケンス・ツー・シーケンスアーキテクチャを統合したマルチモーダル機械学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 33.72751145910978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurately predicting the drift (displacement) of leeway objects in maritime environments remains a critical challenge, particularly in time-sensitive scenarios such as search and rescue operations. In this study, we propose a multi-modal machine learning framework that integrates Sentence Transformer embeddings with attention-based sequence-to-sequence architectures to predict the drift of leeway objects in water. We begin by experimentally collecting environmental and physical data, including water current and wind velocities, object mass, and surface area, for five distinct leeway objects. Using simulated data from a Navier-Stokes-based model to train a convolutional neural network on geometrical image representations, we estimate drag and lift coefficients of the leeway objects. These coefficients are then used to derive the net forces responsible for driving the objects' motion. The resulting time series, comprising physical forces, environmental velocities, and object-specific features, combined with textual descriptions encoded via a language model, are inputs to attention-based sequence-to-sequence long-short-term memory and Transformer models, to predict future drift trajectories. We evaluate the framework across multiple time horizons ($1$, $3$, $5$, and $10$ seconds) and assess its generalization across different objects. We compare our approach against a fitted physics-based model and traditional machine learning methods, including recurrent neural networks and temporal convolutional neural networks. Our results show that these multi-modal models perform comparably to traditional models while also enabling longer-term forecasting in place of single-step prediction. Overall, our findings demonstrate the ability of a multi-modal modeling strategy to provide accurate and adaptable predictions of leeway object drift in dynamic maritime conditions.
- Abstract(参考訳): 海上環境におけるリーウェイ物体の漂流(変位)を正確に予測することは、特に捜索や救助活動のような時間に敏感なシナリオにおいて、重要な課題である。
本研究では,Sentence Transformerの埋め込みと注目に基づくシーケンス・ツー・シーケンスアーキテクチャを統合し,水中のリーウェイ物体の漂流を予測するマルチモーダル機械学習フレームワークを提案する。
まず,5つの異なるリーウェイ対象に対して,水流・風速・物体質量・表面積を含む環境・物理的データを実験的に収集することから始める。
Navier-Stokesモデルからのシミュレーションデータを用いて、幾何学的画像表現に基づいて畳み込みニューラルネットワークを訓練し、リーウェイオブジェクトのドラッグ・アンド・リフト係数を推定する。
これらの係数は、物体の動きを駆動するネット力の導出に使用される。
物理力、環境速度、オブジェクト固有の特徴からなる時系列は、言語モデルを介して符号化されたテキスト記述と組み合わせて、注意に基づくシーケンス・ツー・シーケンス・ロングショート・メモリとトランスフォーマーモデルに入力され、将来のドリフト軌道を予測する。
フレームワークを複数の時間軸(1ドル、3ドル、5ドル、10ドル秒)で評価し、異なるオブジェクト間の一般化を評価します。
我々は、物理モデルに適合したアプローチと、繰り返しニューラルネットワークや時間畳み込みニューラルネットワークを含む従来の機械学習手法との比較を行った。
その結果、これらのマルチモーダルモデルは従来のモデルと相容れない性能を示し、シングルステップ予測の代わりに長期予測を可能にした。
以上の結果から, 動的海洋環境下でのリーウェイ物体漂流の高精度かつ適応可能な予測を行うためのマルチモーダルモデリング手法の有効性が示唆された。
関連論文リスト
- Human locomotor control timescales depend on the environmental context and sensory input modality [37.48294298569551]
制御時間スケールを定量化する統合データ駆動フレームワークを提案する。
ウォーキングやランニングといったタスクにこのフレームワークを適用します。
本研究の枠組みは,ロポモタ・フット配置制御の時間尺度に影響を与える要因を明らかにする。
論文 参考訳(メタデータ) (2025-03-20T16:57:15Z) - STDepthFormer: Predicting Spatio-temporal Depth from Video with a
Self-supervised Transformer Model [0.0]
ビデオ入力と空間的時間的注意ネットワークから,映像のフレーム列を同時に予測する自己教師型モデルを提案する。
提案モデルでは,物体形状やテクスチャなどの事前のシーン知識を,単一画像深度推定法に類似した手法で活用する。
マルチオブジェクト検出、セグメンテーション、トラッキングを含む複雑なモデルを必要とするのではなく、暗黙的にシーン内のオブジェクトの動きを予測することができる。
論文 参考訳(メタデータ) (2023-03-02T12:22:51Z) - Data-Driven Machine Learning Models for a Multi-Objective Flapping Fin
Unmanned Underwater Vehicle Control System [0.5522489572615558]
我々は,キネマティクスからスラストへのニューラルネットワークモデルを利用した検索に基づく逆モデルを構築し,制御系の設計を行う。
この逆モデルを統合した制御系が、オンラインのサイクル・ツー・サイクルの調整を行い、異なるシステムの目的を優先順位付けする方法を実証する。
論文 参考訳(メタデータ) (2022-09-14T01:55:15Z) - Physics-Inspired Temporal Learning of Quadrotor Dynamics for Accurate
Model Predictive Trajectory Tracking [76.27433308688592]
クオーロタのシステムダイナミクスを正確にモデル化することは、アジャイル、安全、安定したナビゲーションを保証する上で非常に重要です。
本稿では,ロボットの経験から,四重項系の力学を純粋に学習するための新しい物理インスパイアされた時間畳み込みネットワーク(PI-TCN)を提案する。
提案手法は,スパース時間的畳み込みと高密度フィードフォワード接続の表現力を組み合わせて,正確なシステム予測を行う。
論文 参考訳(メタデータ) (2022-06-07T13:51:35Z) - Predicting Future Occupancy Grids in Dynamic Environment with
Spatio-Temporal Learning [63.25627328308978]
本稿では,将来の占有予測を生成するための時間的予測ネットワークパイプラインを提案する。
現在のSOTAと比較して、我々の手法は3秒の長い水平線での占有を予測している。
我々は、さらなる研究を支援するために、nulisに基づくグリッド占有データセットを公開します。
論文 参考訳(メタデータ) (2022-05-06T13:45:32Z) - Learning Multi-Object Dynamics with Compositional Neural Radiance Fields [63.424469458529906]
本稿では,暗黙的オブジェクトエンコーダ,ニューラルレージアンスフィールド(NeRF),グラフニューラルネットワークに基づく画像観測から構成予測モデルを学習する手法を提案する。
NeRFは3D以前の強みから、シーンを表現するための一般的な選択肢となっている。
提案手法では,学習した潜時空間にRTを応用し,そのモデルと暗黙のオブジェクトエンコーダを用いて潜時空間を情報的かつ効率的にサンプリングする。
論文 参考訳(メタデータ) (2022-02-24T01:31:29Z) - Wide and Narrow: Video Prediction from Context and Motion [54.21624227408727]
本稿では,これらの相補的属性を統合し,深層ネットワークを通した複雑なピクセルのダイナミックスを予測するフレームワークを提案する。
本研究では,非局所的な近隣表現を集約し,過去のフレーム上の文脈情報を保存するグローバルなコンテキスト伝搬ネットワークを提案する。
また,移動オブジェクトの動作をメモリに格納することで,適応的なフィルタカーネルを生成するローカルフィルタメモリネットワークを考案した。
論文 参考訳(メタデータ) (2021-10-22T04:35:58Z) - Incorporating Kinematic Wave Theory into a Deep Learning Method for
High-Resolution Traffic Speed Estimation [3.0969191504482243]
本研究では, 波動に基づく深部畳み込みニューラルネットワーク(Deep CNN)を提案し, スパースプローブ車両軌道から高分解能交通速度のダイナミクスを推定する。
我々は,既存の学習に基づく推定手法の堅牢性を改善するために,運動波理論の原理を取り入れるための2つの重要なアプローチを導入する。
論文 参考訳(メタデータ) (2021-02-04T21:51:25Z) - Learning Monocular Depth in Dynamic Scenes via Instance-Aware Projection
Consistency [114.02182755620784]
本稿では,複数の動的物体の6-DoF動作,エゴモーション,深度を,監督なしで一眼レフカメラで明示的にモデル化する,エンドツーエンドのジョイントトレーニングフレームワークを提案する。
筆者らのフレームワークは,最先端の深度・動き推定法より優れていた。
論文 参考訳(メタデータ) (2021-02-04T14:26:42Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Any Motion Detector: Learning Class-agnostic Scene Dynamics from a
Sequence of LiDAR Point Clouds [4.640835690336654]
動き検出と動きパラメータ推定のための時間的文脈アグリゲーションの新しいリアルタイム手法を提案する。
本稿では,固有点雲列の固有オドメトリック変換に匹敵する性能で,リアルタイムな推論を実現するためのエゴモーション補償層を提案する。
論文 参考訳(メタデータ) (2020-04-24T10:40:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。