論文の概要: Stable Yaw Estimation of Boats from the Viewpoint of UAVs and USVs
- arxiv url: http://arxiv.org/abs/2306.14056v1
- Date: Sat, 24 Jun 2023 20:47:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 17:23:32.055583
- Title: Stable Yaw Estimation of Boats from the Viewpoint of UAVs and USVs
- Title(参考訳): UAVとUSVの観点からのボートの安定ヨー推定
- Authors: Benjamin Kiefer, Timon H\"ofer, Andreas Zell
- Abstract要約: 6次元空間におけるボートの向きを予測するためのHyperPosePDFに基づく手法を提案する。
われわれはHyperPosePDFをビデオベースのシナリオに拡張し、時間をかけて堅牢な方向予測を行う。
- 参考スコア(独自算出の注目度): 14.573513188682183
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Yaw estimation of boats from the viewpoint of unmanned aerial vehicles (UAVs)
and unmanned surface vehicles (USVs) or boats is a crucial task in various
applications such as 3D scene rendering, trajectory prediction, and navigation.
However, the lack of literature on yaw estimation of objects from the viewpoint
of UAVs has motivated us to address this domain. In this paper, we propose a
method based on HyperPosePDF for predicting the orientation of boats in the 6D
space. For that, we use existing datasets, such as PASCAL3D+ and our own
datasets, SeaDronesSee-3D and BOArienT, which we annotated manually. We extend
HyperPosePDF to work in video-based scenarios, such that it yields robust
orientation predictions across time. Naively applying HyperPosePDF on video
data yields single-point predictions, resulting in far-off predictions and
often incorrect symmetric orientations due to unseen or visually different
data. To alleviate this issue, we propose aggregating the probability
distributions of pose predictions, resulting in significantly improved
performance, as shown in our experimental evaluation. Our proposed method could
significantly benefit downstream tasks in marine robotics.
- Abstract(参考訳): 無人航空機(UAV)や無人表面車両(USV)やボートの観点からのボートのヨー推定は、3Dシーンレンダリング、軌道予測、航法といった様々な用途において重要な課題である。
しかし、UAVの観点からのオブジェクトのヨー推定に関する文献の欠如は、この領域に対処する動機となっている。
本稿では,6次元空間におけるボートの向きを予測するためのHyperPosePDFに基づく手法を提案する。
そのため、PASCAL3D+や独自のデータセット、SeaDronesSee-3D、BOArienTといった既存のデータセットを使っています。
われわれはHyperPosePDFをビデオベースのシナリオに拡張し、時間をかけて堅牢な方向予測を行う。
ビデオデータにHyperPosePDFを内在的に適用すると、単一ポイントの予測が得られ、遠方からの予測や、見当たらないデータや視覚的に異なるデータによる対称方向の誤りが生じる。
この問題を軽減するため,本実験では,ポーズ予測の確率分布を集約し,その結果,性能が著しく向上することを示す。
提案手法は,海洋ロボティクスにおける下流作業に有益である。
関連論文リスト
- RoScenes: A Large-scale Multi-view 3D Dataset for Roadside Perception [98.76525636842177]
RoScenesは、最大規模のマルチビューロードサイド認識データセットである。
私たちのデータセットは、驚くべき21.13Mの3Dアノテーションを64,000$m2$で達成しています。
論文 参考訳(メタデータ) (2024-05-16T08:06:52Z) - RadOcc: Learning Cross-Modality Occupancy Knowledge through Rendering
Assisted Distillation [50.35403070279804]
マルチビュー画像を用いた3次元シーンの占有状況とセマンティクスを推定することを目的とした,新たな課題である3D占有予測手法を提案する。
本稿では,RandOccを提案する。Rendering Assisted distillation paradigm for 3D Occupancy prediction。
論文 参考訳(メタデータ) (2023-12-19T03:39:56Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Metrically Scaled Monocular Depth Estimation through Sparse Priors for
Underwater Robots [0.0]
三角特徴量からのスパース深度測定を融合して深度予測を改善する深度学習モデルを定式化する。
このネットワークは、前方に見える水中データセットFLSeaで教師ありの方法で訓練されている。
この方法は、ラップトップGPUで160FPS、単一のCPUコアで7FPSで実行することで、リアルタイムのパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-10-25T16:32:31Z) - A Novel Deep Neural Network for Trajectory Prediction in Automated
Vehicles Using Velocity Vector Field [12.067838086415833]
本稿では,データ駆動学習に基づく手法と,自然に着想を得た概念から生成された速度ベクトル場(VVF)を組み合わせた軌道予測手法を提案する。
精度は、正確な軌道予測のための過去の観測の長い歴史の要求を緩和する観測窓の減少と一致している。
論文 参考訳(メタデータ) (2023-09-19T22:14:52Z) - Uncertainty-aware State Space Transformer for Egocentric 3D Hand
Trajectory Forecasting [79.34357055254239]
ハンドトラジェクトリ予測は、AR/VRシステムと対話する際の人間の意図の迅速な理解を可能にするために不可欠である。
既存の方法では、現実の3Dアプリケーションでは不十分な2次元画像空間でこの問題に対処する。
初対人視点で観察されたRGBビデオから3次元空間のハンドトラジェクトリを予測することを目的とした,エゴセントリックな3Dハンドトラジェクトリ予測タスクを構築した。
論文 参考訳(メタデータ) (2023-07-17T04:55:02Z) - A Review on Viewpoints and Path-planning for UAV-based 3D Reconstruction [3.0479044961661708]
UAVが捉えたデータによる3D再構築も、研究や産業で注目を集めている。
本稿では,大規模物体の3次元再構成のための視点と経路計画のためのモデルフリーおよびモデルベースアルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-05-07T20:29:39Z) - SoK: Vehicle Orientation Representations for Deep Rotation Estimation [2.052323405257355]
KITTIの3Dオブジェクト検出データセットを用いて,既存の配向表現の精度について検討した。
配向表現の新しい形式としてトリコシンを提案する。
論文 参考訳(メタデータ) (2021-12-08T17:12:54Z) - SLPC: a VRNN-based approach for stochastic lidar prediction and
completion in autonomous driving [63.87272273293804]
VRNN(Variiational Recurrent Neural Networks)と呼ばれる生成モデルに基づく新しいLiDAR予測フレームワークを提案する。
提案手法は,フレーム内の奥行きマップを空間的に塗り替えることで,スパースデータを扱う際の従来のビデオ予測フレームワークの限界に対処できる。
VRNNのスパースバージョンとラベルを必要としない効果的な自己監督型トレーニング方法を紹介します。
論文 参考訳(メタデータ) (2021-02-19T11:56:44Z) - Inverting the Pose Forecasting Pipeline with SPF2: Sequential Pointcloud
Forecasting for Sequential Pose Forecasting [106.3504366501894]
自動運転車やロボット操作システムは、オブジェクトを最初に検出して追跡することによって、将来のオブジェクトのポーズを予測することが多い。
ポーズ予測アルゴリズムは通常、オブジェクトのポーズのラベル付きシーケンスを必要とするため、このパイプラインはスケールするのに費用がかかる。
本稿では,まず3次元センサデータを予測し,予測点雲列上の物体を検知・追跡し,将来的なポーズを求めることを提案する。
これにより、センサーデータ予測タスクにラベルが不要であるため、予測のスケールが難しくなる。
論文 参考訳(メタデータ) (2020-03-18T17:54:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。