論文の概要: Deep Transformer Network for Monocular Pose Estimation of Ship-Based UAV
- arxiv url: http://arxiv.org/abs/2406.09260v1
- Date: Thu, 13 Jun 2024 16:01:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-14 16:55:18.363684
- Title: Deep Transformer Network for Monocular Pose Estimation of Ship-Based UAV
- Title(参考訳): 深部変圧器ネットワークによる船上UAVの単眼ポス推定
- Authors: Maneesha Wickramasuriya, Taeyoung Lee, Murray Snyder,
- Abstract要約: トランスフォーマーニューラルネットワークモデルは、2Dキーポイントを検出し、各部分の6Dポーズを推定するように訓練される。
この手法は、船舶による無人無人無人航空機の着陸と航行に応用できる可能性がある。
- 参考スコア(独自算出の注目度): 0.23408308015481663
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a deep transformer network for estimating the relative 6D pose of a Unmanned Aerial Vehicle (UAV) with respect to a ship using monocular images. A synthetic dataset of ship images is created and annotated with 2D keypoints of multiple ship parts. A Transformer Neural Network model is trained to detect these keypoints and estimate the 6D pose of each part. The estimates are integrated using Bayesian fusion. The model is tested on synthetic data and in-situ flight experiments, demonstrating robustness and accuracy in various lighting conditions. The position estimation error is approximately 0.8\% and 1.0\% of the distance to the ship for the synthetic data and the flight experiments, respectively. The method has potential applications for ship-based autonomous UAV landing and navigation.
- Abstract(参考訳): 本稿では,無人航空機 (UAV) の船体に対する相対的な6次元姿勢をモノクロ画像を用いて推定する深部変圧器ネットワークを提案する。
船舶画像の合成データセットを作成し、複数の船舶部品の2Dキーポイントで注釈を付ける。
トランスフォーマーニューラルネットワークモデルは、これらのキーポイントを検出し、各部分の6Dポーズを推定するために訓練される。
推定値はベイズ核融合を用いて統合される。
このモデルは合成データとその場での飛行実験でテストされ、様々な照明条件下で頑丈さと精度を実証している。
位置推定誤差はそれぞれ、合成データと飛行実験の船からの距離の0.8\%と1.0\%である。
この手法は、船舶による無人無人無人航空機の着陸と航行に応用できる可能性がある。
関連論文リスト
- XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis [84.23233209017192]
本稿では,自律走行シミュレーションに特化して設計された新しい駆動ビュー合成データセットとベンチマークを提案する。
データセットには、トレーニング軌跡から1-4mずれて取得した画像のテストが含まれているため、ユニークなものだ。
我々は、フロントオンリーおよびマルチカメラ設定下で、既存のNVSアプローチを評価するための最初の現実的なベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-26T14:00:21Z) - Low-power Ship Detection in Satellite Images Using Neuromorphic Hardware [1.4330085996657045]
オンボードのデータ処理は、船を識別し、地上に送られるデータの量を削減できる。
船上で撮影されたほとんどの画像は水域や陸地のみを含み、エアバス船検出データセットでは船を含む画像の22.1%しか示していない。
1つの複雑なモデルに頼るのではなく、パフォーマンスを最適化する低消費電力2段階システムを構築した。
論文 参考訳(メタデータ) (2024-06-17T08:36:12Z) - Image and AIS Data Fusion Technique for Maritime Computer Vision
Applications [1.482087972733629]
本研究では,AIS(Automatic Identification System)データと画像に検出された容器を融合させてデータセットを作成する手法を開発した。
提案手法は, 距離と方位を推定することにより, 検出した船舶を対応するAISメッセージに関連付ける。
この技術は、水路交通管理、遭遇検知、監視のためのデータセットを作成するのに有用である。
論文 参考訳(メタデータ) (2023-12-07T20:54:49Z) - Towards Viewpoint Robustness in Bird's Eye View Segmentation [85.99907496019972]
AV知覚モデルがカメラ視点の変化にどのように影響するかを考察する。
投機時のピッチ、ヨー、深さ、高さへの小さな変化は、大きな性能低下につながる。
本稿では,新しいビュー合成技術を導入し,収集したデータをターゲットリグの視点に変換する手法を提案する。
論文 参考訳(メタデータ) (2023-09-11T02:10:07Z) - Depthformer : Multiscale Vision Transformer For Monocular Depth
Estimation With Local Global Information Fusion [6.491470878214977]
本稿では,屋内のNYUV2データセットと屋外のKITTIデータセットの深度推定のためのトランスフォーマーベースモデルをベンチマークする。
単眼深度推定のための新しいアテンションベースアーキテクチャDepthformerを提案する。
提案手法は,屋根平均正方形誤差(RMSE)でそれぞれ3.3%,3.3%改善する。
論文 参考訳(メタデータ) (2022-07-10T20:49:11Z) - Augmented Imagefication: A Data-driven Fault Detection Method for
Aircraft Air Data Sensors [12.317152569123541]
航空機用エアデータセンサ(ADS)のFD(Augmented Imagefication for Fault Detection)と呼ばれる新しいデータ駆動方式を提案する。
深層ニューラルネットワーク(DNN)に基づくエッジデバイス上でのオンラインFDスキームを開発し,航空機のリアルタイム監視を実現する。
論文 参考訳(メタデータ) (2022-06-18T00:06:53Z) - ViTAEv2: Vision Transformer Advanced by Exploring Inductive Bias for
Image Recognition and Beyond [76.35955924137986]
我々は、内在性IBを畳み込み、すなわちViTAEから探索するビジョントランスフォーマーを提案する。
ViTAEはいくつかの空間ピラミッド縮小モジュールを備えており、入力イメージをリッチなマルチスケールコンテキストでトークンに埋め込む。
我々は、ImageNet検証セット上で88.5%のTop-1分類精度と、ImageNet実検証セット上で最高の91.2%のTop-1分類精度を得る。
論文 参考訳(メタデータ) (2022-02-21T10:40:05Z) - End-to-End Trainable Multi-Instance Pose Estimation with Transformers [68.93512627479197]
畳み込みニューラルネットワークとトランスを組み合わせることで,マルチインスタンスポーズ推定のための新たなエンドツーエンドトレーニング可能なアプローチを提案する。
変換器を用いたエンドツーエンドのトレーニング可能なオブジェクト検出に関する最近の研究に触発されて、変換器エンコーダデコーダアーキテクチャとバイパーティイトマッチングスキームを併用して、与えられた画像中のすべての個人のポーズを直接回帰する。
提案モデルであるポーズ推定トランスフォーマ(poet)は,キーポイント損失,キーポイント可視性損失,センター損失,クラス損失からなる,新たなセットベースグローバル損失を用いてトレーニングを行う。
論文 参考訳(メタデータ) (2021-03-22T18:19:22Z) - Deep Learning based Multi-Modal Sensing for Tracking and State
Extraction of Small Quadcopters [3.019035926889528]
本稿では, クワッドコプター無人航空機(UAV)の検出, 追跡, ローカライズのためのマルチセンサ方式を提案する。
具体的には、FoV内のUAVを検出し、追跡するために、単眼のRGBとサーマルビデオ(固定されたプラットフォームからキャプチャする)を処理するパイプラインが開発されている。
2次元平面ライダーは、画素データの実際の距離測定への変換を可能にし、グローバル座標におけるUAVの局所化を可能にする。
論文 参考訳(メタデータ) (2020-12-08T23:59:48Z) - PerMO: Perceiving More at Once from a Single Image for Autonomous
Driving [76.35684439949094]
単一画像から完全テクスチャ化された車両の3次元モデルを検出し,セグメント化し,再構成する新しい手法を提案する。
私たちのアプローチは、ディープラーニングの強みと従来のテクニックの優雅さを組み合わせています。
我々はこれらのアルゴリズムを自律運転システムに統合した。
論文 参考訳(メタデータ) (2020-07-16T05:02:45Z) - Real-Time target detection in maritime scenarios based on YOLOv3 model [65.35132992156942]
ウェブスクレイピングによって収集された56k以上の海洋船舶の画像からなる、新しい船舶データセットが提案されている。
Keras APIをベースとしたYOLOv3シングルステージ検出器がこのデータセット上に構築されている。
論文 参考訳(メタデータ) (2020-02-10T15:25:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。