論文の概要: Pose Estimation of Buried Deep-Sea Objects using 3D Vision Deep Learning Models
- arxiv url: http://arxiv.org/abs/2410.01061v2
- Date: Wed, 11 Dec 2024 00:43:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 13:59:09.238872
- Title: Pose Estimation of Buried Deep-Sea Objects using 3D Vision Deep Learning Models
- Title(参考訳): 3次元視覚深層学習モデルを用いた埋設深海物体の姿勢推定
- Authors: Jerry Yan, Chinmay Talegaonkar, Nicholas Antipa, Eric Terrill, Sophia Merrifield,
- Abstract要約: 本研究では,南カリフォルニアサンペドロ盆地の海底で発見された土砂場樽のポーズと埋没率の推定手法を提案する。
本研究では,バレル点雲から埋設したバレルの6-DOFポーズと半径を入力として推定するためのバレルネットを提案する。
我々は, 合成したバレル点雲を用いてバレルネットを訓練し, 遠隔操作車(ROV)ビデオ映像を用いて, 提案手法の可能性を定性的に実証した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: We present an approach for pose and burial fraction estimation of debris field barrels found on the seabed in the Southern California San Pedro Basin. Our computational workflow leverages recent advances in foundation models for segmentation and a vision transformer-based approach to estimate the point cloud which defines the geometry of the barrel. We propose BarrelNet for estimating the 6-DOF pose and radius of buried barrels from the barrel point clouds as input. We train BarrelNet using synthetically generated barrel point clouds, and qualitatively demonstrate the potential of our approach using remotely operated vehicle (ROV) video footage of barrels found at a historic dump site. We compare our method to a traditional least squares fitting approach and show significant improvement according to our defined benchmarks.
- Abstract(参考訳): 本研究では,南カリフォルニアサンペドロ盆地の海底で発見された土砂場樽のポーズと埋没率の推定手法を提案する。
我々の計算ワークフローは、セグメンテーションの基礎モデルの最近の進歩と、バレルの幾何学を定義する点雲を推定するためのビジョントランスフォーマーベースのアプローチを活用している。
本研究では,バレル点雲から埋設したバレルの6-DOFポーズと半径を入力として推定するためのバレルネットを提案する。
我々は, 合成したバレル点雲を用いてバレルネットを訓練し, 遠隔操作車(ROV)ビデオ映像を用いて, 提案手法の可能性を定性的に実証した。
提案手法を従来の最小二乗近似法と比較し, 評価ベンチマークにより, 大幅な改善が得られた。
関連論文リスト
- OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Metrically Scaled Monocular Depth Estimation through Sparse Priors for
Underwater Robots [0.0]
三角特徴量からのスパース深度測定を融合して深度予測を改善する深度学習モデルを定式化する。
このネットワークは、前方に見える水中データセットFLSeaで教師ありの方法で訓練されている。
この方法は、ラップトップGPUで160FPS、単一のCPUコアで7FPSで実行することで、リアルタイムのパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-10-25T16:32:31Z) - Learning Dense Flow Field for Highly-accurate Cross-view Camera
Localization [15.89357790711828]
本稿では,衛星画像に対する地上画像に対する3DFカメラのポーズ推定の問題に対処する。
地上画像と衛星画像のペアにおいて,高密度な画素単位の流れ場を学習する手法を提案する。
提案手法は,KITTI,Ford multi-AV,VIGOR,Oxford RobotCarデータセットにおいて,中央値のローカライゼーション誤差を89%,19%,80%,35%削減する。
論文 参考訳(メタデータ) (2023-09-27T10:26:26Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Semantic keypoint-based pose estimation from single RGB frames [64.80395521735463]
一つのRGB画像からオブジェクトの連続6-DoFポーズを推定する手法を提案する。
このアプローチは、畳み込みネットワーク(convnet)によって予測されるセマンティックキーポイントと、変形可能な形状モデルを組み合わせる。
提案手法は,インスタンスベースのシナリオとクラスベースのシナリオの両方に対して,6-DoFオブジェクトのポーズを正確に復元できることを示す。
論文 参考訳(メタデータ) (2022-04-12T15:03:51Z) - Towards 3D Scene Reconstruction from Locally Scale-Aligned Monocular
Video Depth [90.33296913575818]
映像深度推定や映像からの3次元シーン再構成のようなビデオベースのシナリオでは、フレームごとの予測における未知のスケールとシフトが深度の不整合を引き起こす可能性がある。
局所重み付き線形回帰法を提案する。
提案手法は,複数のゼロショットベンチマークにおいて,既存の最先端手法の性能を50%向上させることができる。
論文 参考訳(メタデータ) (2022-02-03T08:52:54Z) - Vegetation Stratum Occupancy Prediction from Airborne LiDAR 3D Point
Clouds [5.7047887413125276]
本研究では,空中プラットフォームから取得した3次元点雲から植生成層域の占有度を推定する新しい深層学習手法を提案する。
我々のネットワークは、ピクセルワイドやポイントワイドアノテーションよりも簡単に生成できる円筒状のプロットに集約された値で重畳されている。
本手法は,視覚的および解釈可能な予測を同時に提供しながら,手工芸と深層学習のベースラインを精度で上回る。
論文 参考訳(メタデータ) (2021-12-27T09:33:08Z) - PANet: Perspective-Aware Network with Dynamic Receptive Fields and
Self-Distilling Supervision for Crowd Counting [63.84828478688975]
本稿では,視点問題に対処するため,PANetと呼ばれる新しい視点認識手法を提案する。
対象物のサイズが視点効果によって1つの画像で大きく変化するという観測に基づいて,動的受容場(DRF)フレームワークを提案する。
このフレームワークは、入力画像に応じて拡張畳み込みパラメータによって受容野を調整することができ、モデルが各局所領域についてより識別的な特徴を抽出するのに役立つ。
論文 参考訳(メタデータ) (2021-10-31T04:43:05Z) - Category-Level 6D Object Pose Estimation via Cascaded Relation and
Recurrent Reconstruction Networks [22.627704070200863]
カテゴリーレベルの6Dポーズ推定は、ロボット操作や拡張現実といった多くのシナリオに不可欠である。
カテゴリレベルの6次元ポーズ推定をカスケード関係と再帰的再構成ネットワークを用いて高精度に行う。
我々の手法は最新の最先端のSPDを4.9%、CAMERA25データセットで17.7%で上回る。
論文 参考訳(メタデータ) (2021-08-19T15:46:52Z) - CAPTRA: CAtegory-level Pose Tracking for Rigid and Articulated Objects
from Point Clouds [97.63549045541296]
新規なリジッドオブジェクトインスタンスに対する9DoFポーズトラッキングと,関節付きオブジェクトに対するパート毎ポーズトラッキングを処理可能な統一フレームワークを提案する。
本手法は、高速なFPS 12で、カテゴリレベルのリジッドオブジェクトポーズ(NOCS-REAL275)と関節オブジェクトポーズベンチマーク(SAPIEN、BMVC)の最新のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-04-08T00:14:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。