論文の概要: 3d sequential image mosaicing for underwater navigation and mapping
- arxiv url: http://arxiv.org/abs/2110.01382v1
- Date: Mon, 4 Oct 2021 12:32:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 15:30:18.975500
- Title: 3d sequential image mosaicing for underwater navigation and mapping
- Title(参考訳): 水中ナビゲーションとマッピングのための3次元画像モザイク
- Authors: E. Nocerino (LIS), F. Menna (FBK), B. Chemisky (LIS), P. Drap (LIS)
- Abstract要約: 本稿では,画像に基づくリアルタイムナビゲーションとマッピングアルゴリズムを組み合わせた画像モザイキングアルゴリズムを提案する。
実施手順は詳述され、様々な水中シナリオにおける実験が提示され議論された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although fully autonomous mapping methods are becoming more and more common
and reliable, still the human operator is regularly employed in many 3D
surveying missions. In a number of underwater applications, divers or pilots of
remotely operated vehicles (ROVs) are still considered irreplaceable, and tools
for real-time visualization of the mapped scene are essential to support and
maximize the navigation and surveying efforts. For underwater exploration,
image mosaicing has proved to be a valid and effective approach to visualize
large mapped areas, often employed in conjunction with autonomous underwater
vehicles (AUVs) and ROVs. In this work, we propose the use of a modified image
mosaicing algorithm that coupled with image-based real-time navigation and
mapping algorithms provides two visual navigation aids. The first is a classic
image mosaic, where the recorded and processed images are incrementally added,
named 2D sequential image mosaicing (2DSIM). The second one geometrically
transform the images so that they are projected as planar point clouds in the
3D space providing an incremental point cloud mosaicing, named 3D sequential
image plane projection (3DSIP). In the paper, the implemented procedure is
detailed, and experiments in different underwater scenarios presented and
discussed. Technical considerations about computational efforts, frame rate
capabilities and scalability to different and more compact architectures (i.e.
embedded systems) is also provided.
- Abstract(参考訳): 完全な自律マッピング手法はますます一般的で信頼性が高くなっているが、人間のオペレーターは定期的に多くの3Dサーベイミッションで採用されている。
多くの水中アプリケーションでは、遠隔操作車両(rov)のダイバーやパイロットはいまだに置き換えられないと考えられており、地図化されたシーンをリアルタイムで可視化するためのツールは、ナビゲーションや測量作業のサポートと最大化に不可欠である。
水中探査において、画像モザイクは、しばしば自律型水中車両(AUV)やROV(英語版)と共に使用される大きな地図化された領域を視覚化する有効なアプローチであることが証明された。
そこで本研究では,画像に基づくリアルタイムナビゲーションとマッピングアルゴリズムを組み合わせた,画像モザイク修正アルゴリズムの利用を提案する。
1つは古典的なモザイクで、記録および処理された画像を段階的に追加し、2Dシーケンシャル画像モザイク (2DSIM) と呼ぶ。
2つ目は、画像を3d空間内の平面雲として投影するように幾何学的に変換し、3d逐次像面投影(3dsip)と呼ばれるインクリメンタルな点雲モザイクを提供する。
本論文では, 実施手順を詳述し, 様々な水中シナリオの実験を行い, 考察した。
計算作業、フレームレート能力、異なるよりコンパクトなアーキテクチャ(組込みシステム)への拡張性に関する技術的考察も提供される。
関連論文リスト
- Large Spatial Model: End-to-end Unposed Images to Semantic 3D [79.94479633598102]
大空間モデル(LSM)は、RGB画像を直接意味的放射場に処理する。
LSMは、単一のフィードフォワード操作における幾何学、外観、意味を同時に推定する。
新しい視点で言語と対話することで、多目的ラベルマップを生成することができる。
論文 参考訳(メタデータ) (2024-10-24T17:54:42Z) - VFMM3D: Releasing the Potential of Image by Vision Foundation Model for Monocular 3D Object Detection [80.62052650370416]
モノクル3Dオブジェクト検出は、自律運転やロボティクスなど、さまざまなアプリケーションにおいて重要な役割を担っている。
本稿では,VFMM3Dを提案する。VFMM3Dは,ビジョンファウンデーションモデル(VFM)の機能を利用して,単一ビュー画像を正確にLiDARポイントクラウド表現に変換する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-04-15T03:12:12Z) - SimDistill: Simulated Multi-modal Distillation for BEV 3D Object
Detection [56.24700754048067]
多視点カメラによる3Dオブジェクト検出は低コストで普及しているが、カメラデータのみから正確に3D形状を推定することは依然として困難である。
モデルアーキテクチャと蒸留戦略を慎重に構築し,シミュレートされたマルチモーダル蒸留(SimDistill)法を提案する。
我々のSimDistillは、コスト効率のよいカメラのみの配置を維持しながら、3Dオブジェクト検出のためのより良い特徴表現を学習することができる。
論文 参考訳(メタデータ) (2023-03-29T16:08:59Z) - Real Time Incremental Image Mosaicking Without Use of Any Camera
Parameter [1.2891210250935146]
本稿では,UAVを用いたインクリメンタルモザイクのリアルタイム作成システムを提案する。
モザイクのプロセスでは、画像の特徴抽出、画像間の類似したキーポイントのマッチング、画像のワープとアライメントのためのホモグラフィ行列の探索、モザイクをよりよく見るために画像のブレンドなどが行われた。
論文 参考訳(メタデータ) (2022-12-05T14:28:54Z) - PointMCD: Boosting Deep Point Cloud Encoders via Multi-view Cross-modal
Distillation for 3D Shape Recognition [55.38462937452363]
本稿では,教師として事前訓練されたディープイメージエンコーダ,学生としてディープポイントエンコーダを含む多視点クロスモーダル蒸留アーキテクチャを提案する。
複数ビューの視覚的および幾何学的記述子をペアワイズにアライメントすることで、より強力なディープポイントエンコーダを、疲労や複雑なネットワーク修正を伴わずに得ることができる。
論文 参考訳(メタデータ) (2022-07-07T07:23:20Z) - TANDEM: Tracking and Dense Mapping in Real-time using Deep Multi-view
Stereo [55.30992853477754]
本稿では,リアルタイムな単分子追跡と高密度フレームワークであるTANDEMを紹介する。
ポーズ推定のために、TANDEMはアライメントのスライディングウィンドウに基づいて光度バンドル調整を行う。
TANDEMは最先端のリアルタイム3D再構成性能を示す。
論文 参考訳(メタデータ) (2021-11-14T19:01:02Z) - Hyperspectral 3D Mapping of Underwater Environments [0.7087237546722617]
本稿では,水中環境のハイパースペクトル3次元再構成法について述べる。
従来のRGBカメラ,慣性ナビゲーションシステム,ハイパースペクトルプッシュブルームカメラによって収集されたデータを融合することにより,提案手法が高スペクトルテクスチャを用いた高精度な3次元再構成を実現することを示す。
論文 参考訳(メタデータ) (2021-10-13T08:37:22Z) - Real-time dense 3D Reconstruction from monocular video data captured by
low-cost UAVs [0.3867363075280543]
リアルタイム3d再構築は,ナビゲーションや緊急時のライブ評価など,多数のアプリケーションにメリットがある環境の高速密マッピングを可能にする。
ほとんどのリアルタイム対応のアプローチとは対照的に、我々のアプローチは明示的な深度センサーを必要としない。
建物周辺を斜め視で飛行する無人航空機(UAV)の自己動作を利用して、選択された画像のカメラ軌道と深度の両方を、十分な新規な内容で推定します。
論文 参考訳(メタデータ) (2021-04-21T13:12:17Z) - Mesh Reconstruction from Aerial Images for Outdoor Terrain Mapping Using
Joint 2D-3D Learning [12.741811850885309]
本稿では,無人航空機から得られた頭上画像を用いて,屋外地形のマッピングを行う。
飛行中の航空画像からの深度推定は困難です。
各カメラの局所メッシュを再構成する2d-3d学習手法を共同開発し,地球環境モデルとして構築する。
論文 参考訳(メタデータ) (2021-01-06T02:09:03Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z) - DeepURL: Deep Pose Estimation Framework for Underwater Relative
Localization [21.096166727043077]
本研究では,自律型水中車両(AUV)の6次元相対姿勢を1つの画像から決定するためのリアルタイム深層学習手法を提案する。
画像間翻訳ネットワークを用いて、レンダリングされた実画像間のギャップを埋めて、トレーニング用合成画像を生成する。
論文 参考訳(メタデータ) (2020-03-11T21:11:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。