論文の概要: GPU-Accelerated 3D Polygon Visibility Volumes for Synergistic Perception
and Navigation
- arxiv url: http://arxiv.org/abs/2402.03135v1
- Date: Mon, 5 Feb 2024 16:01:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 15:23:00.812717
- Title: GPU-Accelerated 3D Polygon Visibility Volumes for Synergistic Perception
and Navigation
- Title(参考訳): 相乗的知覚とナビゲーションのためのGPUによる3次元ポリゴン可視化ボリューム
- Authors: Andrew Willis, Collin Hague, Artur Wolek and Kevin Brink
- Abstract要約: UAVミッションは、地上位置と車両位置の間で満足する特定の幾何学的制約を必要とすることが多い。
本稿では,すべての3次元座標を囲む3次元体積を計算するシステムの理論と実装について述べる。
- 参考スコア(独自算出の注目度): 0.5735035463793009
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: UAV missions often require specific geometric constraints to be satisfied
between ground locations and the vehicle location. Such requirements are
typical for contexts where line-of-sight must be maintained between the vehicle
location and the ground control location and are also important in surveillance
applications where the UAV wishes to be able to sense, e.g., with a camera
sensor, a specific region within a complex geometric environment. This problem
is further complicated when the ground location is generalized to a convex 2D
polygonal region. This article describes the theory and implementation of a
system which can quickly calculate the 3D volume that encloses all 3D
coordinates from which a 2D convex planar region can be entirely viewed;
referred to as a visibility volume. The proposed approach computes visibility
volumes using a combination of depth map computation using GPU-acceleration and
geometric boolean operations. Solutions to this problem require complex 3D
geometric analysis techniques that must execute using arbitrary precision
arithmetic on a collection of discontinuous and non-analytic surfaces.
Post-processing steps incorporate navigational constraints to further restrict
the enclosed coordinates to include both visibility and navigation constraints.
Integration of sensing visibility constraints with navigational constraints
yields a range of navigable space where a vehicle will satisfy both perceptual
sensing and navigational needs of the mission. This algorithm then provides a
synergistic perception and navigation sensitive solution yielding a volume of
coordinates in 3D that satisfy both the mission path and sensing needs.
- Abstract(参考訳): UAVミッションは、地上位置と車両位置の間で満足する特定の幾何学的制約を必要とすることが多い。
このような要求は、車両の位置と地上管制位置の間で視線を維持する必要がある状況において典型的なものであり、UAVが複雑な幾何学的環境内の特定の領域であるカメラセンサーで感知できることを望む監視アプリケーションにおいても重要である。
この問題は、接地位置が凸2D多角形領域に一般化されるとさらに複雑になる。
本稿では、2次元凸平面領域を完全に見ることができる3次元座標を包含する3次元体積を素早く計算できるシステムの理論と実装について述べる。
提案手法は,GPUアクセラレーションと幾何ブール演算を用いた深度マップ計算を組み合わせた可視量を算出する。
この問題の解には複雑な3次元幾何学的解析技術が必要であり、不連続および非解析曲面の集合上で任意の精度演算を用いて実行する必要がある。
後処理のステップにはナビゲーションの制約が含まれており、囲われた座標をさらに制限し、可視性とナビゲーションの制約を含む。
視認性制約と航法的制約の統合は、車両がミッションの知覚的感覚と航法的ニーズの両方を満たすような航法可能空間を生じる。
このアルゴリズムは、ミッションパスとセンサーニーズの両方を満たす3Dの座標を大量に生成する相乗的知覚とナビゲーションに敏感な解を提供する。
関連論文リスト
- CVCP-Fusion: On Implicit Depth Estimation for 3D Bounding Box Prediction [2.0375637582248136]
Cross-View Center Point-Fusionは、3Dオブジェクト検出を行う最先端モデルである。
我々のアーキテクチャは、以前に確立されたアルゴリズム、クロスビュートランスフォーマー、CenterPointのアスペクトを利用する。
論文 参考訳(メタデータ) (2024-10-15T02:55:07Z) - GOI: Find 3D Gaussians of Interest with an Optimizable Open-vocabulary Semantic-space Hyperplane [53.388937705785025]
3Dオープンボキャブラリのシーン理解は、拡張現実とロボット応用の推進に不可欠である。
GOIは2次元視覚言語基礎モデルから3次元ガウススプラッティング(3DGS)に意味的特徴を統合するフレームワークである。
提案手法では,特徴空間内の超平面分割として特徴選択処理を扱い,クエリに関連性の高い特徴のみを保持する。
論文 参考訳(メタデータ) (2024-05-27T18:57:18Z) - HUGS: Holistic Urban 3D Scene Understanding via Gaussian Splatting [53.6394928681237]
RGB画像に基づく都市景観の全体的理解は、難しいが重要な問題である。
我々の主な考え方は、静的な3Dガウスと動的なガウスの組合せを用いた幾何学、外観、意味論、運動の合同最適化である。
提案手法は,2次元および3次元のセマンティック情報を高精度に生成し,新たな視点をリアルタイムに描画する機能を提供する。
論文 参考訳(メタデータ) (2024-03-19T13:39:05Z) - NDC-Scene: Boost Monocular 3D Semantic Scene Completion in Normalized
Device Coordinates Space [77.6067460464962]
SSC(Monocular 3D Semantic Scene Completion)は、単一の画像から複雑なセマンティックスや幾何学的形状を予測し、3D入力を必要としないため、近年大きな注目を集めている。
我々は,3次元空間に投影された2次元特徴の特徴的曖昧さ,3次元畳み込みのPose Ambiguity,深さの異なる3次元畳み込みにおける不均衡など,現在の最先端手法におけるいくつかの重要な問題を明らかにする。
シーン補完ネットワーク(NDC-Scene)を考案し,2を直接拡張する。
論文 参考訳(メタデータ) (2023-09-26T02:09:52Z) - OCTraN: 3D Occupancy Convolutional Transformer Network in Unstructured
Traffic Scenarios [0.0]
我々は2次元画像特徴を3次元占有特徴に変換するために反復アテンションを用いたトランスフォーマーアーキテクチャOCTraNを提案する。
また、LiDARの地上真実の必要性を排除し、任意のシーンにモデルを一般化するための自己教師型トレーニングパイプラインも開発している。
論文 参考訳(メタデータ) (2023-07-20T15:06:44Z) - OPA-3D: Occlusion-Aware Pixel-Wise Aggregation for Monocular 3D Object
Detection [51.153003057515754]
OPA-3Dは、Occlusion-Aware Pixel-Wise Aggregationネットワークである。
密集した風景深度と、奥行きのある箱残量と物の境界箱を共同で推定する。
メインカーのカテゴリーでは最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-11-02T14:19:13Z) - Semi-Perspective Decoupled Heatmaps for 3D Robot Pose Estimation from
Depth Maps [66.24554680709417]
協調環境における労働者とロボットの正確な3D位置を知ることは、いくつかの実際のアプリケーションを可能にする。
本研究では、深度デバイスと深度ニューラルネットワークに基づく非侵襲的なフレームワークを提案し、外部カメラからロボットの3次元ポーズを推定する。
論文 参考訳(メタデータ) (2022-07-06T08:52:12Z) - A Novel 3D-UNet Deep Learning Framework Based on High-Dimensional
Bilateral Grid for Edge Consistent Single Image Depth Estimation [0.45880283710344055]
3DBG-UNetと呼ばれるバイラテラルグリッドベースの3D畳み込みニューラルネットワークは、UNetsでコンパクトな3D二元格子を符号化することで、高次元の特徴空間をパラメータ化する。
別の新しい3DBGES-UNetモデルは、3DBG-UNetを統合して1つのカラービューの正確な深度マップを推測するものである。
論文 参考訳(メタデータ) (2021-05-21T04:53:14Z) - FGR: Frustum-Aware Geometric Reasoning for Weakly Supervised 3D Vehicle
Detection [81.79171905308827]
3Dアノテーションを使わずに点雲中の車両を検出するためのフラストラム対応幾何推論(FGR)を提案する。
本手法は粗い3次元セグメンテーションと3次元バウンディングボックス推定の2段階からなる。
2Dバウンディングボックスとスパースポイントクラウドだけで、3D空間内のオブジェクトを正確に検出できます。
論文 参考訳(メタデータ) (2021-05-17T07:29:55Z) - Leveraging Planar Regularities for Point Line Visual-Inertial Odometry [13.51108336267342]
モノクラー・ビジュアル・慣性オドメトリー(VIO)システムでは、3Dポイント・クラウドとカメラ・モーションを同時に推定することができる。
平面規則性だけでなく点特徴や線特徴を利用するPLP-VIOを提案する。
提案手法の有効性を,合成データと公開データセットの両方で検証した。
論文 参考訳(メタデータ) (2020-04-16T18:20:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。