論文の概要: Extracting Object Heights From LiDAR & Aerial Imagery
- arxiv url: http://arxiv.org/abs/2408.00967v1
- Date: Fri, 2 Aug 2024 01:24:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-05 14:46:34.094860
- Title: Extracting Object Heights From LiDAR & Aerial Imagery
- Title(参考訳): LiDARと空中画像から物体の高さを抽出する
- Authors: Jesus Guerrero,
- Abstract要約: 本研究は,LiDARと空中画像から物体の高さを抽出する手続き的手法を示す。
SOTAオブジェクトセグメンテーションは、ディープラーニングのバックグラウンドなしでオブジェクトの高さを取得できます。
エンジニアは世代間で世界データの追跡と再処理を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work shows a procedural method for extracting object heights from LiDAR and aerial imagery. We discuss how to get heights and the future of LiDAR and imagery processing. SOTA object segmentation allows us to take get object heights with no deep learning background. Engineers will be keeping track of world data across generations and reprocessing them. They will be using older procedural methods like this paper and newer ones discussed here. SOTA methods are going beyond analysis and into generative AI. We cover both a procedural methodology and the newer ones performed with language models. These include point cloud, imagery and text encoding allowing for spatially aware AI.
- Abstract(参考訳): 本研究は,LiDARと空中画像から物体の高さを抽出する手続き的手法を示す。
我々は,LiDARと画像処理の高度と将来について論じる。
SOTAオブジェクトセグメンテーションは、ディープラーニングのバックグラウンドなしでオブジェクトの高さを取得できます。
エンジニアは世代間で世界データの追跡と再処理を行う。
彼らはこの論文のような古い手続き的手法と、ここで議論した新しい手法を使っています。
SOTAメソッドは分析を超えて、生成AIに移行している。
手続き的手法と言語モデルを用いた新しい手法の両方を取り上げる。
これには、ポイントクラウド、画像、テキストエンコーディングが含まれており、空間的に認識されたAIを可能にする。
関連論文リスト
- Depth Anything: Unleashing the Power of Large-Scale Unlabeled Data [87.61900472933523]
この研究は、ロバストな単分子深度推定のための非常に実用的な解であるDepth Anythingを提示する。
データエンジンを設計し、大規模な未ラベルデータの収集と注釈付けを自動的に行うことにより、データセットをスケールアップします。
6つのパブリックデータセットとランダムにキャプチャされた写真を含む、ゼロショットの機能を広範囲に評価する。
論文 参考訳(メタデータ) (2024-01-19T18:59:52Z) - Building Lane-Level Maps from Aerial Images [9.185929396989083]
レーン検出のために構築された大規模空中画像データセットを初めて紹介する。
我々はAerialLaneNetと呼ばれる空中画像からベースライン深層学習車線検出手法を開発した。
提案手法は,新たなデータセットの最先端手法と比較して,大幅な改善を実現している。
論文 参考訳(メタデータ) (2023-12-20T21:58:45Z) - Object Goal Navigation with Recursive Implicit Maps [92.6347010295396]
対象目標ナビゲーションのための暗黙的な空間マップを提案する。
提案手法は, 挑戦的なMP3Dデータセット上での技量を著しく上回る。
我々は、実際のロボットにモデルをデプロイし、実際のシーンでオブジェクトゴールナビゲーションの結果を奨励する。
論文 参考訳(メタデータ) (2023-08-10T14:21:33Z) - LARD - Landing Approach Runway Detection -- Dataset for Vision Based
Landing [2.7400353551392853]
本稿では,接近・着陸時の滑走路検出のための高品質な空中画像のデータセットを提案する。
データセットの大部分は合成画像で構成されていますが、実際の着陸映像から手動でラベル付けされた画像も提供しています。
このデータセットは、データセットの品質の分析や、検出タスクに対処するモデルの開発など、さらなる研究の道を開く。
論文 参考訳(メタデータ) (2023-04-05T08:25:55Z) - Construction of Object Boundaries for the Autopilotof a Surface Robot
from Satellite Imagesusing Computer Vision Methods [101.18253437732933]
衛星地図上での水物体を検出する手法を提案する。
輪郭のGPS座標を計算するアルゴリズムを作成する。
提案アルゴリズムは,表面ロボットオートパイロットモジュールに適したフォーマットで結果の保存を可能にする。
論文 参考訳(メタデータ) (2022-12-05T12:07:40Z) - MaRF: Representing Mars as Neural Radiance Fields [1.4680035572775534]
MARFは火星の環境を合成するためのフレームワークで、ローバーカメラの画像を何枚か集めている。
惑星地質学、シミュレートされた航法、形状解析などの惑星表面探査における重要な課題に対処する。
実験では,キュリオシティ・ローバー,パーセヴァンス・ローバー,インジェニティ・ヘリコプターによって捕獲された火星の実際のデータセットから生成された環境を実証した。
論文 参考訳(メタデータ) (2022-12-03T18:58:00Z) - A New Path: Scaling Vision-and-Language Navigation with Synthetic
Instructions and Imitation Learning [70.14372215250535]
VLN(Vision-and-Language Navigation)の最近の研究は、RLエージェントを訓練して、フォトリアリスティックな環境で自然言語ナビゲーション命令を実行する。
人間の指導データが不足し、訓練環境の多様性が限られていることを考えると、これらのエージェントは複雑な言語基盤と空間言語理解に苦慮している。
我々は、密集した360度パノラマで捉えた500以上の屋内環境を取り、これらのパノラマを通して航法軌道を構築し、各軌道に対して視覚的に接地された指示を生成する。
4.2Mの命令-軌道対のデータセットは、既存の人間の注釈付きデータセットよりも2桁大きい。
論文 参考訳(メタデータ) (2022-10-06T17:59:08Z) - REGRAD: A Large-Scale Relational Grasp Dataset for Safe and
Object-Specific Robotic Grasping in Clutter [52.117388513480435]
本稿では,オブジェクト間の関係のモデル化を継続するregradという新しいデータセットを提案する。
データセットは2D画像と3Dポイントクラウドの両方で収集されます。
ユーザは、好きなだけ多くのデータを生成するために、自由に独自のオブジェクトモデルをインポートできる。
論文 参考訳(メタデータ) (2021-04-29T05:31:21Z) - Focusing on Shadows for Predicting Heightmaps from Single Remotely
Sensed RGB Images with Deep Learning [3.42658286826597]
本研究では,リモートセンシング画像のシャドウマップを利用したタスク指向ディープラーニングモデルを提案し,その高さマップを算出する。
英国マンチェスターの広大なエリアをカバーするデータセットでモデルを検証する。
論文 参考訳(メタデータ) (2021-04-22T05:31:13Z) - Refer-it-in-RGBD: A Bottom-up Approach for 3D Visual Grounding in RGBD
Images [69.5662419067878]
RGBD画像における接地参照表現は新たな分野である。
本稿では,参照する物体が閉塞により部分的にスキャンされる場合が多い単視点rgbd画像における3次元視覚グランド化の新たな課題を提案する。
提案手法はまず,RGBD画像内の関連領域をローカライズするヒートマップを生成するために,下層の言語と視覚的特徴を融合させる。
次に、ヒートマップに基づく適応的特徴学習を行い、他のビジオ言語融合とオブジェクトレベルのマッチングを行い、最後に参照したオブジェクトを接地する。
論文 参考訳(メタデータ) (2021-03-14T11:18:50Z) - Aerial Height Prediction and Refinement Neural Networks with Semantic
and Geometric Guidance [0.0]
このレターでは、まずマルチタスクニューラルネットワークを用いて、単一のRGB空中入力画像から得られる高さマップを予測する2段階のアプローチを提案する。
2つの公開データセットの実験により、我々の手法は最先端の結果を生成可能であることが示された。
論文 参考訳(メタデータ) (2020-11-21T01:39:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。