論文の概要: Redefining Recon: Bridging Gaps with UAVs, 360 degree Cameras, and
Neural Radiance Fields
- arxiv url: http://arxiv.org/abs/2401.06143v1
- Date: Thu, 30 Nov 2023 14:21:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 13:04:30.284921
- Title: Redefining Recon: Bridging Gaps with UAVs, 360 degree Cameras, and
Neural Radiance Fields
- Title(参考訳): reconの再定義:uav、360度カメラ、神経放射野によるギャップの橋渡し
- Authors: Hartmut Surmann, Niklas Digakis, Jan-Nicklas Kremer, Julien Meine, Max
Schulte, Niklas Voigt
- Abstract要約: 小型無人機(UAV)の機能を相乗化する革新的なアプローチを導入する。
特殊なニューラルネットワークであるNeRFは、2D画像を使用して任意のシーンの3D表現を推論し、要求に応じて様々な角度から合成することができる。
我々は、最近の火災後のシナリオを通じて、挑戦的な屋外環境においても、NeRFの有効性を概説し、我々のアプローチを検証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In the realm of digital situational awareness during disaster situations,
accurate digital representations, like 3D models, play an indispensable role.
To ensure the safety of rescue teams, robotic platforms are often deployed to
generate these models. In this paper, we introduce an innovative approach that
synergizes the capabilities of compact Unmaned Arial Vehicles (UAVs), smaller
than 30 cm, equipped with 360 degree cameras and the advances of Neural
Radiance Fields (NeRFs). A NeRF, a specialized neural network, can deduce a 3D
representation of any scene using 2D images and then synthesize it from various
angles upon request. This method is especially tailored for urban environments
which have experienced significant destruction, where the structural integrity
of buildings is compromised to the point of barring entry-commonly observed
post-earthquakes and after severe fires. We have tested our approach through
recent post-fire scenario, underlining the efficacy of NeRFs even in
challenging outdoor environments characterized by water, snow, varying light
conditions, and reflective surfaces.
- Abstract(参考訳): 災害時のデジタル状況認識の分野では、3dモデルのような正確なデジタル表現が不可欠の役割を担っている。
救助隊の安全を確保するため、ロボットプラットフォームはこれらのモデルを生成するためにしばしば配備される。
本稿では,360度カメラとニューラル・レージアンス・フィールド(NeRF)の進歩により,小型の無人航空機(UAV)を30cm以下の小型化する革新的な手法を提案する。
特殊なニューラルネットワークであるNeRFは、2D画像を使用して任意のシーンの3D表現を推論し、要求に応じて様々な角度から合成することができる。
この手法は, 建築物の構造的整合性が, 地震後, 激しい火災後の入射を抑える点まで損なわれている都市環境に特化している。
我々は,近年の火災後シナリオを通じて,水,雪,照明条件の変動,反射面などの屋外環境においても,nerfの有効性を概説する手法を検証した。
関連論文リスト
- ReconFusion: 3D Reconstruction with Diffusion Priors [104.73604630145847]
本稿では,数枚の写真を用いて現実のシーンを再構成するReconFusionを提案する。
提案手法は,合成および多視点データセットに基づいて訓練された新規なビュー合成に先立って拡散を利用する。
本手法は,観測領域の外観を保ちながら,非拘束領域における現実的な幾何学とテクスチャを合成する。
論文 参考訳(メタデータ) (2023-12-05T18:59:58Z) - Shielding the Unseen: Privacy Protection through Poisoning NeRF with
Spatial Deformation [59.302770084115814]
本稿では,Neural Radiance Fields(NeRF)モデルの生成機能に対して,ユーザのプライバシを保護する革新的な手法を提案する。
我々の新しい中毒攻撃法は、人間の目では認識できないが、NeRFが正確に3Dシーンを再構築する能力を損なうのに十分強力である観察ビューの変化を誘発する。
我々は、高品質の画像を含む29の現実世界シーンからなる2つの共通のNeRFベンチマークデータセットに対して、我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2023-10-04T19:35:56Z) - Multi-Space Neural Radiance Fields [74.46513422075438]
既存のニューラルレージアンス場(NeRF)法は反射物体の存在に悩まされている。
並列部分空間における特徴場の群を用いてシーンを表現するマルチスペースニューラルレイディアンス場(MS-NeRF)を提案する。
提案手法は,高品質シーンのレンダリングにおいて,既存の単一空間NeRF法よりも優れていた。
論文 参考訳(メタデータ) (2023-05-07T13:11:07Z) - Pre-NeRF 360: Enriching Unbounded Appearances for Neural Radiance Fields [8.634008996263649]
我々は,NeRFアーキテクチャの性能向上のための新しいフレームワークを提案する。
我々のソリューションは、以前のバージョンのNeRFに悩まされていたいくつかの障害を克服します。
我々はN5k360データセットとして知られるNutrition5kデータセットの更新版を導入する。
論文 参考訳(メタデータ) (2023-03-21T23:29:38Z) - DehazeNeRF: Multiple Image Haze Removal and 3D Shape Reconstruction
using Neural Radiance Fields [56.30120727729177]
DehazeNeRFは,湿潤な環境下で頑健に動作するフレームワークとして紹介する。
提案手法は,複数視点のヘイズ除去,新しいビュー合成,既存手法が失敗する3次元形状再構成を成功させるものである。
論文 参考訳(メタデータ) (2023-03-20T18:03:32Z) - OmniNeRF: Hybriding Omnidirectional Distance and Radiance fields for
Neural Surface Reconstruction [22.994952933576684]
神経放射場(NeRF)における地中破壊研究は、3Dオブジェクトの表現品質を劇的に改善した。
後年の研究では、TSDF(truncated signed distance field)を構築することでNeRFを改善したが、3D再構成における表面のぼやけた問題に悩まされている。
本研究では,3次元形状表現の新たな手法であるOmniNeRFを提案することにより,この表面の曖昧さに対処する。
論文 参考訳(メタデータ) (2022-09-27T14:39:23Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - Mega-NeRF: Scalable Construction of Large-Scale NeRFs for Virtual
Fly-Throughs [54.41204057689033]
我々は、ニューラルネットワーク(NeRF)を活用して、建物にまたがる大規模な視覚的キャプチャーや、主にドローンデータから収集された複数の都市ブロックからインタラクティブな3D環境を構築する方法について検討する。
NeRFが伝統的に評価されている単一のオブジェクトシーンとは対照的に、この設定には複数の課題がある。
我々は、訓練画像(またはむしろピクセル)を、並列で訓練できる異なるNeRFサブモジュールに分割する単純なクラスタリングアルゴリズムを導入する。
論文 参考訳(メタデータ) (2021-12-20T17:40:48Z) - Mip-NeRF 360: Unbounded Anti-Aliased Neural Radiance Fields [43.69542675078766]
我々は,非線形シーンパラメータ化,オンライン蒸留,新しい歪みベースの正規化器を用いて,非境界シーンの課題を克服するmip-NeRFの拡張を提案する。
このモデルでは,mip-NeRF 360 を用いて平均二乗誤差を mip-NeRF と比較して 54% 削減し,リアルに合成されたビューと詳細な深度マップを作成できる。
論文 参考訳(メタデータ) (2021-11-23T18:51:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。