論文の概要: Can NeRFs See without Cameras?
- arxiv url: http://arxiv.org/abs/2505.22441v1
- Date: Wed, 28 May 2025 15:04:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.671749
- Title: Can NeRFs See without Cameras?
- Title(参考訳): NeRFはカメラなしで見ることができるのか?
- Authors: Chaitanya Amballa, Sattwik Basu, Yu-Lin Wei, Zhijian Yang, Mehmet Ergezer, Romit Roy Choudhury,
- Abstract要約: 我々は、NeRFがマルチパス信号から学習し、環境を「見る」ことができることを示す。
本研究の目的は、家庭内の複数箇所で行われている疎Wi-Fi測定から、家庭の屋内フロアプランを推測することである。
- 参考スコア(独自算出の注目度): 10.17727417623163
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Neural Radiance Fields (NeRFs) have been remarkably successful at synthesizing novel views of 3D scenes by optimizing a volumetric scene function. This scene function models how optical rays bring color information from a 3D object to the camera pixels. Radio frequency (RF) or audio signals can also be viewed as a vehicle for delivering information about the environment to a sensor. However, unlike camera pixels, an RF/audio sensor receives a mixture of signals that contain many environmental reflections (also called "multipath"). Is it still possible to infer the environment using such multipath signals? We show that with redesign, NeRFs can be taught to learn from multipath signals, and thereby "see" the environment. As a grounding application, we aim to infer the indoor floorplan of a home from sparse WiFi measurements made at multiple locations inside the home. Although a difficult inverse problem, our implicitly learnt floorplans look promising, and enables forward applications, such as indoor signal prediction and basic ray tracing.
- Abstract(参考訳): ニューラル・ラジアンス・フィールド(NeRF)は、体積的シーン関数を最適化することにより、3次元シーンの新規なビューを合成することに成功した。
このシーン機能は、光学的光線が3Dオブジェクトからカメラピクセルに色情報をもたらす方法をモデル化する。
無線周波数(RF)や音声信号も、環境に関する情報をセンサに届ける手段として見ることができる。
しかし、カメラの画素とは異なり、RF/オーディオセンサーは多くの環境反射(マルチパスとも呼ばれる)を含む信号の混合を受け取る。
このようなマルチパス信号を使って環境を推測することは可能か?
再設計により、NeRFはマルチパス信号から学習し、それによって環境を"見る"ことができることを示す。
本研究の目的は,家庭内の複数箇所で発生した疎Wi-Fi計測から室内のフロアプランを推定することである。
難解な逆問題ではあるが、暗黙的に学習したフロアプランは有望に見え、屋内信号予測や基本線トレーシングといった先進的な応用を可能にしている。
関連論文リスト
- SoundLoc3D: Invisible 3D Sound Source Localization and Classification Using a Multimodal RGB-D Acoustic Camera [61.642416712939095]
SoundLoc3Dはタスクをセット予測問題として扱い、セットの各要素は潜在的な音源に対応する。
大規模シミュレーションデータセットにおけるSoundLoc3Dの有効性と優位性を示す。
論文 参考訳(メタデータ) (2024-12-22T05:04:17Z) - BeNeRF: Neural Radiance Fields from a Single Blurry Image and Event Stream [11.183799667913815]
一つのぼやけた画像とそれに対応するイベントストリームからニューラル放射場(NeRF)を復元する可能性を示す。
本手法は暗黙的なニューラルシーンの表現を共同で学習し,カメラの動きを復元する。
論文 参考訳(メタデータ) (2024-07-02T11:28:22Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - One-Shot Neural Fields for 3D Object Understanding [112.32255680399399]
ロボット工学のための統一的でコンパクトなシーン表現を提案する。
シーン内の各オブジェクトは、幾何学と外観をキャプチャする潜在コードによって描写される。
この表現は、新しいビューレンダリングや3D再構成、安定した把握予測といった様々なタスクのためにデコードできる。
論文 参考訳(メタデータ) (2022-10-21T17:33:14Z) - NeRF-Loc: Transformer-Based Object Localization Within Neural Radiance
Fields [62.89785701659139]
我々は,NeRFシーン内の物体の3次元境界ボックスを抽出するトランスフォーマーベースのフレームワークNeRF-Locを提案する。
NeRF-Locは、事前訓練されたNeRFモデルとカメラビューを入力として、オブジェクトのラベル付き3Dバウンディングボックスを出力として生成する。
論文 参考訳(メタデータ) (2022-09-24T18:34:22Z) - BARF: Bundle-Adjusting Neural Radiance Fields [104.97810696435766]
不完全なカメラポーズからNeRFを訓練するためのバンドル調整ニューラルラジアンスフィールド(BARF)を提案します。
BARFは、ニューラルネットワークシーンの表現を効果的に最適化し、大きなカメラのポーズミスを同時に解決する。
これにより、未知のカメラポーズからの映像シーケンスのビュー合成とローカライズが可能になり、視覚ローカライズシステムのための新しい道を開くことができる。
論文 参考訳(メタデータ) (2021-04-13T17:59:51Z) - Baking Neural Radiance Fields for Real-Time View Synthesis [41.07052395570522]
我々は、NeRFをトレーニングし、プリコンプリートし、保存する(すなわち)方法を提案する。
「ベイク」はスパースニューラルネットワーク放射格子(snerg)と呼ばれる新しい表現である。
結果として生じるシーン表現は、細かい幾何学的詳細とビュー依存の外観をレンダリングするNeRFの能力を保持し、コンパクトであり、リアルタイムでレンダリングすることができる。
論文 参考訳(メタデータ) (2021-03-26T17:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。