論文の概要: Non-Line-of-Sight Tracking and Mapping with an Active Corner Camera
- arxiv url: http://arxiv.org/abs/2208.01702v1
- Date: Tue, 2 Aug 2022 19:27:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-04 14:24:06.878676
- Title: Non-Line-of-Sight Tracking and Mapping with an Active Corner Camera
- Title(参考訳): アクティブコーナーカメラによる非視線追跡とマッピング
- Authors: Sheila Seidel, Hoover Rueda-Chacon, Iris Cusini, Federica Villa,
Franco Zappa, Christopher Yu, and Vivek K Goyal
- Abstract要約: 非視線(NLOS)画像は、捜索・救助、自律走行航法、偵察など、さまざまな分野で変化しうる。
既存のアクティブNLOS法は、リレー面に向いたパルスレーザーを用いて隠れたシーンを照らし、返射光の時間分解測定を行う。
本研究は、複数の照明位置のない、より完全な光応答モデリングに基づいて、動作中の物体の正確な再構成と、背後にある静止風景の「地図」を実証する。
- 参考スコア(独自算出の注目度): 6.1682551286538825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to form non-line-of-sight (NLOS) images of changing scenes could
be transformative in a variety of fields, including search and rescue,
autonomous vehicle navigation, and reconnaissance. Most existing active NLOS
methods illuminate the hidden scene using a pulsed laser directed at a relay
surface and collect time-resolved measurements of returning light. The
prevailing approaches include raster scanning of a rectangular grid on a
vertical wall opposite the volume of interest to generate a collection of
confocal measurements. These are inherently limited by the need for laser
scanning. Methods that avoid laser scanning track the moving parts of the
hidden scene as one or two point targets. In this work, based on more complete
optical response modeling yet still without multiple illumination positions, we
demonstrate accurate reconstructions of objects in motion and a 'map' of the
stationary scenery behind them. The ability to count, localize, and
characterize the sizes of hidden objects in motion, combined with mapping of
the stationary hidden scene, could greatly improve indoor situational awareness
in a variety of applications.
- Abstract(参考訳): nlos(non-line-of-sight)イメージを形成する能力は、捜索や救助、自動運転車のナビゲーション、偵察など、さまざまな分野で変革をもたらす可能性がある。
既存のアクティブNLOS法は、リレー面に向いたパルスレーザーを用いて隠れたシーンを照らし、返射光の時間分解測定を行う。
一般的なアプローチとしては、利子の体積の反対の垂直な壁に矩形格子をラスター走査し、共焦点測定のコレクションを生成する方法がある。
これらは本質的にレーザー走査の必要性によって制限される。
レーザースキャンを避ける方法は、隠れたシーンの可動部分を1つか2つの目標として追跡する。
本研究では,複数の照明位置を持たない,より完全な光応答モデルに基づいて,動作中の物体の正確な再構成と,その背後にある静止風景の「地図」を示す。
動きの中の隠れた物体のサイズを数え、局所化し、特徴付ける能力は、静止した隠れたシーンのマッピングと組み合わせることで、様々な応用において屋内の状況認識を大幅に改善することができる。
関連論文リスト
- Incorporating dense metric depth into neural 3D representations for view synthesis and relighting [25.028859317188395]
ロボット応用では、密度の深い距離の深さをステレオで直接測定することができ、照明を制御できる。
本研究は,ニューラルネットワークによる3次元表現のトレーニングに高密度な距離深度を組み込む手法を実証する。
また、パイプラインに必要なデータを取得し、リライティングとビュー合成の結果を示すために開発されたマルチフラッシュステレオカメラシステムについても論じる。
論文 参考訳(メタデータ) (2024-09-04T20:21:13Z) - Dynamic 3D Scene Analysis by Point Cloud Accumulation [32.491921765128936]
マルチビームLiDARセンサーは、自動運転車や移動ロボットに使われている。
各フレームは、角度のスキャンの解像度と閉塞が制限されているため、わずかにシーンをカバーしている。
本研究では,屋外の街路景観の帰納的バイアスを利用して,その幾何学的レイアウトとオブジェクトレベルの剛性を求める手法を提案する。
論文 参考訳(メタデータ) (2022-07-25T17:57:46Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z) - Onsite Non-Line-of-Sight Imaging via Online Calibrations [55.306331730013774]
オンラインキャリブレーション手法により,LOSと隠されたコンポーネントのオンサイトスキャンにおいて,取得したトランジェントを直接分離する。
本手法は,鏡やチェッカーボードなどの補助校正装置の使用を回避し,実験室のバリデーションと実世界の展開をサポートする。
論文 参考訳(メタデータ) (2021-12-29T13:48:32Z) - Neural Point Light Fields [80.98651520818785]
本稿では,スパース点雲上に存在する光の場を暗黙的に表現するニューラルポイント光場について紹介する。
これらの点光場は、光線方向と局所点特徴近傍の関数として機能し、光場条件付きトレーニング画像を高密度の被写体とパララックスを介さずに補間することができる。
論文 参考訳(メタデータ) (2021-12-02T18:20:10Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - D-NeRF: Neural Radiance Fields for Dynamic Scenes [72.75686949608624]
そこで我々は,D-NeRF(D-NeRF)を動的領域に拡張する手法を提案する。
D-NeRFは、周囲を動き回るカメラから、剛体で非剛体な動きの下で物体のイメージを再構成する。
我々は,剛体・調音・非剛体動作下での物体のシーンに対するアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2020-11-27T19:06:50Z) - Efficient Non-Line-of-Sight Imaging from Transient Sinograms [36.154873075911404]
非視線(NLOS)イメージング技術は、角の周囲を見るために可視表面(例えば壁)から拡散的に反射する光を使用する。
1つのアプローチは、パルスレーザーと超高速センサーを使用して、多重散乱光の移動時間を測定することである。
より効率的なNLOSスキャン方式を提案する。
論文 参考訳(メタデータ) (2020-08-06T17:50:50Z) - Removing Dynamic Objects for Static Scene Reconstruction using Light
Fields [2.286041284499166]
動的環境は視覚的同時ローカライゼーションとマッピング(SLAM)アルゴリズムに課題をもたらす。
光電場は、空間の1つの点から現れる光線の束を捉え、それらを再焦点を合わせることで、ダイナミックな物体を観察することができる。
動的オブジェクトの存在下で静的な背景のイメージを再集中的に合成する手法を提案する。
論文 参考訳(メタデータ) (2020-03-24T19:05:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。