論文の概要: NIGHT -- Non-Line-of-Sight Imaging from Indirect Time of Flight Data
- arxiv url: http://arxiv.org/abs/2403.19376v1
- Date: Thu, 28 Mar 2024 12:38:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-29 16:24:00.670750
- Title: NIGHT -- Non-Line-of-Sight Imaging from Indirect Time of Flight Data
- Title(参考訳): NIGHT -- 飛行データからの非視線イメージング
- Authors: Matteo Caligiuri, Adriano Simonetto, Gianluca Agresti, Pietro Zanuttigh,
- Abstract要約: 最近の研究は、カスタム・ダイレクト・タイム・オブ・フライト・センサーによって生成された過渡撮像データを活用する可能性を示した。
ハードウェアを必要とせずに、市販の間接飛行時センサのデータのみを用いてこの問題に対処する。
我々は、仮想ミラーとして光が反射する表面を再構成できるディープラーニングモデルを導入する。
- 参考スコア(独自算出の注目度): 13.36289800476158
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The acquisition of objects outside the Line-of-Sight of cameras is a very intriguing but also extremely challenging research topic. Recent works showed the feasibility of this idea exploiting transient imaging data produced by custom direct Time of Flight sensors. In this paper, for the first time, we tackle this problem using only data from an off-the-shelf indirect Time of Flight sensor without any further hardware requirement. We introduced a Deep Learning model able to re-frame the surfaces where light bounces happen as a virtual mirror. This modeling makes the task easier to handle and also facilitates the construction of annotated training data. From the obtained data it is possible to retrieve the depth information of the hidden scene. We also provide a first-in-its-kind synthetic dataset for the task and demonstrate the feasibility of the proposed idea over it.
- Abstract(参考訳): カメラのLine-of-Sightの外にある物体の取得は、非常に興味深いが、非常に難しい研究テーマでもある。
最近の研究は、このアイデアが、カスタム直接飛行時センサーによって生成された一過性のイメージングデータを活用する可能性を示した。
本稿では,この問題を解決するために,市販のタイム・オブ・フライトセンサーのデータのみを用いて,ハードウェアのさらなる要求を伴わずに,この問題に対処する。
私たちは、仮想ミラーとして光が反射する表面を再構成できるDeep Learningモデルを導入しました。
このモデリングにより、タスクの処理が容易になり、アノテーション付きトレーニングデータの構築も容易になる。
得られたデータから、隠されたシーンの深さ情報を取得することができる。
また,本課題に対する一級合成データセットも提供し,提案手法の有効性を実証する。
関連論文リスト
- StixelNExT: Toward Monocular Low-Weight Perception for Object Segmentation and Free Space Detection [8.684797433797744]
本研究では、Stixel-Worldの概念を活用して、その周囲の中程度の表現を認識する。
我々のネットワークは2次元の多層Stixel-Worldを直接予測し、画像内の複数の重畳されたオブジェクトを認識することができる。
論文 参考訳(メタデータ) (2024-07-11T08:25:51Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Dataset and Benchmark: Novel Sensors for Autonomous Vehicle Perception [7.474695739346621]
本稿では,このトピックの今後の研究を促進するために,自律走行認識のための新しいセンサーについて紹介する。
データは2つの8kmルートを繰り返すことで収集され、様々な照明条件と反対の視点を含む。
我々の知る限り、NSAVPデータセットは、ステレオイベントとモノクロカメラと共にステレオサーマルカメラを初めて組み込んだものだ。
論文 参考訳(メタデータ) (2024-01-24T23:25:23Z) - Semantics-aware LiDAR-Only Pseudo Point Cloud Generation for 3D Object
Detection [0.7234862895932991]
近年の進歩は擬似LiDAR、すなわち合成高密度点雲を導入し、カメラなどの追加のモダリティを使って3Dオブジェクト検出を強化している。
我々は,LiDARセンサとシーンセマンティクスに頼って,密度の高い擬似点雲で生スキャンを増強する,新しいLiDAR専用フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-16T09:18:47Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - FEDORA: Flying Event Dataset fOr Reactive behAvior [9.470870778715689]
イベントベースのセンサーは、高速な動きを捉えるための標準フレームベースのカメラに代わる低レイテンシと低エネルギーの代替として登場した。
Flying Eventデータセット fOr Reactive behAviour (FEDORA) - 知覚タスクのための完全に合成されたデータセット。
論文 参考訳(メタデータ) (2023-05-22T22:59:05Z) - LARD - Landing Approach Runway Detection -- Dataset for Vision Based
Landing [2.7400353551392853]
本稿では,接近・着陸時の滑走路検出のための高品質な空中画像のデータセットを提案する。
データセットの大部分は合成画像で構成されていますが、実際の着陸映像から手動でラベル付けされた画像も提供しています。
このデータセットは、データセットの品質の分析や、検出タスクに対処するモデルの開発など、さらなる研究の道を開く。
論文 参考訳(メタデータ) (2023-04-05T08:25:55Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Hindsight is 20/20: Leveraging Past Traversals to Aid 3D Perception [59.2014692323323]
小さな、遠く、あるいは非常に隠蔽された物体は、検出するためのLiDAR点雲に限られた情報があるため、特に困難である。
本稿では,過去データから文脈情報を抽出する,エンドツーエンドのトレーニング可能な新しいフレームワークを提案する。
このフレームワークは現代のほとんどの3D検出アーキテクチャと互換性があり、複数の自律走行データセットの平均精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-03-22T00:58:27Z) - Fog Simulation on Real LiDAR Point Clouds for 3D Object Detection in
Adverse Weather [92.84066576636914]
本研究は,霧の天候下でのLiDARによる3次元物体検出の課題に対処する。
我々は、物理的に正確な霧をクリア・ウェザー・シーンにシミュレートすることでこの問題に対処する。
Seeing Through Fogデータセットに強力な3Dオブジェクト検出ベースラインを提供するのはこれが初めてです。
論文 参考訳(メタデータ) (2021-08-11T14:37:54Z) - Few-Cost Salient Object Detection with Adversarial-Paced Learning [95.0220555274653]
本稿では,少数のトレーニング画像にのみ手動アノテーションを応用して,効果的なサルエント物体検出モデルを学習することを提案する。
我々は,このタスクを,少額の有能な物体検出とみなし,少数のコストの学習シナリオを促進するために,APL(Adversarialpaced Learning)ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-05T14:15:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。