論文の概要: Two-Photon Interference LiDAR Imaging
- arxiv url: http://arxiv.org/abs/2206.09661v1
- Date: Mon, 20 Jun 2022 09:08:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-08 18:58:08.158016
- Title: Two-Photon Interference LiDAR Imaging
- Title(参考訳): 2光干渉LiDARイメージング
- Authors: Robbie Murray and Ashley Lyons
- Abstract要約: 我々は、高レベルの安定性を必要とせず、OCT深度分解能を実現するLiDARに量子干渉にインスパイアされたアプローチを提案する。
我々は,70mの効果的なインパルス応答で深度イメージング機能を示す。これにより,従来のLiDAR手法よりも高分解能で範囲と多重反射を識別できる。
この強化された解像度は、3D顔認証におけるLiDARの道を開くとともに、小さな特徴の検出/追跡に加えて、障害物を通した画像や非視線イメージングのようなより複雑な飛行時間法の性能を高める。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optical Coherence Tomography (OCT) is a key 3D imaging technology that
provides micron scale depth resolution for bio-imaging. This resolution
substantially surpasses what it typically achieved in Light Detection and
Ranging (LiDAR) which is often limited to the millimetre scale due to the
impulse response of the detection electronics. However, the lack of coherence
in LiDAR scenes, arising from mechanical motion for example, make OCT
practically infeasible. Here we present a quantum interference inspired
approach to LiDAR which achieves OCT depth resolutions without the need for
high levels of stability. We demonstrate depth imaging capabilities with an
effective impulse response of 70 {\mu}m, thereby allowing ranging and multiple
reflections to be discerned with much higher resolution than conventional LiDAR
approaches. This enhanced resolution opens up avenues for LiDAR in 3D facial
recognition, and small feature detection/tracking as well as enhancing the
capabilities of more complex time-of-flight methods such as imaging through
obscurants and non-line-of-sight imaging.
- Abstract(参考訳): 光コヒーレンス・トモグラフィ(OCT)は、バイオイメージングのためのミクロンスケールの深さ分解能を提供する重要な3Dイメージング技術である。
この解像度は、検知エレクトロニクスのインパルス応答によりミリメートルスケールに制限される場合が多い光検出およびランシング(LiDAR)において達成されたことをはるかに上回っている。
しかし、例えば機械的な動きから生じるLiDARシーンにおけるコヒーレンスの欠如は、OCTを事実上実現不可能にする。
ここでは、高レベルの安定性を必要とせず、OCT深度分解能を実現するLiDARに量子干渉によるアプローチを提案する。
我々は、70 {\mu}mの効果的なインパルス応答で深度イメージング能力を実証し、従来のLiDAR手法よりも高分解能で範囲と多重反射を識別できることを示した。
この強化された解像度は、3D顔認証におけるLiDARの道を開くとともに、小さな特徴の検出/追跡に加えて、障害物を通した画像や非視線イメージングのようなより複雑な飛行時間法の性能を高める。
関連論文リスト
- Passive superresolution imaging of incoherent objects [63.942632088208505]
手法は、Hermite-Gaussianモードとその重ね合わせのオーバーコンプリートベースで、画像平面内のフィールドの空間モード成分を測定することで構成される。
ディープニューラルネットワークは、これらの測定からオブジェクトを再構築するために使用される。
論文 参考訳(メタデータ) (2023-04-19T15:53:09Z) - Non-learning Stereo-aided Depth Completion under Mis-projection via
Selective Stereo Matching [0.5067618621449753]
一対のステレオ画像で導かれる光検出・測度センサ(LiDAR)を用いて捉えたスパース深度マップの非学習深度補完法を提案する。
提案手法は, 平均絶対誤差(MAE)を0.65倍に減らし, 従来よりも約2倍の精度で推定できることを示した。
論文 参考訳(メタデータ) (2022-10-04T07:46:56Z) - MSMDFusion: Fusing LiDAR and Camera at Multiple Scales with Multi-Depth
Seeds for 3D Object Detection [89.26380781863665]
自律運転システムにおける高精度で信頼性の高い3次元物体検出を実現するためには,LiDARとカメラ情報の融合が不可欠である。
近年のアプローチでは、2次元カメラ画像の3次元空間への昇華点によるカメラ特徴のセマンティックな密度の探索が試みられている。
マルチグラニュラリティLiDARとカメラ機能とのマルチスケールなプログレッシブインタラクションに焦点を当てた,新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-07T12:29:29Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - Joint Learning of Salient Object Detection, Depth Estimation and Contour
Extraction [91.43066633305662]
RGB-D Salient Object Detection (SOD) のための新しいマルチタスク・マルチモーダルフィルタトランス (MMFT) ネットワークを提案する。
具体的には、深度推定、健全な物体検出、輪郭推定の3つの相補的なタスクを統合する。マルチタスク機構は、タスク認識の特徴を補助タスクから学習するためのモデルを促進する。
実験の結果、複数のデータセット上での深度に基づくRGB-D SOD法をはるかに上回るだけでなく、高品質の深度マップと塩分濃度を同時に正確に予測できることがわかった。
論文 参考訳(メタデータ) (2022-03-09T17:20:18Z) - Low dosage 3D volume fluorescence microscopy imaging using compressive
sensing [0.0]
本稿では, 圧縮センシングによる3Dボリュームの完全再構成を, 励起量の半分未満のSNRで行う方法を提案する。
ゼブラフィッシュ胚脊髄のRFP標識ニューロンの3次元体積を, 共焦点顕微鏡を用いて0.1umの軸方向サンプリングにより計測し, 本手法の実証を行った。
この研究で開発されたCSベースの手法は、2光子や光シート顕微鏡などの他の深部イメージングに容易に適用でき、サンプル光毒性の低減は重要な課題である。
論文 参考訳(メタデータ) (2022-01-03T18:44:50Z) - SGM3D: Stereo Guided Monocular 3D Object Detection [62.11858392862551]
SGM3Dと呼ばれるステレオ誘導単分子物体検出ネットワークを提案する。
ステレオ画像から抽出したロバストな3次元特徴を利用して、モノクル画像から得られた特徴を強化する。
本手法は,余分な計算コストを伴わずに性能を向上させるために,他の多くの単分子的手法に統合することができる。
論文 参考訳(メタデータ) (2021-12-03T13:57:14Z) - LiDARTouch: Monocular metric depth estimation with a few-beam LiDAR [40.98198236276633]
視覚に基づく深度推定は、自律システムにおいて重要な特徴である。
このような単分子配置では、1つまたは複数の高価なLiDARから追加の入力で濃密な深さが得られる。
本稿では,単眼カメラと軽量LiDARを組み合わせることで,距離深度を高密度に推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-08T12:06:31Z) - Axial-to-lateral super-resolution for 3D fluorescence microscopy using
unsupervised deep learning [19.515134844947717]
本論文では、蛍光顕微鏡における異方性画像強化のための深層学習可能な非教師付きスーパーレゾリューション技術を提案する。
ネットワークのトレーニングには1枚の3D画像スタックしか必要としないため,本手法は実践の労力を大幅に削減する。
訓練されたネットワークは、回折限界を超える軸分解能を高めるだけでなく、イメージングプレーン間の視覚的詳細の抑制とイメージングアーティファクトの除去も行うことを実証します。
論文 参考訳(メタデータ) (2021-04-19T16:31:12Z) - Depth Sensing Beyond LiDAR Range [84.19507822574568]
小型の視野カメラを用いた3カメラシステムを提案する。
我々のシステムは、計量深度を計算するための新しいアルゴリズムとともに、完全な事前校正を必要としない。
遠距離のシーンや物体に対して、事実上許容できる精度で密集した深度マップを出力することができる。
論文 参考訳(メタデータ) (2020-04-07T00:09:51Z) - Seeing Around Corners with Edge-Resolved Transient Imaging [15.44831979669091]
非視線画像(NLOS)は、視野の外側の物体の画像を形成する。
拡散反射は散乱光をあらゆる方向に反射し、弱い信号と方向情報の損失をもたらす。
本稿では,垂直端から角分解能,パルス光源からの時間応答から長手分解能を導出する角を周角で見る方法を提案する。
論文 参考訳(メタデータ) (2020-02-17T18:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。