論文の概要: Neuromorphic Optical Tracking and Imaging of Randomly Moving Targets through Strongly Scattering Media
- arxiv url: http://arxiv.org/abs/2501.03874v1
- Date: Tue, 07 Jan 2025 15:38:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-08 15:51:01.608384
- Title: Neuromorphic Optical Tracking and Imaging of Randomly Moving Targets through Strongly Scattering Media
- Title(参考訳): 強散乱媒質によるランダム移動ターゲットのニューロモルフィック光追跡とイメージング
- Authors: Ning Zhang, Timothy Shea, Arto Nurmikko,
- Abstract要約: 我々は、通常見えない物体の追跡と画像化のための、エンドツーエンドのニューロモルフィック光学工学と計算手法を開発した。
密度散乱媒質から生じる光をイベントカメラで検出し、画素ワイドの同期スパイク列車に変換する。
本研究では,高密度な乱流媒質中におけるランダムに移動する物体の追跡とイメージング,および空間的静止だが光学的動的物体の像再構成を実演する。
- 参考スコア(独自算出の注目度): 8.480104395572418
- License:
- Abstract: Tracking and acquiring simultaneous optical images of randomly moving targets obscured by scattering media remains a challenging problem of importance to many applications that require precise object localization and identification. In this work we develop an end-to-end neuromorphic optical engineering and computational approach to demonstrate how to track and image normally invisible objects by combining an event detecting camera with a multistage neuromorphic deep learning strategy. Photons emerging from dense scattering media are detected by the event camera and converted to pixel-wise asynchronized spike trains - a first step in isolating object-specific information from the dominant uninformative background. Spiking data is fed into a deep spiking neural network (SNN) engine where object tracking and image reconstruction are performed by two separate yet interconnected modules running in parallel in discrete time steps over the event duration. Through benchtop experiments we demonstrate tracking and imaging randomly moving objects in dense turbid media as well as image reconstruction of spatially stationary but optically dynamic objects. Standardized character sets serve as representative proxies for geometrically complex objects, underscoring the method's generality. The results highlight the advantages of a fully neuromorphic approach in meeting a major imaging technology with high computational efficiency and low power consumption.
- Abstract(参考訳): 散乱媒質によって隠蔽されたランダムに動くターゲットの同時光学画像の追跡と取得は、正確な物体の局所化と識別を必要とする多くのアプリケーションにとって重要な課題である。
本研究では、事象検出カメラと多段階のニューロモルフィック深層学習戦略を組み合わせることで、通常見えない物体の追跡と画像化の方法を示す、エンドツーエンドのニューロモルフィック光学工学および計算手法を開発する。
密度の散乱媒質から生じる光は、イベントカメラによって検出され、支配的な非形式的背景からオブジェクト固有情報を分離する第1ステップである画素ワイドの同期スパイク列車に変換される。
スパイキングデータはディープスパイキングニューラルネットワーク(SNN)エンジンに送られ、オブジェクトのトラッキングとイメージ再構成は、2つの分離された相互接続されたモジュールによって実行される。
ベンチトップ実験を通じて、高密度の乱流媒質中におけるランダムに動く物体の追跡とイメージング、および空間的に静止しているが光学的に動的である物体のイメージ再構成を実演する。
標準化された文字集合は、幾何学的に複雑なオブジェクトの代表的なプロキシとして機能し、メソッドの一般化を裏付ける。
その結果、計算効率が高く消費電力の少ない主要撮像技術に適合する完全ニューロモルフィックアプローチの利点を浮き彫りにした。
関連論文リスト
- Multimodal Transformer Using Cross-Channel attention for Object Detection in Remote Sensing Images [1.662438436885552]
マルチモーダル融合は、複数のモーダルからのデータを融合することで精度を高めることが決定されている。
早期に異なるチャネル間の関係をマッピングするための新しいマルチモーダル融合戦略を提案する。
本手法は,中期・後期の手法とは対照的に,早期の融合に対処することにより,既存の手法と比較して,競争力や性能に優れる。
論文 参考訳(メタデータ) (2023-10-21T00:56:11Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - Event-Driven Imaging in Turbid Media: A Confluence of Optoelectronics
and Neuromorphic Computation [9.53078750806038]
密度の高い濁った媒体の光散乱により視界が著しく不明瞭なターゲットの画像を明らかにするために,新しい光学計算法が導入された。
このスキームは人間の視覚にインスパイアされ、タービッド媒質から収集された拡散光子は、網膜のようにダイナミックな視覚センサーで列車に変換される。
画像再構成は、オリジナル画像が人間の目やデジタルビデオカメラに認識できない濁った条件下で達成される。
論文 参考訳(メタデータ) (2023-09-13T00:38:59Z) - Alignment-free HDR Deghosting with Semantics Consistent Transformer [76.91669741684173]
高ダイナミックレンジイメージングは、複数の低ダイナミックレンジ入力から情報を取得し、リアルな出力を生成することを目的としている。
既存の手法では、前景やカメラの動きによって引き起こされる入力フレーム間の空間的ずれに焦点を当てることが多い。
本研究では,SCTNet(Semantics Consistent Transformer)を用いたアライメントフリーネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T15:03:23Z) - Time-lapse image classification using a diffractive neural network [0.0]
回折ネットワークを用いたタイムラプス画像分類方式を初めて示す。
CIFAR-10データセットからの物体の光学的分類におけるブラインドテスト精度は62.03%である。
これは、これまで1つの回折ネットワークを用いて達成された最も高い推測精度を構成する。
論文 参考訳(メタデータ) (2022-08-23T08:16:30Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - RRNet: Relational Reasoning Network with Parallel Multi-scale Attention
for Salient Object Detection in Optical Remote Sensing Images [82.1679766706423]
光リモートセンシング画像(RSI)のためのSODは、光学RSIから視覚的に特徴的な物体や領域を探索・抽出することを目的としている。
光学RSIにおけるSODに並列なマルチスケールアテンションを持つリレーショナル推論ネットワークを提案する。
提案するRRNetは,既存の最先端SODコンペティタよりも質的,定量的に優れている。
論文 参考訳(メタデータ) (2021-10-27T07:18:32Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - Scale-, shift- and rotation-invariant diffractive optical networks [0.0]
D2NN(Diffractive Deep Neural Networks)は、一連のトレーニング可能な表面上の光-物質相互作用を利用して、所望の統計的推論タスクを計算する。
そこで本研究では,学習期間中に入力オブジェクトの変換,回転,スケーリングを導入する,拡散型ネットワークの新たなトレーニング戦略を示す。
このトレーニング戦略は、スケール、シフト、回転不変の解への微分光学ネットワーク設計の進化をうまく導く。
論文 参考訳(メタデータ) (2020-10-24T02:18:39Z) - Back to Event Basics: Self-Supervised Learning of Image Reconstruction
for Event Cameras via Photometric Constancy [0.0]
イベントカメラは、非同期な方法で、低レイテンシで高時間分解能の輝度インクリメントをサンプリングする新しい視覚センサである。
本稿では,光学的フロー推定のための新しい軽量ニューラルネットワークを提案する。
複数のデータセットにまたがる結果から、提案した自己教師型アプローチのパフォーマンスは最先端技術と一致していることがわかる。
論文 参考訳(メタデータ) (2020-09-17T13:30:05Z) - Limited-angle tomographic reconstruction of dense layered objects by
dynamical machine learning [68.9515120904028]
強い散乱準透明物体の有限角トモグラフィーは困難で、非常に不適切な問題である。
このような問題の状況を改善することにより、アーティファクトの削減には、事前の定期化が必要である。
我々は,新しい分割畳み込みゲート再帰ユニット(SC-GRU)をビルディングブロックとして,リカレントニューラルネットワーク(RNN)アーキテクチャを考案した。
論文 参考訳(メタデータ) (2020-07-21T11:48:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。