論文の概要: Event-Driven Imaging in Turbid Media: A Confluence of Optoelectronics
and Neuromorphic Computation
- arxiv url: http://arxiv.org/abs/2309.06652v1
- Date: Wed, 13 Sep 2023 00:38:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-14 15:51:20.561846
- Title: Event-Driven Imaging in Turbid Media: A Confluence of Optoelectronics
and Neuromorphic Computation
- Title(参考訳): タービッドメディアにおけるイベント駆動イメージング:光エレクトロニクスとニューロモルフィック計算の融合
- Authors: Ning Zhang, Timothy Shea, Arto Nurmikko
- Abstract要約: 密度の高い濁った媒体の光散乱により視界が著しく不明瞭なターゲットの画像を明らかにするために,新しい光学計算法が導入された。
このスキームは人間の視覚にインスパイアされ、タービッド媒質から収集された拡散光子は、網膜のようにダイナミックな視覚センサーで列車に変換される。
画像再構成は、オリジナル画像が人間の目やデジタルビデオカメラに認識できない濁った条件下で達成される。
- 参考スコア(独自算出の注目度): 9.53078750806038
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper a new optical-computational method is introduced to unveil
images of targets whose visibility is severely obscured by light scattering in
dense, turbid media. The targets of interest are taken to be dynamic in that
their optical properties are time-varying whether stationary in space or
moving. The scheme, to our knowledge the first of its kind, is human vision
inspired whereby diffuse photons collected from the turbid medium are first
transformed to spike trains by a dynamic vision sensor as in the retina, and
image reconstruction is then performed by a neuromorphic computing approach
mimicking the brain. We combine benchtop experimental data in both reflection
(backscattering) and transmission geometries with support from physics-based
simulations to develop a neuromorphic computational model and then apply this
for image reconstruction of different MNIST characters and image sets by a
dedicated deep spiking neural network algorithm. Image reconstruction is
achieved under conditions of turbidity where an original image is
unintelligible to the human eye or a digital video camera, yet clearly and
quantifiable identifiable when using the new neuromorphic computational
approach.
- Abstract(参考訳): 本稿では,高密度な乱流媒体における光散乱により視界が著しく曖昧なターゲットの画像を明らかにするための新しい光学計算手法を提案する。
興味の対象は、その光学特性が静止しているか移動しているかを時間的に変化していることである。
このスキームは、私たちの知る限り、人間の視覚にインスパイアされ、タービッド媒質から集めた拡散光子は、網膜のようにダイナミックな視覚センサーで列車に変換され、画像再構成は脳を模倣するニューロモルフィックコンピューティングアプローチによって実行される。
反射(後方散乱)と透過測地の両方におけるベンチトップ実験データと物理シミュレーションを組み合わせ、ニューロモルフィックな計算モデルを構築し、これを専用の深絞りニューラルネットワークアルゴリズムにより異なるMNIST文字と画像集合のイメージ再構成に適用する。
画像再構成は、人間の目やデジタルビデオカメラに本来の画像が認識できないような濁った条件下で達成されるが、新しいニューロモルフィック計算手法を用いると、明確かつ定量化可能である。
関連論文リスト
- Intraoperative Registration by Cross-Modal Inverse Neural Rendering [61.687068931599846]
クロスモーダル逆ニューラルレンダリングによる神経外科手術における術中3D/2Dレジストレーションのための新しいアプローチを提案する。
本手法では,暗黙の神経表現を2つの構成要素に分離し,術前および術中における解剖学的構造について検討した。
臨床症例の振り返りデータを用いて本法の有効性を検証し,現在の登録基準を満たした状態での最先端の検査成績を示した。
論文 参考訳(メタデータ) (2024-09-18T13:40:59Z) - Decoding visual brain representations from electroencephalography
through Knowledge Distillation and latent diffusion models [0.12289361708127873]
本稿では,脳波(EEG)データを用いて,ImageNetデータセットから画像の分類と再構成を行う革新的な手法を提案する。
我々は6人の被験者の脳波記録を分析し、それぞれ40のユニークな意味カテゴリーにまたがる50の画像に暴露した。
我々は,事前学習した潜伏拡散モデルに基づく画像再構成機構を導入し,脳波を誘発した画像の推定を可能とした。
論文 参考訳(メタデータ) (2023-09-08T09:13:50Z) - Physics-Driven Turbulence Image Restoration with Stochastic Refinement [80.79900297089176]
大気乱流による画像歪みは、長距離光学画像システムにおいて重要な問題である。
ディープラーニングモデルが現実世界の乱流条件に適応するために、高速で物理学的なシミュレーションツールが導入された。
本稿では,物理統合復元ネットワーク(PiRN)を提案する。
論文 参考訳(メタデータ) (2023-07-20T05:49:21Z) - Natural scene reconstruction from fMRI signals using generative latent
diffusion [1.90365714903665]
我々はBrain-Diffuserと呼ばれる2段階のシーン再構築フレームワークを提示する。
第1段階では、VDVAE(Very Deep Vari Autoencoder)モデルを用いて、低レベル特性と全体レイアウトをキャプチャする画像を再構成する。
第2段階では、予測されたマルチモーダル(テキストおよび視覚)特徴に基づいて、遅延拡散モデルのイメージ・ツー・イメージ・フレームワークを使用する。
論文 参考訳(メタデータ) (2023-03-09T15:24:26Z) - Pixelated Reconstruction of Foreground Density and Background Surface
Brightness in Gravitational Lensing Systems using Recurrent Inference
Machines [116.33694183176617]
我々は、リカレント推論マシンに基づくニューラルネットワークを用いて、背景画像の歪みのない画像と、画素マップとしてのレンズ質量密度分布を再構成する。
従来のパラメトリックモデルと比較して、提案手法はより表現力が高く、複雑な質量分布を再構成することができる。
論文 参考訳(メタデータ) (2023-01-10T19:00:12Z) - Adapting Brain-Like Neural Networks for Modeling Cortical Visual
Prostheses [68.96380145211093]
皮質補綴は視覚野に移植された装置で、電気的にニューロンを刺激することで失った視力を回復しようとする。
現在、これらのデバイスが提供する視覚は限られており、刺激による視覚知覚を正確に予測することはオープンな課題である。
我々は、視覚システムの有望なモデルとして登場した「脳様」畳み込みニューラルネットワーク(CNN)を活用することで、この問題に対処することを提案する。
論文 参考訳(メタデータ) (2022-09-27T17:33:19Z) - Prune and distill: similar reformatting of image information along rat
visual cortex and deep neural networks [61.60177890353585]
深部畳み込み神経ネットワーク(CNN)は、脳の機能的類似、視覚野の腹側流の優れたモデルを提供することが示されている。
ここでは、CNNまたは視覚野の内部表現で知られているいくつかの顕著な統計的パターンについて考察する。
我々は、CNNと視覚野が、オブジェクト表現の次元展開/縮小と画像情報の再構成と、同様の密接な関係を持っていることを示す。
論文 参考訳(メタデータ) (2022-05-27T08:06:40Z) - Experimentally realized in situ backpropagation for deep learning in
nanophotonic neural networks [0.7627023515997987]
私たちは、カスタムデザインの「フォトニックメッシュ」アクセラレーターをカスケードする、大量製造可能なシリコンフォトニックニューラルネットワークを設計します。
In situ backproagation を初めて示し、分類課題を解く。
本研究は、フォトニクス加速人工知能の新しいトレーニングパラダイムを、一般的なバックプロパゲーション手法の物理的類似に基づいて提案するものであることを示唆する。
論文 参考訳(メタデータ) (2022-05-17T17:13:50Z) - Scale-, shift- and rotation-invariant diffractive optical networks [0.0]
D2NN(Diffractive Deep Neural Networks)は、一連のトレーニング可能な表面上の光-物質相互作用を利用して、所望の統計的推論タスクを計算する。
そこで本研究では,学習期間中に入力オブジェクトの変換,回転,スケーリングを導入する,拡散型ネットワークの新たなトレーニング戦略を示す。
このトレーニング戦略は、スケール、シフト、回転不変の解への微分光学ネットワーク設計の進化をうまく導く。
論文 参考訳(メタデータ) (2020-10-24T02:18:39Z) - Back to Event Basics: Self-Supervised Learning of Image Reconstruction
for Event Cameras via Photometric Constancy [0.0]
イベントカメラは、非同期な方法で、低レイテンシで高時間分解能の輝度インクリメントをサンプリングする新しい視覚センサである。
本稿では,光学的フロー推定のための新しい軽量ニューラルネットワークを提案する。
複数のデータセットにまたがる結果から、提案した自己教師型アプローチのパフォーマンスは最先端技術と一致していることがわかる。
論文 参考訳(メタデータ) (2020-09-17T13:30:05Z) - Limited-angle tomographic reconstruction of dense layered objects by
dynamical machine learning [68.9515120904028]
強い散乱準透明物体の有限角トモグラフィーは困難で、非常に不適切な問題である。
このような問題の状況を改善することにより、アーティファクトの削減には、事前の定期化が必要である。
我々は,新しい分割畳み込みゲート再帰ユニット(SC-GRU)をビルディングブロックとして,リカレントニューラルネットワーク(RNN)アーキテクチャを考案した。
論文 参考訳(メタデータ) (2020-07-21T11:48:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。