論文の概要: DEEP$^2$: Deep Learning Powered De-scattering with Excitation Patterning
- arxiv url: http://arxiv.org/abs/2210.10892v2
- Date: Fri, 21 Oct 2022 07:44:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 11:05:41.721803
- Title: DEEP$^2$: Deep Learning Powered De-scattering with Excitation Patterning
- Title(参考訳): DEEP$^2$:Deep Learning Powered De-scattering with Excitation Patterning
- Authors: Navodini Wijethilake, Mithunjha Anandakumar, Cheng Zheng, Peter T. C.
So, Murat Yildirim, Dushan N. Wadduwage
- Abstract要約: 「励起パターンやDEEPによるデスパッタリング」は、ポイントスキャンに代わる広帯域の代替品である。
ディープラーニングベースのモデルであるDEEP$2$を提示し、数百ではなく、わずか数十パターンの励起から画像を切り離すことができる。
本手法は, 生マウスにおいて, 最大4つの散乱長を撮像するin-vivo cortical vasculatureを含む, 複数の数値および物理的実験で実証した。
- 参考スコア(独自算出の注目度): 3.637479539861615
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Limited throughput is a key challenge in in-vivo deep-tissue imaging using
nonlinear optical microscopy. Point scanning multiphoton microscopy, the
current gold standard, is slow especially compared to the wide-field imaging
modalities used for optically cleared or thin specimens. We recently introduced
'De-scattering with Excitation Patterning or DEEP', as a widefield alternative
to point-scanning geometries. Using patterned multiphoton excitation, DEEP
encodes spatial information inside tissue before scattering. However, to
de-scatter at typical depths, hundreds of such patterned excitations are
needed. In this work, we present DEEP$^2$, a deep learning based model, that
can de-scatter images from just tens of patterned excitations instead of
hundreds. Consequently, we improve DEEP's throughput by almost an order of
magnitude. We demonstrate our method in multiple numerical and physical
experiments including in-vivo cortical vasculature imaging up to four
scattering lengths deep, in alive mice.
- Abstract(参考訳): 限界スループットは、非線形光学顕微鏡を用いた in-vivo deep-tissue imaging において重要な課題である。
点走査型多光子顕微鏡(現金標準)は、特に光学的クリア化や薄い試料に使用される広視野撮像法と比較して遅い。
我々は最近,点走査測地線に代わる広視野の代替として,「励起パターンによるデ散乱」を導入した。
パターン化された多光子励起を用いて、DEEPは散乱前に組織内の空間情報を符号化する。
しかし、典型的な深さで散布するには、何百というパターンの励起が必要である。
そこで本研究では,数百例ではなく,数十例のパターン励振から画像を分離する深層学習モデルであるdeep$^2$を提案する。
その結果,DEPのスループットはほぼ1桁向上した。
本手法は, 生マウスにおいて, 最大4つの散乱長を撮像するin-vivo cortical vasculatureを含む複数の数値および物理的実験で実証した。
関連論文リスト
- Facial Depth and Normal Estimation using Single Dual-Pixel Camera [81.02680586859105]
DP指向のDepth/Normalネットワークを導入し,3次元顔形状を再構成する。
これは、メートル法スケールでの深度マップと表面正規を含む、対応する地上3次元モデルを含んでいる。
近年のDPベース深度/正規推定法で最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-11-25T05:59:27Z) - Imaging dynamics beneath turbid media via parallelized single-photon
detection [32.148006108515716]
我々は,1光子レベルのスペックル変動を同時に検出するために,1光子アバランシェダイオード(SPAD)アレイカメラを利用する。
次に、深層ニューラルネットワークを用いて、取得した単光子測定値を高速に非相関な液体組織ファントム下での散乱ダイナミクスのビデオに変換する。
論文 参考訳(メタデータ) (2021-07-03T12:32:21Z) - A learning-based view extrapolation method for axial super-resolution [52.748944517480155]
軸光界分解能は、再焦点によって異なる深さで特徴を区別する能力を指します。
せん断エピポーラ平面画像の軸体積から新しい視点を推定する学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-11T07:22:13Z) - Calibrating Self-supervised Monocular Depth Estimation [77.77696851397539]
近年、ニューラルネットワークが深度を学習し、画像のシーケンスに変化を起こさせる能力を示す方法は、訓練信号として自己スーパービジョンのみを使用している。
カメラの構成や環境に関する事前情報を取り入れることで,センサの追加に頼ることなく,自己教師型定式化を用いて,スケールのあいまいさを排除し,深度を直接予測できることを示す。
論文 参考訳(メタデータ) (2020-09-16T14:35:45Z) - Single-shot Hyperspectral-Depth Imaging with Learned Diffractive Optics [72.9038524082252]
単発単眼単眼ハイパースペクトル(HS-D)イメージング法を提案する。
本手法では, 回折光学素子 (DOE) を用いる。
DOE の学習を容易にするため,ベンチトップ HS-D イメージラーを構築することで,最初の HS-D データセットを提案する。
論文 参考訳(メタデータ) (2020-09-01T14:19:35Z) - Guidestar-free image-guided wavefront-shaping [7.919213739992463]
我々は,非侵襲的,ガイドスターフリーで広視野の非コヒーレントイメージングを高散乱層を透過的に実現し,照明制御を行なわない,画像誘導波面形成という新しい概念を提案する。
最も重要なことに、ウェーブフロント補正は、画像品質の指標を盲目的に最適化することで、メモリ効果範囲よりも大きいオブジェクトに対しても見つかる。
論文 参考訳(メタデータ) (2020-07-08T08:26:14Z) - Reconstructing undersampled photoacoustic microscopy images using deep
learning [11.74890470096844]
アンサンプされたPAM画像の再構成にディープラーニングの原理を応用した新しい手法を提案する。
この結果から,PAM画像の再現性能は,元のピクセルの2%に満たないという結果が得られた。
論文 参考訳(メタデータ) (2020-05-30T12:39:52Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z) - Single-shot autofocusing of microscopy images using deep learning [0.30586855806896046]
Deep-Rと呼ばれるディープラーニングベースのオフラインオートフォーカス手法は、ワンショット顕微鏡画像の高速かつ盲目的にオートフォーカスするように訓練されている。
Deep-Rは、通常のオンラインアルゴリズムのオートフォーカス手法と比較してかなり高速である。
論文 参考訳(メタデータ) (2020-03-21T06:07:27Z) - Learning Light Field Angular Super-Resolution via a Geometry-Aware
Network [101.59693839475783]
そこで本研究では,広いベースラインを持つスパースサンプリング光場を超解き放つことを目的とした,エンド・ツー・エンドの学習ベースアプローチを提案する。
提案手法は,実行時間48$times$を節約しつつ,2番目のベストメソッドのPSNRを平均2dBまで改善する。
論文 参考訳(メタデータ) (2020-02-26T02:36:57Z) - Learning Wavefront Coding for Extended Depth of Field Imaging [4.199844472131922]
拡張深度画像(EDoF)は難題である。
回折光学素子による波面符号化を応用したEDoFの計算画像化手法を提案する。
深部3Dシーンやブロードバンド画像など,さまざまなシナリオにおいて,最小限の成果が得られた。
論文 参考訳(メタデータ) (2019-12-31T17:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。