論文の概要: Estimating Nonplanar Flow from 2D Motion-blurred Widefield Microscopy
Images via Deep Learning
- arxiv url: http://arxiv.org/abs/2102.07228v1
- Date: Sun, 14 Feb 2021 19:44:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 15:25:42.321456
- Title: Estimating Nonplanar Flow from 2D Motion-blurred Widefield Microscopy
Images via Deep Learning
- Title(参考訳): 深部学習による2次元広視野顕微鏡像からの非平面流の推定
- Authors: Adrian Shajkofci, Michael Liebling
- Abstract要約: 本研究では,単一テクスチャの広視野顕微鏡画像から,運動ボケの局所特性を用いた平面外粒子の移動を予測する手法を提案する。
この方法では、高速カメラや高強度光露光を必要とせずに、マイクロスコピストが試料の動的特性に関する洞察を得ることができる。
- 参考スコア(独自算出の注目度): 7.6146285961466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optical flow is a method aimed at predicting the movement velocity of any
pixel in the image and is used in medicine and biology to estimate flow of
particles in organs or organelles. However, a precise optical flow measurement
requires images taken at high speed and low exposure time, which induces
phototoxicity due to the increase in illumination power. We are looking here to
estimate the three-dimensional movement vector field of moving out-of-plane
particles using normal light conditions and a standard microscope camera.
We present a method to predict, from a single textured wide-field microscopy
image, the movement of out-of-plane particles using the local characteristics
of the motion blur. We estimated the velocity vector field from the local
estimation of the blur model parameters using an deep neural network and
achieved a prediction with a regression coefficient of 0.92 between the ground
truth simulated vector field and the output of the network. This method could
enable microscopists to gain insights about the dynamic properties of samples
without the need for high-speed cameras or high-intensity light exposure.
- Abstract(参考訳): オプティカルフロー(optical flow)は、画像中の任意のピクセルの動き速度を予測することを目的とした手法であり、医学や生物学において臓器や臓器内の粒子の流れを推定するために用いられる。
しかし、精密な光学フロー測定では、高速かつ低露光時間で撮影される画像が必要であり、照明力の増加による光毒性を誘導する。
本稿では, 通常の光条件と標準顕微鏡カメラを用いて, 平面外粒子の3次元運動ベクトル場を推定する。
本研究では,単一テクスチャの広視野顕微鏡画像から,運動ボケの局所特性を用いた平面外粒子の移動を予測する手法を提案する。
本研究では,深層ニューラルネットワークを用いたボケモデルパラメータの局所的な推定から速度ベクトル場を推定し,基底真理シミュレーションベクトル場とネットワークの出力との間の回帰係数 0.92 の予測を行った。
この方法では、高速カメラや高強度光露光を必要とせずに、マイクロスコピストが試料の動的特性に関する洞察を得ることができる。
関連論文リスト
- Deformation Monitoring of Tunnel using Phase-based Motion Magnification
and Optical Flow [0.36832029288386137]
本研究は,PMMとOFを組み合わせて,地下トンネルシーンの拡大変形モード画素変位の定量化を行う。
GPUアクセラレーションでは、各ピクセルの変位を計算し、シーン全体の動きを導出するアルゴリズムが採用されている。
論文 参考訳(メタデータ) (2023-06-15T19:39:47Z) - Fast light-field 3D microscopy with out-of-distribution detection and
adaptation through Conditional Normalizing Flows [16.928404625892625]
リアルタイム3次元蛍光顕微鏡は生物の分析に不可欠である。
そこで我々は,生きた固定化ゼブラフィッシュ神経活動の高速な3次元再構成を行う新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-10T10:42:49Z) - Adaptive Multi-source Predictor for Zero-shot Video Object Segmentation [68.56443382421878]
ゼロショットビデオオブジェクトセグメンテーション(ZVOS)のための新しい適応型マルチソース予測器を提案する。
静的オブジェクト予測器では、RGBソースは、同時に深度および静注ソースに変換される。
実験の結果,提案モデルは3つのZVOSベンチマークにおいて最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-03-18T10:19:29Z) - Deep Learning-Assisted Localisation of Nanoparticles in synthetically
generated two-photon microscopy images [6.251942628138834]
既存の強度に基づくローカライゼーション法は走査顕微鏡によるイメージングには開発されていない。
生体内での2光子顕微鏡(2PM)で記録された画像上の低信号対雑音比、分子のアウト・オブ・フォーカスの移動、および高運動のぼかしは、分子の正確な局在への挑戦である。
不足したトレーニングデータを補う2PM画像シミュレータを開発した。
論文 参考訳(メタデータ) (2023-03-17T14:48:50Z) - Retrieving space-dependent polarization transformations via near-optimal
quantum process tomography [55.41644538483948]
トモグラフィー問題に対する遺伝的および機械学習アプローチの適用について検討する。
ニューラルネットワークベースのスキームは、リアルタイムにキャラクタリゼーションを必要とするアプリケーションにおいて、重要なスピードアップを提供する。
これらの結果は、より一般的な量子プロセスにおけるトモグラフィーアプローチの最適化の基礎となることを期待する。
論文 参考訳(メタデータ) (2022-10-27T11:37:14Z) - Dimensions of Motion: Learning to Predict a Subspace of Optical Flow
from a Single Image [50.9686256513627]
本稿では,1つのビデオフレームから,実際の瞬時光フローを含む低次元の光フローのサブスペースを予測する問題を紹介する。
いくつかの自然シーンの仮定によって、不均一性によってパラメータ化されたベースフローフィールドの集合を通して、適切なフロー部分空間を特定できることを示す。
これは、カメラの内在やポーズを必要とせずに、単眼入力ビデオを使用して教師なしの方法でこれらのタスクを学習する新しいアプローチを提供する。
論文 参考訳(メタデータ) (2021-12-02T18:52:54Z) - SCFlow: Optical Flow Estimation for Spiking Camera [50.770803466875364]
スパイキングカメラは、特に高速シーンのモーション推定において、現実の応用において大きな可能性を秘めている。
光フロー推定は画像ベースおよびイベントベースの視覚において顕著な成功を収めているが、既存の手法はスパイクカメラからのスパイクストリームに直接適用することはできない。
本稿では、スパイキングカメラのための光フロー推定のための新しいディープラーニングパイプラインSCFlowについて述べる。
論文 参考訳(メタデータ) (2021-10-08T06:16:45Z) - MBA-VO: Motion Blur Aware Visual Odometry [99.56896875807635]
運動のぼかしは視覚計測法に残る主要な課題の1つである。
露光時間が長い低照度条件では、比較的遅いカメラの動きでも動きのぼやけが現れます。
露光時間内にカメラの局所軌道をモデル化し,推定する,直接的なアプローチによる新しいハイブリッド視覚オドメトリーパイプラインを提案する。
論文 参考訳(メタデータ) (2021-03-25T09:02:56Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - Spatially-Variant CNN-based Point Spread Function Estimation for Blind
Deconvolution and Depth Estimation in Optical Microscopy [6.09170287691728]
薄めながら平らでない物体の光顕微鏡画像の解像度を向上する手法を提案する。
畳み込みニューラルネットワーク(CNN)を用いた空間変動点スプレッド関数(PSF)モデルのパラメータを推定する。
本手法は,理想条件下での2乗ピアソン相関係数0.99で画像自体からPSFパラメータを復元する。
論文 参考訳(メタデータ) (2020-10-08T14:20:16Z) - ML-LBM: Machine Learning Aided Flow Simulation in Porous Media [0.0]
多孔質媒質内の流体流動の直接シミュレーションは、合理的な時間枠で解くために重要な計算資源を必要とする。
流体流の予測と直接流シミュレーションを組み合わせた統合手法について概説する。
畳み込みニューラルネットワーク(CNN)に基づくディープラーニング技術により,定常速度場を正確に推定できることが示されている。
論文 参考訳(メタデータ) (2020-04-22T01:55:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。