論文の概要: Dynamic Structured Illumination Microscopy with a Neural Space-time
Model
- arxiv url: http://arxiv.org/abs/2206.01397v1
- Date: Fri, 3 Jun 2022 05:24:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 15:20:44.848420
- Title: Dynamic Structured Illumination Microscopy with a Neural Space-time
Model
- Title(参考訳): ニューラル時空間モデルを用いた動的構造イルミネーション顕微鏡
- Authors: Ruiming Cao, Fanglin Linda Liu, Li-Hao Yeh, Laura Waller
- Abstract要約: 超高解像度で動的シーンを再構成するために,データキャプチャ中のサンプル動作をモデル化する新しい手法,Speckle Flow SIMを提案する。
変形可能な動きと1.88倍の時間分解能を持つ動的シーンを実験で再現できることを実証した。
- 参考スコア(独自算出の注目度): 5.048742886625779
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Structured illumination microscopy (SIM) reconstructs a super-resolved image
from multiple raw images; hence, acquisition speed is limited, making it
unsuitable for dynamic scenes. We propose a new method, Speckle Flow SIM, that
models sample motion during the data capture in order to reconstruct dynamic
scenes with super-resolution. Speckle Flow SIM uses fixed speckle illumination
and relies on sample motion to capture a sequence of raw images. Then, the
spatio-temporal relationship of the dynamic scene is modeled using a neural
space-time model with coordinate-based multi-layer perceptrons (MLPs), and the
motion dynamics and the super-resolved scene are jointly recovered. We
validated Speckle Flow SIM in simulation and built a simple, inexpensive
experimental setup with off-the-shelf components. We demonstrated that Speckle
Flow SIM can reconstruct a dynamic scene with deformable motion and 1.88x the
diffraction-limited resolution in experiment.
- Abstract(参考訳): 構造化照明顕微鏡(SIM)は複数の原画像から超解像を再構成するので、取得速度は制限され、ダイナミックなシーンには適さない。
超解像で動的シーンを再現するために,データキャプチャ中のサンプル動作をモデル化する新しい手法であるspeckle flow simを提案する。
speckle flow simは固定されたスペックル照明を使用し、サンプルの動きを利用して生画像のシーケンスをキャプチャする。
次に、座標系多層パーセプトロン(MLP)を用いたニューラル時空間モデルを用いて動的シーンの時空間関係をモデル化し、運動力学と超解像シーンを共同で復元する。
シミュレーションでSpeckle Flow SIMを検証し,市販部品を用いた簡易で安価な実験装置を構築した。
変形可能な動きと1.88倍の回折解像度を持つ動的シーンを実験で再現できることを実証した。
関連論文リスト
- Physics-guided Shape-from-Template: Monocular Video Perception through
Neural Surrogate Models [4.948516314472825]
トレーニング済みニューラルネットワークを用いた布のSfT再構成アルゴリズムを提案する。
シミュレーションメッシュの異なるレンダリングにより、再構成と対象のビデオシーケンスの画素ワイズ比較が可能になる。
これにより、$phi$-SfTに比べて400-500の係数でランタイムを削減しつつ、正確で安定した、スムーズな再構築された幾何を維持することができる。
論文 参考訳(メタデータ) (2023-11-21T18:59:58Z) - Generative Image Dynamics [86.58649051470478]
本研究では,シーン動作に先立って画像空間をモデル化する手法を提案する。
我々の先行研究は、実映像から抽出した動き軌跡の収集から得られたものである。
論文 参考訳(メタデータ) (2023-09-14T17:54:01Z) - SceNeRFlow: Time-Consistent Reconstruction of General Dynamic Scenes [75.9110646062442]
我々はSceNeRFlowを提案し、時間的一貫性のある方法で一般的な非剛体シーンを再構築する。
提案手法は,カメラパラメータを入力として,静止カメラからのマルチビューRGBビデオと背景画像を取得する。
実験により,小規模動作のみを扱う先行作業とは異なり,スタジオスケール動作の再構築が可能であることが示された。
論文 参考訳(メタデータ) (2023-08-16T09:50:35Z) - Robust Dynamic Radiance Fields [79.43526586134163]
動的放射場再構成法は動的シーンの時間変化構造と外観をモデル化することを目的としている。
しかし、既存の手法では、正確なカメラポーズをStructure from Motion (SfM)アルゴリズムによって確実に推定できると仮定している。
カメラパラメータとともに静的および動的放射場を共同で推定することにより、このロバスト性問題に対処する。
論文 参考訳(メタデータ) (2023-01-05T18:59:51Z) - Spatio-temporal Vision Transformer for Super-resolution Microscopy [2.8348950186890467]
構造照明顕微鏡(Structured illumination microscopy, SIM)は、光学的超解像技術であり、回折限界を超えるライブセルイメージングを可能にする。
シフトした3次元ウィンドウマルチヘッドアテンションを用いたトランスフォーマーベースの新しい再構成手法 VSR-SIM を提案する。
SIMの時間分解能を9倍に向上させるローリングSIM画像と呼ばれるVSR-SIMのユースケースを実演する。
論文 参考訳(メタデータ) (2022-02-28T19:01:10Z) - MoCo-Flow: Neural Motion Consensus Flow for Dynamic Humans in Stationary
Monocular Cameras [98.40768911788854]
4次元連続時間変動関数を用いて動的シーンをモデル化する表現であるMoCo-Flowを紹介する。
私たちの研究の中心には、運動フロー上の運動コンセンサス正規化によって制約される、新しい最適化の定式化がある。
複雑度の異なる人間の動きを含む複数のデータセット上でMoCo-Flowを広範囲に評価した。
論文 参考訳(メタデータ) (2021-06-08T16:03:50Z) - Machine learning for rapid discovery of laminar flow channel wall
modifications that enhance heat transfer [56.34005280792013]
任意の, 平坦な, 非平坦なチャネルの正確な数値シミュレーションと, ドラッグ係数とスタントン数を予測する機械学習モデルを組み合わせる。
畳み込みニューラルネットワーク(CNN)は,数値シミュレーションのわずかな時間で,目標特性を正確に予測できることを示す。
論文 参考訳(メタデータ) (2021-01-19T16:14:02Z) - Neural Scene Flow Fields for Space-Time View Synthesis of Dynamic Scenes [70.76742458931935]
本稿では,動的シーンを外観・幾何学・3次元シーン動作の時間変化連続関数としてモデル化する新しい表現を提案する。
私たちの表現は、観測された入力ビューに適合するようにニューラルネットワークを介して最適化されます。
我々の表現は、細い構造、ビュー依存効果、自然な動きの度合いなどの複雑な動的シーンに利用できることを示す。
論文 参考訳(メタデータ) (2020-11-26T01:23:44Z) - Learning a Generative Motion Model from Image Sequences based on a
Latent Motion Matrix [8.774604259603302]
画像列の時間的登録をシミュレートして確率的動きモデルを学ぶ。
3つの最先端登録アルゴリズムと比較して,登録精度と時間的にスムーズな整合性が改善された。
また, フレームの欠落のあるシーケンスからの動作再構成を改良し, 動作解析, シミュレーション, 超解像に対するモデルの適用性を実証した。
論文 参考訳(メタデータ) (2020-11-03T14:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。