論文の概要: Dynamic Structured Illumination Microscopy with a Neural Space-time
Model
- arxiv url: http://arxiv.org/abs/2206.01397v1
- Date: Fri, 3 Jun 2022 05:24:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 15:20:44.848420
- Title: Dynamic Structured Illumination Microscopy with a Neural Space-time
Model
- Title(参考訳): ニューラル時空間モデルを用いた動的構造イルミネーション顕微鏡
- Authors: Ruiming Cao, Fanglin Linda Liu, Li-Hao Yeh, Laura Waller
- Abstract要約: 超高解像度で動的シーンを再構成するために,データキャプチャ中のサンプル動作をモデル化する新しい手法,Speckle Flow SIMを提案する。
変形可能な動きと1.88倍の時間分解能を持つ動的シーンを実験で再現できることを実証した。
- 参考スコア(独自算出の注目度): 5.048742886625779
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Structured illumination microscopy (SIM) reconstructs a super-resolved image
from multiple raw images; hence, acquisition speed is limited, making it
unsuitable for dynamic scenes. We propose a new method, Speckle Flow SIM, that
models sample motion during the data capture in order to reconstruct dynamic
scenes with super-resolution. Speckle Flow SIM uses fixed speckle illumination
and relies on sample motion to capture a sequence of raw images. Then, the
spatio-temporal relationship of the dynamic scene is modeled using a neural
space-time model with coordinate-based multi-layer perceptrons (MLPs), and the
motion dynamics and the super-resolved scene are jointly recovered. We
validated Speckle Flow SIM in simulation and built a simple, inexpensive
experimental setup with off-the-shelf components. We demonstrated that Speckle
Flow SIM can reconstruct a dynamic scene with deformable motion and 1.88x the
diffraction-limited resolution in experiment.
- Abstract(参考訳): 構造化照明顕微鏡(SIM)は複数の原画像から超解像を再構成するので、取得速度は制限され、ダイナミックなシーンには適さない。
超解像で動的シーンを再現するために,データキャプチャ中のサンプル動作をモデル化する新しい手法であるspeckle flow simを提案する。
speckle flow simは固定されたスペックル照明を使用し、サンプルの動きを利用して生画像のシーケンスをキャプチャする。
次に、座標系多層パーセプトロン(MLP)を用いたニューラル時空間モデルを用いて動的シーンの時空間関係をモデル化し、運動力学と超解像シーンを共同で復元する。
シミュレーションでSpeckle Flow SIMを検証し,市販部品を用いた簡易で安価な実験装置を構築した。
変形可能な動きと1.88倍の回折解像度を持つ動的シーンを実験で再現できることを実証した。
関連論文リスト
- Unleashing the Potential of Multi-modal Foundation Models and Video Diffusion for 4D Dynamic Physical Scene Simulation [9.306758077479472]
マルチモーダル基礎モデルとビデオ拡散を利用して、4次元動的シーンシミュレーションを実現する新しい手法を提案する。
この統合フレームワークは、現実世界のシナリオにおける動的相互作用の正確な予測と現実的なシミュレーションを可能にする。
論文 参考訳(メタデータ) (2024-11-21T18:55:23Z) - Automated 3D Physical Simulation of Open-world Scene with Gaussian Splatting [22.40115216094332]
Sim Anythingは、静的な3Dオブジェクトにインタラクティブなダイナミクスを与える物理ベースのアプローチである。
人間の視覚的推論に触発されて,MLLMに基づく物理特性知覚を提案する。
また、物理幾何学的適応サンプリングを用いて粒子をサンプリングして、オープンワールドシーンでオブジェクトをシミュレートする。
論文 参考訳(メタデータ) (2024-11-19T12:52:21Z) - MonST3R: A Simple Approach for Estimating Geometry in the Presence of Motion [118.74385965694694]
我々は動的シーンから時間ステップごとの幾何を直接推定する新しい幾何学的アプローチであるMotion DUSt3R(MonST3R)を提案する。
各タイムステップのポイントマップを単純に推定することで、静的シーンにのみ使用されるDUST3Rの表現を動的シーンに効果的に適応させることができる。
我々は、問題を微調整タスクとしてポーズし、いくつかの適切なデータセットを特定し、この制限されたデータ上でモデルを戦略的に訓練することで、驚くほどモデルを動的に扱えることを示す。
論文 参考訳(メタデータ) (2024-10-04T18:00:07Z) - DynaMoN: Motion-Aware Fast and Robust Camera Localization for Dynamic Neural Radiance Fields [71.94156412354054]
動的ニューラルラジアンス場(DynaMoN)の高速かつロバストなカメラ位置推定法を提案する。
DynaMoNは、初期のカメラポーズ推定と高速で正確なノベルビュー合成のための静的集光線サンプリングのために動的コンテンツを処理している。
我々は,TUM RGB-DデータセットとBONN RGB-D Dynamicデータセットの2つの実世界の動的データセットに対するアプローチを広く評価した。
論文 参考訳(メタデータ) (2023-09-16T08:46:59Z) - SceNeRFlow: Time-Consistent Reconstruction of General Dynamic Scenes [75.9110646062442]
我々はSceNeRFlowを提案し、時間的一貫性のある方法で一般的な非剛体シーンを再構築する。
提案手法は,カメラパラメータを入力として,静止カメラからのマルチビューRGBビデオと背景画像を取得する。
実験により,小規模動作のみを扱う先行作業とは異なり,スタジオスケール動作の再構築が可能であることが示された。
論文 参考訳(メタデータ) (2023-08-16T09:50:35Z) - Spatio-temporal Vision Transformer for Super-resolution Microscopy [2.8348950186890467]
構造照明顕微鏡(Structured illumination microscopy, SIM)は、光学的超解像技術であり、回折限界を超えるライブセルイメージングを可能にする。
シフトした3次元ウィンドウマルチヘッドアテンションを用いたトランスフォーマーベースの新しい再構成手法 VSR-SIM を提案する。
SIMの時間分解能を9倍に向上させるローリングSIM画像と呼ばれるVSR-SIMのユースケースを実演する。
論文 参考訳(メタデータ) (2022-02-28T19:01:10Z) - MoCo-Flow: Neural Motion Consensus Flow for Dynamic Humans in Stationary
Monocular Cameras [98.40768911788854]
4次元連続時間変動関数を用いて動的シーンをモデル化する表現であるMoCo-Flowを紹介する。
私たちの研究の中心には、運動フロー上の運動コンセンサス正規化によって制約される、新しい最適化の定式化がある。
複雑度の異なる人間の動きを含む複数のデータセット上でMoCo-Flowを広範囲に評価した。
論文 参考訳(メタデータ) (2021-06-08T16:03:50Z) - Machine learning for rapid discovery of laminar flow channel wall
modifications that enhance heat transfer [56.34005280792013]
任意の, 平坦な, 非平坦なチャネルの正確な数値シミュレーションと, ドラッグ係数とスタントン数を予測する機械学習モデルを組み合わせる。
畳み込みニューラルネットワーク(CNN)は,数値シミュレーションのわずかな時間で,目標特性を正確に予測できることを示す。
論文 参考訳(メタデータ) (2021-01-19T16:14:02Z) - Neural Scene Flow Fields for Space-Time View Synthesis of Dynamic Scenes [70.76742458931935]
本稿では,動的シーンを外観・幾何学・3次元シーン動作の時間変化連続関数としてモデル化する新しい表現を提案する。
私たちの表現は、観測された入力ビューに適合するようにニューラルネットワークを介して最適化されます。
我々の表現は、細い構造、ビュー依存効果、自然な動きの度合いなどの複雑な動的シーンに利用できることを示す。
論文 参考訳(メタデータ) (2020-11-26T01:23:44Z) - Learning a Generative Motion Model from Image Sequences based on a
Latent Motion Matrix [8.774604259603302]
画像列の時間的登録をシミュレートして確率的動きモデルを学ぶ。
3つの最先端登録アルゴリズムと比較して,登録精度と時間的にスムーズな整合性が改善された。
また, フレームの欠落のあるシーケンスからの動作再構成を改良し, 動作解析, シミュレーション, 超解像に対するモデルの適用性を実証した。
論文 参考訳(メタデータ) (2020-11-03T14:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。