論文の概要: From Pixels to Views: Learning Angular-Aware and Physics-Consistent Representations for Light Field Microscopy
- arxiv url: http://arxiv.org/abs/2510.22577v1
- Date: Sun, 26 Oct 2025 08:28:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.251975
- Title: From Pixels to Views: Learning Angular-Aware and Physics-Consistent Representations for Light Field Microscopy
- Title(参考訳): レンズからビューへ:光電界顕微鏡のための角認識と物理一貫性表現を学習する
- Authors: Feng He, Guodong Tan, Qiankun Li, Jun Yu, Quan Wen,
- Abstract要約: 光電場顕微鏡における学習に基づく3次元再構成への3つの重要な貢献を紹介する。
まず,XLFM再構成のための大規模データセットと評価スイートであるXLFM-Zebrafishベンチマークを構築した。
第2に,光場に対するマスケッドビューモデリング(MVN-LF, Masked View Modeling for Light Fields)を提案する。
第3に、予測ボリュームとPSFベースの前方投影とのアライメントを強制する微分可能なレンダリング制約である光レンダリング一貫性損失(ORC Loss)を定式化する。
- 参考スコア(独自算出の注目度): 12.900713570104749
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Light field microscopy (LFM) has become an emerging tool in neuroscience for large-scale neural imaging in vivo, notable for its single-exposure volumetric imaging, broad field of view, and high temporal resolution. However, learning-based 3D reconstruction in XLFM remains underdeveloped due to two core challenges: the absence of standardized datasets and the lack of methods that can efficiently model its angular-spatial structure while remaining physically grounded. We address these challenges by introducing three key contributions. First, we construct the XLFM-Zebrafish benchmark, a large-scale dataset and evaluation suite for XLFM reconstruction. Second, we propose Masked View Modeling for Light Fields (MVN-LF), a self-supervised task that learns angular priors by predicting occluded views, improving data efficiency. Third, we formulate the Optical Rendering Consistency Loss (ORC Loss), a differentiable rendering constraint that enforces alignment between predicted volumes and their PSF-based forward projections. On the XLFM-Zebrafish benchmark, our method improves PSNR by 7.7% over state-of-the-art baselines.
- Abstract(参考訳): 光電場顕微鏡(LFM)は、大規模ニューロイメージングのための神経科学の新たなツールとなり、その単一露光ボリュームイメージング、広い視野、高時間分解能で有名である。
しかしながら、XLFMの学習に基づく3D再構成は、標準化されたデータセットの欠如と、物理的基盤を維持しながら角空間構造を効率的にモデル化できる手法の欠如という2つの主要な課題のために、まだ未発達である。
3つの重要なコントリビューションを導入することで、これらの課題に対処します。
まず,XLFM再構成のための大規模データセットと評価スイートであるXLFM-Zebrafishベンチマークを構築した。
第2に,光場に対するマスケッドビューモデリング(MVN-LF, Masked View Modeling for Light Fields)を提案する。
第3に、予測ボリュームとPSFベースの前方投影とのアライメントを強制する微分可能なレンダリング制約である光レンダリング一貫性損失(ORC Loss)を定式化する。
XLFM-Zebrafishベンチマークでは,最先端のベースラインよりもPSNRが7.7%向上した。
関連論文リスト
- Intern-GS: Vision Model Guided Sparse-View 3D Gaussian Splatting [95.61137026932062]
Intern-GSはスパースビューガウススプラッティングのプロセスを強化する新しいアプローチである。
Intern-GSは多様なデータセットにまたがって最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2025-05-27T05:17:49Z) - DeepSparse: A Foundation Model for Sparse-View CBCT Reconstruction [9.579390210009521]
スパースビュー再構成は、画質を維持しながらX線投影を少なくすることで放射線を低減させる。
既存の手法では、高い計算要求や異なるデータセットに対する一般化性の欠如といった課題に直面している。
マルチビュー2次元特徴とマルチスケール3次元特徴を統合した新しいネットワークであるDiCEを特徴とする,スパースビューCBCT再構成のための最初の基盤モデルであるDeepSparseを提案する。
論文 参考訳(メタデータ) (2025-05-05T13:14:49Z) - R-Meshfusion: Reinforcement Learning Powered Sparse-View Mesh Reconstruction with Diffusion Priors [6.102039677329314]
マルチビュー画像からのメッシュ再構成はスパースビュー条件下で著しく劣化する。
拡散モデルの最近の進歩は、限られた入力から新しいビューを合成する強力な能力を示している。
本稿では,拡散モデルを利用して,スパースビューメッシュ再構成を原理的かつ信頼性の高い方法で向上する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-16T10:23:59Z) - V2V3D: View-to-View Denoised 3D Reconstruction for Light-Field Microscopy [12.356249860549472]
光電場顕微鏡(LFM)は、スナップショットベースで大規模な3D蛍光画像の撮影が可能であるため、注目されている。
既存のLFM再構成アルゴリズムは、センサーノイズに非常に敏感であるか、あるいはトレーニングのためにハード・トゥ・ザ・グラウンド・トゥルース・アノテート・データを必要とする。
本稿では,V2V3Dについて紹介する。V2V3Dは教師なしのビュー2ビューベースのフレームワークで,画像復調と3D再構成の協調最適化のための新しいパラダイムを確立する。
論文 参考訳(メタデータ) (2025-04-10T15:29:26Z) - DiHuR: Diffusion-Guided Generalizable Human Reconstruction [51.31232435994026]
一般化可能なヒト3次元再構成のための拡散誘導モデルであるDiHuRを導入し,スパース・ミニマル・オーバーラップ画像からのビュー合成について述べる。
提案手法は, 一般化可能なフィードフォワードモデルと2次元拡散モデルとの2つのキー前処理をコヒーレントな方法で統合する。
論文 参考訳(メタデータ) (2024-11-16T03:52:23Z) - GEOcc: Geometrically Enhanced 3D Occupancy Network with Implicit-Explicit Depth Fusion and Contextual Self-Supervision [49.839374549646884]
本稿では,視覚のみのサラウンドビュー知覚に適したジオメトリ強化OccupancyネットワークであるGEOccについて述べる。
提案手法は,Occ3D-nuScenesデータセット上で,画像解像度が最小で,画像バックボーンが最大である状態-Of-The-Art性能を実現する。
論文 参考訳(メタデータ) (2024-05-17T07:31:20Z) - Illumination and Shadows in Head Rotation: experiments with Denoising Diffusion Models [0.0]
本研究は, 様々な照明条件下で連続的な頭部回転を表現できる魅力的な軌道を同定するために, 拡散モデルの遅延空間を探索する。
我々の研究の重要な貢献は、CelebAデータセットから追加のラベルを生成し、一般的な照明方向に基づいて画像を3つのグループに分類することである。
論文 参考訳(メタデータ) (2023-08-11T10:14:22Z) - Neural Poisson Surface Reconstruction: Resolution-Agnostic Shape
Reconstruction from Point Clouds [53.02191521770926]
我々は,3次元形状を点から復元するという課題に対処する形状再構成アーキテクチャであるニューラルポアソン表面再構成(nPSR)を導入する。
nPSRには2つの大きな利点がある: まず、高分解能評価において同等の性能を達成しつつ、低分解能データの効率的なトレーニングを可能にする。
全体として、ニューラル・ポアソン表面の再構成は、形状再構成における古典的なディープニューラルネットワークの限界を改良するだけでなく、再構築品質、走行時間、分解能非依存の観点からも優れた結果が得られる。
論文 参考訳(メタデータ) (2023-08-03T13:56:07Z) - Reference-Free Isotropic 3D EM Reconstruction using Diffusion Models [8.590026259176806]
本稿では、参照データや劣化過程に関する事前知識の制限を克服する拡散モデルに基づくフレームワークを提案する。
提案手法では, 2次元拡散モデルを用いて連続的に3次元ボリュームを再構成し, 高精度なサンプルデータに適している。
論文 参考訳(メタデータ) (2023-08-03T07:57:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。