論文の概要: Local Conditional Neural Fields for Versatile and Generalizable
Large-Scale Reconstructions in Computational Imaging
- arxiv url: http://arxiv.org/abs/2307.06207v1
- Date: Wed, 12 Jul 2023 14:52:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 12:40:57.215189
- Title: Local Conditional Neural Fields for Versatile and Generalizable
Large-Scale Reconstructions in Computational Imaging
- Title(参考訳): 計算画像における広範かつ汎用的な大規模再構成のための局所条件付きニューラルネットワーク
- Authors: Hao Wang and Lei Tian
- Abstract要約: 我々は,この制限に対処するために,連続的な暗黙的ニューラル表現を活用する,新しいローカル条件ニューラルフィールド(LCNF)フレームワークを導入する。
多重計測によるFPM(Fourier ptychography microscopy)の逆問題に対するLCNFの有用性を実証した。
数個の多重化測定値を用いて,広視野高分解能位相像の高精度な再構成を実証した。
- 参考スコア(独自算出の注目度): 5.31387102924169
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning has transformed computational imaging, but traditional
pixel-based representations limit their ability to capture continuous,
multiscale details of objects. Here we introduce a novel Local Conditional
Neural Fields (LCNF) framework, leveraging a continuous implicit neural
representation to address this limitation. LCNF enables flexible object
representation and facilitates the reconstruction of multiscale information. We
demonstrate the capabilities of LCNF in solving the highly ill-posed inverse
problem in Fourier ptychographic microscopy (FPM) with multiplexed
measurements, achieving robust, scalable, and generalizable large-scale phase
retrieval. Unlike traditional neural fields frameworks, LCNF incorporates a
local conditional representation that promotes model generalization, learning
multiscale information, and efficient processing of large-scale imaging data.
By combining an encoder and a decoder conditioned on a learned latent vector,
LCNF achieves versatile continuous-domain super-resolution image
reconstruction. We demonstrate accurate reconstruction of wide field-of-view,
high-resolution phase images using only a few multiplexed measurements. LCNF
robustly captures the continuous object priors and eliminates various phase
artifacts, even when it is trained on imperfect datasets. The framework
exhibits strong generalization, reconstructing diverse objects even with
limited training data. Furthermore, LCNF can be trained on a physics simulator
using natural images and successfully applied to experimental measurements on
biological samples. Our results highlight the potential of LCNF for solving
large-scale inverse problems in computational imaging, with broad applicability
in various deep-learning-based techniques.
- Abstract(参考訳): ディープラーニングは計算画像に変化をもたらしたが、従来のピクセルベースの表現は、オブジェクトの連続的、複数スケールの詳細をキャプチャする能力を制限する。
本稿では、この制限に対応するために、連続的な暗黙的ニューラル表現を活用する、新しいローカル条件ニューラルフィールド(LCNF)フレームワークを紹介する。
LCNFは柔軟なオブジェクト表現を可能にし、マルチスケール情報の再構築を容易にする。
本研究では,多重計測によるフーリエptychography microscope (fpm) における逆問題に対するlcnfの有用性を実証し,ロバストでスケーラブルで汎用的な大規模位相検索を実現する。
従来のニューラルネットワークフレームワークとは異なり、LCNFには、モデル一般化を促進するローカル条件表現、マルチスケール情報、大規模イメージングデータの効率的な処理が含まれている。
学習遅延ベクトルに条件付エンコーダとデコーダを組み合わせることにより、LCNFは多目的な連続領域超解像再構成を実現する。
複数回の多重計測による広視野・高分解能位相像の高精度再構成を示す。
LCNFは、不完全なデータセットでトレーニングされた場合でも、連続オブジェクトの事前をしっかりとキャプチャし、さまざまなフェーズアーティファクトを排除します。
このフレームワークは強力な一般化を示し、限られたトレーニングデータでも多様なオブジェクトを再構築する。
さらに,自然画像を用いた物理シミュレータ上でlcnfを訓練し,生体試料の実験的測定に有効である。
計算機画像における大規模逆問題に対するLCNFの可能性は,様々な深層学習技術に適用可能である。
関連論文リスト
- Multi-Scale Representation Learning for Image Restoration with State-Space Model [13.622411683295686]
効率的な画像復元のためのマルチスケール状態空間モデル(MS-Mamba)を提案する。
提案手法は,計算複雑性を低く保ちながら,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-19T16:42:58Z) - Efficient Visual State Space Model for Image Deblurring [83.57239834238035]
畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)は、画像復元において優れた性能を発揮している。
本稿では,画像のデブロアに対する簡易かつ効果的な視覚状態空間モデル(EVSSM)を提案する。
論文 参考訳(メタデータ) (2024-05-23T09:13:36Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Unsupervised Domain Transfer with Conditional Invertible Neural Networks [83.90291882730925]
条件付き可逆ニューラルネットワーク(cINN)に基づくドメイン転送手法を提案する。
提案手法は本質的に,その可逆的アーキテクチャによるサイクル一貫性を保証し,ネットワークトレーニングを最大限効率的に行うことができる。
提案手法は,2つの下流分類タスクにおいて,現実的なスペクトルデータの生成を可能にし,その性能を向上する。
論文 参考訳(メタデータ) (2023-03-17T18:00:27Z) - LWGNet: Learned Wirtinger Gradients for Fourier Ptychographic Phase
Retrieval [14.588976801396576]
本稿では,フォワードイメージングシステムの知識と深層データ駆動ネットワークを組み合わせたハイブリッドモデル駆動残差ネットワークを提案する。
従来のアンローリング技術とは異なり、LWGNetは従来のディープ・ラーニング・テクニックよりも少ない段数しか使用していない。
この低ビット深度・低コストセンサの性能向上は、FPM撮像装置のコストを大幅に下げる可能性がある。
論文 参考訳(メタデータ) (2022-08-08T17:22:54Z) - Fourier Imager Network (FIN): A deep neural network for hologram
reconstruction with superior external generalization [0.30586855806896046]
本研究ではFIN(Fourier Imager Network)と呼ばれるディープラーニングフレームワークを導入し,新しいタイプのサンプルの生ホログラムからエンド・ツー・エンドの位相回復と画像再構成を行う。
FINは、新しいタイプのサンプルに対して優れた一般化を示すと同時に、画像の推論速度もはるかに高速である。
ヒトの肺組織サンプルを用いてFINを訓練し,ヒト前立腺,唾液腺組織およびパップスミア標本で盲目的に試験することにより,FINの性能を実験的に検証した。
論文 参考訳(メタデータ) (2022-04-22T06:56:24Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。