論文の概要: NAS-PRNet: Neural Architecture Search generated Phase Retrieval Net for
Off-axis Quantitative Phase Imaging
- arxiv url: http://arxiv.org/abs/2210.14231v1
- Date: Tue, 25 Oct 2022 16:16:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 15:51:44.987562
- Title: NAS-PRNet: Neural Architecture Search generated Phase Retrieval Net for
Off-axis Quantitative Phase Imaging
- Title(参考訳): NAS-PRNet:オフ軸定量位相イメージングのためのニューラルアーキテクチャ検索生成相検索ネット
- Authors: Xin Shu, Mengxuan Niu, Yi Zhang, Renjie Zhou
- Abstract要約: ニューラルアーキテクチャ探索(NAS)生成相検索ネット(NAS-PRNet)を提案する。
NAS-PRNetはエンコーダ-デコーダスタイルのニューラルネットワークで、大規模なニューラルネットワークアーキテクチャ検索空間から自動的に見つける。
NAS-PRNetはPak Signal-to-Noise Ratio (PSNR)の36.1dBを達成した。
- 参考スコア(独自算出の注目度): 5.943105097884823
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Single neural networks have achieved simultaneous phase retrieval with
aberration compensation and phase unwrapping in off-axis Quantitative Phase
Imaging (QPI). However, when designing the phase retrieval neural network
architecture, the trade-off between computation latency and accuracy has been
largely neglected. Here, we propose Neural Architecture Search (NAS) generated
Phase Retrieval Net (NAS-PRNet), which is an encoder-decoder style neural
network, automatically found from a large neural network architecture search
space. The NAS scheme in NAS-PRNet is modified from SparseMask, in which the
learning of skip connections between the encoder and the decoder is formulated
as a differentiable NAS problem, and the gradient decent is applied to
efficiently search the optimal skip connections. Using MobileNet-v2 as the
encoder and a synthesized loss that incorporates phase reconstruction and
network sparsity losses, NAS-PRNet has realized fast and accurate phase
retrieval of biological cells. When tested on a cell dataset, NAS-PRNet has
achieved a Peak Signal-to-Noise Ratio (PSNR) of 36.1 dB, outperforming the
widely used U-Net and original SparseMask-generated neural network. Notably,
the computation latency of NAS-PRNet is only 31 ms which is 12 times less than
U-Net. Moreover, the connectivity scheme in NAS-PRNet, identified from one
off-axis QPI system, can be well fitted to another with different fringe
patterns.
- Abstract(参考訳): 単一ニューラルネットワークは、オフ軸定量的位相イメージング(QPI)において、収差補償と位相解離を伴う同時位相検索を実現している。
しかし、位相検索ニューラルネットワークアーキテクチャを設計する場合、計算遅延と精度のトレードオフは無視されている。
本稿では,大規模なニューラルネットワークアーキテクチャ検索空間から自動的に検出されるエンコーダ-デコーダスタイルのニューラルネットワークであるNAS-PRNet(Neural Architecture Search)の生成したPhase Retrieval Netを提案する。
NAS-PRNetにおけるNASスキームは、エンコーダとデコーダとの間のスキップ接続の学習を微分可能なNAS問題として定式化し、最適スキップ接続を効率的に探索するために勾配法を適用するSparseMaskから修正されている。
エンコーダとしてのmobilenet-v2と相再構成とネットワークスパーシティ損失を組み込んだ合成損失を用いて、nas-prnetは生体細胞の高速かつ正確な相検索を実現している。
セルデータセットでテストすると、NAS-PRNetはPak Signal-to-Noise Ratio (PSNR)の36.1dBを達成した。
特にNAS-PRNetの計算レイテンシは31msで、U-Netの12倍小さい。
さらに、あるオフ軸QPIシステムから特定されたNAS-PRNetの接続方式は、異なるフランジパターンを持つ他のものとうまく適合させることができる。
関連論文リスト
- Simultaneous Weight and Architecture Optimization for Neural Networks [6.2241272327831485]
アーキテクチャとパラメータを勾配降下と同時に学習することで、プロセスを変換する新しいニューラルネットワークトレーニングフレームワークを導入する。
このアプローチの中心はマルチスケールエンコーダデコーダで、エンコーダは互いに近くにある同様の機能を持つニューラルネットワークのペアを埋め込む。
実験により、我々のフレームワークは、高性能を維持しているスパースでコンパクトなニューラルネットワークを発見できることを示した。
論文 参考訳(メタデータ) (2024-10-10T19:57:36Z) - DiffusionNAG: Predictor-guided Neural Architecture Generation with Diffusion Models [56.584561770857306]
本研究では拡散モデルに基づく新しい条件付きニューラルネットワーク生成(NAG)フレームワークDiffusionNAGを提案する。
具体的には、ニューラルネットワークを有向グラフとみなし、それらを生成するためのグラフ拡散モデルを提案する。
本研究では,2つの予測型NAS(Transferable NAS)とベイズ最適化(BO)に基づくNAS(Bayesian Optimization)の2つのシナリオにおいて,DiffusionNAGの有効性を検証する。
BOベースのアルゴリズムに統合されると、DiffusionNAGは既存のBOベースのNASアプローチ、特にImageNet 1Kデータセット上の大規模なMobileNetV3検索スペースよりも優れている。
論文 参考訳(メタデータ) (2023-05-26T13:58:18Z) - Neural Architecture Search for Improving Latency-Accuracy Trade-off in
Split Computing [5.516431145236317]
スプリットコンピューティングは、IoTシステムにディープラーニングをデプロイする際のプライバシとレイテンシの問題に対処する、新たな機械学習推論技術である。
スプリットコンピューティングでは、ニューラルネットワークモデルは、エッジサーバとIoTデバイスをネットワークを介して分離し、協調的に処理される。
本稿ではスプリットコンピューティングのためのニューラルアーキテクチャサーチ(NAS)手法を提案する。
論文 参考訳(メタデータ) (2022-08-30T03:15:43Z) - ShiftNAS: Towards Automatic Generation of Advanced Mulitplication-Less
Neural Networks [30.14665696695582]
ShiftNASは、ビットシフトニューラルネットワークと実際の評価対象との精度ギャップを大幅に削減する、ニューラルネットワーク探索(NAS)をカスタマイズする最初のフレームワークである。
CIFAR10では1.69-8.07%、CIFAR100では5.71-18.09%、ImageNetでは4.36-67.07%の精度が向上する。
論文 参考訳(メタデータ) (2022-04-07T12:15:03Z) - Towards Bi-directional Skip Connections in Encoder-Decoder Architectures
and Beyond [95.46272735589648]
本稿では,デコードされた機能をエンコーダに戻すための後方スキップ接続を提案する。
我々の設計は、任意のエンコーダ・デコーダアーキテクチャにおいて前方スキップ接続と共同で適用することができる。
本稿では,2相ニューラルネットワーク探索(NAS)アルゴリズム,すなわちBiX-NASを提案する。
論文 参考訳(メタデータ) (2022-03-11T01:38:52Z) - Evolutionary Neural Cascade Search across Supernetworks [68.8204255655161]
ENCAS - Evolutionary Neural Cascade Searchを紹介する。
ENCASは、複数の事前訓練されたスーパーネットを探索するために使用することができる。
我々は、一般的なコンピュータビジョンベンチマークでEMCASをテストする。
論文 参考訳(メタデータ) (2022-03-08T11:06:01Z) - Trilevel Neural Architecture Search for Efficient Single Image
Super-Resolution [127.92235484598811]
本稿では,高効率単一画像超解像(SR)のための3レベルニューラルネットワーク探索法を提案する。
離散探索空間をモデル化するために、離散探索空間に新たな連続緩和を適用し、ネットワークパス、セル操作、カーネル幅の階層的混合を構築する。
階層型スーパーネット方式による最適化を行うため,効率的な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-17T12:19:49Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - Neural Architecture Search as Sparse Supernet [78.09905626281046]
本稿では,単一パスと複数パスの探索から混合パスの自動探索へ,ニューラルネットワーク探索(NAS)の問題を拡大することを目的とする。
我々はNAS問題をスパース・スーパーネットとして,空間制約を混合した新しい連続アーキテクチャ表現を用いてモデル化する。
スパーススーパーネットは、コンパクトなノードセット上でスパース混合パスを自動的に達成する。
論文 参考訳(メタデータ) (2020-07-31T14:51:52Z) - FNA++: Fast Network Adaptation via Parameter Remapping and Architecture
Search [35.61441231491448]
本稿では,シードネットワークのアーキテクチャとパラメータの両方を適応できるFNA++法を提案する。
実験では、FNA++をMobileNetV2に適用し、セマンティックセグメンテーション、オブジェクト検出、人間のポーズ推定のための新しいネットワークを得る。
FNA++の総計算コストは、SOTAセグメンテーションやNASアプローチよりも大幅に少ない。
論文 参考訳(メタデータ) (2020-06-21T10:03:34Z) - Fast Neural Network Adaptation via Parameter Remapping and Architecture
Search [35.61441231491448]
ディープニューラルネットワークは多くのコンピュータビジョンタスクにおいて顕著なパフォーマンスを達成する。
ほとんどの最新技術(SOTA)セマンティックセグメンテーションとオブジェクト検出アプローチは、バックボーンとしてイメージ分類用に設計されたニューラルネットワークアーキテクチャを再利用する。
しかし、大きな課題の1つは、画像Netによる検索空間表現の事前トレーニングが膨大な計算コストを発生させることである。
本稿では、シードネットワークのアーキテクチャとパラメータの両方を適応できる高速ニューラルネットワーク適応(FNA)手法を提案する。
論文 参考訳(メタデータ) (2020-01-08T13:45:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。