論文の概要: Few-shot Transfer Learning for Holographic Image Reconstruction using a
Recurrent Neural Network
- arxiv url: http://arxiv.org/abs/2201.11333v1
- Date: Thu, 27 Jan 2022 05:51:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-28 14:45:27.764366
- Title: Few-shot Transfer Learning for Holographic Image Reconstruction using a
Recurrent Neural Network
- Title(参考訳): リカレントニューラルネットワークを用いたホログラフィック画像再構成のためのマイナショット転送学習
- Authors: Luzhe Huang, Xilin Yang, Tairan Liu, Aydogan Ozcan
- Abstract要約: ホログラフィック画像再構成ディープニューラルネットワークを,小さなデータセットを用いて新しいタイプのサンプルに迅速に一般化する,数発の転写学習手法を提案する。
提案手法の有効性を,小型ホログラフデータセットを用いた新しいタイプのサンプルに適用し,本手法の有効性を検証した。
- 参考スコア(独自算出の注目度): 0.30586855806896046
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based methods in computational microscopy have been shown to be
powerful but in general face some challenges due to limited generalization to
new types of samples and requirements for large and diverse training data.
Here, we demonstrate a few-shot transfer learning method that helps a
holographic image reconstruction deep neural network rapidly generalize to new
types of samples using small datasets. We pre-trained a convolutional recurrent
neural network on a large dataset with diverse types of samples, which serves
as the backbone model. By fixing the recurrent blocks and transferring the rest
of the convolutional blocks of the pre-trained model, we reduced the number of
trainable parameters by ~90% compared with standard transfer learning, while
achieving equivalent generalization. We validated the effectiveness of this
approach by successfully generalizing to new types of samples using small
holographic datasets for training, and achieved (i) ~2.5-fold convergence speed
acceleration, (ii) ~20% computation time reduction per epoch, and (iii)
improved reconstruction performance over baseline network models trained from
scratch. This few-shot transfer learning approach can potentially be applied in
other microscopic imaging methods, helping to generalize to new types of
samples without the need for extensive training time and data.
- Abstract(参考訳): 深層学習に基づく計算顕微鏡の手法は強力であることが示されているが、一般には、新しいタイプのサンプルと大規模で多様な訓練データに対する要求への一般化が限られているため、いくつかの課題に直面している。
本稿では,ホログラフィック画像再構成の深層ニューラルネットワークが,小規模データセットを用いて新たなタイプのサンプルに迅速に一般化することを支援する,数ショット転送学習手法を示す。
バックボーンモデルとして機能する多種多様なサンプルを持つ大規模データセット上で,畳み込みリカレントニューラルネットワークを事前訓練した。
リカレントブロックを修正して、事前学習されたモデルの畳み込みブロックの残りを転送することで、トレーニング可能なパラメータの数を標準転送学習と比較して90%程度削減し、同等の一般化を達成する。
訓練用小型ホログラフデータセットを用いて新しいタイプのサンプルに最適化し,本手法の有効性を検証し,その有効性を確認した。
(i)約2.5倍収束速度加速
(二)エポック当たりの計算時間の20%削減、及び
(iii)スクラッチからトレーニングしたベースラインネットワークモデルに対する再構成性能の向上。
この数発の転送学習アプローチは、他の顕微鏡イメージング手法にも適用可能であり、広範囲のトレーニング時間とデータを必要としない新しいタイプのサンプルへの一般化に役立つ。
関連論文リスト
- Self-STORM: Deep Unrolled Self-Supervised Learning for Super-Resolution Microscopy [55.2480439325792]
我々は、シーケンス固有のモデルベースのオートエンコーダをトレーニングすることで、そのようなデータの必要性を軽減する、深層無学習の自己教師付き学習を導入する。
提案手法は, 監視対象の性能を超過する。
論文 参考訳(メタデータ) (2024-03-25T17:40:32Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Iterative self-transfer learning: A general methodology for response
time-history prediction based on small dataset [0.0]
本研究では,小さなデータセットに基づいてニューラルネットワークを学習するための反復的自己伝達学習手法を提案する。
提案手法は,小さなデータセットに対して,ほぼ一桁の精度でモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T18:48:04Z) - With Greater Distance Comes Worse Performance: On the Perspective of
Layer Utilization and Model Generalization [3.6321778403619285]
ディープニューラルネットワークの一般化は、マシンラーニングにおける主要なオープンな問題の1つだ。
初期のレイヤは一般的に、トレーニングデータとテストデータの両方のパフォーマンスに関する表現を学びます。
より深いレイヤは、トレーニングのリスクを最小限に抑え、テストや不正なラベル付けされたデータとうまく連携できない。
論文 参考訳(メタデータ) (2022-01-28T05:26:32Z) - Is Deep Image Prior in Need of a Good Education? [57.3399060347311]
画像再構成に有効な先行画像として, 奥行き画像が導入された。
その印象的な再建性にもかかわらず、学習技術や伝統的な再建技術と比べてアプローチは遅い。
計算課題に対処する2段階の学習パラダイムを開発する。
論文 参考訳(メタデータ) (2021-11-23T15:08:26Z) - Conditional Variational Autoencoder for Learned Image Reconstruction [5.487951901731039]
本研究では,未知画像の後部分布を問合せ観測で近似する新しいフレームワークを開発する。
暗黙のノイズモデルと先行処理を処理し、データ生成プロセス(フォワード演算子)を組み込み、学習された再構成特性は異なるデータセット間で転送可能である。
論文 参考訳(メタデータ) (2021-10-22T10:02:48Z) - Transfer of Pretrained Model Weights Substantially Improves
Semi-Supervised Image Classification [3.492636597449942]
ディープニューラルネットワークは、多数のラベル付きサンプルでトレーニングされた場合、最先端の結果を生成する。
ディープニューラルネットワークは、少数のラベル付きサンプルがトレーニングに使用される場合、過度に適合する傾向がある。
ラベル付きサンプルがほとんどない場合、転送学習がモデルの精度を大幅に向上することを示す。
論文 参考訳(メタデータ) (2021-09-02T08:58:34Z) - On Robustness and Transferability of Convolutional Neural Networks [147.71743081671508]
現代の深層畳み込みネットワーク(CNN)は、分散シフトの下で一般化しないとしてしばしば批判される。
現代画像分類CNNにおける分布外と転送性能の相互作用を初めて検討した。
トレーニングセットとモデルサイズを増大させることで、分散シフトロバスト性が著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-16T18:39:04Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z) - Compressive sensing with un-trained neural networks: Gradient descent
finds the smoothest approximation [60.80172153614544]
訓練されていない畳み込みニューラルネットワークは、画像の回復と復元に非常に成功したツールとして登場した。
トレーニングされていない畳み込みニューラルネットワークは、ほぼ最小限のランダムな測定値から、十分に構造化された信号や画像を概ね再構成可能であることを示す。
論文 参考訳(メタデータ) (2020-05-07T15:57:25Z) - Two-Stage Resampling for Convolutional Neural Network Training in the
Imbalanced Colorectal Cancer Image Classification [1.8275108630751844]
データ不均衡は、現代の機械学習におけるオープンな課題の1つだ。
データ不均衡を扱う従来のデータレベルのアプローチは、画像データには適していない。
オーバーサンプリングとアンダーサンプリングに関わる問題を緩和する新しい2段階リサンプリング手法を提案する。
論文 参考訳(メタデータ) (2020-04-07T13:11:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。