論文の概要: ADC-Net: An Open-Source Deep Learning Network for Automated Dispersion
Compensation in Optical Coherence Tomography
- arxiv url: http://arxiv.org/abs/2201.12625v1
- Date: Sat, 29 Jan 2022 17:23:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 11:15:32.842313
- Title: ADC-Net: An Open-Source Deep Learning Network for Automated Dispersion
Compensation in Optical Coherence Tomography
- Title(参考訳): ADC-Net:光コヒーレンストモグラフィーにおける自動分散補償のためのオープンソースのディープラーニングネットワーク
- Authors: Shaiban Ahmed (1), David Le (1), Taeyoon Son (1), Tobiloba Adejumo
(1), and Xincheng Yao (1,2) (1) Department of Biomedical Engineering,
University of Illinois at Chicago (2) Department of Ophthalmology and Visual
Science, University of Illinois at Chicago
- Abstract要約: 本研究は,光コヒーレンストモグラフィ(OCT)における自動分散補償(ADC-Net)のためのディープラーニングネットワークを開発することを目的とする。
ADC-Netは、エンコーダ-デコーダパイプラインを使用する再設計されたUNetアーキテクチャに基づいている。
マルチスケール(MS-SSIM)で計算されたピーク信号対雑音比(PSNR)と構造類似度指標(MS-SSIM)の2つの数値パラメータを用いて,ADC-Netの性能を客観的に評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Chromatic dispersion is a common problem to degrade the system resolution in
optical coherence tomography (OCT). This study is to develop a deep learning
network for automated dispersion compensation (ADC-Net) in OCT. The ADC-Net is
based on a redesigned UNet architecture which employs an encoder-decoder
pipeline. The input section encompasses partially compensated OCT B-scans with
individual retinal layers optimized. Corresponding output is a fully
compensated OCT B-scans with all retinal layers optimized. Two numeric
parameters, i.e., peak signal to noise ratio (PSNR) and structural similarity
index metric computed at multiple scales (MS-SSIM), were used for objective
assessment of the ADC-Net performance. Comparative analysis of training models,
including single, three, five, seven and nine input channels were implemented.
The five-input channels implementation was observed as the optimal mode for
ADC-Net training to achieve robust dispersion compensation in OCT
- Abstract(参考訳): クロマティック分散は、光コヒーレンストモグラフィー(OCT)におけるシステム分解能を低下させる一般的な問題である。
本研究は,OCTにおける分散自動補償(ADC-Net)のためのディープラーニングネットワークを開発することを目的とする。
ADC-Netは、エンコーダ-デコーダパイプラインを使用する再設計されたUNetアーキテクチャに基づいている。
入力部は、個別の網膜層を最適化した部分補償OCTBスキャンを含む。
対応する出力は全網膜層を最適化した完全に補償されたoct b-scanである。
マルチスケール(MS-SSIM)で計算されたピーク信号対雑音比(PSNR)と構造類似度指標(MS-SSIM)の2つの数値パラメータを用いて,ADC-Net性能の客観的評価を行った。
単チャンネル,3チャンネル,5チャンネル,7チャンネル,9チャンネルを含む訓練モデルの比較分析を行った。
OCTの堅牢な分散補償を実現するため、ADC-Netトレーニングの最適モードとして5入力チャネルの実装が観察された。
関連論文リスト
- Adaptive Multilevel Neural Networks for Parametric PDEs with Error Estimation [0.0]
ニューラルネットワークアーキテクチャは高次元パラメータ依存偏微分方程式(pPDE)を解くために提示される
モデルデータのパラメータを対応する有限要素解にマッピングするために構築される。
適応有限要素法(AFEM)で生成される粗いグリッド解と一連の補正を出力する。
論文 参考訳(メタデータ) (2024-03-19T11:34:40Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - ATASI-Net: An Efficient Sparse Reconstruction Network for Tomographic
SAR Imaging with Adaptive Threshold [13.379416816598873]
本稿では,解析的反復収縮しきい値決定アルゴリズム(ALISTA)に基づく,効率的なスパース展開ネットワークを提案する。
ATASI-Netの各層における重み行列は、オフライン最適化問題の解法として事前計算される。
さらに、各方位領域画素に対して適応しきい値を導入し、しきい値収縮を層蒸着だけでなく素子的にも可能とする。
論文 参考訳(メタデータ) (2022-11-30T09:55:45Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Effective Invertible Arbitrary Image Rescaling [77.46732646918936]
Invertible Neural Networks (INN)は、ダウンスケーリングとアップスケーリングのサイクルを共同で最適化することにより、アップスケーリングの精度を大幅に向上させることができる。
本研究の1つのモデルのみをトレーニングすることにより、任意の画像再スケーリングを実現するために、単純で効果的な非可逆的再スケーリングネットワーク(IARN)を提案する。
LR出力の知覚品質を損なうことなく、双方向任意再スケーリングにおいて最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-09-26T22:22:30Z) - RetiFluidNet: A Self-Adaptive and Multi-Attention Deep Convolutional
Network for Retinal OCT Fluid Segmentation [3.57686754209902]
OCTガイド下治療には網膜液の定量化が必要である。
RetiFluidNetと呼ばれる新しい畳み込みニューラルアーキテクチャは、多クラス網膜流体セグメンテーションのために提案されている。
モデルは、テクスチャ、コンテキスト、エッジといった特徴の階層的な表現学習の恩恵を受ける。
論文 参考訳(メタデータ) (2022-09-26T07:18:00Z) - Reducing Redundancy in the Bottleneck Representation of the Autoencoders [98.78384185493624]
オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
論文 参考訳(メタデータ) (2022-02-09T18:48:02Z) - Dispensed Transformer Network for Unsupervised Domain Adaptation [21.256375606219073]
本稿では,新しい非教師付き領域適応 (UDA) 方式であるディスペンデントトランスフォーマーネットワーク (DTNet) について述べる。
提案するネットワークは,いくつかの最先端技術と比較して,最高の性能を実現している。
論文 参考訳(メタデータ) (2021-10-28T08:27:44Z) - Rate Distortion Characteristic Modeling for Neural Image Compression [59.25700168404325]
エンドツーエンドの最適化機能は、ニューラルイメージ圧縮(NIC)の優れた損失圧縮性能を提供する。
異なるモデルは、R-D空間の異なる点に到達するために訓練される必要がある。
深層ネットワークと統計モデルを用いてNICのR-D挙動を記述するために,本質的な数学的関数の定式化に努めている。
論文 参考訳(メタデータ) (2021-06-24T12:23:05Z) - Res-CR-Net, a residual network with a novel architecture optimized for
the semantic segmentation of microscopy images [0.5363346028859919]
Res-CR-NetはDeep Neural Network(DNN)の一種で、異なるダイレーションレートの分離可能なアトラス畳み込みの束または畳み込みLSTMを持つ残効ブロックを特徴とする。
各残余ブロックで使用されるフィルタの数とブロック数だけが、様々な顕微鏡画像のネットワークトレーニングを最適化するために修正する必要がある唯一のハイパーパラメータである。
論文 参考訳(メタデータ) (2020-04-14T21:21:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。