論文の概要: Deep Learning based Segmentation of Optical Coherence Tomographic Images
of Human Saphenous Varicose Vein
- arxiv url: http://arxiv.org/abs/2303.01054v1
- Date: Thu, 2 Mar 2023 08:24:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 15:22:52.716646
- Title: Deep Learning based Segmentation of Optical Coherence Tomographic Images
of Human Saphenous Varicose Vein
- Title(参考訳): 深層学習によるヒト海綿静脈の光学コヒーレンス断層像の分割
- Authors: Maryam Viqar, Violeta Madjarova, Amit Kumar Yadav, Desislava
Pashkuleva, Alexander S. Machikhin
- Abstract要約: 残差ブロックを付加したアトラス畳み込みを用いたU-Netモデルを用いて,人間の静脈の光学的コヒーレンス・トモグラフィー画像に対して,深層学習に基づくセグメンテーションモデルを提案する。
- 参考スコア(独自算出の注目度): 58.720142291102135
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep-learning based segmentation model is proposed for Optical Coherence
Tomography images of human varicose vein based on the U-Net model employing
atrous convolution with residual blocks, which gives an accuracy of 0.9932.
- Abstract(参考訳): arous convolution with residual blocks を用いた u-net モデルに基づくヒト静脈静脈の光コヒーレンス断層像に対して, ディープラーニングに基づくセグメンテーションモデルを提案し, 精度は 0.9932 である。
関連論文リスト
- Intraoperative Registration by Cross-Modal Inverse Neural Rendering [61.687068931599846]
クロスモーダル逆ニューラルレンダリングによる神経外科手術における術中3D/2Dレジストレーションのための新しいアプローチを提案する。
本手法では,暗黙の神経表現を2つの構成要素に分離し,術前および術中における解剖学的構造について検討した。
臨床症例の振り返りデータを用いて本法の有効性を検証し,現在の登録基準を満たした状態での最先端の検査成績を示した。
論文 参考訳(メタデータ) (2024-09-18T13:40:59Z) - VesselMorph: Domain-Generalized Retinal Vessel Segmentation via
Shape-Aware Representation [12.194439938007672]
ドメインシフトは医療画像の本質的な特性であり、学習ベースのアルゴリズムを大規模に展開する上で大きな障害となっている。
形状認識表現を合成することにより2次元網膜血管セグメンテーションタスクを一般化するVesselMorphという手法を提案する。
VesselMorphは、異なるドメインシフトシナリオの競合するメソッドと比較して、優れた一般化性能を実現する。
論文 参考訳(メタデータ) (2023-07-01T06:02:22Z) - Synthetic optical coherence tomography angiographs for detailed retinal
vessel segmentation without human annotations [12.571349114534597]
本稿では,より高速でリアルなOCTA合成のために,空間コロニー化に基づく網膜血管網の軽量なシミュレーションを行う。
本研究では,3つの公開データセットに対する定量的および定性的実験において,提案手法の優れたセグメンテーション性能を示す。
論文 参考訳(メタデータ) (2023-06-19T14:01:47Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - Affinity Feature Strengthening for Accurate, Complete and Robust Vessel
Segmentation [48.638327652506284]
血管セグメンテーションは、冠動脈狭窄、網膜血管疾患、脳動脈瘤などの多くの医学的応用において重要である。
コントラストに敏感なマルチスケールアフィニティアプローチを用いて,幾何学的手法と画素単位のセグメンテーション特徴を連成的にモデル化する新しいアプローチであるAFNを提案する。
論文 参考訳(メタデータ) (2022-11-12T05:39:17Z) - Sharp-GAN: Sharpness Loss Regularized GAN for Histopathology Image
Synthesis [65.47507533905188]
コンディショナル・ジェネレーショナル・ジェネレーティブ・逆境ネットワークは、合成病理像を生成するために応用されている。
そこで我々は,現実的な病理像を合成するために,シャープネスロス正則化生成対向ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T18:54:25Z) - Binary segmentation of medical images using implicit spline
representations and deep learning [1.5293427903448025]
本稿では,暗黙のスプライン表現と深層畳み込みニューラルネットワークを組み合わせた画像分割手法を提案する。
当社のベストネットワークでは、Diceの平均ボリュームテストスコアが92%近くに達し、この先天性心疾患データセットの最先端に達しています。
論文 参考訳(メタデータ) (2021-02-25T10:04:25Z) - Utilizing Transfer Learning and a Customized Loss Function for Optic
Disc Segmentation from Retinal Images [0.0]
本稿では,高精細網膜基底像から光学ディスクを分割する深層学習手法を提案する。
このアプローチでは、ImageNetデータセットに基づいてトレーニングされたVGG16エンコーダを備えた、UNETベースのモデルを使用する。
我々は99.78%の精度と94.73%のDice係数を網膜画像から0.03秒で達成した。
論文 参考訳(メタデータ) (2020-10-01T17:55:15Z) - A Deep Learning-Based Method for Automatic Segmentation of Proximal
Femur from Quantitative Computed Tomography Images [5.731199807877257]
我々は、エンドツーエンドの完全畳み込みニューラルネットワーク(CNN)であるV on-Netに基づく3次元画像分割法を開発した。
提案手法の有効性を評価する実験を行った。
論文 参考訳(メタデータ) (2020-06-09T21:16:47Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。