論文の概要: SHMC-Net: A Mask-guided Feature Fusion Network for Sperm Head Morphology
Classification
- arxiv url: http://arxiv.org/abs/2402.03697v3
- Date: Tue, 5 Mar 2024 23:55:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 20:42:17.091238
- Title: SHMC-Net: A Mask-guided Feature Fusion Network for Sperm Head Morphology
Classification
- Title(参考訳): SHMC-Net: 精子頭部形態分類のためのマスク誘導機能融合ネットワーク
- Authors: Nishchal Sapkota, Yejia Zhang, Sirui Li, Peixian Liang, Zhuo Zhao,
Jingjing Zhang, Xiaomin Zha, Yiru Zhou, Yunxia Cao, Danny Z Chen
- Abstract要約: 我々はSHMC-Netと呼ばれる精子頭部形態分類の新しい手法を提案する。
SHMC-Netは精子画像の形態分類を導くために精子頭部のセグメンテーションマスクを使用する。
我々は、SCIANとHuSHeMデータセットの最先端結果を達成する。
- 参考スコア(独自算出の注目度): 14.762439662731865
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Male infertility accounts for about one-third of global infertility cases.
Manual assessment of sperm abnormalities through head morphology analysis
encounters issues of observer variability and diagnostic discrepancies among
experts. Its alternative, Computer-Assisted Semen Analysis (CASA), suffers from
low-quality sperm images, small datasets, and noisy class labels. We propose a
new approach for sperm head morphology classification, called SHMC-Net, which
uses segmentation masks of sperm heads to guide the morphology classification
of sperm images. SHMC-Net generates reliable segmentation masks using image
priors, refines object boundaries with an efficient graph-based method, and
trains an image network with sperm head crops and a mask network with the
corresponding masks. In the intermediate stages of the networks, image and mask
features are fused with a fusion scheme to better learn morphological features.
To handle noisy class labels and regularize training on small datasets,
SHMC-Net applies Soft Mixup to combine mixup augmentation and a loss function.
We achieve state-of-the-art results on SCIAN and HuSHeM datasets, outperforming
methods that use additional pre-training or costly ensembling techniques.
- Abstract(参考訳): 男性不妊は世界の不妊患者の約3分の1を占める。
頭部形態解析による精子異常の手動評価は、専門家の間で観察者の変動と診断上の相違の問題に遭遇する。
その代わり、casa(computer-assisted semen analysis)は、低品質の精子画像、小さなデータセット、騒がしいクラスラベルに苦しむ。
精子頭の形態分類のための新しいアプローチであるshmc-netを提案し,精子頭のセグメンテーションマスクを用いて精子画像の形態分類を導く。
SHMC-Netは、画像プリエントを用いて信頼性の高いセグメンテーションマスクを生成し、効率的なグラフベースの手法でオブジェクト境界を洗練し、精子頭作物とマスクネットワークをトレーニングする。
ネットワークの中間段階では、画像とマスクの特徴を融合スキームで融合させ、形態的特徴をよりよく学習する。
ノイズの多いクラスラベルの処理と小さなデータセットでのトレーニングの正規化のために、SHMC-NetはSoft Mixupを適用して、ミックスアップ拡張と損失関数を組み合わせた。
scian と hushem のデータセットで最先端の成果を達成し,事前トレーニングやコストのかかるセンシング手法を駆使した手法よりも優れています。
関連論文リスト
- Generative Medical Segmentation [5.4613210257624605]
生成医療 (Generative Medical, GMS) は、生成モデルを利用して画像セグメンテーションを行う新しいアプローチである。
GMSは、画像とそれに対応する接地真実マスクの潜在表現を抽出するために、頑健な事前訓練された視覚基盤モデルを採用している。
GMSの設計により、モデルのトレーニング可能なパラメータが少なくなり、オーバーフィットのリスクが軽減され、その能力が向上する。
論文 参考訳(メタデータ) (2024-03-27T02:16:04Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Unsupervised Anomaly Detection in Medical Images Using Masked Diffusion
Model [7.116982044576858]
Masked Image Modeling (MIM) と Masked Frequency Modeling (MFM) は、モデルがラベルのないデータから視覚表現を学習できるようにする自己教師型アプローチである。
腫瘍と多発性硬化症病変を含むデータセットについて検討した。
論文 参考訳(メタデータ) (2023-05-31T14:04:11Z) - Adaptive Face Recognition Using Adversarial Information Network [57.29464116557734]
顔認識モデルは、トレーニングデータがテストデータと異なる場合、しばしば退化する。
本稿では,新たな敵情報ネットワーク(AIN)を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:14:11Z) - Optimizations of Autoencoders for Analysis and Classification of
Microscopic In Situ Hybridization Images [68.8204255655161]
同様のレベルの遺伝子発現を持つ顕微鏡画像の領域を検出・分類するためのディープラーニングフレームワークを提案する。
分析するデータには教師なし学習モデルが必要です。
論文 参考訳(メタデータ) (2023-04-19T13:45:28Z) - HybridMIM: A Hybrid Masked Image Modeling Framework for 3D Medical Image
Segmentation [29.15746532186427]
HybridMIMは3次元医用画像セグメンテーションのためのマスク付き画像モデリングに基づく新しいハイブリッド自己教師型学習手法である。
医用画像の意味情報を3段階に分けて学習し,1)3次元画像の重要な内容を再構成する部分領域予測を行うことにより,トレーニング前の時間負担を大幅に軽減する。
提案するフレームワークは,エンコーダバックボーンとしてCNNとトランスフォーマーの両方をサポートするとともに,イメージセグメンテーションのためのデコーダの事前トレーニングも可能である。
論文 参考訳(メタデータ) (2023-03-18T04:43:12Z) - Online Easy Example Mining for Weakly-supervised Gland Segmentation from
Histology Images [10.832913704956253]
病理組織像からのAI支援腺分節法の開発は, 自動診断と予後に重要である。
コンピュータビジョンにおける既存の弱教師付きセマンティックセマンティックセマンティクス法は、腺セマンティクスの変性結果を達成する。
信頼性の高い監視信号に着目したオンライン簡易事例マイニング(OEEM)を提案する。
論文 参考訳(メタデータ) (2022-06-14T07:53:03Z) - Improving Human Sperm Head Morphology Classification with Unsupervised
Anatomical Feature Distillation [3.666202958045386]
近年のDeep Learning (DL) 形態素解析手法は有望なベンチマーク結果を実現するが、性能と堅牢性は表に残されている。
本稿では,ヒト精子顕微鏡作物の解剖学的,画像的先行性を利用して,ラベル付けコストを伴わずに有用な特徴を抽出する新しいDLトレーニングフレームワークを提案する。
2つの公開精子データセットに対する我々の新しいアプローチを評価し、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-02-15T04:58:29Z) - Pairwise Relation Learning for Semi-supervised Gland Segmentation [90.45303394358493]
病理組織像における腺分節に対するPRS2モデルを提案する。
このモデルはセグメンテーションネットワーク(S-Net)とペア関係ネットワーク(PR-Net)から構成される。
我々は,GlaSデータセットの最近の5つの手法とCRAGデータセットの最近の3つの手法を比較した。
論文 参考訳(メタデータ) (2020-08-06T15:02:38Z) - Retinopathy of Prematurity Stage Diagnosis Using Object Segmentation and
Convolutional Neural Networks [68.96150598294072]
未熟児網膜症(英: Retinopathy of Prematurity、ROP)は、主に体重の低い未熟児に影響を及ぼす眼疾患である。
網膜の血管の増殖を招き、視力喪失を招き、最終的には網膜剥離を招き、失明を引き起こす。
近年,ディープラーニングを用いて診断を自動化する試みが盛んに行われている。
本稿では,従来のモデルの成功を基盤として,オブジェクトセグメンテーションと畳み込みニューラルネットワーク(CNN)を組み合わせた新しいアーキテクチャを開発する。
提案システムでは,まず対象分割モデルを訓練し,画素レベルでの区切り線を識別し,その結果のマスクを追加の"カラー"チャネルとして付加する。
論文 参考訳(メタデータ) (2020-04-03T14:07:41Z) - Panoptic Feature Fusion Net: A Novel Instance Segmentation Paradigm for
Biomedical and Biological Images [91.41909587856104]
本稿では,本研究における意味的特徴とインスタンス的特徴を統一するPanoptic Feature Fusion Net(PFFNet)を提案する。
提案するPFFNetには,インスタンス予測を意味的特徴に組み込むための残注意特徴融合機構が組み込まれている。
様々なバイオメディカルおよび生物学的データセットにおいて、最先端のいくつかの手法を上回ります。
論文 参考訳(メタデータ) (2020-02-15T09:19:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。