論文の概要: WAL-Net: Weakly supervised auxiliary task learning network for carotid
plaques classification
- arxiv url: http://arxiv.org/abs/2401.13998v1
- Date: Thu, 25 Jan 2024 07:53:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-26 15:20:52.319442
- Title: WAL-Net: Weakly supervised auxiliary task learning network for carotid
plaques classification
- Title(参考訳): wal-net:頸動脈プラーク分類のための補助タスク学習ネットワーク
- Authors: Haitao Gan, Lingchao Fu, Ran Zhou, Weiyan Gan, Furong Wang, Xiaoyan
Wu, Zhi Yang and Zhongwei Huang
- Abstract要約: 本稿では, 頸動脈プラーク分類とセグメンテーションタスクの相互依存性を検討するために, 弱教師付き副タスク学習ネットワークモデル(WAL-Net)を提案する。
武漢大学東南病院で1270枚の頸動脈プラーク超音波画像を用いて実験と評価を行った。
その結果,提案手法は,ベースラインネットワークと比較して頸動脈プラーク分類精度が約1.3%向上していることが示唆された。
- 参考スコア(独自算出の注目度): 8.29259805362406
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The classification of carotid artery ultrasound images is a crucial means for
diagnosing carotid plaques, holding significant clinical relevance for
predicting the risk of stroke. Recent research suggests that utilizing plaque
segmentation as an auxiliary task for classification can enhance performance by
leveraging the correlation between segmentation and classification tasks.
However, this approach relies on obtaining a substantial amount of
challenging-to-acquire segmentation annotations. This paper proposes a novel
weakly supervised auxiliary task learning network model (WAL-Net) to explore
the interdependence between carotid plaque classification and segmentation
tasks. The plaque classification task is primary task, while the plaque
segmentation task serves as an auxiliary task, providing valuable information
to enhance the performance of the primary task. Weakly supervised learning is
adopted in the auxiliary task to completely break away from the dependence on
segmentation annotations. Experiments and evaluations are conducted on a
dataset comprising 1270 carotid plaque ultrasound images from Wuhan University
Zhongnan Hospital. Results indicate that the proposed method achieved an
approximately 1.3% improvement in carotid plaque classification accuracy
compared to the baseline network. Specifically, the accuracy of mixed-echoic
plaques classification increased by approximately 3.3%, demonstrating the
effectiveness of our approach.
- Abstract(参考訳): 頸動脈超音波画像の分類は頸動脈プラークの診断に重要な手段であり,脳卒中リスクの予測に重要な臨床的意義を持っている。
近年の研究では,分類の補助タスクとしてプラークセグメンテーションを利用することで,セグメンテーションと分類タスクの相関を利用した性能の向上が期待されている。
しかし、このアプローチは相当量のチャレンジ・トゥ・ア・ア・セグメンテーションアノテーションを取得することに依存している。
本稿では, 頸動脈プラーク分類とセグメンテーションタスクの相互依存性を検討するために, 弱教師付きタスク学習ネットワークモデル(WAL-Net)を提案する。
プラーク分類タスクはプライマリタスクであり、プラーク分割タスクは補助タスクとして機能し、プライマリタスクのパフォーマンスを向上させるための貴重な情報を提供する。
セグメンテーションアノテーションへの依存を完全に遮断するために、補助タスクにおいて弱教師付き学習が採用される。
武漢大学成南病院の頸動脈プラーク超音波画像1270例を対象に実験および評価を行った。
その結果,提案手法は,ベースラインネットワークと比較して頸動脈プラーク分類精度が約1.3%向上した。
具体的には,混合音声プラーク分類の精度が約3.3%向上し,アプローチの有効性が示された。
関連論文リスト
- Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - A region and category confidence-based multi-task network for carotid
ultrasound image segmentation and classification [6.162577404860473]
超音波頸動脈プラーク分割と分類のためのマルチタスク学習フレームワーク(RCCM-Net)を提案する。
このフレームワークは、領域信頼モジュール(RCM)とサンプルカテゴリ信頼モジュール(CCM)を使用して、これらの2つのタスク間の相関を利用する。
提案手法は,既存のシングルタスクネットワークと比較してセグメンテーションと分類性能を両立させることができることを示す。
論文 参考訳(メタデータ) (2023-07-02T14:43:59Z) - Cross-supervised Dual Classifiers for Semi-supervised Medical Image
Segmentation [10.18427897663732]
半教師付き医用画像分割は、大規模医用画像解析に有望な解決策を提供する。
本稿では、二重分類器(DC-Net)に基づくクロス教師あり学習フレームワークを提案する。
LAとPancreas-CTデータセットの実験は、DC-Netが半教師付きセグメンテーションの他の最先端手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2023-05-25T16:23:39Z) - Tissue Classification During Needle Insertion Using Self-Supervised
Contrastive Learning and Optical Coherence Tomography [53.38589633687604]
針先端で取得した複雑なCT信号の位相および強度データから組織を分類するディープニューラルネットワークを提案する。
トレーニングセットの10%で、提案した事前学習戦略により、モデルが0.84のF1スコアを達成するのに対して、モデルが0.60のF1スコアを得るのに対して、モデルが0.84のF1スコアを得るのに役立ちます。
論文 参考訳(メタデータ) (2023-04-26T14:11:04Z) - PCA: Semi-supervised Segmentation with Patch Confidence Adversarial
Training [52.895952593202054]
医用画像セグメンテーションのためのPatch Confidence Adrial Training (PCA) と呼ばれる半教師付き対向法を提案する。
PCAは各パッチの画素構造とコンテキスト情報を学習し、十分な勾配フィードバックを得る。
本手法は, 医用画像のセグメンテーションにおいて, 最先端の半教師付き手法より優れており, その有効性を示している。
論文 参考訳(メタデータ) (2022-07-24T07:45:47Z) - Interpretable and Interactive Deep Multiple Instance Learning for Dental
Caries Classification in Bitewing X-rays [6.98282810587309]
本稿では,深層複数インスタンス学習に基づくシンプルで効率的な画像分類アーキテクチャを提案する。
まず、画像レベルの弱いラベルで訓練されているにもかかわらず、局所的なパッチ分類確率のヒートマップを出力する。
既存の手法とは対照的に、人間のユーザは予測を忠実に解釈し、モデルと対話してどのリージョンに参加するかを決定することができる。
論文 参考訳(メタデータ) (2021-12-17T14:09:27Z) - Leveraging Auxiliary Tasks with Affinity Learning for Weakly Supervised
Semantic Segmentation [88.49669148290306]
そこで我々はAuxSegNetと呼ばれる弱教師付きマルチタスク・フレームワークを提案し,サリエンシ検出とマルチラベル画像分類を補助タスクとして活用する。
同様の構造的セマンティクスに着想を得て,サリエンシとセグメンテーションの表現から,クロスタスクなグローバル画素レベルの親和性マップを学習することを提案する。
学習されたクロスタスク親和性は、両方のタスクに対して改善された擬似ラベルを提供するために、唾液度予測を洗練し、CAMマップを伝播するために使用することができる。
論文 参考訳(メタデータ) (2021-07-25T11:39:58Z) - Cascaded Robust Learning at Imperfect Labels for Chest X-ray
Segmentation [61.09321488002978]
不完全アノテーションを用いた胸部X線分割のための新しいカスケードロバスト学習フレームワークを提案する。
モデルは3つの独立したネットワークから成り,ピアネットワークから有用な情報を効果的に学習できる。
提案手法は,従来の手法と比較して,セグメント化タスクの精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2021-04-05T15:50:16Z) - Multi-Task Neural Networks with Spatial Activation for Retinal Vessel
Segmentation and Artery/Vein Classification [49.64863177155927]
本稿では,網膜血管,動脈,静脈を同時に分割する空間活性化機構を備えたマルチタスクディープニューラルネットワークを提案する。
提案するネットワークは,容器分割における画素ワイド精度95.70%,A/V分類精度94.50%を実現している。
論文 参考訳(メタデータ) (2020-07-18T05:46:47Z) - Joint Liver Lesion Segmentation and Classification via Transfer Learning [2.055949720959582]
伝達学習と共同学習アプローチは畳み込みニューラルネットワーク(CNN)の性能向上に広く利用されている
ターゲットデータセットが通常非常に小さい医療画像アプリケーションでは、転送学習は特徴学習を改善する一方、共同学習はネットワークの一般化と堅牢性を改善する効果を示す。
単純なジョイント・フレームワークは一般的に使われているマルチタスク・アーキテクチャ(Y-Net)よりも優れており、分類精度が10%向上したのに対し、Y-Netは3%向上した。
論文 参考訳(メタデータ) (2020-04-26T11:06:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。