論文の概要: Auto-weighting for Breast Cancer Classification in Multimodal Ultrasound
- arxiv url: http://arxiv.org/abs/2008.03435v1
- Date: Sat, 8 Aug 2020 03:42:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 11:46:37.132392
- Title: Auto-weighting for Breast Cancer Classification in Multimodal Ultrasound
- Title(参考訳): マルチモーダル超音波による乳癌分類の自動強調
- Authors: Wang Jian, Miao Juzheng, Yang Xin, Li Rui, Zhou Guangquan, Huang
Yuhao, Lin Zehui, Xue Wufeng, Jia Xiaohong, Zhou Jianqiao, Huang Ruobing, Ni
Dong
- Abstract要約: 良性乳房結節と悪性乳腺結節を鑑別する4種類の超音波検査法を提案する。
分類精度を向上させるため,新しいマルチモーダルネットワークが提案されている。
その結果,提案手法の有効性を示す95.4%の分類精度が得られた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Breast cancer is the most common invasive cancer in women. Besides the
primary B-mode ultrasound screening, sonographers have explored the inclusion
of Doppler, strain and shear-wave elasticity imaging to advance the diagnosis.
However, recognizing useful patterns in all types of images and weighing up the
significance of each modality can elude less-experienced clinicians. In this
paper, we explore, for the first time, an automatic way to combine the four
types of ultrasonography to discriminate between benign and malignant breast
nodules. A novel multimodal network is proposed, along with promising
learnability and simplicity to improve classification accuracy. The key is
using a weight-sharing strategy to encourage interactions between modalities
and adopting an additional cross-modalities objective to integrate global
information. In contrast to hardcoding the weights of each modality in the
model, we embed it in a Reinforcement Learning framework to learn this
weighting in an end-to-end manner. Thus the model is trained to seek the
optimal multimodal combination without handcrafted heuristics. The proposed
framework is evaluated on a dataset contains 1616 set of multimodal images.
Results showed that the model scored a high classification accuracy of 95.4%,
which indicates the efficiency of the proposed method.
- Abstract(参考訳): 乳癌は女性にとって最も一般的な浸潤癌である。
超音波検診では, 超音波検診に加え, ドプラ, ひずみ, せん断波弾性画像の併用も検討されている。
しかし,全ての画像に有用なパターンを認識し,各モダリティの意義を測ることによって,経験の浅い臨床医を損なう可能性がある。
本稿では, 良性乳房結節と悪性乳房結節を鑑別するために, 4種類の超音波像を自動的に組み合わせる方法について検討した。
分類精度を向上させるための学習可能性と単純さを約束する新しいマルチモーダルネットワークを提案する。
鍵となるのは、重み付け戦略を使用して、モダリティ間の相互作用を促進し、グローバル情報を統合するための追加のモダリティ目標を採用することだ。
モデル内の各モダリティの重み付けをハードコーディングするのとは対照的に、この重み付けをエンドツーエンドで学習するために強化学習フレームワークに組み込む。
したがって、モデルは手作りのヒューリスティックを使わずに最適なマルチモーダル結合を求めるように訓練される。
提案手法は1616組のマルチモーダル画像を含むデータセット上で評価される。
その結果,提案手法の有効性を示す95.4%の分類精度が得られた。
関連論文リスト
- Multi-modality transrectal ultrasound video classification for
identification of clinically significant prostate cancer [4.896561300855359]
臨床的に重要な前立腺癌(csPCa)のマルチモーダルTRUSビデオから分類するための枠組みを提案する。
提案するフレームワークは,512本のTRUSビデオを含む社内データセットを用いて評価する。
論文 参考訳(メタデータ) (2024-02-14T07:06:30Z) - MUVF-YOLOX: A Multi-modal Ultrasound Video Fusion Network for Renal
Tumor Diagnosis [10.452919030855796]
腎腫瘍診断のためのマルチモーダル機能融合とビデオ分類を効果的に行うことのできる,新しいマルチモーダル超音波ビデオ融合ネットワークを提案する。
マルチセンタデータセットによる実験結果から,提案手法は単一モードモデルと競合する手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-15T14:15:42Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - Application of Transfer Learning and Ensemble Learning in Image-level
Classification for Breast Histopathology [9.037868656840736]
CAD(Computer-Aided Diagnosis)では、従来の分類モデルでは、主に1つのネットワークを使って特徴を抽出する。
本稿では良性病変と悪性病変のバイナリ分類のための画像レベルラベルに基づく深層アンサンブルモデルを提案する。
結果: アンサンブルネットワークモデルにおいて、画像レベルのバイナリ分類は9,8.90%の精度を達成する。
論文 参考訳(メタデータ) (2022-04-18T13:31:53Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Classification of Breast Cancer Lesions in Ultrasound Images by using
Attention Layer and loss Ensembles in Deep Convolutional Neural Networks [0.0]
本稿では,VGG16アーキテクチャーのアテンションモジュールを用いた乳癌病変の分類のための新しい枠組みを提案する。
また,双曲性コサイン損失の二値交互エントロピーと対数の組み合わせである新たなアンサンブル損失関数を提案し,分類病変とそのラベル間のモデル差を改善する。
本研究で提案したモデルは,93%の精度で他の改良VGG16アーキテクチャよりも優れており,乳がん病変の分類のための他の技術フレームワークと競合する結果となった。
論文 参考訳(メタデータ) (2021-02-23T06:49:12Z) - Automatic Breast Lesion Classification by Joint Neural Analysis of
Mammography and Ultrasound [1.9814912982226993]
そこで本研究では,乳がん病変を各乳腺造影像および超音波画像から分類する深層学習法を提案する。
提案されたアプローチは、GoogleNetアーキテクチャに基づいており、データのために2つのトレーニングステップで微調整されています。
AUCは0.94で、単一のモダリティで訓練された最先端のモデルより優れている。
論文 参考訳(メタデータ) (2020-09-23T09:08:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。