論文の概要: Study for Performance of MobileNetV1 and MobileNetV2 Based on Breast
Cancer
- arxiv url: http://arxiv.org/abs/2308.03076v1
- Date: Sun, 6 Aug 2023 10:08:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 16:50:56.796714
- Title: Study for Performance of MobileNetV1 and MobileNetV2 Based on Breast
Cancer
- Title(参考訳): 乳癌によるMobileNetV1とMobileNetV2の性能評価
- Authors: Jiuqi Yan
- Abstract要約: この実験の目的は、MobileNetV1とMobileNetV2のどちらが優れているかを比較することである。
この実験の基本原理は、ニューラルネットワークモデルにダウンロードされたデータセットを学習させることである。
MobileNetV1は、MobileNetV2トレーニングにおいて、より良い検証精度と過度に適合していることが観察できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence is constantly evolving and can provide effective help
in all aspects of people's lives. The experiment is mainly to study the use of
artificial intelligence in the field of medicine. The purpose of this
experiment was to compare which of MobileNetV1 and MobileNetV2 models was
better at detecting histopathological images of the breast downloaded at
Kaggle. When the doctor looks at the pathological image, there may be errors
that lead to errors in judgment, and the observation speed is slow. Rational
use of artificial intelligence can effectively reduce the error of doctor
diagnosis in breast cancer judgment and speed up doctor diagnosis. The dataset
was downloaded from Kaggle and then normalized. The basic principle of the
experiment is to let the neural network model learn the downloaded data set.
Then find the pattern and be able to judge on your own whether breast tissue is
cancer. In the dataset, benign tumor pictures and malignant tumor pictures have
been classified, of which 198738 are benign tumor pictures and 78, 786 are
malignant tumor pictures. After calling MobileNetV1 and MobileNetV2, the
dataset is trained separately, the training accuracy and validation accuracy
rate are obtained, and the image is drawn. It can be observed that MobileNetV1
has better validation accuracy and overfit during MobileNetV2 training. From
the experimental results, it can be seen that in the case of processing this
dataset, MobileNetV1 is much better than MobileNetV2.
- Abstract(参考訳): 人工知能は常に進化しており、人々の生活のあらゆる面において効果的な支援を提供することができる。
この実験は主に医学における人工知能の利用を研究することを目的としている。
この実験の目的は、Kaggleでダウンロードされた乳房の病理像を検出するのに、MobileNetV1とMobileNetV2のどちらが優れているかを比較することである。
医師が病理像を見ると、判断の誤りにつながるエラーがあり、観察速度は遅くなる。
人工知能の合理的使用は、乳がん判定における医師診断の誤りを効果的に低減し、医師診断を高速化する。
データセットはKaggleからダウンロードされ、標準化された。
実験の基本原理は、ニューラルネットワークモデルにダウンロードされたデータセットを学習させることである。
そしてそのパターンを見つけ、乳房の組織が癌かどうかを自分で判断する。
このデータセットでは良性腫瘍像と悪性腫瘍像が分類され、そのうち198738は良性腫瘍像、78,786は悪性腫瘍像である。
MobileNetV1とMobileNetV2を呼んだ後、データセットを個別に訓練し、トレーニング精度と検証精度を求め、画像を描画する。
mobilenetv1はmobilenetv2トレーニングの検証精度とオーバーフィットが向上している。
実験結果から、このデータセットを処理する場合、MobileNetV1はMobileNetV2よりもはるかに優れていることが分かる。
関連論文リスト
- Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Lung-CADex: Fully automatic Zero-Shot Detection and Classification of Lung Nodules in Thoracic CT Images [45.29301790646322]
コンピュータ支援診断は早期の肺結節の検出に役立ち、その後の結節の特徴づけを促進する。
MedSAMと呼ばれるSegment Anything Modelの変種を用いて肺結節をゼロショットでセグメント化するためのCADeを提案する。
また、放射能特徴のギャラリーを作成し、コントラスト学習を通じて画像と画像のペアを整列させることにより、良性/良性としての結節的特徴付けを行うCADxを提案する。
論文 参考訳(メタデータ) (2024-07-02T19:30:25Z) - Enhanced Breast Cancer Tumor Classification using MobileNetV2: A
Detailed Exploration on Image Intensity, Error Mitigation, and
Streamlit-driven Real-time Deployment [0.5917100081691199]
本研究は, 乳がん腫瘍を正常, 良性, 悪性のカテゴリに分類するための, Google の MobileNetV2 に基づく高度な転写学習モデルを提案する。
精度は 0.82、精度は 0.83、リコールは 0.81、ROC-AUCは 0.94、PR-AUCは 0.88、MCCは 0.74 である。
論文 参考訳(メタデータ) (2023-12-05T06:58:14Z) - Osteosarcoma Tumor Detection using Transfer Learning Models [0.0]
本稿では,骨肉腫腫瘍検出のための転写学習モデルの性能について検討する。
InceptionResNetV2 は最高精度 (93.29%)、NasNetLarge (90.91%)、ResNet50 (89.83%)、EfficientNetB7 (62.77%) を達成した。
論文 参考訳(メタデータ) (2023-05-16T17:58:29Z) - Breast cancer detection using deep learning [0.0]
本稿では,マイクロ波イメージング画像の再構成画像から乳がんを検出するための深層学習モデルを提案する。
NASNetLargeは、88.41%、27.82%の精度でCNNモデルに使用できる最高のアーキテクチャである。
論文 参考訳(メタデータ) (2023-04-20T15:22:12Z) - Detection and Classification of Brain tumors Using Deep Convolutional
Neural Networks [0.0]
脳の腫瘍はがんなので致命的です。
脳腫瘍の大きさや位置が異なるため、その性質を理解することは困難である。
本論文は,通常の画素と異常画素を区別し,精度良く分類することを目的とする。
論文 参考訳(メタデータ) (2022-08-28T18:24:22Z) - Comparison of Deep Learning and Machine Learning Models and Frameworks
for Skin Lesion Classification [0.0]
機械学習とディープラーニングを使って皮膚がんの分類を行うと、アクセシビリティが向上し、従来の病変検出プロセスにおける不快な手順が軽減される。
本稿では、一般的な皮膚病変のベンチマークHAM10000データセットを用いて、2つのモデルをテストする。
資源制約のある移動環境において,皮膚病変診断のための異なるフレームワーク上での深層学習モデルと同一の深層学習モデルの比較は,これまで行われなかった。
論文 参考訳(メタデータ) (2022-07-26T08:07:33Z) - Automated SSIM Regression for Detection and Quantification of Motion
Artefacts in Brain MR Images [54.739076152240024]
磁気共鳴脳画像における運動アーチファクトは重要な問題である。
MR画像の画質評価は,臨床診断に先立って基本的である。
構造類似度指数(SSIM)回帰に基づく自動画像品質評価法が提案されている。
論文 参考訳(メタデータ) (2022-06-14T10:16:54Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - An interpretable classifier for high-resolution breast cancer screening
images utilizing weakly supervised localization [45.00998416720726]
医用画像の特徴に対処する枠組みを提案する。
このモデルはまず、画像全体の低容量だがメモリ効率のよいネットワークを使用して、最も情報性の高い領域を識別する。
次に、選択したリージョンから詳細を収集するために、別の高容量ネットワークを適用します。
最後に、グローバルおよびローカル情報を集約して最終的な予測を行うフュージョンモジュールを使用する。
論文 参考訳(メタデータ) (2020-02-13T15:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。