論文の概要: GDN: A Stacking Network Used for Skin Cancer Diagnosis
- arxiv url: http://arxiv.org/abs/2312.02437v1
- Date: Tue, 5 Dec 2023 02:33:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 17:02:13.716582
- Title: GDN: A Stacking Network Used for Skin Cancer Diagnosis
- Title(参考訳): GDN:皮膚がん診断に使用されるスタックネットワーク
- Authors: Jingmin Wei, Haoyang Shen, Ziyi Wang, Ziqian Zhang
- Abstract要約: 本稿では,皮膚癌,基底細胞癌,メラノーマの2種類の画像分類モデルであるGoogLe-Dense Network(GDN)について述べる。
GDNは2つのシーケンシャルなレベルから構成されている。第1のレベルはGoogLeNetとDenseNetによって達成された基本的な分類タスクを実行し、効率を高めるために並列にトレーニングされている。
提案手法を,データセット上のResNet,VGGNet,DenseNet,GoogLeNetの4つのベースラインネットワークと比較し,GoogLeNetとDenseNetがResNetとVGGNetを大きく上回った。
- 参考スコア(独自算出の注目度): 3.3091074760783554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Skin cancer, the primary type of cancer that can be identified by visual
recognition, requires an automatic identification system that can accurately
classify different types of lesions. This paper presents GoogLe-Dense Network
(GDN), which is an image-classification model to identify two types of skin
cancer, Basal Cell Carcinoma, and Melanoma. GDN uses stacking of different
networks to enhance the model performance. Specifically, GDN consists of two
sequential levels in its structure. The first level performs basic
classification tasks accomplished by GoogLeNet and DenseNet, which are trained
in parallel to enhance efficiency. To avoid low accuracy and long training
time, the second level takes the output of the GoogLeNet and DenseNet as the
input for a logistic regression model. We compare our method with four baseline
networks including ResNet, VGGNet, DenseNet, and GoogLeNet on the dataset, in
which GoogLeNet and DenseNet significantly outperform ResNet and VGGNet. In the
second level, different stacking methods such as perceptron, logistic
regression, SVM, decision trees and K-neighbor are studied in which Logistic
Regression shows the best prediction result among all. The results prove that
GDN, compared to a single network structure, has higher accuracy in optimizing
skin cancer detection.
- Abstract(参考訳): 視覚的認識によって識別できる主要な種類のがんである皮膚がんは、異なる種類の病変を正確に分類できる自動識別システムを必要とする。
本稿では,皮膚癌,基底細胞癌,メラノーマの2種類の画像分類モデルであるGoogLe-Dense Network(GDN)について述べる。
GDNは様々なネットワークを積み重ねてモデル性能を向上させる。
具体的には、gdnはその構造における2つのシーケンシャルなレベルからなる。
最初のレベルはGoogLeNetとDenseNetによって達成された基本的な分類タスクを実行する。
低い精度と長いトレーニング時間を避けるため、第2レベルは、ロジスティック回帰モデルの入力として、GoogLeNetとDenseNetの出力を取る。
提案手法を,データセット上のResNet,VGGNet,DenseNet,GoogLeNetの4つのベースラインネットワークと比較し,GoogLeNetとDenseNetはResNetとVGGNetを大きく上回った。
第2段階では, パーセプトロン, ロジスティック回帰, svm, 決定木, k-neighbor などの異なるスタック法が検討され, ロジスティック回帰は, すべての中で最良の予測結果を示す。
その結果,GDNは単一ネットワーク構造に比べて皮膚がん検出の最適化において高い精度が得られた。
関連論文リスト
- Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - Benchmarking Deep Learning Frameworks for Automated Diagnosis of Ocular
Toxoplasmosis: A Comprehensive Approach to Classification and Segmentation [1.3701366534590498]
眼トキソプラズマ症(Ocular Toxoplasmosis,OT)は、眼疾患を引き起こすT. gondiiによって引き起こされる一般的な眼感染症である。
本研究は、DL技術を活用し、安価で自動化され、使いやすく、正確な診断方法を開発しようとしている将来の研究者のためのガイドを提供する。
論文 参考訳(メタデータ) (2023-05-18T13:42:15Z) - Application of Transfer Learning and Ensemble Learning in Image-level
Classification for Breast Histopathology [9.037868656840736]
CAD(Computer-Aided Diagnosis)では、従来の分類モデルでは、主に1つのネットワークを使って特徴を抽出する。
本稿では良性病変と悪性病変のバイナリ分類のための画像レベルラベルに基づく深層アンサンブルモデルを提案する。
結果: アンサンブルネットワークモデルにおいて、画像レベルのバイナリ分類は9,8.90%の精度を達成する。
論文 参考訳(メタデータ) (2022-04-18T13:31:53Z) - Stain Normalized Breast Histopathology Image Recognition using
Convolutional Neural Networks for Cancer Detection [9.826027427965354]
近年の進歩により、畳み込みニューラルネットワーク(CNN)アーキテクチャは乳がん検出のためのコンピュータ支援診断(CAD)システムの設計に利用できることが示されている。
乳腺病理像の2値分類のためのCNNモデルについて検討した。
我々は,200倍,400倍に拡大した病理像に対して,トレーニング済みのCNNネットワークを利用可能なBreaKHisデータセットで検証した。
論文 参考訳(メタデータ) (2022-01-04T03:09:40Z) - Implementing a foveal-pit inspired filter in a Spiking Convolutional
Neural Network: a preliminary study [0.0]
我々は,網膜卵管刺激によるガウスフィルタとランク順符号化の差異を取り入れたスポーキング畳み込みニューラルネットワーク(SCNN)を提示した。
このモデルは、Nengoライブラリーで実装されているように、スパイキングニューロンで動作するように適応されたバックプロパゲーションアルゴリズムの変種を用いて訓練される。
ネットワークは最大90%の精度で達成され、損失はクロスエントロピー関数を用いて計算される。
論文 参考訳(メタデータ) (2021-05-29T15:28:30Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - C-Net: A Reliable Convolutional Neural Network for Biomedical Image
Classification [6.85316573653194]
生体医用画像の分類を行うために,C-Netと呼ばれる複数のネットワークの結合からなる新しい畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
C-Netモデルは、両方のデータセットの個々のメトリクスにおける他のモデルよりも優れており、誤分類はゼロである。
論文 参考訳(メタデータ) (2020-10-30T20:03:20Z) - DONet: Dual Objective Networks for Skin Lesion Segmentation [77.9806410198298]
本稿では,皮膚病変のセグメンテーションを改善するために,Dual Objective Networks (DONet) という,シンプルで効果的なフレームワークを提案する。
我々のDONetは2つの対称デコーダを採用し、異なる目標に近づくための異なる予測を生成する。
皮膚内視鏡画像における多種多様な病変のスケールと形状の課題に対処するために,再帰的コンテキスト符号化モジュール(RCEM)を提案する。
論文 参考訳(メタデータ) (2020-08-19T06:02:46Z) - Pairwise Relation Learning for Semi-supervised Gland Segmentation [90.45303394358493]
病理組織像における腺分節に対するPRS2モデルを提案する。
このモデルはセグメンテーションネットワーク(S-Net)とペア関係ネットワーク(PR-Net)から構成される。
我々は,GlaSデータセットの最近の5つの手法とCRAGデータセットの最近の3つの手法を比較した。
論文 参考訳(メタデータ) (2020-08-06T15:02:38Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。