論文の概要: Equine radiograph classification using deep convolutional neural
networks
- arxiv url: http://arxiv.org/abs/2204.13857v1
- Date: Fri, 29 Apr 2022 03:04:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 03:21:48.773090
- Title: Equine radiograph classification using deep convolutional neural
networks
- Title(参考訳): 深部畳み込みニューラルネットワークを用いたEquine Radiograph分類
- Authors: Raniere Gaia Costa da Silva, Ambika Prasad Mishra, Christopher Riggs,
Michael Doube
- Abstract要約: 9504 等級のラジオグラフが6つのディープラーニングアーキテクチャの訓練、検証、試験に使用された。
深層畳み込みニューラルネットワークは、インポートされたラジオグラフを48の標準ビューに分類することができる。
- 参考スコア(独自算出の注目度): 0.32116198597240836
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: To assess the capability of deep convolutional neural networks to
classify anatomical location and projection from a series of 48 standard views
of racehorse limbs.
Materials and Methods: 9504 equine pre-import radiographs were used to train,
validate, and test six deep learning architectures available as part of the
open source machine learning framework PyTorch.
Results: ResNet-34 achieved a top-1 accuracy of 0.8408 and the majority (88%)
of misclassification was because of wrong laterality. Class activation maps
indicated that joint morphology drove the model decision.
Conclusion: Deep convolutional neural networks are capable of classifying
equine pre-import radiographs into the 48 standard views including moderate
discrimination of laterality independent of side marker presence.
- Abstract(参考訳): 目的: 深層畳み込みニューラルネットワークによる解剖学的位置と投射を48種類の競馬手足の標準的なビューから分類する能力を評価すること。
資料と方法:9504 equine pre-import radiographsは、オープンソースの機械学習フレームワークpytorchの一部として利用可能な6つのディープラーニングアーキテクチャのトレーニング、検証、テストに使用された。
結果: resnet-34 は 0.8408 のtop-1 精度を達成し,その大部分(88%) の誤分類が誤用された。
クラスアクティベーションマップは、ジョイント形態がモデル決定を促したことを示している。
結論: 深層畳み込みニューラルネットワークは,馬の事前輸入ラジオグラフを48の標準ビューに分類することができる。
関連論文リスト
- Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Explainable Convolutional Neural Networks for Retinal Fundus Classification and Cutting-Edge Segmentation Models for Retinal Blood Vessels from Fundus Images [0.0]
眼底画像における網膜血管の検査による早期診断の重要領域に焦点を当てた研究。
基礎画像解析の研究は,8つの事前学習CNNモデルを用いたディープラーニングに基づく分類を進歩させる。
本研究では,Grad-CAM,Grad-CAM++,Score-CAM,Faster Score-CAM,Layer CAMなどの説明可能なAI技術を利用する。
論文 参考訳(メタデータ) (2024-05-12T17:21:57Z) - An Efficient End-to-End Deep Neural Network for Interstitial Lung
Disease Recognition and Classification [0.5424799109837065]
本稿では、IDDパターンを分類するためのエンドツーエンドのディープ畳み込みニューラルネットワーク(CNN)を提案する。
提案モデルでは,カーネルサイズが異なる4つの畳み込み層と,Rectified Linear Unit (ReLU) アクティベーション機能を備える。
128のCTスキャンと5つのクラスからなる21328の画像パッチからなるデータセットを用いて、提案モデルのトレーニングと評価を行う。
論文 参考訳(メタデータ) (2022-04-21T06:36:10Z) - Osteoporosis Prescreening using Panoramic Radiographs through a Deep
Convolutional Neural Network with Attention Mechanism [65.70943212672023]
注意モジュールを持つディープ畳み込みニューラルネットワーク(CNN)はパノラマX線写真上で骨粗しょう症を検出することができる。
49歳から60歳までの70種類のパノラマX線写真(PR)のデータセットを用いて検討した。
論文 参考訳(メタデータ) (2021-10-19T00:03:57Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Involution: Inverting the Inherence of Convolution for Visual
Recognition [72.88582255910835]
本稿では,畳み込みの原理を逆転させることにより,深層ニューラルネットワークの新たな原子操作を提案する。
提案する畳み込み演算子は、視覚認識のための新しい世代のニューラルネットワークを構築するための基本ブロックとして利用することができる。
当社のInvolutionベースのモデルは、ResNet-50を使用した畳み込みベースラインのパフォーマンスを最大1.6%の精度、2.5%と2.4%のバウンディングボックスAP、4.7%は絶対にIoUを意味します。
論文 参考訳(メタデータ) (2021-03-10T18:40:46Z) - Chest x-ray automated triage: a semiologic approach designed for
clinical implementation, exploiting different types of labels through a
combination of four Deep Learning architectures [83.48996461770017]
本研究では,異なる畳み込みアーキテクチャの後期融合に基づく深層学習手法を提案する。
公開胸部x線画像と機関アーカイブを組み合わせたトレーニングデータセットを4つ構築した。
4つの異なるディープラーニングアーキテクチャをトレーニングし、それらのアウトプットとレイトフュージョン戦略を組み合わせることで、統一されたツールを得ました。
論文 参考訳(メタデータ) (2020-12-23T14:38:35Z) - Evaluation of Big Data based CNN Models in Classification of Skin
Lesions with Melanoma [7.919213739992465]
このアーキテクチャは、畳み込み型ニューラルネットワークに基づいており、新しいCNNモデルを用いて評価され、既存のCNNモデルの再訓練が行われた。
最高の性能は、修正版のResNet-50畳み込みニューラルネットワークを93.89%の精度で再訓練することで達成された。
論文 参考訳(メタデータ) (2020-07-10T15:39:32Z) - The efficiency of deep learning algorithms for detecting anatomical
reference points on radiological images of the head profile [55.41644538483948]
U-Netニューラルネットワークは、完全な畳み込みニューラルネットワークよりも正確に解剖学的基準点の検出を可能にする。
U-Net ニューラルネットワークによる解剖学的基準点検出の結果は,歯科矯正医のグループによる基準点検出の平均値に近づいた。
論文 参考訳(メタデータ) (2020-05-25T13:51:03Z) - Automated Segmentation of Vertebrae on Lateral Chest Radiography Using
Deep Learning [0.19116784879310023]
本研究の目的は,深層学習を用いた胸部X線撮影における椎体分割の自動アルゴリズムの開発である。
U-Netディープ畳み込みニューラルネットワークをセグメント化に利用し、損失関数としてダイス係数と二元交叉エントロピーの和を用いた。
テストセットでは、平均サイス係数は90.5、平均交叉結合(IoU)は81.75であった。
論文 参考訳(メタデータ) (2020-01-05T17:35:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。