論文の概要: How many radiographs are needed to re-train a deep learning system for
object detection?
- arxiv url: http://arxiv.org/abs/2210.08734v1
- Date: Mon, 17 Oct 2022 04:02:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 21:08:20.002084
- Title: How many radiographs are needed to re-train a deep learning system for
object detection?
- Title(参考訳): 物体検出のための深層学習システムを再訓練するには,何個の放射線写真が必要か?
- Authors: Raniere Silva, Khizar Hayat, Christopher M Riggs, Michael Doube
- Abstract要約: 手根骨の近位列,手根骨の遠位列,副手根骨,第1手根骨,現在,中手根骨(中手根II,III,IV)の位置を呈し,手根側斜め(DMPLO)投射に左右手根背75の396個のX線像を注視した。
96個のX線写真またはそれ以上の精度で訓練されたモデルでは、最初の手根骨を含む0.95以上の精度、リコール、およびmAPが32エポックで訓練された。
最高のモデルでは、他の骨と比較して最初の手根骨を検出するために、エポックの2倍のエポックを必要とした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background: Object detection in radiograph computer vision has largely
benefited from progress in deep convolutional neural networks and can, for
example, annotate a radiograph with a box around a knee joint or intervertebral
disc. Is deep learning capable of detect small (less than 1% of the image) in
radiographs? And how many radiographs do we need use when re-training a deep
learning model?
Methods: We annotated 396 radiographs of left and right carpi dorsal 75
medial to palmarolateral oblique (DMPLO) projection with the location of
radius, proximal row of carpal bones, distal row of carpal bones, accessory
carpal bone, first carpal bone (if present), and metacarpus (metacarpal II,
III, and IV). The radiographs and respective annotations were splited into sets
that were used to leave-one-out cross-validation of models created using
transfer learn from YOLOv5s.
Results: Models trained using 96 radiographs or more achieved precision,
recall and mAP above 0.95, including for the first carpal bone, when trained
for 32 epochs. The best model needed the double of epochs to learn to detect
the first carpal bone compared with the other bones.
Conclusions: Free and open source state of the art object detection models
based on deep learning can be re-trained for radiograph computer vision
applications with 100 radiographs and achieved precision, recall and mAP above
0.95.
- Abstract(参考訳): 背景: コンピュータビジョンにおける物体検出は、深層畳み込みニューラルネットワークの進歩の恩恵を受けており、例えば、膝関節または椎間板の周りに箱を付けてラジオグラフに注釈を付けることができる。
深層学習は、画像の1%未満の)小さな画像を検出することができるか?
深層学習モデルの再トレーニングには、どのくらいのラジオグラフが必要か?
方法】手根骨の近位列,手根骨の遠位列,副手根骨,第1手根骨(現在),中手根骨(中手根II,III,IV)と,左右手根骨75の396個のX線像を左右手根骨の近位側斜視(DMPLO)投射に注記した。
ラジオグラフィーとアノテーションは、YOLOv5sから移行学習を用いて作成したモデルのクロスバリデーションを1対1で残すために使用されるセットに分割された。
結果: 96ラジオグラフ以上の精度で訓練されたモデルでは, 初回手根骨を含む0.95以上をリコール, マップし, 32エポックのトレーニングを行った。
最良のモデルは、他の骨と比較して最初の手根骨を検出するために2倍のエポックを必要とした。
結論: ディープラーニングに基づくアートオブジェクト検出モデルのフリーかつオープンソースな状態は、100のラジオグラフによるコンピュータビジョンアプリケーションで再訓練することができ、精度、リコール、マップが0.95を超える。
関連論文リスト
- Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Self-supervised vision-langage alignment of deep learning representations for bone X-rays analysis [53.809054774037214]
本稿では, 骨X線とフレンチレポートを組み合わせることで, 視覚言語による事前訓練を活用することを提案する。
骨X線表現にまつわる埋め込み空間を形成するために、フランスの報告を統合する最初の研究である。
論文 参考訳(メタデータ) (2024-05-14T19:53:20Z) - Interpretation of Chest x-rays affected by bullets using deep transfer
learning [0.8189696720657246]
放射線学における深層学習は、異なる疾患を分類し、検出し、分類する機会を提供する。
提案した研究では,X線を銃弾の影響を受け,局所的に分類する医療画像の非自明な側面について検討した。
深層学習を用いた弾による放射線画像の検出と分類に関する最初の研究である。
論文 参考訳(メタデータ) (2022-03-25T05:53:45Z) - Osteoporosis Prescreening using Panoramic Radiographs through a Deep
Convolutional Neural Network with Attention Mechanism [65.70943212672023]
注意モジュールを持つディープ畳み込みニューラルネットワーク(CNN)はパノラマX線写真上で骨粗しょう症を検出することができる。
49歳から60歳までの70種類のパノラマX線写真(PR)のデータセットを用いて検討した。
論文 参考訳(メタデータ) (2021-10-19T00:03:57Z) - Development of the algorithm for differentiating bone metastases and
trauma of the ribs in bone scintigraphy and demonstration of visual evidence
of the algorithm -- Using only anterior bone scan view of thorax [0.0]
骨シンチグラフィーの胸骨前部像のみを用いて骨転移と外傷のリブの蓄積を判定するAIモデルの報告はない。
胸骨前部CT像のみを用いて骨転移・外傷と診断し,診断するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-09-30T23:55:31Z) - XraySyn: Realistic View Synthesis From a Single Radiograph Through CT
Priors [118.27130593216096]
放射線写真は、X線を用いて患者の内部解剖を視覚化し、3D情報を2次元平面に投影する。
私たちの知る限りでは、ラジオグラフィビューの合成に関する最初の研究である。
本手法は,3次元空間におけるX線撮影の理解を得ることにより,地中骨ラベルを使わずに,X線撮影による骨抽出と骨抑制に応用できることが示唆された。
論文 参考訳(メタデータ) (2020-12-04T05:08:53Z) - Pose-dependent weights and Domain Randomization for fully automatic
X-ray to CT Registration [51.280096834264256]
完全自動X線CT登録は、既存の強度ベース登録の範囲内での最初のアライメントを必要とする。
この作業は、エンドツーエンドの登録を可能にする新しい自動初期化を提供する。
ミリメートルにおける平均(+標準偏差)ターゲット登録誤差は、成功率92%の模擬X線に対して4.1 +- 4.3、成功率86.8%の実X線に対して4.2 +- 3.9であり、成功率は30mm未満の翻訳誤差と定義される。
論文 参考訳(メタデータ) (2020-11-14T12:50:32Z) - Joint Modeling of Chest Radiographs and Radiology Reports for Pulmonary
Edema Assessment [39.60171837961607]
我々は,胸部X線写真から肺浮腫の重症度を評価するために,画像と自由テキストの両方で訓練されたニューラルネットワークモデルを開発した。
実験結果から,共同画像・テキスト表現学習は肺浮腫評価の性能を向上させることが示唆された。
論文 参考訳(メタデータ) (2020-08-22T17:28:39Z) - Evaluation of Contemporary Convolutional Neural Network Architectures
for Detecting COVID-19 from Chest Radiographs [0.0]
胸部X線写真解析のための3つのモデルアーキテクチャを,様々な条件下で訓練し,評価した。
本稿では,現代の研究によって提案された印象的なモデル性能を低下させる問題を見いだす。
論文 参考訳(メタデータ) (2020-06-30T15:22:39Z) - Radioactive data: tracing through training [130.2266320167683]
本稿では,このデータセットに認識不能な変化を生じさせる新しい手法であるEmphradioactive dataを提案する。
訓練されたモデルにより, 放射能データの利用を検知し, 信頼度(p-値)のレベルを提供する。
提案手法はディープネットワーク最適化におけるデータ拡張とバックドア性に対して堅牢である。
論文 参考訳(メタデータ) (2020-02-03T18:41:08Z) - Estimating and abstracting the 3D structure of bones using neural
networks on X-ray (2D) images [0.0]
骨の3次元構造を2次元X線画像から推定する深層学習法を提案する。
我々の予測では, 平均根平均平方(RMS)距離が1.08mmであり, 他の8つの3次元骨再建法により得られた平均誤差よりも精度が高い。
論文 参考訳(メタデータ) (2020-01-16T20:41:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。