論文の概要: The Open Kidney Ultrasound Data Set
- arxiv url: http://arxiv.org/abs/2206.06657v1
- Date: Tue, 14 Jun 2022 07:49:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-15 14:04:35.835807
- Title: The Open Kidney Ultrasound Data Set
- Title(参考訳): 開腎臓超音波データセット
- Authors: Rohit Singla, Cailin Ringstrom, Grace Hu, Victoria Lessoway, Janice
Reid, Christopher Nguan, Robert Rohling
- Abstract要約: 提案されているOpen Kidney Ultrasound Data Setは、腎臓Bモード超音波データの最初の公開セットである。
平均年齢53.2歳/-14.7歳以上の500人以上の患者から5年間に遡って収集されたデータに基づく。
このビューのラベルと2人の専門的なソノグラフィーによる細かい手書きの注釈がある。
- 参考スコア(独自算出の注目度): 2.5571079797365965
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Ultrasound use is because of its low cost, non-ionizing, and non-invasive
characteristics, and has established itself as a cornerstone radiological
examination. Research on ultrasound applications has also expanded, especially
with image analysis with machine learning. However, ultrasound data are
frequently restricted to closed data sets, with only a few openly available.
Despite being a frequently examined organ, the kidney lacks a publicly
available ultrasonography data set. The proposed Open Kidney Ultrasound Data
Set is the first publicly available set of kidney B-mode ultrasound data that
includes annotations for multi-class semantic segmentation. It is based on data
retrospectively collected in a 5-year period from over 500 patients with a mean
age of 53.2 +/- 14.7 years, body mass index of 27.0 +/- 5.4 kg/m2, and most
common primary diseases being diabetes mellitus, IgA nephropathy, and
hypertension. There are labels for the view and fine-grained manual annotations
from two expert sonographers. Notably, this data includes native and
transplanted kidneys. Initial benchmarking measurements are performed,
demonstrating a state-of-the-art algorithm achieving a Dice Sorenson
Coefficient of 0.74 for the kidney capsule. This data set is a high-quality
data set, including two sets of expert annotations, with a larger breadth of
images than previously available. In increasing access to kidney ultrasound
data, future researchers may be able to create novel image analysis techniques
for tissue characterization, disease detection, and prognostication.
- Abstract(参考訳): 超音波の使用は、低コスト、非イオン化、非侵襲的特徴のためであり、地層放射線検査として確立されている。
超音波応用の研究も、特に機械学習を用いた画像解析で拡大している。
しかし、超音波データはしばしば閉じたデータセットに制限されており、公開されているものはほとんどない。
頻繁に検査される臓器であるにもかかわらず、腎臓は一般に利用可能な超音波データセットを欠いている。
提案する開腎臓超音波データセットは、多クラスセマンティックセグメンテーションのためのアノテーションを含む、腎臓bモード超音波データの最初の一般公開セットである。
平均年齢53.2 +/-14.7歳、体重27.0 +/- 5.4 kg/m2、糖尿病、IgA腎症、高血圧の5年間に遡って収集されたデータに基づく。
2人の専門的なソノグラフィーによる詳細な手書きの注釈とビューのラベルがある。
このデータには腎臓と移植腎臓が含まれています。
初期ベンチマーク測定を行い、腎臓カプセルのディス・ソレンソン係数 0.74 を達成する最先端アルゴリズムを示す。
このデータセットは高品質なデータセットで、2セットのエキスパートアノテーションを含み、これまでより広い範囲のイメージを持つ。
腎臓超音波データへのアクセスの増加に伴い、将来の研究者は、組織の特徴、疾患検出、予後の新たな画像解析技術を作成することができるかもしれない。
関連論文リスト
- CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - FUSC: Fetal Ultrasound Semantic Clustering of Second Trimester Scans
Using Deep Self-supervised Learning [1.0819408603463427]
毎年1億4000万人以上の胎児が生まれ、多くのスキャンが行われる。
大量の胎児超音波スキャンが利用可能であることは、堅牢な機械学習モデルをトレーニングする機会を提供する。
本研究では,超音波画像の自動クラスタリングのための教師なしアプローチを提案する。
論文 参考訳(メタデータ) (2023-10-19T09:11:23Z) - Towards Realistic Ultrasound Fetal Brain Imaging Synthesis [0.7315240103690552]
臨床データ不足、患者のプライバシ、一般的には異常の稀な発生、データ収集と検証の専門家の限られたため、一般の超音波胎児画像データセットはほとんどない。
このようなデータ不足に対処するため、私たちは1つのパブリックデータセットから胎児の超音波脳面の画像を生成するために、GAN(Generative Adversarial Network)ベースのモデル、拡散超解像-GANとトランスフォーマーベース-GANを提案した。
論文 参考訳(メタデータ) (2023-04-08T07:07:20Z) - Self-Supervised Learning with Limited Labeled Data for Prostate Cancer
Detection in High Frequency Ultrasound [7.387029659056081]
非癌組織から癌を分類するために,マイクロ超音波データに自己教師あり表現学習を適用した。
我々の知る限りでは、超音波データを用いた前立腺がん検出のためのエンドツーエンドの自己教師付き学習アプローチとして、これが初めて成功した。
論文 参考訳(メタデータ) (2022-11-01T15:28:15Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - OdontoAI: A human-in-the-loop labeled data set and an online platform to
boost research on dental panoramic radiographs [53.67409169790872]
本研究では, 歯科用パノラマX線画像の公開データセットの構築について述べる。
我々はHuman-in-the-loop(HITL)の概念の恩恵を受け、ラベリング手順を高速化する。
その結果,HITLによるラベル付け時間短縮率は51%であり,連続作業時間390時間以上節約できた。
論文 参考訳(メタデータ) (2022-03-29T18:57:23Z) - Pseudo-domains in imaging data improve prediction of future disease
status in multi-center studies [57.712855968194305]
本研究では,多数の異なるスキャンサイトと,各サイト毎のサンプル数に対処可能な予測手法を提案する。
以上の結果より,初診後48週,12週間の肝疾患経過観察の結果から,聴力低下の予測精度が向上した。
論文 参考訳(メタデータ) (2021-11-15T09:40:54Z) - Voice-assisted Image Labelling for Endoscopic Ultrasound Classification
using Neural Networks [48.732863591145964]
本稿では,臨床医が提示した生音声からのEUS画像にラベルを付けるマルチモーダル畳み込みニューラルネットワークアーキテクチャを提案する。
その結果,5つのラベルを持つデータセットにおいて,画像レベルでの予測精度は76%であった。
論文 参考訳(メタデータ) (2021-10-12T21:22:24Z) - Diabetic Retinopathy Detection using Ensemble Machine Learning [1.2891210250935146]
糖尿病網膜症(Drebetic Retinopathy, DR)は、糖尿病患者の視覚障害の原因となる疾患である。
DRは、網膜に影響を及ぼす微小血管疾患であり、血管の閉塞を引き起こし、網膜組織の主要な栄養源を切断する。
論文 参考訳(メタデータ) (2021-06-22T17:36:08Z) - Ultrasound Image Classification using ACGAN with Small Training Dataset [0.0]
ディープラーニングモデルのトレーニングには大きなラベル付きデータセットが必要であるが、超音波画像では利用できないことが多い。
我々は、大規模データ拡張と転送学習の利点を組み合わせた、ジェネレーティブ・アドバイサル・ネットワーク(ACGAN)を利用する。
乳房超音波画像のデータセットを用いて,提案手法の有効性を示す実験を行った。
論文 参考訳(メタデータ) (2021-01-31T11:11:24Z) - Hybrid Attention for Automatic Segmentation of Whole Fetal Head in
Prenatal Ultrasound Volumes [52.53375964591765]
胎児の頭部全体を米国全巻に分割する,最初の完全自動化ソリューションを提案する。
セグメント化タスクは、まずエンコーダ-デコーダディープアーキテクチャの下で、エンドツーエンドのボリュームマッピングとして定式化される。
次に,セグメンタとハイブリットアテンションスキーム(HAS)を組み合わせることで,識別的特徴を選択し,非情報量的特徴を抑える。
論文 参考訳(メタデータ) (2020-04-28T14:43:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。