論文の概要: Weakly Supervised Contrastive Learning for Better Severity Scoring of
Lung Ultrasound
- arxiv url: http://arxiv.org/abs/2201.07357v1
- Date: Tue, 18 Jan 2022 23:45:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-20 13:59:24.067346
- Title: Weakly Supervised Contrastive Learning for Better Severity Scoring of
Lung Ultrasound
- Title(参考訳): 超音波の重症度向上のための弱教師付きコントラスト学習
- Authors: Gautam Rajendrakumar Gare, Hai V. Tran, Bennett P deBoisblanc, Ricardo
Luis Rodriguez, John Michael Galeotti
- Abstract要約: 超音波スキャンの外観を評価することに依存する、いくつかのAIベースの患者重症度評価モデルが提案されている。
ビデオクリップ中の全ての超音波フレームにラベルを付けるという課題に対処する。
比較学習法では,ビデオクリップの重大度ラベルを,個々のフレームに対して弱い重大度ラベルとして扱う。
従来のクロスエントロピー損失に基づくトレーニングよりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 0.044364554283083675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the onset of the COVID-19 pandemic, ultrasound has emerged as an
effective tool for bedside monitoring of patients. Due to this, a large amount
of lung ultrasound scans have been made available which can be used for AI
based diagnosis and analysis. Several AI-based patient severity scoring models
have been proposed that rely on scoring the appearance of the ultrasound scans.
AI models are trained using ultrasound-appearance severity scores that are
manually labeled based on standardized visual features. We address the
challenge of labeling every ultrasound frame in the video clips. Our
contrastive learning method treats the video clip severity labels as noisy weak
severity labels for individual frames, thus requiring only video-level labels.
We show that it performs better than the conventional cross-entropy loss based
training. We combine frame severity predictions to come up with video severity
predictions and show that the frame based model achieves comparable performance
to a video based TSM model, on a large dataset combining public and private
sources.
- Abstract(参考訳): 新型コロナウイルス(COVID-19)の感染拡大に伴い、超音波は患者のベッドサイドモニタリングに有効なツールとして登場した。
これにより、AIに基づく診断と分析に使用できる大量の肺超音波スキャンが利用可能になった。
超音波スキャンの出現をスコアリングするaiベースの重症度スコアリングモデルがいくつか提案されている。
AIモデルは、標準化された視覚的特徴に基づいて手動でラベル付けされる超音波出現度スコアを使用して訓練される。
ビデオクリップ中の全ての超音波フレームにラベルをつけるという課題に対処する。
比較学習法では,ビデオクリップの重大度ラベルを個々のフレームに対して弱い重大度ラベルとして扱う。
従来のクロスエントロピー損失に基づくトレーニングよりも優れた性能を示す。
フレーム重大度予測とフレーム重大度予測を組み合わせることで、フレームベースモデルがビデオベースTSMモデルに匹敵する性能を、パブリックソースとプライベートソースを組み合わせた大規模なデータセット上で達成することを示す。
関連論文リスト
- Privacy-Preserving Federated Foundation Model for Generalist Ultrasound Artificial Intelligence [83.02106623401885]
プライバシー保護型超音波基礎モデルであるUltraFedFMを提案する。
UltraFedFMは、9か国の16の分散医療機関にわたる連合学習を用いて、協調的に事前訓練されている。
疾患診断には0.927のレシーバ動作特性曲線、病変セグメント化には0.878のサイス類似係数を平均的に達成する。
論文 参考訳(メタデータ) (2024-11-25T13:40:11Z) - Intra-video Positive Pairs in Self-Supervised Learning for Ultrasound [65.23740556896654]
自己教師付き学習 (SSL) は, 医療画像におけるラベル付きデータの健全性に対処するための戦略である。
本研究では,同じBモード超音波映像をSSLのペアとして用いた近位画像の利用効果について検討した。
この手法は、従来の超音波特異的比較学習法の平均検査精度を新型コロナウイルスの分類で上回り、IVPP(Intra-Video Positive Pairs)と命名された。
論文 参考訳(メタデータ) (2024-03-12T14:57:57Z) - Feature-Conditioned Cascaded Video Diffusion Models for Precise
Echocardiogram Synthesis [5.102090025931326]
我々は、ビデオモデリングのための解明された拡散モデルを拡張し、単一の画像から可視なビデオシーケンスを生成する。
我々の画像からシーケンスへのアプローチは、最近提案されたシーケンスからシーケンス生成手法よりも38ポイント高い93%のR2$スコアを達成する。
論文 参考訳(メタデータ) (2023-03-22T15:26:22Z) - Adnexal Mass Segmentation with Ultrasound Data Synthesis [3.614586930645965]
教師付き学習を用いて, 副眼窩腫瘤の分節が可能であることを実証した。
そこで我々は, 新たな病理特異的データ合成装置を応用し, その基礎的真理セグメンテーションを生かした医用画像を作成する。
提案手法は,nU-Netベースラインアプローチと比較して最大8%向上するなど,すべてのクラスで最高のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-09-25T19:24:02Z) - Pseudo-label Guided Cross-video Pixel Contrast for Robotic Surgical
Scene Segmentation with Limited Annotations [72.15956198507281]
シーンセグメンテーションを促進するために,新しい擬似ラベル付きクロスビデオコントラスト学習法であるPGV-CLを提案する。
本研究では,ロボット外科手術データセットEndoVis18と白内障手術データセットCaDISについて検討した。
論文 参考訳(メタデータ) (2022-07-20T05:42:19Z) - SVTS: Scalable Video-to-Speech Synthesis [105.29009019733803]
本稿では,ビデオ・トゥ・スペクトログラム予測器と事前学習したニューラルボコーダの2つのコンポーネントからなるスケーラブルなビデオ音声合成フレームワークを提案する。
私たちは、挑戦的なLSS3データセットで不可解な結果を示す最初の人です。
論文 参考訳(メタデータ) (2022-05-04T13:34:07Z) - Voice-assisted Image Labelling for Endoscopic Ultrasound Classification
using Neural Networks [48.732863591145964]
本稿では,臨床医が提示した生音声からのEUS画像にラベルを付けるマルチモーダル畳み込みニューラルネットワークアーキテクチャを提案する。
その結果,5つのラベルを持つデータセットにおいて,画像レベルでの予測精度は76%であった。
論文 参考訳(メタデータ) (2021-10-12T21:22:24Z) - Unsupervised multi-latent space reinforcement learning framework for
video summarization in ultrasound imaging [0.0]
新型コロナウイルス(COVID-19)のパンデミックは、超音波スキャンのトリアージを高速化するツールの必要性を強調している。
提案手法は,この方向への一歩である。
そこで我々は,新しい報酬を伴う教師なし強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-03T04:50:35Z) - Self-supervised Contrastive Video-Speech Representation Learning for
Ultrasound [15.517484333872277]
医用画像では、手動のアノテーションは入手するのに高価であり、アクセスできないこともある。
本稿では,マルチモーダル超音波ビデオ音声生データを用いた自己教師型表現学習の課題に対処する。
論文 参考訳(メタデータ) (2020-08-14T23:58:23Z) - Self-Training with Improved Regularization for Sample-Efficient Chest
X-Ray Classification [80.00316465793702]
挑戦的なシナリオで堅牢なモデリングを可能にするディープラーニングフレームワークを提案する。
その結果,85%のラベル付きデータを用いて,大規模データ設定で学習した分類器の性能に適合する予測モデルを構築することができた。
論文 参考訳(メタデータ) (2020-05-03T02:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。