論文の概要: Self-supervised Representation Learning for Ultrasound Video
- arxiv url: http://arxiv.org/abs/2003.00105v1
- Date: Fri, 28 Feb 2020 23:00:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 02:03:19.558247
- Title: Self-supervised Representation Learning for Ultrasound Video
- Title(参考訳): 超音波映像の自己教師型表現学習
- Authors: Jianbo Jiao, Richard Droste, Lior Drukker, Aris T. Papageorghiou, J.
Alison Noble
- Abstract要約: 本稿では,医用画像から有意義かつ伝達可能な表現を学習するための自己教師型学習手法を提案する。
我々は、データ自体から自由に監視することで、解剖学的タスクに対処するようモデルに強制する。
胎児超音波ビデオ実験により,提案手法が有意義で強い表現を効果的に学習できることが示唆された。
- 参考スコア(独自算出の注目度): 18.515314344284445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in deep learning have achieved promising performance for
medical image analysis, while in most cases ground-truth annotations from human
experts are necessary to train the deep model. In practice, such annotations
are expensive to collect and can be scarce for medical imaging applications.
Therefore, there is significant interest in learning representations from
unlabelled raw data. In this paper, we propose a self-supervised learning
approach to learn meaningful and transferable representations from medical
imaging video without any type of human annotation. We assume that in order to
learn such a representation, the model should identify anatomical structures
from the unlabelled data. Therefore we force the model to address anatomy-aware
tasks with free supervision from the data itself. Specifically, the model is
designed to correct the order of a reshuffled video clip and at the same time
predict the geometric transformation applied to the video clip. Experiments on
fetal ultrasound video show that the proposed approach can effectively learn
meaningful and strong representations, which transfer well to downstream tasks
like standard plane detection and saliency prediction.
- Abstract(参考訳): 近年の深層学習の進歩は,医用画像解析において有望な性能を達成している。
実際には、このようなアノテーションは収集に高価であり、医用画像の応用には不十分である。
したがって、ラベルのない生データからの学習表現には大きな関心がある。
本稿では,人間のアノテーションを使わずに医用画像から有意義かつ伝達可能な表現を学習するための自己教師型学習手法を提案する。
このような表現を学ぶためには、モデルはラベルのないデータから解剖学的構造を識別する必要があると仮定する。
そこで,本研究では,データ自体から自由な監視を伴って,解剖学的タスクに対処するようモデルに強制する。
具体的には、リシャッフルされたビデオクリップの順序を補正し、同時にビデオクリップに適用される幾何学的変換を予測するように設計されている。
胎児超音波ビデオによる実験では,提案手法が有意義かつ強い表現を効果的に学習し,標準平面検出や塩分予測などの下流課題にうまく移行できることが示されている。
関連論文リスト
- Rapid Training Data Creation by Synthesizing Medical Images for
Classification and Localization [10.506584969668792]
本稿では,この問題を解決するために,任意のディープニューラルネットワークをトレーニングするための実データ変換手法を提案する。
弱教師付きモデルでは,生成したデータを用いて局所化精度が著しく向上することを示す。
後者のモデルでは、生成した画像でトレーニングされた精度は、完全に注釈付けされた実画像でトレーニングされた精度と密接に一致している。
論文 参考訳(メタデータ) (2023-08-09T03:49:12Z) - How Would The Viewer Feel? Estimating Wellbeing From Video Scenarios [73.24092762346095]
情緒応答と主観的幸福感に注釈を付けた6万本以上のビデオを備えた大規模データセットを2つ導入した。
Video Cognitive Empathyデータセットには、微粒な感情応答の分布のためのアノテーションが含まれており、モデルが感情状態の詳細な理解を得ることができる。
Video to Valenceデータセットには、ビデオ間の相対的な快適性のアノテーションが含まれている。
論文 参考訳(メタデータ) (2022-10-18T17:58:25Z) - Segmentation of kidney stones in endoscopic video feeds [2.572404739180802]
生のビデオからデータセットを構築する方法と、可能な限り多くのプロセスを自動化するパイプラインを開発する方法について説明します。
また, リアルタイム使用の可能性を示すため, 最適なトレーニングモデルにより, 毎秒30フレームの動画を正確にアノテートできることを確認した。
論文 参考訳(メタデータ) (2022-04-29T16:00:52Z) - Visual Distant Supervision for Scene Graph Generation [66.10579690929623]
シーングラフモデルは通常、大量のラベル付きデータを人間のアノテーションで教師付き学習する必要がある。
本研究では,人間ラベルデータを用いずにシーングラフモデルを訓練できる視覚関係学習の新しいパラダイムである視覚遠方監視を提案する。
包括的な実験結果から、我々の遠隔監視モデルは、弱い監督と半監督のベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-03-29T06:35:24Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Self-supervised Contrastive Video-Speech Representation Learning for
Ultrasound [15.517484333872277]
医用画像では、手動のアノテーションは入手するのに高価であり、アクセスできないこともある。
本稿では,マルチモーダル超音波ビデオ音声生データを用いた自己教師型表現学習の課題に対処する。
論文 参考訳(メタデータ) (2020-08-14T23:58:23Z) - Self-Supervised Representation Learning for Detection of ACL Tear Injury
in Knee MR Videos [18.54362818156725]
本稿では,MRビデオクリップから伝達可能な特徴を学習するための自己教師付き学習手法を提案する。
我々の知る限りでは、MRビデオから損傷分類タスクを実行する教師付き学習モデルには、モデルによる決定についての説明がない。
論文 参考訳(メタデータ) (2020-07-15T15:35:47Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z) - Self-Supervised Human Depth Estimation from Monocular Videos [99.39414134919117]
人間の深度を推定する従来の方法は、しばしば地上の真実の深度データを用いた教師あり訓練を必要とする。
本稿では,YouTubeビデオの奥行きを知ることなく,自己指導型手法を提案する。
実験により,本手法はより一般化され,野生のデータに対してより優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-05-07T09:45:11Z) - Confident Coreset for Active Learning in Medical Image Analysis [57.436224561482966]
本稿では,情報的サンプルを効果的に選択するための,不確実性と分散性を考慮した新しい能動的学習手法である信頼コアセットを提案する。
2つの医用画像解析タスクの比較実験により,本手法が他の活動的学習方法より優れていることを示す。
論文 参考訳(メタデータ) (2020-04-05T13:46:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。