論文の概要: On-the-Fly Point Annotation for Fast Medical Video Labeling
- arxiv url: http://arxiv.org/abs/2404.14344v1
- Date: Mon, 22 Apr 2024 16:59:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-23 13:17:55.172012
- Title: On-the-Fly Point Annotation for Fast Medical Video Labeling
- Title(参考訳): 高速ビデオラベリングのためのオンザフライポイントアノテーション
- Authors: Meyer Adrien, Mazellier Jean-Paul, Jeremy Dana, Nicolas Padoy,
- Abstract要約: 医学研究において、ディープラーニングモデルは高品質な注釈付きデータに依存している。
2つのコーナーを調整する必要があるため、プロセスは本質的にフレーム単位で行われる。
そこで本研究では,ライブビデオアノテーションのオンザフライ方式を提案し,アノテーションの効率を向上させる。
- 参考スコア(独自算出の注目度): 1.890063512530524
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Purpose: In medical research, deep learning models rely on high-quality annotated data, a process often laborious and timeconsuming. This is particularly true for detection tasks where bounding box annotations are required. The need to adjust two corners makes the process inherently frame-by-frame. Given the scarcity of experts' time, efficient annotation methods suitable for clinicians are needed. Methods: We propose an on-the-fly method for live video annotation to enhance the annotation efficiency. In this approach, a continuous single-point annotation is maintained by keeping the cursor on the object in a live video, mitigating the need for tedious pausing and repetitive navigation inherent in traditional annotation methods. This novel annotation paradigm inherits the point annotation's ability to generate pseudo-labels using a point-to-box teacher model. We empirically evaluate this approach by developing a dataset and comparing on-the-fly annotation time against traditional annotation method. Results: Using our method, annotation speed was 3.2x faster than the traditional annotation technique. We achieved a mean improvement of 6.51 +- 0.98 AP@50 over conventional method at equivalent annotation budgets on the developed dataset. Conclusion: Without bells and whistles, our approach offers a significant speed-up in annotation tasks. It can be easily implemented on any annotation platform to accelerate the integration of deep learning in video-based medical research.
- Abstract(参考訳): 目的: 医学研究において、ディープラーニングモデルは高品質な注釈付きデータに依存している。
これは、バウンディングボックスアノテーションが必要なタスクを検出するために特に当てはまります。
2つのコーナーを調整する必要があるため、プロセスは本質的にフレーム単位で行われる。
専門家の時間不足を考えると、臨床医に適した効果的なアノテーション手法が必要である。
方法: アノテーション効率を向上させるために, ライブビデオアノテーションのオンザフライ方式を提案する。
このアプローチでは、オブジェクトのカーソルをライブビデオに保持し、従来のアノテーションメソッドに固有の退屈な一時停止と反復的なナビゲーションの必要性を軽減することで、連続的な単一ポイントアノテーションが維持される。
この新しいアノテーションパラダイムは、ポイントツーボックスの教師モデルを用いて擬似ラベルを生成するポイントアノテーションの能力を継承する。
提案手法は,データセットの開発とオンザフライアノテーション時間の比較により,従来のアノテーション手法と比較することによって実証的に評価する。
結果: 従来のアノテーション手法よりも3.2倍高速であった。
我々は、従来の手法よりも6.51+-0.98 AP@50の平均的な改善を、開発したデータセットで同等のアノテーション予算で達成した。
結論: ベルとホイッスルがなければ、私たちのアプローチはアノテーションタスクの大幅なスピードアップを提供します。
ビデオベースの医学研究におけるディープラーニングの統合を加速するために、どんなアノテーションプラットフォームでも容易に実装できる。
関連論文リスト
- Learning Tracking Representations from Single Point Annotations [49.47550029470299]
本稿では,単一点アノテーションから追跡表現を弱教師付きで学習することを提案する。
具体的には,エンド・ツー・エンド・エンド・コントラスト学習に先立って,対象対象対象性を取り入れたソフトコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-15T06:50:58Z) - How to Efficiently Annotate Images for Best-Performing Deep Learning
Based Segmentation Models: An Empirical Study with Weak and Noisy Annotations
and Segment Anything Model [18.293057751504122]
ディープニューラルネットワーク(DNN)は多くのイメージセグメンテーションタスクにデプロイされ、優れたパフォーマンスを実現している。
セグメンテーションをトレーニングするためのデータセットを作成するのは面倒で費用がかかる。
この問題を緩和するためには、バウンディングボックスやスクリブルのような弱いラベルのみを提供するか、オブジェクトのより正確な(ノイズの多い)アノテーションを提供することができる。
論文 参考訳(メタデータ) (2023-12-17T04:26:42Z) - Accelerated Video Annotation driven by Deep Detector and Tracker [12.640283469603355]
ビデオに物体の真実を注釈付けることは、ロボットの知覚と機械学習におけるいくつかの下流タスクにとって不可欠である。
動画中の各画像フレーム上の移動物体の注釈付きインスタンスの精度は極めて重要である。
本稿では,学習ベース検出器と学習ベーストラッカーを組み合わせたアノテーション手法を提案する。
論文 参考訳(メタデータ) (2023-02-19T15:16:05Z) - Annotation Error Detection: Analyzing the Past and Present for a More
Coherent Future [63.99570204416711]
我々は、潜在的なアノテーションの誤りを検知するための18の手法を再実装し、9つの英語データセット上で評価する。
アノテーションエラー検出タスクの新しい形式化を含む一様評価設定を定義する。
私たちはデータセットと実装を,使いやすく,オープンソースのソフトウェアパッケージとしてリリースしています。
論文 参考訳(メタデータ) (2022-06-05T22:31:45Z) - Point-Teaching: Weakly Semi-Supervised Object Detection with Point
Annotations [81.02347863372364]
本稿では,弱い半教師付きオブジェクト検出フレームワークであるPoint-Teachingを提案する。
具体的には,ポイントアノテート画像の擬似ラベルを生成するためのハンガリーの点マッチング手法を提案する。
そこで本研究では,不整合点の影響を低減するため,単純なyet- effective data augmentation(ポイント誘導コピーペースト)を提案する。
論文 参考訳(メタデータ) (2022-06-01T07:04:38Z) - A Positive/Unlabeled Approach for the Segmentation of Medical Sequences
using Point-Wise Supervision [3.883460584034766]
本稿では,ポイントワイズアノテーションのみを用いて,医用画像のボリュームや動画を効率的に分割する手法を提案する。
提案手法は,ポイントワイドアノテーションを用いて,適切なポジティブ/アンラベル対象関数を用いてディープラーニングモデルを訓練する。
提案手法は,同じ問題に適応した最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-07-18T09:13:33Z) - Annotation Curricula to Implicitly Train Non-Expert Annotators [56.67768938052715]
自発的な研究は、しばしば、アノテータがタスク、そのアノテーションスキーム、およびデータドメインに精通することを要求する。
これは最初は圧倒的であり、精神的に課税され、結果として生じるアノテーションにエラーを誘導する。
暗黙的にアノテータを訓練する新しい手法であるアノテーションキュリキュラを提案する。
論文 参考訳(メタデータ) (2021-06-04T09:48:28Z) - Efficient video annotation with visual interpolation and frame selection
guidance [0.0]
バウンディングボックスを備えたジェネリックビデオアノテーションの統一フレームワークを紹介します。
提案手法は,一般的な線形手法に比べて実測アノテーション時間を50%短縮することを示す。
論文 参考訳(メタデータ) (2020-12-23T09:31:40Z) - Active Learning for Coreference Resolution using Discrete Annotation [76.36423696634584]
我々は、コア参照解決におけるアクティブラーニングのためのペアワイズアノテーションを改善した。
提案された参照ペアがコアフェレントでないと判断された場合、アノテータに参照アンテセントを識別するよう依頼する。
既存のベンチマークコアベンチマークデータセットを用いた実験では、この追加質問からの信号が人間のアノテーション時間当たりの大幅なパフォーマンス向上につながることが示された。
論文 参考訳(メタデータ) (2020-04-28T17:17:11Z) - Confident Coreset for Active Learning in Medical Image Analysis [57.436224561482966]
本稿では,情報的サンプルを効果的に選択するための,不確実性と分散性を考慮した新しい能動的学習手法である信頼コアセットを提案する。
2つの医用画像解析タスクの比較実験により,本手法が他の活動的学習方法より優れていることを示す。
論文 参考訳(メタデータ) (2020-04-05T13:46:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。