論文の概要: A labeled dataset of simulated phlebotomy procedures for medical AI: polygon annotations for object detection and human-object interaction
- arxiv url: http://arxiv.org/abs/2602.04624v1
- Date: Wed, 04 Feb 2026 14:54:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.578675
- Title: A labeled dataset of simulated phlebotomy procedures for medical AI: polygon annotations for object detection and human-object interaction
- Title(参考訳): 医療用AIのための模擬切開手順のラベル付きデータセット:物体検出のためのポリゴンアノテーションと人-物体相互作用
- Authors: Raúl Jiménez Cruz, César Torres-Huitzil, Marco Franceschetti, Ronny Seiger, Luciano García-Bañuelos, Barbara Weber,
- Abstract要約: 本発明のデータ記事は、トレーニングアーム上で実行される模擬血液抽出(咽頭切開)手順を記録した11,884個のラベル付き画像のデータセットを提示する。
制御条件下で記録された高精細ビデオから画像を抽出し、冗長性を低減するためにキュレートした。
それぞれの画像には、注射器、ゴムバンド、消毒剤ワイプ、手袋、トレーニングアームの5つの医学関連クラスのポリゴンアノテーションが含まれている。
- 参考スコア(独自算出の注目度): 0.8291942198324129
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This data article presents a dataset of 11,884 labeled images documenting a simulated blood extraction (phlebotomy) procedure performed on a training arm. Images were extracted from high-definition videos recorded under controlled conditions and curated to reduce redundancy using Structural Similarity Index Measure (SSIM) filtering. An automated face-anonymization step was applied to all videos prior to frame selection. Each image contains polygon annotations for five medically relevant classes: syringe, rubber band, disinfectant wipe, gloves, and training arm. The annotations were exported in a segmentation format compatible with modern object detection frameworks (e.g., YOLOv8), ensuring broad usability. This dataset is partitioned into training (70%), validation (15%), and test (15%) subsets and is designed to advance research in medical training automation and human-object interaction. It enables multiple applications, including phlebotomy tool detection, procedural step recognition, workflow analysis, conformance checking, and the development of educational systems that provide structured feedback to medical trainees. The data and accompanying label files are publicly available on Zenodo.
- Abstract(参考訳): 本発明のデータ記事は、トレーニングアーム上で実行される模擬血液抽出(咽頭切開)手順を記録した11,884個のラベル付き画像のデータセットを提示する。
制御条件下で記録された高精細ビデオから画像を抽出し,SSIM (Structuor similarity Index Measure) フィルタを用いて冗長性を低減した。
フレーム選択の前に、すべてのビデオに自動顔匿名化ステップを適用した。
それぞれの画像には、注射、ゴムバンド、消毒剤ワイプ、手袋、トレーニングアームの5つの医学関連クラスのためのポリゴンアノテーションが含まれている。
アノテーションは、現代的なオブジェクト検出フレームワーク(例:YOLOv8)と互換性のあるセグメンテーションフォーマットでエクスポートされ、幅広いユーザビリティが保証された。
このデータセットは、トレーニング(70%)、バリデーション(15%)、テスト(15%)サブセットに分割され、医療訓練の自動化と人間とオブジェクトのインタラクションの研究を促進するように設計されている。
咽頭切除ツールの検出、手続き的ステップ認識、ワークフロー分析、適合性チェック、医療研修生に構造化されたフィードバックを提供する教育システムの開発など、複数のアプリケーションを可能にする。
データとラベルファイルはZenodoで公開されている。
関連論文リスト
- MedicalNarratives: Connecting Medical Vision and Language with Localized Narratives [11.242775987217032]
MedicalNarrativesは、Think-Aloudの研究で収集されたデータと、本質的に類似した医療教育ビデオから収集されたデータセットである。
我々のデータセットは、ビデオと記事から4.7Mの画像テキストペアを含み、100万のサンプルには、トレースとバウンディングボックスの形で密集したアノテーションが含まれている。
MedicalNarrativesの有用性を評価するために、12の医療ドメインにまたがるデータセットを用いて、CLIPアーキテクチャに基づいてGenMedClipをトレーニングする。
論文 参考訳(メタデータ) (2025-01-07T23:32:05Z) - Medical Vision-Language Pre-Training for Brain Abnormalities [96.1408455065347]
本稿では,PubMedなどの公共リソースから,医用画像・テキスト・アライメントデータを自動的に収集する方法を示す。
特に,まず大きな脳画像テキストデータセットを収集することにより,事前学習プロセスの合理化を図るパイプラインを提案する。
また,医療領域におけるサブフィギュアをサブキャプションにマッピングするというユニークな課題についても検討した。
論文 参考訳(メタデータ) (2024-04-27T05:03:42Z) - Towards Unifying Anatomy Segmentation: Automated Generation of a
Full-body CT Dataset via Knowledge Aggregation and Anatomical Guidelines [113.08940153125616]
我々は533巻のボクセルレベルのラベルを142ドル(約1万2000円)で、全身CTスキャンのデータセットを作成し、解剖学的包括的カバレッジを提供する。
提案手法はラベル集約段階において手作業によるアノテーションに依存しない。
我々はCTデータに142ドルの解剖学的構造を予測できる統一解剖学的セグメンテーションモデルをリリースする。
論文 参考訳(メタデータ) (2023-07-25T09:48:13Z) - Vision-Language Modelling For Radiological Imaging and Reports In The
Low Data Regime [70.04389979779195]
本稿では,視覚および言語入力を共通空間に埋め込んだ医用視覚言語モデル(VLM)について検討する。
本稿では,新しい画像領域やテキスト領域への汎用事前学習モデルの適用など,低データ性能向上のためのいくつかの候補手法について検討する。
テキスト・ツー・イメージ検索をベンチマークとして,2つの胸部X線および放射線学的報告を用いた可変サイズのトレーニングデータセットを用いて,これらの手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-03-30T18:20:00Z) - Morphology-Aware Interactive Keypoint Estimation [32.52024944963992]
医学的画像に基づく診断は、しばしば解剖学的キーポイントのマニュアルアノテーションを含む。
本稿では,ユーザインタラクションシステムを通じて解剖学的キーポイントを自動的に検出し,精査する,新しいディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-15T09:27:14Z) - Pseudo-label Guided Cross-video Pixel Contrast for Robotic Surgical
Scene Segmentation with Limited Annotations [72.15956198507281]
シーンセグメンテーションを促進するために,新しい擬似ラベル付きクロスビデオコントラスト学習法であるPGV-CLを提案する。
本研究では,ロボット外科手術データセットEndoVis18と白内障手術データセットCaDISについて検討した。
論文 参考訳(メタデータ) (2022-07-20T05:42:19Z) - Self-Supervised Learning as a Means To Reduce the Need for Labeled Data
in Medical Image Analysis [64.4093648042484]
胸部X線画像のデータセットとバウンディングボックスラベルを用いて,13種類の異常の分類を行った。
ラベル付きデータの平均精度と精度を60%に抑えることで,完全教師付きモデルと同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2022-06-01T09:20:30Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z) - Self-supervised Representation Learning for Ultrasound Video [18.515314344284445]
本稿では,医用画像から有意義かつ伝達可能な表現を学習するための自己教師型学習手法を提案する。
我々は、データ自体から自由に監視することで、解剖学的タスクに対処するようモデルに強制する。
胎児超音波ビデオ実験により,提案手法が有意義で強い表現を効果的に学習できることが示唆された。
論文 参考訳(メタデータ) (2020-02-28T23:00:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。