論文の概要: NurViD: A Large Expert-Level Video Database for Nursing Procedure
Activity Understanding
- arxiv url: http://arxiv.org/abs/2310.13347v1
- Date: Fri, 20 Oct 2023 08:22:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 23:55:38.267753
- Title: NurViD: A Large Expert-Level Video Database for Nursing Procedure
Activity Understanding
- Title(参考訳): NurViD:看護手順活動理解のための大規模エキスパートレベルビデオデータベース
- Authors: Ming Hu, Lin Wang, Siyuan Yan, Don Ma, Qingli Ren, Peng Xia, Wei Feng,
Peibo Duan, Lie Ju, Zongyuan Ge
- Abstract要約: 看護作業活動理解のための専門家レベルのアノテーションを備えた大規模ビデオデータセットであるNurViDを提案する。
NurViDは、合計144時間の1.5kビデオで構成されており、既存の最大の看護活動データセットの約4倍の長さである。
- 参考スコア(独自算出の注目度): 20.273197899025117
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The application of deep learning to nursing procedure activity understanding
has the potential to greatly enhance the quality and safety of nurse-patient
interactions. By utilizing the technique, we can facilitate training and
education, improve quality control, and enable operational compliance
monitoring. However, the development of automatic recognition systems in this
field is currently hindered by the scarcity of appropriately labeled datasets.
The existing video datasets pose several limitations: 1) these datasets are
small-scale in size to support comprehensive investigations of nursing
activity; 2) they primarily focus on single procedures, lacking expert-level
annotations for various nursing procedures and action steps; and 3) they lack
temporally localized annotations, which prevents the effective localization of
targeted actions within longer video sequences. To mitigate these limitations,
we propose NurViD, a large video dataset with expert-level annotation for
nursing procedure activity understanding. NurViD consists of over 1.5k videos
totaling 144 hours, making it approximately four times longer than the existing
largest nursing activity datasets. Notably, it encompasses 51 distinct nursing
procedures and 177 action steps, providing a much more comprehensive coverage
compared to existing datasets that primarily focus on limited procedures. To
evaluate the efficacy of current deep learning methods on nursing activity
understanding, we establish three benchmarks on NurViD: procedure recognition
on untrimmed videos, procedure and action recognition on trimmed videos, and
action detection. Our benchmark and code will be available at
\url{https://github.com/minghu0830/NurViD-benchmark}.
- Abstract(参考訳): 看護処置活動理解への深層学習の適用は、看護師と患者の相互作用の質と安全性を大幅に向上させる可能性がある。
この技術を利用することで、トレーニングと教育を容易にし、品質管理を改善し、運用コンプライアンス監視を可能にする。
しかし、この分野における自動認識システムの開発は、適切なラベル付きデータセットの不足によって現在妨げられている。
既存のビデオデータセットにはいくつかの制限がある。
1)これらのデータセットは,看護活動の包括的調査を支援するため,小規模である。
2 主に単一手続に焦点を合わせ、各種看護処置及び行動手順に関する専門家レベルの注釈を欠いている。
3) 時間的局所化アノテーションは欠如しており, より長いビデオシーケンス内での標的行動の効果的な局所化を防止する。
これらの制限を緩和するために,看護作業活動理解のための専門家レベルのアノテーションを備えた大規模ビデオデータセットであるNurViDを提案する。
NurViDは、合計144時間の1.5kビデオで構成されており、既存の最大の看護活動データセットの約4倍の長さである。
特筆すべきは、51の異なる看護手順と177のアクションステップを含み、主に限られた手順に焦点を当てた既存のデータセットよりもはるかに包括的なカバレッジを提供する。
看護活動理解における現在のディープラーニング手法の有効性を評価するため,NurViDの3つの評価基準を構築した: トリミングビデオのプロシージャ認識,トリミングビデオのプロシージャ認識,アクション検出である。
私たちのベンチマークとコードは、 \url{https://github.com/minghu0830/nurvid-benchmark}で利用可能です。
関連論文リスト
- Shifting to Machine Supervision: Annotation-Efficient Semi and Self-Supervised Learning for Automatic Medical Image Segmentation and Classification [9.67209046726903]
我々は、自己教師型および半教師型学習の進歩を活用する新しいアプローチであるS4MIパイプラインを紹介する。
本研究は、これらの手法を3つの異なる医用画像データセット上で評価し、分類と分割作業の有効性を評価する。
注目すべきは、半教師付きアプローチはセグメンテーションにおいて優れた結果を示し、全データセットで50%少ないラベルを使用しながら、完全な教師付き手法よりも優れた結果を示したことだ。
論文 参考訳(メタデータ) (2023-11-17T04:04:29Z) - Weakly-Supervised Surgical Phase Recognition [19.27227976291303]
本研究では,グラフ分割の概念と自己教師付き学習を結合して,フレーム単位の位相予測のためのランダムウォーク解を導出する。
腹腔鏡下胆嚢摘出術ビデオのColec80データセットを用いて実験を行い,本法の有効性を確認した。
論文 参考訳(メタデータ) (2023-10-26T07:54:47Z) - Video object detection for privacy-preserving patient monitoring in
intensive care [0.0]
ビデオフレームの時間的継承における情報を活用する新しい手法を提案する。
我々のメソッドは標準のYOLOv5ベースラインモデルを+1.7%mAP@.5で上回り、プロプライエタリなデータセットで10倍以上高速にトレーニングします。
論文 参考訳(メタデータ) (2023-06-26T11:52:22Z) - Procedure-Aware Pretraining for Instructional Video Understanding [58.214549181779006]
手続き理解の鍵となる課題は、未ラベルのビデオから手続き的知識を抽出できることである。
私たちの主な洞察は、命令ビデオが同じまたは異なるタスクのインスタンス間で繰り返されるステップのシーケンスを描いていることです。
このグラフを使用して擬似ラベルを生成し、よりアクセスしやすい形式で手続き的知識を符号化するビデオ表現を訓練することができる。
論文 参考訳(メタデータ) (2023-03-31T17:41:31Z) - Weakly Supervised Temporal Convolutional Networks for Fine-grained
Surgical Activity Recognition [10.080444283496487]
本稿では,段階認識学習の弱さとして,粗大でアノテートしやすい活動ラベル(フェーズ)を提案する。
我々は、弱い注釈付きビデオからエンドツーエンドにトレーニングされたResNet-50バックボーンを備えたシングルステージのテンポラル・コンボリューショナル・ネットワーク(SS-TCN)を採用している。
腹腔鏡下胃バイパス術40例と白内障手術50例を含むCATARACTSを併用した大規模ビデオデータセットにおいて,提案手法の有効性を広く評価し,その有効性を示した。
論文 参考訳(メタデータ) (2023-02-21T17:26:49Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - Federated Cycling (FedCy): Semi-supervised Federated Learning of
Surgical Phases [57.90226879210227]
FedCyは、FLと自己教師付き学習を組み合わせた半教師付き学習(FSSL)手法で、ラベル付きビデオとラベルなしビデオの両方の分散データセットを利用する。
外科的段階の自動認識作業において,最先端のFSSL法よりも顕著な性能向上を示した。
論文 参考訳(メタデータ) (2022-03-14T17:44:53Z) - Learning To Recognize Procedural Activities with Distant Supervision [96.58436002052466]
最大数分間の長いビデオから、きめ細かな多段階のアクティビティを分類する問題を考察する。
提案手法は,ビデオから自動書き起こされた音声の雑音に合う言語モデルを用いて,知識ベースで記述をステップする。
論文 参考訳(メタデータ) (2022-01-26T15:06:28Z) - Intra- and Inter-Action Understanding via Temporal Action Parsing [118.32912239230272]
本研究では,スポーツビデオにサブアクションの手動アノテーションを付加した新しいデータセットを構築し,その上に時間的行動解析を行う。
スポーツ活動は通常、複数のサブアクションから構成されており、このような時間構造に対する意識は、行動認識に有益であることを示す。
また,時間的解析手法を多数検討し,そのラベルを知らずにトレーニングデータからサブアクションをマイニングできる改良手法を考案した。
論文 参考訳(メタデータ) (2020-05-20T17:45:18Z) - LRTD: Long-Range Temporal Dependency based Active Learning for Surgical
Workflow Recognition [67.86810761677403]
本稿では,費用対効果の高い手術ビデオ解析のための新しい能動的学習法を提案する。
具体的には,非局所的再帰的畳み込みネットワーク (NL-RCNet) を提案する。
手術ワークフロー認識タスクを実行することで,大規模な手術ビデオデータセット(Cholec80)に対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-04-21T09:21:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。