論文の概要: Workflow Augmentation of Video Data for Event Recognition with
Time-Sensitive Neural Networks
- arxiv url: http://arxiv.org/abs/2109.15063v1
- Date: Thu, 30 Sep 2021 12:20:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-01 15:09:18.067222
- Title: Workflow Augmentation of Video Data for Event Recognition with
Time-Sensitive Neural Networks
- Title(参考訳): 時間知覚ニューラルネットワークを用いたイベント認識のためのビデオデータのワークフロー強化
- Authors: Andreas Wachter and Werner Nahm
- Abstract要約: ワークフロー拡張のための新しい方法論を提案する。
提案手法は, 人工ビデオを作成することでイベント変更の頻度を増大させる。
拡張白内障手術ビデオのイベント変更頻度は, オリジナルビデオと比較して26%増加した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Supervised training of neural networks requires large, diverse and well
annotated data sets. In the medical field, this is often difficult to achieve
due to constraints in time, expert knowledge and prevalence of an event.
Artificial data augmentation can help to prevent overfitting and improve the
detection of rare events as well as overall performance. However, most
augmentation techniques use purely spatial transformations, which are not
sufficient for video data with temporal correlations. In this paper, we present
a novel methodology for workflow augmentation and demonstrate its benefit for
event recognition in cataract surgery. The proposed approach increases the
frequency of event alternation by creating artificial videos. The original
video is split into event segments and a workflow graph is extracted from the
original annotations. Finally, the segments are assembled into new videos based
on the workflow graph. Compared to the original videos, the frequency of event
alternation in the augmented cataract surgery videos increased by 26%. Further,
a 3% higher classification accuracy and a 7.8% higher precision was achieved
compared to a state-of-the-art approach. Our approach is particularly helpful
to increase the occurrence of rare but important events and can be applied to a
large variety of use cases.
- Abstract(参考訳): ニューラルネットワークの教師付きトレーニングには、大きく、多様で、注釈付きのデータセットが必要である。
医学分野では、時間の制約、専門家の知識、イベントの流行のために、これは達成することがしばしば困難である。
人工的なデータ拡張は、レアイベントの検出と全体的なパフォーマンスの過度な適合を防止するのに役立つ。
しかし、ほとんどの拡張技術は純粋に空間変換を用いるが、時間相関のあるビデオデータには不十分である。
本稿では,新しいワークフロー拡張法を提案し,白内障手術におけるイベント認識に有用であることを示す。
提案手法は,人工映像作成によるイベント交代の頻度を増加させる。
オリジナルのビデオはイベントセグメントに分割され、元のアノテーションからワークフローグラフが抽出される。
最後に、セグメントはワークフローグラフに基づいて新しいビデオに組み立てられる。
オリジナルビデオと比較して,拡張白内障手術ビデオのイベント交代頻度は26%増加した。
さらに,最先端アプローチと比較して,分類精度が3%,精度が7.8%向上した。
当社のアプローチは,まれだが重要な事象の発生を増加させる上で特に有用であり,多種多様なユースケースに適用できる。
関連論文リスト
- Correlation-aware active learning for surgery video segmentation [13.327429312047396]
本研究は,手術ビデオセグメンテーション,COWAL,Correlation-aWare Active Learningのための新しいAL戦略を提案する。
提案手法では、コントラスト学習を用いて微調整された遅延空間に画像を投影し、ビデオフレームの局所クラスタから一定数の代表画像を選択する。
手術器具の2つのビデオデータセットと実世界の3つのビデオデータセットに対して,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-11-15T09:30:52Z) - Style Augmentation improves Medical Image Segmentation [0.0]
分類タスクですでに使用されているスタイル拡張は、テクスチャの過度な適合を減らし、セグメンテーションのパフォーマンスを向上させる。
この研究は、分類タスクですでに使用されているスタイル拡張のMoNuSegデータセットで示されており、テクスチャの過度な適合を低減し、セグメンテーションのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2022-11-02T14:00:12Z) - TransRAC: Encoding Multi-scale Temporal Correlation with Transformers
for Repetitive Action Counting [30.541542156648894]
既存の手法は、短いビデオで反復的なアクションカウントを実行することに重点を置いている。
多様なビデオ長をカバーする大規模反復的行動カウントデータセットを提案する。
本研究では,行動周期の微粒化アノテーションの助けを借りて,行動周期を予測する密度マップ回帰に基づく手法を提案する。
論文 参考訳(メタデータ) (2022-04-03T07:50:18Z) - Temporally Constrained Neural Networks (TCNN): A framework for
semi-supervised video semantic segmentation [5.0754434714665715]
本稿では,手術ビデオのセマンティックセグメンテーションに使用される半教師付きフレームワークTCNNを紹介する。
本研究では,オートエンコーダネットワークを用いて,空間的および時間的監視信号の両方を効率的に提供できることを示す。
予測マスクの低次元表現を有効活用して,スパースラベル付き両方のデータセットに一貫した改善を実現することを実証した。
論文 参考訳(メタデータ) (2021-12-27T18:06:12Z) - Efficient Modelling Across Time of Human Actions and Interactions [92.39082696657874]
3つの畳み込みニューラルネットワーク(CNND)における現在の固定サイズの時間的カーネルは、入力の時間的変動に対処するために改善できると主張している。
我々は、アーキテクチャの異なるレイヤにまたがる機能の違いを強化することで、アクションのクラス間でどのようにうまく対処できるかを研究する。
提案手法は、いくつかのベンチマークアクション認識データセットで評価され、競合する結果を示す。
論文 参考訳(メタデータ) (2021-10-05T15:39:11Z) - AdaFuse: Adaptive Temporal Fusion Network for Efficient Action
Recognition [68.70214388982545]
テンポラルモデリングは、効率的なビデオアクション認識の鍵である。
我々はAdaFuseと呼ばれる適応時間融合ネットワークを導入し、現在の特徴マップと過去の特徴マップからチャネルを融合する。
我々の手法は、最先端の手法に匹敵する精度で、約40%の計算節約を達成できる。
論文 参考訳(メタデータ) (2021-02-10T23:31:02Z) - Coherent Loss: A Generic Framework for Stable Video Segmentation [103.78087255807482]
ビデオセグメンテーションの結果の視覚的品質を,ジッタリングアーティファクトがいかに劣化させるかを検討する。
本稿では,ニューラルネットワークの性能向上を目的とした汎用フレームワークを備えたコヒーレントロスを提案する。
論文 参考訳(メタデータ) (2020-10-25T10:48:28Z) - LRTD: Long-Range Temporal Dependency based Active Learning for Surgical
Workflow Recognition [67.86810761677403]
本稿では,費用対効果の高い手術ビデオ解析のための新しい能動的学習法を提案する。
具体的には,非局所的再帰的畳み込みネットワーク (NL-RCNet) を提案する。
手術ワークフロー認識タスクを実行することで,大規模な手術ビデオデータセット(Cholec80)に対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-04-21T09:21:22Z) - Self-trained Deep Ordinal Regression for End-to-End Video Anomaly
Detection [114.9714355807607]
ビデオ異常検出に自己学習深層順序回帰を適用することで,既存の手法の2つの重要な限界を克服できることを示す。
我々は,手動で正規/異常データをラベル付けすることなく,共同表現学習と異常スコアリングを可能にする,エンドツーエンドのトレーニング可能なビデオ異常検出手法を考案した。
論文 参考訳(メタデータ) (2020-03-15T08:44:55Z) - Automatic Data Augmentation via Deep Reinforcement Learning for
Effective Kidney Tumor Segmentation [57.78765460295249]
医用画像セグメンテーションのための新しい学習ベースデータ拡張法を開発した。
本手法では,データ拡張モジュールと後続のセグメンテーションモジュールをエンドツーエンドのトレーニング方法で一貫した損失と,革新的に組み合わせる。
提案法の有効性を検証したCT腎腫瘍分節法について,本法を広範囲に評価した。
論文 参考訳(メタデータ) (2020-02-22T14:10:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。