論文の概要: One-shot action recognition towards novel assistive therapies
- arxiv url: http://arxiv.org/abs/2102.08997v1
- Date: Wed, 17 Feb 2021 19:41:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-19 22:11:57.920195
- Title: One-shot action recognition towards novel assistive therapies
- Title(参考訳): 新しい補助療法へのワンショットアクション認識
- Authors: Alberto Sabater, Laura Santos, Jose Santos-Victor, Alexandre
Bernardino, Luis Montesano, Ana C. Murillo
- Abstract要約: この作業は、アクション模倣ゲームを含む医療療法の自動分析によって動機づけられます。
提案手法は、異種運動データ条件を標準化する前処理ステップを組み込んだものである。
自閉症者に対するセラピー支援のための自動ビデオ分析の実際の利用事例について検討した。
- 参考スコア(独自算出の注目度): 63.23654147345168
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: One-shot action recognition is a challenging problem, especially when the
target video can contain one, more or none repetitions of the target action.
Solutions to this problem can be used in many real world applications that
require automated processing of activity videos. In particular, this work is
motivated by the automated analysis of medical therapies that involve action
imitation games. The presented approach incorporates a pre-processing step that
standardizes heterogeneous motion data conditions and generates descriptive
movement representations with a Temporal Convolutional Network for a final
one-shot (or few-shot) action recognition. Our method achieves state-of-the-art
results on the public NTU-120 one-shot action recognition challenge. Besides,
we evaluate the approach on a real use-case of automated video analysis for
therapy support with autistic people. The promising results prove its
suitability for this kind of application in the wild, providing both
quantitative and qualitative measures, essential for the patient evaluation and
monitoring.
- Abstract(参考訳): ワンショットのアクション認識は、特にターゲットビデオがターゲットアクションの1つまたは1つ以上の繰り返しを含むことができる場合、難しい問題である。
この問題に対するソリューションは、アクティビティビデオの自動処理を必要とする多くの現実世界のアプリケーションで使用できる。
特に、この研究は、アクション模倣ゲームを含む医療療法の自動分析によって動機づけられます。
提案手法では,不均質な動作データ条件を標準化し,最終1ショット(あるいは少数ショット)動作認識のための時間畳み込みネットワークを用いた記述的動作表現を生成する前処理ステップが組み込まれている。
この手法は、NTU-120のワンショットアクション認識の課題に関する最新の結果を達成します。
また,自閉症者に対する治療支援のための映像自動解析の活用事例について評価した。
有望な結果は、この種の野生での応用に適合性を示し、患者の評価とモニタリングに必須の量的および質的措置を提供する。
関連論文リスト
- A Comprehensive Review of Few-shot Action Recognition [64.47305887411275]
アクション認識は、複雑で可変なビデオデータを手動でラベル付けすることのコストと非現実性に対処することを目的としている。
ビデオ中の人間のアクションを正確に分類するには、クラスごとにいくつかのラベル付き例だけを使用する必要がある。
論文 参考訳(メタデータ) (2024-07-20T03:53:32Z) - SAR-RARP50: Segmentation of surgical instrumentation and Action
Recognition on Robot-Assisted Radical Prostatectomy Challenge [72.97934765570069]
外科的動作認識と意味計測のセグメンテーションのための,最初のマルチモーダルなインビボデータセットを公開し,ロボット補助根治術(RARP)の50の縫合ビデオセグメントを収録した。
この課題の目的は、提供されたデータセットのスケールを活用し、外科領域における堅牢で高精度なシングルタスクアクション認識とツールセグメンテーションアプローチを開発することである。
合計12チームがこのチャレンジに参加し、7つのアクション認識方法、9つの計器のセグメンテーション手法、そしてアクション認識と計器のセグメンテーションを統合した4つのマルチタスクアプローチをコントリビュートした。
論文 参考訳(メタデータ) (2023-12-31T13:32:18Z) - ST(OR)2: Spatio-Temporal Object Level Reasoning for Activity Recognition
in the Operating Room [6.132617753806978]
ORにおける外科的活動認識のための新しい試料効率およびオブジェクトベースアプローチを提案する。
本手法は, 臨床医と手術器具の幾何学的配置に着目し, ORにおける重要な物体相互作用のダイナミクスを活用する。
論文 参考訳(メタデータ) (2023-12-19T15:33:57Z) - Towards Stroke Patients' Upper-limb Automatic Motor Assessment Using
Smartwatches [5.132618393976799]
スマートウォッチを用いて脳卒中患者に対する上肢評価パイプラインを設計することを目的としている。
本研究の目的は,Fugl-Meyerアセスメント尺度に触発された4つの重要な動きを自動的に検出し,認識することである。
論文 参考訳(メタデータ) (2022-12-09T14:00:49Z) - Automated Fidelity Assessment for Strategy Training in Inpatient
Rehabilitation using Natural Language Processing [53.096237570992294]
戦略トレーニング (Strategy Training) とは、脳卒中後の認知障害患者に障害を減らすためのスキルを教える、リハビリテーションのアプローチである。
標準化された忠実度評価は治療原則の遵守度を測定するために用いられる。
本研究では,ルールベースNLPアルゴリズム,長短項メモリ(LSTM)モデル,および変換器(BERT)モデルからの双方向エンコーダ表現を開発した。
論文 参考訳(メタデータ) (2022-09-14T15:33:30Z) - E^2TAD: An Energy-Efficient Tracking-based Action Detector [78.90585878925545]
本稿では,事前定義されたキーアクションを高精度かつ効率的にローカライズするためのトラッキングベースソリューションを提案する。
UAV-Video Track of 2021 Low-Power Computer Vision Challenge (LPCVC)で優勝した。
論文 参考訳(メタデータ) (2022-04-09T07:52:11Z) - Real-time landmark detection for precise endoscopic submucosal
dissection via shape-aware relation network [51.44506007844284]
内視鏡下粘膜下郭清術における高精度かつリアルタイムなランドマーク検出のための形状認識型関係ネットワークを提案する。
まず,ランドマーク間の空間的関係に関する先行知識を直感的に表現する関係キーポイント・ヒートマップを自動生成するアルゴリズムを考案する。
次に、事前知識を学習プロセスに段階的に組み込むために、2つの補完的な正規化手法を開発する。
論文 参考訳(メタデータ) (2021-11-08T07:57:30Z) - Deep Homography Estimation in Dynamic Surgical Scenes for Laparoscopic
Camera Motion Extraction [6.56651216023737]
腹腔鏡下手術の映像から腹腔鏡ホルダーの動作を抽出する手法を提案する。
我々は、新たに取得したカメラモーションフリーda Vinci画像シーケンスのデータセットに、カメラモーションを合成的に付加する。
提案手法は,我々のカメラモーションフリーda Vinci手術データセットから腹腔鏡下手術の映像へ移行し,古典的ホモグラフィー推定手法の双方,精度41%,CPU上でのランタイムを43%上回る結果を得た。
論文 参考訳(メタデータ) (2021-09-30T13:05:37Z) - Cross-Task Representation Learning for Anatomical Landmark Detection [20.079451546446712]
本稿では,クロスタスク表現学習を通じて,ソースとターゲットタスク間の知識伝達を規則化することを提案する。
本手法は胎児アルコール症候群の診断を容易にする顔の解剖学的特徴を抽出するためのものである。
本稿では,目的モデル上の最終モデルの特徴と中間モデルの特徴を制約することにより,表現学習のための2つのアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-28T21:22:49Z) - Multi-Task Recurrent Neural Network for Surgical Gesture Recognition and
Progress Prediction [17.63619129438996]
本稿では,手術動作の同時認識のためのマルチタスクリカレントニューラルネットワークを提案する。
マルチタスクフレームワークでは,手作業によるラベリングやトレーニングを伴わずに,進捗推定による認識性能が向上することが実証された。
論文 参考訳(メタデータ) (2020-03-10T14:28:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。