論文の概要: Position and Orientation-Aware One-Shot Learning for Medical Action
Recognition from Signal Data
- arxiv url: http://arxiv.org/abs/2309.15635v1
- Date: Wed, 27 Sep 2023 13:08:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 13:45:15.383024
- Title: Position and Orientation-Aware One-Shot Learning for Medical Action
Recognition from Signal Data
- Title(参考訳): 信号データを用いた医療行動認識のための位置・方向認識ワンショット学習
- Authors: Leiyu Xie, Yuxing Yang, Zeyu Fu, Syed Mohsen Naqvi
- Abstract要約: 信号データから医療行動認識のための位置認識・向き認識型ワンショット学習フレームワークを提案する。
提案するフレームワークは,信号レベル画像生成(SIG),クロスアテンション(CsA),動的時間ワープ(DTW)モジュールの2段階からなる。
- 参考スコア(独自算出の注目度): 9.757753196253532
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this work, we propose a position and orientation-aware one-shot learning
framework for medical action recognition from signal data. The proposed
framework comprises two stages and each stage includes signal-level image
generation (SIG), cross-attention (CsA), dynamic time warping (DTW) modules and
the information fusion between the proposed privacy-preserved position and
orientation features. The proposed SIG method aims to transform the raw
skeleton data into privacy-preserved features for training. The CsA module is
developed to guide the network in reducing medical action recognition bias and
more focusing on important human body parts for each specific action, aimed at
addressing similar medical action related issues. Moreover, the DTW module is
employed to minimize temporal mismatching between instances and further improve
model performance. Furthermore, the proposed privacy-preserved
orientation-level features are utilized to assist the position-level features
in both of the two stages for enhancing medical action recognition performance.
Extensive experimental results on the widely-used and well-known NTU RGB+D 60,
NTU RGB+D 120, and PKU-MMD datasets all demonstrate the effectiveness of the
proposed method, which outperforms the other state-of-the-art methods with
general dataset partitioning by 2.7%, 6.2% and 4.1%, respectively.
- Abstract(参考訳): 本研究では,信号データから医療行動認識を行うための位置・方向認識型ワンショット学習フレームワークを提案する。
提案手法は2段階から成り,各段階は信号レベル画像生成(sig),クロスアテンション(csa),動的時間ワーピング(dtw)モジュール,提案するプライバシ保存位置と方向特徴との情報融合を含む。
提案手法は,生の骨格データをプライバシ保護機能に変換してトレーニングを行う。
CsAモジュールは、医療行動認知バイアスの低減と、同様の医療行動に関連する問題に対処することを目的とした、特定の行動ごとに重要な人体部分に焦点を当てるネットワークのガイドとして開発された。
さらに、DTWモジュールはインスタンス間の時間的ミスマッチを最小限に抑え、モデル性能をさらに改善するために使用される。
さらに,提案するプライバシ保護指向レベル特徴を,医療行動認識性能の向上のために,両段階における位置レベル特徴の補助に利用する。
広く普及したntu rgb+d 60, ntu rgb+d 120, pku-mmdデータセットの広範な実験結果から, 一般的なデータセット分割法を2.7%, 6.2%, および4.1%で上回っている。
関連論文リスト
- A Mutual Inclusion Mechanism for Precise Boundary Segmentation in Medical Images [2.9137615132901704]
医用画像の正確な境界セグメンテーションのための新しい深層学習手法MIPC-Netを提案する。
位置特徴抽出時のチャネル情報に重点を置くMIPCモジュールを提案する。
また,エンコーダとデコーダの統合性を高めるグローバルな残差接続であるGL-MIPC-Residueを提案する。
論文 参考訳(メタデータ) (2024-04-12T02:14:35Z) - PoseAction: Action Recognition for Patients in the Ward using Deep
Learning Approaches [0.0]
本稿では,コンピュータビジョン(CV)と深層学習(DL)を用いて被験者を検出し,その行動を認識することを提案する。
映像ストリーム中の人体の位置を認識するために,OpenPoseを精度の高い被験者検出装置として利用する。
本稿では,AlphActionのAsynchronous Interaction Aggregation (AIA) ネットワークを用いて検出対象の動作を予測する。
論文 参考訳(メタデータ) (2023-10-05T03:33:35Z) - Two-stream Multi-level Dynamic Point Transformer for Two-person
Interaction Recognition [65.87203087716263]
本稿では,2人インタラクション認識のための2ストリームマルチレベル動的ポイント変換器を提案する。
本モデルでは,局所空間情報,外観情報,動作情報を組み込むことで,対人インタラクションを認識するという課題に対処する。
我々のネットワークは、すべての標準評価設定において最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-07-22T03:51:32Z) - Contrastive and Selective Hidden Embeddings for Medical Image
Segmentation [25.80192874762209]
医用画像セグメンテーションのための対照的な学習ベース重み事前トレーニングを提案する。
不確実性を考慮した特徴選択ブロック(UAFS)と呼ばれる新しい構造は、少数機能による学習目標シフトを処理するように設計されている。
6つのドメインから8つのパブリックデータセットにまたがって、最先端の結果が得られます。
論文 参考訳(メタデータ) (2022-01-21T16:52:19Z) - Few-Shot Fine-Grained Action Recognition via Bidirectional Attention and
Contrastive Meta-Learning [51.03781020616402]
現実世界のアプリケーションで特定のアクション理解の需要が高まっているため、きめ細かいアクション認識が注目を集めている。
そこで本研究では,各クラスに付与されるサンプル数だけを用いて,新規なきめ細かい動作を認識することを目的とした,数発のきめ細かな動作認識問題を提案する。
粒度の粗い動作では進展があったが、既存の数発の認識手法では、粒度の細かい動作を扱う2つの問題に遭遇する。
論文 参考訳(メタデータ) (2021-08-15T02:21:01Z) - Dual-Attention Enhanced BDense-UNet for Liver Lesion Segmentation [3.1667381240856987]
本稿では,DA-BDense-UNetと呼ばれる,DenseUNetと双方向LSTMを統合した新たなセグメンテーションネットワークを提案する。
DenseUNetは十分な多様な特徴を学習し、情報フローを調節することでネットワークの代表的能力を高める。
論文 参考訳(メタデータ) (2021-07-24T16:28:00Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Learning Comprehensive Motion Representation for Action Recognition [124.65403098534266]
2d cnnベースのメソッドは効率的であるが、各フレームに同じ2d畳み込みカーネルを適用することで冗長な機能が得られる。
最近の試みは、フレーム間接続を確立しながら、時間的受容野や高いレイテンシに苦しめながら、動き情報をキャプチャしようとするものである。
チャネルワイズゲートベクトルを用いた動的情報に関連するチャネルを適応的に強調するCME(Channel-wise Motion Enhancement)モジュールを提案する。
また,近接する特徴写像の点対点類似性に応じて,重要な目標を持つ領域に焦点をあてる空間的運動強調(SME)モジュールを提案する。
論文 参考訳(メタデータ) (2021-03-23T03:06:26Z) - Towards Cross-modality Medical Image Segmentation with Online Mutual
Knowledge Distillation [71.89867233426597]
本稿では,あるモダリティから学習した事前知識を活用し,別のモダリティにおけるセグメンテーション性能を向上させることを目的とする。
モーダル共有知識を徹底的に活用する新しい相互知識蒸留法を提案する。
MMWHS 2017, MMWHS 2017 を用いた多クラス心筋セグメンテーション実験の結果, CT セグメンテーションに大きな改善が得られた。
論文 参考訳(メタデータ) (2020-10-04T10:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。