論文の概要: AtGCN: A Graph Convolutional Network For Ataxic Gait Detection
- arxiv url: http://arxiv.org/abs/2410.22862v1
- Date: Wed, 30 Oct 2024 09:55:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:24:19.340999
- Title: AtGCN: A Graph Convolutional Network For Ataxic Gait Detection
- Title(参考訳): AtGCN:アタキシー歩行検出のためのグラフ畳み込みネットワーク
- Authors: Karan Bania, Tanmay Verlekar,
- Abstract要約: 本稿では,アタキシー歩行を検出するために,AtGCNと呼ばれるグラフ畳み込みネットワークを提案する。
この問題は、健康な歩行からの失速歩行のずれが非常に微妙であるため、難しい。
提案したAtGCNモデルは、93.46%の精度と0.4169のMAEで検出および予測の最先端をそれぞれ上回る。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Video-based gait analysis can be defined as the task of diagnosing pathologies, such as ataxia, using videos of patients walking in front of a camera. This paper presents a graph convolution network called AtGCN for detecting ataxic gait and identifying its severity using 2D videos. The problem is especially challenging as the deviation of an ataxic gait from a healthy gait is very subtle. The datasets for ataxic gait detection are also quite small, with the largest dataset having only 149 videos. The paper addresses the first problem using special spatiotemporal graph convolution that successfully captures important gait-related features. To handle the small dataset size, a deep spatiotemporal graph convolution network pre-trained on an action recognition dataset is systematically truncated and then fine-tuned on the ataxia dataset to obtain the AtGCN model. The paper also presents an augmentation strategy that segments a video sequence into multiple gait cycles. The proposed AtGCN model then operates on a graph of body part locations belonging to a single gait cycle. The evaluation results support the strength of the proposed AtGCN model, as it outperforms the state-of-the-art in detection and severity prediction with an accuracy of 93.46% and a MAE of 0.4169, respectively.
- Abstract(参考訳): ビデオベースの歩行分析は、カメラの前を歩く患者のビデオを使用して、失調症などの病態を診断するタスクとして定義することができる。
本稿では,AtGCNと呼ばれるグラフ畳み込みネットワークを提案する。
この問題は、健康な歩行からの失速歩行のずれが非常に微妙であるため、特に困難である。
アタキシー歩行検出用のデータセットも非常に小さく、最大のデータセットは149のビデオのみである。
本論文は,重要な歩行関連特徴を捉えた特別な時空間グラフ畳み込みを用いた最初の問題に対処する。
小さなデータセットサイズを扱うために、アクション認識データセットで事前訓練された深部時空間グラフ畳み込みネットワークを体系的に切り離し、アタキシアデータセットに微調整し、AtGCNモデルを得る。
また,映像系列を複数の歩行周期に分割する拡張戦略を提案する。
提案したAtGCNモデルは、単一の歩行サイクルに属する身体部分の位置のグラフで動作する。
その結果,AtGCNモデルの精度は93.46%,MAEは0.4169で,検出精度と重大性予測の精度に優れていた。
関連論文リスト
- Computer Vision for Clinical Gait Analysis: A Gait Abnormality Video Dataset [4.975410989590524]
本稿では,歩行分析に適した視覚ベースの手法とデータセットとともに,CGAの現在の発展の基礎を定めている。
本稿では,現在150以上の歩行関連コンピュータビジョンデータセットのレビューに対して,映像データセットにおける歩行異常 (GAVD) について紹介する。
GAVDは、1874年の正常な、異常な、および病理的な歩行のシーケンスからなる、最大のビデオ歩行データセットとして際立っている。
論文 参考訳(メタデータ) (2024-07-05T00:18:40Z) - ADA-GAD: Anomaly-Denoised Autoencoders for Graph Anomaly Detection [84.0718034981805]
我々はAnomaly-Denoized Autoencoders for Graph Anomaly Detection (ADA-GAD)という新しいフレームワークを導入する。
第1段階では,異常レベルを低減したグラフを生成する学習自由な異常化拡張法を設計する。
次の段階では、デコーダは元のグラフで検出するために再訓練される。
論文 参考訳(メタデータ) (2023-12-22T09:02:01Z) - BOURNE: Bootstrapped Self-supervised Learning Framework for Unified
Graph Anomaly Detection [50.26074811655596]
自己指導型自己学習(BOURNE)に基づく新しい統合グラフ異常検出フレームワークを提案する。
ノードとエッジ間のコンテキスト埋め込みを交換することで、ノードとエッジの異常を相互に検出できる。
BOURNEは、負のサンプリングを必要としないため、大きなグラフを扱う際の効率を高めることができる。
論文 参考訳(メタデータ) (2023-07-28T00:44:57Z) - Attributed Abnormality Graph Embedding for Clinically Accurate X-Ray
Report Generation [7.118069629513661]
我々は、属性異常グラフ(ATAG)と呼ばれる、新しい微粒化知識グラフ構造を導入する。
ATAGは相互接続された異常ノードと属性ノードで構成されており、異常の詳細をより正確に把握することができる。
提案したATAG-based Deep ModelはSOTA法よりも大きなマージンで優れており, 得られた報告の臨床的精度を向上させることができる。
論文 参考訳(メタデータ) (2022-07-04T05:32:00Z) - Attention-Based Recommendation On Graphs [9.558392439655012]
グラフニューラルネットワーク(GNN)は、さまざまなタスクで顕著なパフォーマンスを示している。
本研究では,モデルベースレコメンデータシステムとしてGARecを提案する。
提案手法は,既存のモデルベース非グラフニューラルネットワークとグラフニューラルネットワークを異なるMovieLensデータセットで比較した。
論文 参考訳(メタデータ) (2022-01-04T21:02:02Z) - Deep Graph-level Anomaly Detection by Glocal Knowledge Distillation [61.39364567221311]
グラフレベルの異常検出(GAD)は、その構造やノードの特徴に異常なグラフを検出する問題を記述している。
GADの課題の1つは、局所的および大域的非正則グラフの検出を可能にするグラフ表現を考案することである。
本稿では,グラフとノード表現の連成ランダム蒸留により,グローバルおよびローカルな正規パターン情報を豊富に学習するGADのための新しい深部異常検出手法を提案する。
論文 参考訳(メタデータ) (2021-12-19T05:04:53Z) - A Hierarchical Spatio-Temporal Graph Convolutional Neural Network for
Anomaly Detection in Videos [11.423072255384469]
これらの問題に対処する階層型時空間グラフ畳み込みニューラルネットワーク(HSTGCNN)を提案する。
HSTGCNNは、グラフ表現の異なるレベルに対応する複数のブランチで構成されている。
高レベルグラフ表現は、低解像度ビデオにおける人々の移動速度と方向を符号化するために、高レベルグラフ表現は、高解像度ビデオにおける人間の骨格を符号化するために、高レベルグラフ表現が割り当てられる。
論文 参考訳(メタデータ) (2021-12-08T14:03:33Z) - Gait Identification under Surveillance Environment based on Human
Skeleton [18.344231394082506]
本稿では,骨格に基づく歩行識別ネットワークを提案する。
まず、ビデオから骨格配列を抽出し、それらを歩行グラフにマッピングする。
次に、時空間グラフ畳み込みネットワーク(ST-GCN)に基づく特徴抽出ネットワークを構築し、歩行表現を学習する。
論文 参考訳(メタデータ) (2021-11-23T08:30:26Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Structural Temporal Graph Neural Networks for Anomaly Detection in
Dynamic Graphs [54.13919050090926]
本稿では,動的グラフの異常エッジを検出するために,エンドツーエンドの時間構造グラフニューラルネットワークモデルを提案する。
特に,まずターゲットエッジを中心にした$h$ホップ囲むサブグラフを抽出し,各ノードの役割を識別するノードラベル機能を提案する。
抽出した特徴に基づき,GRU(Gated Recurrent Unit)を用いて,異常検出のための時間的情報を取得する。
論文 参考訳(メタデータ) (2020-05-15T09:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。