論文の概要: Transformers for 1D Signals in Parkinson's Disease Detection from Gait
- arxiv url: http://arxiv.org/abs/2204.00423v1
- Date: Fri, 1 Apr 2022 13:30:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-04 14:36:39.765335
- Title: Transformers for 1D Signals in Parkinson's Disease Detection from Gait
- Title(参考訳): パーキンソン病の歩行から検出する1d信号のトランスフォーマー
- Authors: Duc Minh Dimitri Nguyen, Mehdi Miah, Guillaume-Alexandre Bilodeau,
Wassim Bouachir
- Abstract要約: 本稿では,患者の歩行分析に基づくパーキンソン病の検出に焦点を当てた。
本稿では,トランスフォーマーによる特徴の自動抽出に基づく新しい手法を提案する。
我々のモデルは、パーキンソン病患者と健康な患者の区別において、95.2%の精度で現在の最先端のアルゴリズムより優れている。
- 参考スコア(独自算出の注目度): 11.759564521969379
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper focuses on the detection of Parkinson's disease based on the
analysis of a patient's gait. The growing popularity and success of Transformer
networks in natural language processing and image recognition motivated us to
develop a novel method for this problem based on an automatic features
extraction via Transformers. The use of Transformers in 1D signal is not really
widespread yet, but we show in this paper that they are effective in extracting
relevant features from 1D signals. As Transformers require a lot of memory, we
decoupled temporal and spatial information to make the model smaller. Our
architecture used temporal Transformers, dimension reduction layers to reduce
the dimension of the data, a spatial Transformer, two fully connected layers
and an output layer for the final prediction. Our model outperforms the current
state-of-the-art algorithm with 95.2\% accuracy in distinguishing a
Parkinsonian patient from a healthy one on the Physionet dataset. A key
learning from this work is that Transformers allow for greater stability in
results. The source code and pre-trained models are released in
https://github.com/DucMinhDimitriNguyen/Transformers-for-1D-signals-in-Parkinson-s-disease-detection -from-gait.git
- Abstract(参考訳): 本稿では,患者の歩行分析に基づくパーキンソン病の検出に焦点を当てた。
自然言語処理と画像認識におけるトランスフォーマネットワークの普及と成功は,トランスフォーマによる自動特徴抽出に基づくこの問題に対する新しい手法の開発を促した。
1D信号におけるトランスフォーマーの使用は、まだ普及していないが、1D信号から関連する特徴を抽出するのに有効であることを示す。
トランスフォーマーは大量のメモリを必要とするため、時間情報と空間情報を分離してモデルを小さくする。
私たちのアーキテクチャは、時間的トランスフォーマー、データ次元を減らすための次元縮小層、空間的トランスフォーマー、2つの完全連結層、最終予測のための出力層を用いています。
本モデルは,パーキンソン病患者を生理学的データセット上の健康な患者と区別する上で,現在の最先端アルゴリズムを95.2\%精度で上回っている。
この研究から学んだ重要なことは、トランスフォーマーが結果の安定性を高めることだ。
ソースコードと事前トレーニングされたモデルはhttps://github.com/DucMinhDimitriNguyen/Transformers-for-1D-signals-in-Parkinson-s-disease-detection -from-gait.gitで公開されている。
関連論文リスト
- 1D-Convolutional transformer for Parkinson disease diagnosis from gait [7.213855322671065]
本稿では,歩行からパーキンソン病の診断に有効なディープニューラルネットワークモデルを提案する。
本稿では,重症度を検知し,病状を正確に診断するためのハイブリッドConvNetTransform-erアーキテクチャを提案する。
提案手法は歩行データからパーキンソン病の異なる段階を検出するのに有効であることが示された。
論文 参考訳(メタデータ) (2023-11-06T15:17:17Z) - HCT: Hybrid Convnet-Transformer for Parkinson's disease detection and
severity prediction from gait [7.213855322671065]
歩行データからパーキンソン病(PD)を検出・発生するための新しい深層学習法を提案する。
我々のハイブリッドアーキテクチャは、畳み込みニューラルネットワーク(ConvNets)とトランスフォーマーの両方の長所を利用して、PDを正確に検出し、重大度ステージを決定する。
PD検出精度は97%,重度ステージング精度は87%であった。
論文 参考訳(メタデータ) (2023-10-26T00:43:15Z) - The Lazy Neuron Phenomenon: On Emergence of Activation Sparsity in
Transformers [59.87030906486969]
本稿では,Transformer アーキテクチャを用いた機械学習モデルにおいて,アクティベーションマップが疎いという興味深い現象について考察する。
本稿では, 自然言語処理と視覚処理の両方において, スパーシリティが顕著な現象であることを示す。
本稿では,変換器のFLOP数を大幅に削減し,効率を向上する手法について論じる。
論文 参考訳(メタデータ) (2022-10-12T15:25:19Z) - Pix4Point: Image Pretrained Standard Transformers for 3D Point Cloud
Understanding [62.502694656615496]
本稿では、プログレッシブ・ポイント・パッチ・エンベディングと、PViTと呼ばれる新しいポイント・クラウド・トランスフォーマーモデルを提案する。
PViTはTransformerと同じバックボーンを共有しているが、データに対して空腹が少ないことが示されており、Transformerは最先端技術に匹敵するパフォーマンスを実現することができる。
我々は、イメージ領域で事前訓練されたトランスフォーマーを活用して、下流のクラウド理解を強化する、シンプルで効果的なパイプライン「Pix4Point」を定式化します。
論文 参考訳(メタデータ) (2022-08-25T17:59:29Z) - Focused Decoding Enables 3D Anatomical Detection by Transformers [64.36530874341666]
集束デコーダと呼ばれる3次元解剖学的構造検出のための新しい検出変換器を提案する。
Focused Decoderは、解剖学的領域のアトラスからの情報を活用して、クエリアンカーを同時にデプロイし、クロスアテンションの視野を制限する。
提案手法を利用可能な2つのCTデータセットに対して評価し、フォーカスドデコーダが強力な検出結果を提供するだけでなく、大量の注釈付きデータの必要性を軽減し、注意重みによる結果の例外的で直感的な説明性を示すことを示した。
論文 参考訳(メタデータ) (2022-07-21T22:17:21Z) - The Fully Convolutional Transformer for Medical Image Segmentation [2.87898780282409]
そこで本研究では,様々なモダリティの医用画像の分割が可能なトランスフォーマーモデルを提案する。
FCT(Fully Convolutional Transformer)は、医学画像学における最初の完全畳み込みトランスモデルである。
論文 参考訳(メタデータ) (2022-06-01T15:22:41Z) - Finetuning Pretrained Transformers into Variational Autoencoders [0.0]
テキスト変分オートエンコーダ(VAE)は後部崩壊で有名である。
トランスフォーマーはテキストVAEのコンポーネントとして限定的に採用されている。
そこで本研究では,シーケンス・ツー・シーケンス・トランスフォーマーをVAEに変換するための2段階の簡単なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-08-05T08:27:26Z) - Vision Transformer with Progressive Sampling [73.60630716500154]
本稿では,識別領域を特定するための反復的・漸進的なサンプリング手法を提案する。
ImageNetでスクラッチからトレーニングされた場合、PS-ViTはトップ1の精度でバニラViTよりも3.8%高いパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-08-03T18:04:31Z) - Transformer-Based Deep Image Matching for Generalizable Person
Re-identification [114.56752624945142]
画像マッチングと距離学習にトランスフォーマーを適用する可能性について検討する。
視覚変換器 (ViT) とデコーダ付きバニラ変換器 (Vanilla Transformer) はイメージ・ツー・イメージ・アテンションの欠如により画像マッチングに適していないことがわかった。
そこで本研究では,クエリキーの類似性のみを保ちながら,ソフトマックス重み付けによる注意の完全な実装を省略する,単純化されたデコーダを提案する。
論文 参考訳(メタデータ) (2021-05-30T05:38:33Z) - Spatiotemporal Transformer for Video-based Person Re-identification [102.58619642363958]
我々は、強い学習能力にもかかわらず、バニラトランスフォーマーは過剰フィットのリスクの増加に苦しむことを示しています。
そこで本研究では,合成ビデオデータからモデルを事前学習し,下流領域に伝達する新しいパイプラインを提案する。
提案アルゴリズムは,3つの人気ビデオベース人物識別ベンチマークにおいて,精度向上を実現する。
論文 参考訳(メタデータ) (2021-03-30T16:19:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。