論文の概要: Automated Temporal Segmentation of Orofacial Assessment Videos
- arxiv url: http://arxiv.org/abs/2208.10591v1
- Date: Mon, 22 Aug 2022 20:53:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 13:43:56.951329
- Title: Automated Temporal Segmentation of Orofacial Assessment Videos
- Title(参考訳): 顎顔面アセスメントビデオの自動時間分割
- Authors: Saeid Alavi Naeini, Leif Simmatis, Deniz Jafari, Diego L. Guarin, Yana
Yunusova, Babak Taati
- Abstract要約: コンピュータビジョン技術は、口腔疾患の検査を自動化するか、部分的に自動化するのに役立つ。
口腔アセスメントビデオにおいて2つの方法を用いて, 時間的分割(パース)を繰り返し検出し, 時間的分割を行った。
- 参考スコア(独自算出の注目度): 3.807022558539788
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computer vision techniques can help automate or partially automate clinical
examination of orofacial impairments to provide accurate and objective
assessments. Towards the development of such automated systems, we evaluated
two approaches to detect and temporally segment (parse) repetitions in
orofacial assessment videos. Recorded videos of participants with amyotrophic
lateral sclerosis (ALS) and healthy control (HC) individuals were obtained from
the Toronto NeuroFace Dataset. Two approaches for repetition detection and
parsing were examined: one based on engineered features from tracked facial
landmarks and peak detection in the distance between the vermilion-cutaneous
junction of the upper and lower lips (baseline analysis), and another using a
pre-trained transformer-based deep learning model called RepNet (Dwibedi et al,
2020), which automatically detects periodicity, and parses periodic and
semi-periodic repetitions in video data. In experimental evaluation of two
orofacial assessments tasks, - repeating maximum mouth opening (OPEN) and
repeating the sentence "Buy Bobby a Puppy" (BBP) - RepNet provided better
parsing than the landmark-based approach, quantified by higher mean
intersection-over-union (IoU) with respect to ground truth manual parsing.
Automated parsing using RepNet also clearly separated HC and ALS participants
based on the duration of BBP repetitions, whereas the landmark-based method
could not.
- Abstract(参考訳): コンピュータビジョン技術は、口腔疾患の検査を自動化または部分的に自動化し、正確で客観的な評価を提供するのに役立つ。
このような自動システムの開発に向けて, 口腔顔面評価ビデオにおける反復検出と時間分割の2つのアプローチを評価した。
トロント・ニューロフェイス・データセットから筋萎縮性側索硬化症(als)と健康管理(hc)の参加者のビデオが得られた。
2つの繰り返し検出・解析手法について検討した。1つは追跡された顔のランドマークと上唇と下唇の乳頭皮膚節間距離のピーク検出(ベースライン解析)、もう1つはビデオデータの周期性を自動的に検出し半周期的繰り返しを解析するRepNet(Dwibedi et al, 2020)と呼ばれる事前訓練されたトランスフォーマーベースのディープラーニングモデルを用いた。
最大口開放 (OPEN) と「Buy Bobby a Puppy」 (BBP) の2つの口腔アセスメントタスクの実験的評価において、RepNetはランドマークに基づくアプローチよりも優れたパーシングを提供し、地上の真実のマニュアル解析に関して高い平均交叉対位 (IoU) で定量化した。
RepNetを用いた自動解析では,BBP反復時間に基づいてHCとALSの参加者を分離した。
関連論文リスト
- Bootstrapping Vision-language Models for Self-supervised Remote Physiological Measurement [26.480515954528848]
本稿では,一般的な視覚言語モデルとリモート生理計測タスクをうまく統合する新しいフレームワークを提案する。
フレームワークを最適化する一連の生成的かつコントラスト的な学習メカニズムを開発した。
本手法は,視覚・テキストモダリティにおける周波数関連知識の消化・調整にVLMを初めて適用した手法である。
論文 参考訳(メタデータ) (2024-07-11T13:45:50Z) - Seq2seq for Automatic Paraphasia Detection in Aphasic Speech [14.686874756530322]
失語症は失語症の特徴である発話誤りであり、病気の重症度やサブタイプを評価する上で重要な信号である。
伝統的に、臨床医は言語サンプルの翻訳と分析によってパラファシアを手動で識別する。
本稿では,ASRと失語症検出の両方を行うために,エンドツーエンド(E2E)を訓練した新しいシーケンス・ツー・シーケンス(seq2seq)モデルを提案する。
論文 参考訳(メタデータ) (2023-12-16T18:22:37Z) - A Multi-channel EEG Data Analysis for Poor Neuro-prognostication in
Comatose Patients with Self and Cross-channel Attention Mechanism [1.9288445804756893]
両極性脳波 (EEG) 記録の予測可能性について検討した。
ハイブリッドなディープラーニングアプローチを用いた振り返り設計を用いて、高い特異性を目的とした目的関数を最適化する。
論文 参考訳(メタデータ) (2023-09-24T13:13:29Z) - Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - Automatically measuring speech fluency in people with aphasia: first
achievements using read-speech data [55.84746218227712]
本研究の目的は,言語習得の分野で開発された信号処理algorithmの関連性を評価することである。
論文 参考訳(メタデータ) (2023-08-09T07:51:40Z) - MMA-RNN: A Multi-level Multi-task Attention-based Recurrent Neural
Network for Discrimination and Localization of Atrial Fibrillation [1.8037893225125925]
本稿では,多段階マルチタスク・アテンションに基づくリカレントニューラルネットワークを提案する。
このモデルは、情報インタラクションを強化し、エラーの蓄積を減らすためのエンドツーエンドフレームワークとして設計されている。
論文 参考訳(メタデータ) (2023-02-07T19:59:55Z) - Application of the nnU-Net for automatic segmentation of lung lesion on
CT images, and implication on radiomic models [1.8231394717039833]
非小細胞肺癌患者のCT画像にディープラーニング自動分画法を適用した。
生存放射線モデルの性能評価において,手動と自動セグメンテーションの併用も検討した。
論文 参考訳(メタデータ) (2022-09-24T15:04:23Z) - Lung Cancer Lesion Detection in Histopathology Images Using Graph-Based
Sparse PCA Network [93.22587316229954]
ヘマトキシリンとエオシン(H&E)で染色した組織学的肺スライドにおける癌病変の自動検出のためのグラフベーススパース成分分析(GS-PCA)ネットワークを提案する。
我々は,SVM K-rasG12D肺がんモデルから得られたH&Eスライダーの精度・リコール率,Fスコア,谷本係数,レシーバ演算子特性(ROC)の曲線下領域を用いて,提案アルゴリズムの性能評価を行った。
論文 参考訳(メタデータ) (2021-10-27T19:28:36Z) - Visualizing Classifier Adjacency Relations: A Case Study in Speaker
Verification and Voice Anti-Spoofing [72.4445825335561]
任意のバイナリ分類器によって生成される検出スコアから2次元表現を導出する簡単な方法を提案する。
ランク相関に基づいて,任意のスコアを用いた分類器の視覚的比較を容易にする。
提案手法は完全に汎用的であり,任意の検出タスクに適用可能だが,自動話者検証と音声アンチスプーフィングシステムによるスコアを用いた手法を実証する。
論文 参考訳(メタデータ) (2021-06-11T13:03:33Z) - BiteNet: Bidirectional Temporal Encoder Network to Predict Medical
Outcomes [53.163089893876645]
本稿では,患者の医療旅行におけるコンテキスト依存と時間的関係を捉える,新たな自己注意機構を提案する。
エンド・ツー・エンドの双方向時間エンコーダネットワーク(BiteNet)が患者の旅路の表現を学習する。
実世界のEHRデータセットを用いた2つの教師付き予測と2つの教師なしクラスタリングタスクにおける手法の有効性を評価した。
論文 参考訳(メタデータ) (2020-09-24T00:42:36Z) - AutoHR: A Strong End-to-end Baseline for Remote Heart Rate Measurement
with Neural Searching [76.4844593082362]
既存のエンド・ツー・エンドのネットワークが難易度が低い理由を考察し,アーキテクチャ・サーチ(NAS)を用いたリモートHR計測のための強力なベースラインを確立する。
総合的な実験は、時間内テストとクロスデータセットテストの両方で3つのベンチマークデータセットで実施される。
論文 参考訳(メタデータ) (2020-04-26T05:43:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。