論文の概要: Activity Recognition with Moving Cameras and Few Training Examples:
Applications for Detection of Autism-Related Headbanging
- arxiv url: http://arxiv.org/abs/2101.03478v1
- Date: Sun, 10 Jan 2021 05:37:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 08:21:18.516944
- Title: Activity Recognition with Moving Cameras and Few Training Examples:
Applications for Detection of Autism-Related Headbanging
- Title(参考訳): 移動カメラを用いた行動認識と訓練例:自閉症関連ヘッドバンギング検出への応用
- Authors: Peter Washington, Aaron Kline, Onur Cezmi Mutlu, Emilie Leblanc, Cathy
Hou, Nate Stockham, Kelley Paskov, Brianna Chrisman, Dennis P. Wall
- Abstract要約: 行動認識コンピュータビジョンアルゴリズムは、自閉症に関連する行動の存在を検出するために使用できる。
ヘッドバンジ検出に適用した場合のアクティビティ認識における現在の特徴表現技術の利点と限界を文書化します。
時間分散畳み込みニューラルネットワークを用いて,ホームビデオのヘッドバンジを検出するコンピュータビジョン分類器を作成する。
- 参考スコア(独自算出の注目度): 1.603589863010401
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Activity recognition computer vision algorithms can be used to detect the
presence of autism-related behaviors, including what are termed "restricted and
repetitive behaviors", or stimming, by diagnostic instruments. The limited data
that exist in this domain are usually recorded with a handheld camera which can
be shaky or even moving, posing a challenge for traditional feature
representation approaches for activity detection which mistakenly capture the
camera's motion as a feature. To address these issues, we first document the
advantages and limitations of current feature representation techniques for
activity recognition when applied to head banging detection. We then propose a
feature representation consisting exclusively of head pose keypoints. We create
a computer vision classifier for detecting head banging in home videos using a
time-distributed convolutional neural network (CNN) in which a single CNN
extracts features from each frame in the input sequence, and these extracted
features are fed as input to a long short-term memory (LSTM) network. On the
binary task of predicting head banging and no head banging within videos from
the Self Stimulatory Behaviour Dataset (SSBD), we reach a mean F1-score of
90.77% using 3-fold cross validation (with individual fold F1-scores of 83.3%,
89.0%, and 100.0%) when ensuring that no child who appeared in the train set
was in the test set for all folds. This work documents a successful technique
for training a computer vision classifier which can detect human motion with
few training examples and even when the camera recording the source clips is
unstable. The general methods described here can be applied by designers and
developers of interactive systems towards other human motion and pose
classification problems used in mobile and ubiquitous interactive systems.
- Abstract(参考訳): 活動認識コンピュータビジョンアルゴリズムは、「制限的かつ反復的な行動」と呼ばれるものを含む自閉症に関連する行動の存在を診断器によって検出することができる。
この領域に存在する限られたデータは、通常は手持ちのカメラで記録されるが、これは、カメラの動作を誤って特徴として捉えた活動検出のための伝統的な特徴表現アプローチの挑戦である。
これらの問題に対処するため,我々はまず,頭打ち検出に適用した場合の動作認識における現在の特徴表現手法の利点と限界を文書化する。
次に,頭部ポーズキーポイントのみからなる特徴表現を提案する。
我々は、CNNが入力シーケンスの各フレームから特徴を抽出する時間分散畳み込みニューラルネットワーク(CNN)を用いて、ホームビデオの頭部バンピングを検出するコンピュータビジョン分類器を作成し、これらの特徴を長い短期記憶(LSTM)ネットワークへの入力として供給する。
自己刺激行動データセット(self stimulatory behavior dataset:ssbd)からビデオ中の頭打ちや頭打ちを予測できないというバイナリタスクにおいて、列車に登場した子供が全員テストセットにいなかったことを保証するために、3倍のクロス検証(個別のf1-score:83.3%、89.0%、および100.0%)を用いて、平均的なf1-score(90.77%)に達する。
本研究は,映像クリップを撮影するカメラが不安定である場合でも,少ないトレーニング例で人間の動作を検出するコンピュータビジョン分類器の訓練に成功した技術について述べる。
ここで述べる一般的な方法は、インタラクティブシステムの設計者や開発者によって、モバイルおよびユビキタスなインタラクティブシステムで使用される他の人間の動きやポーズ分類問題に対して適用することができる。
関連論文リスト
- EventTransAct: A video transformer-based framework for Event-camera
based action recognition [52.537021302246664]
イベントカメラは、RGBビデオの標準アクション認識と比較して、新しい機会を提供する。
本研究では,最初にイベントフレーム当たりの空間埋め込みを取得するビデオトランスフォーマーネットワーク(VTN)という,計算効率のよいモデルを用いる。
イベントデータのスパースできめ細かい性質にVTNをよりよく採用するために、イベントコントラストロス(mathcalL_EC$)とイベント固有の拡張を設計する。
論文 参考訳(メタデータ) (2023-08-25T23:51:07Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Self-Supervised Masked Convolutional Transformer Block for Anomaly
Detection [122.4894940892536]
本稿では, 自己監督型マスク型畳み込み変圧器ブロック (SSMCTB) について述べる。
本研究では,従来の自己教師型予測畳み込み抑止ブロック(SSPCAB)を3次元マスク付き畳み込み層,チャンネルワイドアテンション用トランスフォーマー,およびハマーロスに基づく新たな自己教師型目標を用いて拡張する。
論文 参考訳(メタデータ) (2022-09-25T04:56:10Z) - Differentiable Frequency-based Disentanglement for Aerial Video Action
Recognition [56.91538445510214]
ビデオにおける人間の行動認識のための学習アルゴリズムを提案する。
我々のアプローチは、主に斜めに配置されたダイナミックカメラから取得されるUAVビデオのために設計されている。
我々はUAV HumanデータセットとNEC Droneデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-09-15T22:16:52Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Event and Activity Recognition in Video Surveillance for Cyber-Physical
Systems [0.0]
長期動作パターンは、イベントを認識するタスクにおいて、それ自体が重要な役割を果たす。
本研究では,イベント認識作業において,長期動作パターンのみが重要な役割を担っていることを示す。
時間的特徴のみをハイブリッド畳み込みニューラルネットワーク(CNN)+リカレントニューラルネットワーク(RNN)アーキテクチャで活用する。
論文 参考訳(メタデータ) (2021-11-03T08:30:38Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - Complex Human Action Recognition in Live Videos Using Hybrid FR-DL
Method [1.027974860479791]
入力シーケンス中の代表フレームの自動選択により,前処理フェーズの課題に対処する。
本稿では,バックグラウンドサブトラクションとHOGを用いたハイブリッド手法を提案し,続いて深層ニューラルネットワークと骨格モデリング手法を適用した。
本稿では,このモデルをFR-DL(Feature Reduction & Deep Learning based action recognition method)と呼ぶ。
論文 参考訳(メタデータ) (2020-07-06T15:12:50Z) - Automatic Operating Room Surgical Activity Recognition for
Robot-Assisted Surgery [1.1033115844630357]
ロボット支援手術における自動手術活動認識について検討した。
400本のフル長マルチパースペクティブビデオを含む,最初の大規模データセットを収集する。
ビデオに最も認識され,臨床的に関係のある10のクラスで注釈を付ける。
論文 参考訳(メタデータ) (2020-06-29T16:30:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。