論文の概要: Video-based Contrastive Learning on Decision Trees: from Action
Recognition to Autism Diagnosis
- arxiv url: http://arxiv.org/abs/2304.10073v2
- Date: Fri, 21 Apr 2023 06:17:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 11:23:32.624508
- Title: Video-based Contrastive Learning on Decision Trees: from Action
Recognition to Autism Diagnosis
- Title(参考訳): ビデオによる決定木におけるコントラスト学習:行動認識から自閉症診断まで
- Authors: Mindi Ruan, Xiangxu Yu, Na Zhang, Chuanbo Hu, Shuo Wang, Xin Li
- Abstract要約: 決定木に基づく行動分類のための新しいコントラスト学習ベースのフレームワークを提案する。
鍵となる考え方は、もともとのマルチクラスアクション認識を、事前構築された決定ツリー上の一連のバイナリ分類タスクに変換することである。
我々は,CalTechインタビュービデオデータベース上で,ビデオベース自閉症スペクトラム障害診断の有望な性能を実証した。
- 参考スコア(独自算出の注目度): 17.866016075963437
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How can we teach a computer to recognize 10,000 different actions? Deep
learning has evolved from supervised and unsupervised to self-supervised
approaches. In this paper, we present a new contrastive learning-based
framework for decision tree-based classification of actions, including
human-human interactions (HHI) and human-object interactions (HOI). The key
idea is to translate the original multi-class action recognition into a series
of binary classification tasks on a pre-constructed decision tree. Under the
new framework of contrastive learning, we present the design of an interaction
adjacent matrix (IAM) with skeleton graphs as the backbone for modeling various
action-related attributes such as periodicity and symmetry. Through the
construction of various pretext tasks, we obtain a series of binary
classification nodes on the decision tree that can be combined to support
higher-level recognition tasks. Experimental justification for the potential of
our approach in real-world applications ranges from interaction recognition to
symmetry detection. In particular, we have demonstrated the promising
performance of video-based autism spectrum disorder (ASD) diagnosis on the
CalTech interview video database.
- Abstract(参考訳): コンピュータに1万の異なる行動を認識させる方法
ディープラーニングは、教師なしと教師なしのアプローチから自己監督のアプローチへと進化してきた。
本稿では,人-人-物間相互作用(HHI)や人-物間相互作用(HOI)を含む,決定木に基づく行動分類のための新しいコントラスト学習ベースのフレームワークを提案する。
キーとなるアイデアは、元のマルチクラスアクション認識を、事前構築された決定木上の一連のバイナリ分類タスクに変換することである。
対照的学習の新たな枠組みとして,周期性や対称性などの行動関連属性をモデル化するためのバックボーンとして,スケルトングラフと相互作用隣接行列(IAM)の設計を提案する。
様々なプレテキストタスクの構築を通じて、より高度な認識タスクをサポートするために組み合わせることができる決定ツリー上の一連のバイナリ分類ノードを得る。
実世界の応用における我々のアプローチの可能性の実験的正当化は、インタラクション認識から対称性検出まで幅広い。
特に,CalTechインタビュービデオデータベースにおいて,ビデオベース自閉症スペクトラム障害 (ASD) 診断の有望な性能を実証した。
関連論文リスト
- Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - An Information Compensation Framework for Zero-Shot Skeleton-based Action Recognition [49.45660055499103]
ゼロショットの人間の骨格に基づく行動認識は、トレーニング中に見られるカテゴリ外の行動を認識するモデルを構築することを目的としている。
従来の研究では、シーケンスの視覚的空間分布と意味的空間分布の整合性に焦点が当てられていた。
強固で頑健な表現を得るために,新たな損失関数サンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-06-02T06:53:01Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - Joint Engagement Classification using Video Augmentation Techniques for
Multi-person Human-robot Interaction [22.73774398716566]
本稿では,親子のダイアドの交際関係を同定するための新しい枠組みを提案する。
家庭の社会ロボットと一緒に物語本を読む親のダイアドのデータセットを用いて、まずRGBフレームと骨格ベースの関節エンゲージメント認識モデルを訓練する。
第2に,ロボット親子間相互作用における学習モデルの使用に関する実験結果を示す。
論文 参考訳(メタデータ) (2022-12-28T23:52:55Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - Exoskeleton-Based Multimodal Action and Movement Recognition:
Identifying and Developing the Optimal Boosted Learning Approach [0.0]
本稿では,エクソスケルトンに基づく行動認識と運動認識の分野での2つの科学的貢献について述べる。
幅広いアクションや動きを検知できる、新しい機械学習とパターン認識ベースのフレームワークを提供する。
論文 参考訳(メタデータ) (2021-06-18T19:43:54Z) - Transferable Interactiveness Knowledge for Human-Object Interaction
Detection [46.89715038756862]
我々は,人間と物体が相互に相互作用するか否かを示す対話性知識を探索する。
対話性に関する知識は、HOIデータセット全体で学習でき、多様なHOIカテゴリ設定のギャップを埋めることができる。
私たちのコアアイデアは、対話性ネットワークを利用して、複数のHOIデータセットから一般的な対話性知識を学ぶことです。
論文 参考訳(メタデータ) (2021-01-25T18:21:07Z) - MS$^2$L: Multi-Task Self-Supervised Learning for Skeleton Based Action
Recognition [36.74293548921099]
動作予測,ジグソーパズル認識,コントラスト学習を統合し,異なる側面から骨格の特徴を学習する。
NW-UCLA, NTU RGB+D, PKUMMDデータセットを用いた実験は, 行動認識における顕著な性能を示した。
論文 参考訳(メタデータ) (2020-10-12T11:09:44Z) - Symbiotic Adversarial Learning for Attribute-based Person Search [86.7506832053208]
本稿では,共生学習の枠組みとして,共生学習の基盤に2つのGANを配置する。
具体的には、2種類の生成的敵ネットワークがトレーニングプロセスを通して協調的に学習する。
論文 参考訳(メタデータ) (2020-07-19T07:24:45Z) - Automatic Gesture Recognition in Robot-assisted Surgery with
Reinforcement Learning and Tree Search [63.07088785532908]
共同手術におけるジェスチャー分割と分類のための強化学習と木探索に基づく枠組みを提案する。
我々のフレームワークは,JIGSAWSデータセットのサチューリングタスクにおいて,精度,編集スコア,F1スコアの点で,既存の手法よりも一貫して優れています。
論文 参考訳(メタデータ) (2020-02-20T13:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。