論文の概要: Prototype Learning for Micro-gesture Classification
- arxiv url: http://arxiv.org/abs/2408.03097v1
- Date: Tue, 6 Aug 2024 10:56:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-07 14:17:45.601643
- Title: Prototype Learning for Micro-gesture Classification
- Title(参考訳): マイクロジェスチャー分類のためのプロトタイプ学習
- Authors: Guoliang Chen, Fei Wang, Kun Li, Zhiliang Wu, Hehe Fan, Yi Yang, Meng Wang, Dan Guo,
- Abstract要約: 我々は,IJCAI 2024におけるMiGAチャレンジにおいて,マイクロ位置分類のためのHFUT-VUTの開発したソリューションを紹介した。
マイクロジェスチャー分類タスクのタスクは、より微細で微妙な身体の動きに焦点を当てたビデオクリップのカテゴリを認識することである。
我々は、MG特徴の識別能力を向上させるために、2つの革新的なモジュール、すなわち、クロスモーダル融合モジュールと原型精製モジュールを利用する。
- 参考スコア(独自算出の注目度): 47.92089840320192
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we briefly introduce the solution developed by our team, HFUT-VUT, for the track of Micro-gesture Classification in the MiGA challenge at IJCAI 2024. The task of micro-gesture classification task involves recognizing the category of a given video clip, which focuses on more fine-grained and subtle body movements compared to typical action recognition tasks. Given the inherent complexity of micro-gesture recognition, which includes large intra-class variability and minimal inter-class differences, we utilize two innovative modules, i.e., the cross-modal fusion module and prototypical refinement module, to improve the discriminative ability of MG features, thereby improving the classification accuracy. Our solution achieved significant success, ranking 1st in the track of Micro-gesture Classification. We surpassed the performance of last year's leading team by a substantial margin, improving Top-1 accuracy by 6.13%.
- Abstract(参考訳): 本稿では,IJCAI 2024のMiGAチャレンジにおいて,マイクロ位置分類のためのHFUT-VUTというチームが開発したソリューションについて紹介する。
マイクロジェスチャー分類タスクのタスクは、あるビデオクリップのカテゴリを認識することであり、典型的なアクション認識タスクと比較して、より微細で微妙な身体の動きに焦点を当てている。
クラス内変異とクラス間差の最小化を含むマイクロ・ジェスチャー認識の本質的な複雑さを考慮し,MG特徴の識別能力を向上し,分類精度を向上させるために,クロスモーダル・フュージョン・モジュールとプロトタイプ・リファインメント・モジュールの2つのイノベーティブ・モジュールを利用する。
われわれのソリューションは大きな成功をおさめ、マイクロジェスチャー分類のトラックで第1位にランクインした。
私たちは昨年のトップチームのパフォーマンスをかなり上回り、トップ1の精度を6.13%向上させました。
関連論文リスト
- An Information Compensation Framework for Zero-Shot Skeleton-based Action Recognition [49.45660055499103]
ゼロショットの人間の骨格に基づく行動認識は、トレーニング中に見られるカテゴリ外の行動を認識するモデルを構築することを目的としている。
従来の研究では、シーケンスの視覚的空間分布と意味的空間分布の整合性に焦点が当てられていた。
強固で頑健な表現を得るために,新たな損失関数サンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-06-02T06:53:01Z) - Meta-Learned Modality-Weighted Knowledge Distillation for Robust Multi-Modal Learning with Missing Data [26.81952369462594]
マルチモーダル学習では、いくつかのモダリティは他のモダリティよりも影響を受けており、それらの欠如は分類・分類精度に大きな影響を及ぼす可能性がある。
本稿では,メタ学習型モダリティ重み付き知識蒸留(MetaKD)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-12T04:18:10Z) - Joint Skeletal and Semantic Embedding Loss for Micro-gesture
Classification [22.39508716880036]
動作分類性能を向上させるために骨格とセマンティック埋め込み損失を組み込んだ3D-CNNを用いたマイクロ位置認識ネットワークを提案する。
私たちは、トップ1の正確さで2位を1.10%上回る微身長分類チャレンジで1位にランクインした。
論文 参考訳(メタデータ) (2023-07-20T06:44:42Z) - USER: Unified Semantic Enhancement with Momentum Contrast for Image-Text
Retrieval [115.28586222748478]
Image-Text Retrieval (ITR) は、与えられたクエリに意味のあるターゲットインスタンスを、他のモダリティから検索することを目的としている。
既存のアプローチは通常、2つの大きな制限に悩まされる。
論文 参考訳(メタデータ) (2023-01-17T12:42:58Z) - Bi-directional Feature Reconstruction Network for Fine-Grained Few-Shot
Image Classification [61.411869453639845]
クラス間およびクラス内変動を同時に対応できるバイコンストラクション機構を導入する。
この設計は、モデルがより微妙で差別的な特徴を探索するのに役立つ。
広範に使用されている3つのきめ細かな画像分類データセットに対する実験結果は、一貫して大幅に改善されている。
論文 参考訳(メタデータ) (2022-11-30T16:55:14Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - Rank4Class: A Ranking Formulation for Multiclass Classification [26.47229268790206]
マルチクラス分類(MCC)は基本的な機械学習問題である。
ランキングのレンズを通した新しい定式化により,MCCの性能を向上させることは容易であることを示す。
論文 参考訳(メタデータ) (2021-12-17T19:22:37Z) - Few-Shot Fine-Grained Action Recognition via Bidirectional Attention and
Contrastive Meta-Learning [51.03781020616402]
現実世界のアプリケーションで特定のアクション理解の需要が高まっているため、きめ細かいアクション認識が注目を集めている。
そこで本研究では,各クラスに付与されるサンプル数だけを用いて,新規なきめ細かい動作を認識することを目的とした,数発のきめ細かな動作認識問題を提案する。
粒度の粗い動作では進展があったが、既存の数発の認識手法では、粒度の細かい動作を扱う2つの問題に遭遇する。
論文 参考訳(メタデータ) (2021-08-15T02:21:01Z) - MIN2Net: End-to-End Multi-Task Learning for Subject-Independent Motor
Imagery EEG Classification [10.773708402778025]
脳波のリズムは被験者に特有のものであり、時間とともに様々な変化が起こる。
本稿では,この課題に対処するための新しいエンドツーエンドマルチタスク学習であるMIN2Netを提案する。
深層学習をマルチタスクオートエンコーダに統合し,脳波からコンパクトかつ識別可能な潜在表現を学習する。
論文 参考訳(メタデータ) (2021-02-07T15:20:23Z) - Objective Class-based Micro-Expression Recognition through Simultaneous
Action Unit Detection and Feature Aggregation [18.35953886595087]
目的クラスに基づくマイクロ圧縮認識(MER)のための新しいディープニューラルネットワークモデルを提案する。
我々のモデルは同時にアクションユニット(AU)を検出し、AUレベルの特徴をマイクロ圧縮レベル表現に集約する。
私たちのアプローチは、MERの現在の最新技術を大幅に上回ります。
論文 参考訳(メタデータ) (2020-12-24T07:31:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。