論文の概要: Multi-task Learning For Joint Action and Gesture Recognition
- arxiv url: http://arxiv.org/abs/2505.17867v1
- Date: Fri, 23 May 2025 13:16:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:34.097409
- Title: Multi-task Learning For Joint Action and Gesture Recognition
- Title(参考訳): 共同動作とジェスチャー認識のためのマルチタスク学習
- Authors: Konstantinos Spathis, Nikolaos Kardaris, Petros Maragos,
- Abstract要約: 動作およびジェスチャー認識にマルチタスク学習パラダイムを用いることで、より効率的で堅牢で一般化可能な視覚表現が得られることを示す。
複数のアクションとジェスチャデータセットの実験は、単一のアーキテクチャでのアクションとジェスチャの処理が両方のタスクでより良いパフォーマンスを達成することを実証している。
- 参考スコア(独自算出の注目度): 20.98281716661084
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In practical applications, computer vision tasks often need to be addressed simultaneously. Multitask learning typically achieves this by jointly training a single deep neural network to learn shared representations, providing efficiency and improving generalization. Although action and gesture recognition are closely related tasks, since they focus on body and hand movements, current state-of-the-art methods handle them separately. In this paper, we show that employing a multi-task learning paradigm for action and gesture recognition results in more efficient, robust and generalizable visual representations, by leveraging the synergies between these tasks. Extensive experiments on multiple action and gesture datasets demonstrate that handling actions and gestures in a single architecture can achieve better performance for both tasks in comparison to their single-task learning variants.
- Abstract(参考訳): 現実的な応用では、コンピュータビジョンタスクを同時に扱う必要があることが多い。
マルチタスク学習は通常、単一のディープニューラルネットワークを共同でトレーニングして共有表現を学習し、効率性を提供し、一般化を改善することでこれを達成します。
動作とジェスチャー認識は密接に関連するタスクであるが、身体と手の動きに焦点が当てられているため、現在の最先端の手法はそれらを別々に扱う。
本稿では,動作とジェスチャーの認識にマルチタスク学習パラダイムを用いることで,これらのタスク間の相乗効果を活用することにより,より効率的で堅牢で一般化可能な視覚表現が得られることを示す。
複数のアクションとジェスチャデータセットに関する大規模な実験は、単一のアーキテクチャでのアクションとジェスチャの処理が、シングルタスク学習の亜種と比較して、両方のタスクでより良いパフォーマンスを達成することを実証している。
関連論文リスト
- Learning Representation for Multitask learning through Self Supervised Auxiliary learning [3.236198583140341]
ハードパラメータ共有アプローチでは、複数のタスクを通して共有されるエンコーダは、タスク固有の予測子に渡されるデータ表現を生成する。
共有エンコーダが生成する表現の普遍性を改善することを目的としたダミー勾配ノルム正規化を提案する。
DGRは共有表現の品質を効果的に向上し、マルチタスク予測性能が向上することを示す。
論文 参考訳(メタデータ) (2024-09-25T06:08:35Z) - Sharing Knowledge in Multi-Task Deep Reinforcement Learning [57.38874587065694]
マルチタスク強化学習において、ディープニューラルネットワークを効果的に活用するためのタスク間の表現の共有の利点について検討する。
我々は,タスク間で表現を共有するのに便利な条件を強調する理論的保証を提供することで,これを証明している。
論文 参考訳(メタデータ) (2024-01-17T19:31:21Z) - Pre-training Multi-task Contrastive Learning Models for Scientific
Literature Understanding [52.723297744257536]
事前学習言語モデル(LM)は、科学文献理解タスクにおいて有効であることを示す。
文献理解タスク間の共通知識共有を容易にするために,マルチタスクのコントラスト学習フレームワークであるSciMultを提案する。
論文 参考訳(メタデータ) (2023-05-23T16:47:22Z) - Visual Exemplar Driven Task-Prompting for Unified Perception in
Autonomous Driving [100.3848723827869]
本稿では,タスク固有のプロンプトを通じて視覚的見本を提示する,効果的なマルチタスクフレームワークVE-Promptを提案する。
具体的には、境界ボックスと色に基づくマーカーに基づいて視覚的な例を生成し、ターゲットカテゴリの正確な視覚的外観を提供する。
我々は変圧器をベースとしたエンコーダと畳み込み層を橋渡しし、自律運転における効率的かつ正確な統合認識を実現する。
論文 参考訳(メタデータ) (2023-03-03T08:54:06Z) - Human-Centered Prior-Guided and Task-Dependent Multi-Task Representation
Learning for Action Recognition Pre-Training [8.571437792425417]
本稿では,人間中心の事前知識を利用した行動認識事前学習フレームワークを提案する。
具体的には、人間の構文解析モデルから知識を抽出し、表現の意味的能力を強化する。
さらに,知識蒸留とコントラスト学習を組み合わせることで,タスク依存型マルチタスクフレームワークを構成する。
論文 参考訳(メタデータ) (2022-04-27T06:51:31Z) - Leveraging convergence behavior to balance conflicting tasks in
multi-task learning [3.6212652499950138]
マルチタスク学習は、パフォーマンスの一般化を改善するために相関タスクを使用する。
タスクは互いに衝突することが多いため、複数のタスクの勾配をどのように組み合わせるべきかを定義するのは難しい。
バックプロパゲーション中の各タスクの重要度を調整する動的バイアスを生成するために,勾配の時間的挙動を考慮した手法を提案する。
論文 参考訳(メタデータ) (2022-04-14T01:52:34Z) - Modular Adaptive Policy Selection for Multi-Task Imitation Learning
through Task Division [60.232542918414985]
マルチタスク学習は、しばしば負の伝達に悩まされ、タスク固有の情報を共有する。
これは、プロトポリケーションをモジュールとして使用して、タスクを共有可能な単純なサブ振る舞いに分割する。
また、タスクを共有サブ行動とタスク固有のサブ行動の両方に自律的に分割する能力を示す。
論文 参考訳(メタデータ) (2022-03-28T15:53:17Z) - Towards More Generalizable One-shot Visual Imitation Learning [81.09074706236858]
汎用ロボットは、幅広いタスクを習得し、過去の経験を生かして、新しいタスクを素早く学ぶことができるべきである。
ワンショット模倣学習(OSIL)は、専門家のデモンストレーションでエージェントを訓練することで、この目標にアプローチする。
我々は、より野心的なマルチタスク設定を調査することで、より高度な一般化能力を追求する。
論文 参考訳(メタデータ) (2021-10-26T05:49:46Z) - MT-Opt: Continuous Multi-Task Robotic Reinforcement Learning at Scale [103.7609761511652]
大規模集団ロボット学習システムが,行動のレパートリーを同時に獲得できることを示す。
新しいタスクは、以前学んだタスクから継続的にインスタンス化できる。
我々は,7台のロボットから収集したデータを用いて,実世界のタスク12組でシステムを訓練し,評価する。
論文 参考訳(メタデータ) (2021-04-16T16:38:02Z) - Navigating the Trade-Off between Multi-Task Learning and Learning to
Multitask in Deep Neural Networks [9.278739724750343]
マルチタスク学習(マルチタスクきゅう、英: Multi-task learning)とは、機械学習において、ネットワークがタスクの取得を容易にするために様々なタスクで訓練されるパラダイムである。
マルチタスクは、特に認知科学の文献において、複数のタスクを同時に実行する能力を示すために用いられる。
深層ネットワークでも同様の緊張が生じていることを示し、エージェントが不慣れな環境でこのトレードオフを管理するためのメタ学習アルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-07-20T23:26:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。