論文の概要: EnsAug: Augmentation-Driven Ensembles for Human Motion Sequence Analysis
- arxiv url: http://arxiv.org/abs/2603.06661v1
- Date: Mon, 02 Mar 2026 03:35:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:12.605331
- Title: EnsAug: Augmentation-Driven Ensembles for Human Motion Sequence Analysis
- Title(参考訳): EnsAug:人間の動作シーケンス分析のための拡張駆動アンサンブル
- Authors: Bikram De, Habib Irani, Vangelis Metsis,
- Abstract要約: 本稿では,アンサンブル内でモデル多様性を育むために,戦略的に拡張を利用する新たなトレーニングパラダイムであるEnsAugを紹介する。
提案手法では,1つの異なる幾何学的変換のみを用いて,元のデータセットから各モデルを学習する専門家のアンサンブルを訓練する。
手話と人間の活動認識ベンチマークの実験は、我々の多様化したアンサンブル手法が標準的実践を大幅に上回っていることを示している。
- 参考スコア(独自算出の注目度): 1.2922946578413579
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data augmentation is a crucial technique for training robust deep learning models for human motion, where annotated datasets are often scarce. However, generic augmentation methods often ignore the underlying geometric and kinematic constraints of the human body, risking the generation of unrealistic motion patterns that can degrade model performance. Furthermore, the conventional approach of training a single generalist model on a dataset expanded with a mixture of all available transformations does not fully exploit the unique learning signals provided by each distinct augmentation type. We challenge this convention by introducing a novel training paradigm, EnsAug, that strategically uses augmentation to foster model diversity within an ensemble. Our method involves training an ensemble of specialists, where each model learns from the original dataset augmented by only a single, distinct geometric transformation. Experiments on sign language and human activity recognition benchmarks demonstrate that our diversified ensemble methodology significantly outperforms the standard practice of training one model on a combined augmented dataset and achieves state-of-the-art accuracy on two sign language and one human activity recognition dataset while offering greater modularity and efficiency. Our primary contribution is the empirical validation of this training strategy, establishing an effective baseline for leveraging data augmentation in skeletal motion analysis.
- Abstract(参考訳): データ拡張は、注釈付きデータセットが不足する人の動きのための堅牢なディープラーニングモデルをトレーニングするための重要なテクニックである。
しかしながら、一般的な拡張法は、人体の基本的な幾何学的および運動論的制約を無視し、モデル性能を低下させる非現実的な動きパターンの発生を危険にさらす。
さらに、利用可能な変換の混合で拡張されたデータセット上の単一ジェネリストモデルをトレーニングする従来のアプローチでは、個々の拡張型によって提供されるユニークな学習信号を完全に活用することはできない。
我々は、アンサンブル内でモデルの多様性を育むために拡張を戦略的に利用する新しいトレーニングパラダイムであるEnsAugを導入することで、この慣例に挑戦する。
提案手法では,1つの異なる幾何学的変換のみを用いて,元のデータセットから各モデルを学習する専門家のアンサンブルを訓練する。
手話と人間の活動認識ベンチマークの実験により、我々の多様化したアンサンブル手法は、統合された拡張現実データセット上で1つのモデルをトレーニングする標準的な実践を著しく上回り、2つの手話と1つの人間の活動認識データセットに対して最先端の精度を達成しつつ、よりモジュール性と効率性を提供しながら達成することを示した。
我々の主な貢献は、このトレーニング戦略の実証的検証であり、骨格運動解析におけるデータの増大を利用するための効果的なベースラインを確立することである。
関連論文リスト
- Sequential Data Augmentation for Generative Recommendation [54.765568804267645]
生成的レコメンデーションはパーソナライズされたシステムにおいて重要な役割を担い、ユーザの将来のインタラクションを過去の行動シーケンスから予測する。
データ拡張(Data augmentation)は、ユーザインタラクション履歴からトレーニングデータを構築するプロセスである。
我々は、サンプリングプロセスとして拡張をモデル化し、その結果のトレーニング分布の柔軟な制御を可能にする、原則化されたフレームワークであるGenPASを提案する。
ベンチマークと産業データセットを用いた実験により、GenPASは既存の戦略よりも精度、データ効率、パラメータ効率が優れていることが示された。
論文 参考訳(メタデータ) (2025-09-17T02:53:25Z) - UNIFORM: Unifying Knowledge from Large-scale and Diverse Pre-trained Models [62.76435672183968]
UNIFORMと呼ばれる新しいフレームワークを導入し、多様なオフザシェルフモデルから1つの学生モデルへ知識を伝達する。
本稿では,ロジットレベルでも機能レベルでも知識のコンセンサスを捉えるための,専用の投票機構を提案する。
UNIFORMは、強い知識伝達ベースラインに比べて、教師なしオブジェクト認識性能を効果的に向上することを示した。
論文 参考訳(メタデータ) (2025-08-27T00:56:11Z) - PEER pressure: Model-to-Model Regularization for Single Source Domain Generalization [12.15086255236961]
対象領域におけるこのような拡張に基づく手法の性能は、訓練中に普遍的に変動することを示す。
本稿では,新しい一般化法を提案する。
Space Ensemble with Entropy Regularization (PEER) – プロキシモデルを使用して、拡張データを学ぶ。
論文 参考訳(メタデータ) (2025-05-19T06:01:11Z) - FedAvgen: Metadata for Model Aggregation In Communication Systems [3.6957462300442736]
デバイスプロファイルにおける存在多様性から生じる課題について検討する。
このアプローチは、フェデレートラーニング(federated learning)として知られ、本質的には、グローバルモデルを得るために平均された候補クライアントモデルを選択するために、異なるテクニックを使用している。
次に,FedAvg(Federated Averaging)とFedSGD(Federated Gradient Descent)という2つの広く採用されているフェデレーション学習アルゴリズムと比較した。
論文 参考訳(メタデータ) (2025-04-28T13:11:32Z) - An Active Learning Framework for Inclusive Generation by Large Language Models [32.16984263644299]
大規模言語モデル(LLM)は、多様なサブ集団を表すテキストを生成する。
本稿では,知識蒸留により強化されたクラスタリングに基づくアクティブラーニングフレームワークを提案する。
2つの新しいデータセットをモデルトレーニングと組み合わせて構築し、ベースラインモデルよりも2%-10%の性能向上を示した。
論文 参考訳(メタデータ) (2024-10-17T15:09:35Z) - Regularized Neural Ensemblers [55.15643209328513]
本研究では,正規化ニューラルネットワークをアンサンブル手法として活用することを検討する。
低多様性のアンサンブルを学習するリスクを動機として,ランダムにベースモデル予測をドロップすることで,アンサンブルモデルの正規化を提案する。
このアプローチはアンサンブル内の多様性の低い境界を提供し、過度な適合を減らし、一般化能力を向上させる。
論文 参考訳(メタデータ) (2024-10-06T15:25:39Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Diversified Mutual Learning for Deep Metric Learning [42.42997713655545]
相互学習は、一般化を改善するためのアンサンブルトレーニング戦略である。
本研究では,多種多元多元学習(diversified Mutual Metric Learning)と呼ばれる,深層多元学習のための効果的な相互学習手法を提案する。
本手法は個々のモデルとアンサンブルを大幅に改善する。
論文 参考訳(メタデータ) (2020-09-09T09:00:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。