論文の概要: Can Ensemble of Classifiers Provide Better Recognition Results in
Packaging Activity?
- arxiv url: http://arxiv.org/abs/2211.02965v1
- Date: Sat, 5 Nov 2022 19:37:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 16:36:48.763837
- Title: Can Ensemble of Classifiers Provide Better Recognition Results in
Packaging Activity?
- Title(参考訳): 分類器のアンサンブルは包装活動においてより良い認識結果をもたらすか?
- Authors: A.H.M. Nazmus Sakib, Promit Basak, Syed Doha Uddin, Shahamat Mustavi
Tasin and Md Atiqur Rahman Ahad
- Abstract要約: 骨格をベースとしたモーションキャプチャ(MoCap)システムはゲームや映画産業で広く利用されている。
MoCapのデータは、人間の活動認識タスクにおいてその効果を証明した。
我々は、MoCapデータセットでよりうまく機能することを目的とした、アンサンブルベースの機械学習手法を提案している。
- 参考スコア(独自算出の注目度): 9.747139045739504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Skeleton-based Motion Capture (MoCap) systems have been widely used in the
game and film industry for mimicking complex human actions for a long time.
MoCap data has also proved its effectiveness in human activity recognition
tasks. However, it is a quite challenging task for smaller datasets. The lack
of such data for industrial activities further adds to the difficulties. In
this work, we have proposed an ensemble-based machine learning methodology that
is targeted to work better on MoCap datasets. The experiments have been
performed on the MoCap data given in the Bento Packaging Activity Recognition
Challenge 2021. Bento is a Japanese word that resembles lunch-box. Upon
processing the raw MoCap data at first, we have achieved an astonishing
accuracy of 98% on 10-fold Cross-Validation and 82% on
Leave-One-Out-Cross-Validation by using the proposed ensemble model.
- Abstract(参考訳): 骨格をベースとしたモーションキャプチャー(MoCap)システムは、ゲームや映画業界で長い間、複雑な人間の行動を模倣するために広く使われてきた。
MoCapデータは、人間の活動認識タスクでもその効果が証明されている。
しかし、小さなデータセットでは、非常に難しいタスクです。
産業活動にそのようなデータがないことは、さらに困難を増す。
そこで本研究では,MoCapデータセットの精度向上を目的とした,アンサンブルに基づく機械学習手法を提案する。
実験は、2021年のBento Packaging Activity Recognition ChallengeのMoCapデータに基づいて実施された。
弁当(べんとう)は、弁当箱に似た日本の言葉。
最初に生のmocapデータを処理した結果、10倍のクロスバリデーションでは98%、アンサンブルモデルでは82%という驚くべき精度を得た。
関連論文リスト
- Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Noise-in, Bias-out: Balanced and Real-time MoCap Solving [13.897997236684283]
機械学習を用いて、雑音のないマーカー推定をリアルタイムで解く。
安価なセンサを用いても、ロバストなマーカーベースのモーションキャプチャ(MoCap)を提供する。
論文 参考訳(メタデータ) (2023-09-25T17:55:24Z) - Learning Action-Effect Dynamics for Hypothetical Vision-Language
Reasoning Task [50.72283841720014]
本研究では,行動の効果に関する推論を改善する新しい学習戦略を提案する。
本稿では,提案手法の有効性を実証し,性能,データ効率,一般化能力の観点から,従来のベースラインに対する優位性を論じる。
論文 参考訳(メタデータ) (2022-12-07T05:41:58Z) - Multi-dataset Training of Transformers for Robust Action Recognition [75.5695991766902]
動作認識のための複数のデータセットをうまく一般化することを目的として,ロバストな特徴表現の課題について検討する。
本稿では、情報損失と投影損失という2つの新しい損失項を設計した、新しいマルチデータセットトレーニングパラダイムであるMultiTrainを提案する。
本研究では,Kineetics-400,Kineetics-700,Moments-in-Time,Activitynet,Some-something-v2の5つの課題データセットに対して,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-09-26T01:30:43Z) - MoCapAct: A Multi-Task Dataset for Simulated Humanoid Control [15.848947335588301]
私たちは、専門家エージェントとそのロールアウトのデータセットであるMoCapActをリリースします。
Dm_control内でMoCapデータセット全体を追跡可能な単一の階層的なポリシをトレーニングするために,MoCapActの有用性を実証する。
論文 参考訳(メタデータ) (2022-08-15T17:57:33Z) - Single-Modal Entropy based Active Learning for Visual Question Answering [75.1682163844354]
視覚質問応答(VQA)のマルチモーダル設定におけるアクティブラーニングに対処する
マルチモーダルな入力,画像,質問を考慮し,有効サンプル取得のための新しい手法を提案する。
私たちの新しいアイデアは、実装が簡単で、コスト効率が高く、他のマルチモーダルタスクにも容易に適応できます。
論文 参考訳(メタデータ) (2021-10-21T05:38:45Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z) - An Efficient Data Imputation Technique for Human Activity Recognition [3.0117625632585705]
本研究では,データセットの欠落したサンプルを抽出し,人間の日常生活活動をよりよく認識する手法を提案する。
提案手法は,k-Nearest Neighbors (KNN) 計算技術を用いて,データキャプチャを効率的に前処理する。
提案手法は,実際のデータセットと同じような活動パターンをエレガントに外挿する。
論文 参考訳(メタデータ) (2020-07-08T22:05:38Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。