論文の概要: Can Ensemble of Classifiers Provide Better Recognition Results in
Packaging Activity?
- arxiv url: http://arxiv.org/abs/2211.02965v1
- Date: Sat, 5 Nov 2022 19:37:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 16:36:48.763837
- Title: Can Ensemble of Classifiers Provide Better Recognition Results in
Packaging Activity?
- Title(参考訳): 分類器のアンサンブルは包装活動においてより良い認識結果をもたらすか?
- Authors: A.H.M. Nazmus Sakib, Promit Basak, Syed Doha Uddin, Shahamat Mustavi
Tasin and Md Atiqur Rahman Ahad
- Abstract要約: 骨格をベースとしたモーションキャプチャ(MoCap)システムはゲームや映画産業で広く利用されている。
MoCapのデータは、人間の活動認識タスクにおいてその効果を証明した。
我々は、MoCapデータセットでよりうまく機能することを目的とした、アンサンブルベースの機械学習手法を提案している。
- 参考スコア(独自算出の注目度): 9.747139045739504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Skeleton-based Motion Capture (MoCap) systems have been widely used in the
game and film industry for mimicking complex human actions for a long time.
MoCap data has also proved its effectiveness in human activity recognition
tasks. However, it is a quite challenging task for smaller datasets. The lack
of such data for industrial activities further adds to the difficulties. In
this work, we have proposed an ensemble-based machine learning methodology that
is targeted to work better on MoCap datasets. The experiments have been
performed on the MoCap data given in the Bento Packaging Activity Recognition
Challenge 2021. Bento is a Japanese word that resembles lunch-box. Upon
processing the raw MoCap data at first, we have achieved an astonishing
accuracy of 98% on 10-fold Cross-Validation and 82% on
Leave-One-Out-Cross-Validation by using the proposed ensemble model.
- Abstract(参考訳): 骨格をベースとしたモーションキャプチャー(MoCap)システムは、ゲームや映画業界で長い間、複雑な人間の行動を模倣するために広く使われてきた。
MoCapデータは、人間の活動認識タスクでもその効果が証明されている。
しかし、小さなデータセットでは、非常に難しいタスクです。
産業活動にそのようなデータがないことは、さらに困難を増す。
そこで本研究では,MoCapデータセットの精度向上を目的とした,アンサンブルに基づく機械学習手法を提案する。
実験は、2021年のBento Packaging Activity Recognition ChallengeのMoCapデータに基づいて実施された。
弁当(べんとう)は、弁当箱に似た日本の言葉。
最初に生のmocapデータを処理した結果、10倍のクロスバリデーションでは98%、アンサンブルモデルでは82%という驚くべき精度を得た。
関連論文リスト
- AdaDemo: Data-Efficient Demonstration Expansion for Generalist Robotic Agent [75.91274222142079]
本研究では,汎用ロボットエージェントの学習を容易にするために,データ効率のよい方法で実演をスケールアップすることを目的とする。
AdaDemoは、デモデータセットを積極的に継続的に拡張することで、マルチタスクポリシー学習を改善するように設計されたフレームワークである。
論文 参考訳(メタデータ) (2024-04-11T01:59:29Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Noise-in, Bias-out: Balanced and Real-time MoCap Solving [13.897997236684283]
機械学習を用いて、雑音のないマーカー推定をリアルタイムで解く。
安価なセンサを用いても、ロバストなマーカーベースのモーションキャプチャ(MoCap)を提供する。
論文 参考訳(メタデータ) (2023-09-25T17:55:24Z) - OpenPack: A Large-scale Dataset for Recognizing Packaging Works in IoT-enabled Logistic Environments [6.2454830041363145]
我々は,OpenPackと呼ばれる作業認識のための大規模データセットを新たに導入する。
OpenPackには、加速度データ、キーポイント、奥行き画像、IoT対応デバイスからの読み取りを含む53.8時間のマルチモーダルセンサーデータが含まれている。
我々は、現在最先端の人間活動認識技術をデータセットに適用し、複雑な作業活動認識研究の今後の方向性を提供する。
論文 参考訳(メタデータ) (2022-12-10T13:01:18Z) - Learning Action-Effect Dynamics for Hypothetical Vision-Language
Reasoning Task [50.72283841720014]
本研究では,行動の効果に関する推論を改善する新しい学習戦略を提案する。
本稿では,提案手法の有効性を実証し,性能,データ効率,一般化能力の観点から,従来のベースラインに対する優位性を論じる。
論文 参考訳(メタデータ) (2022-12-07T05:41:58Z) - Multi-dataset Training of Transformers for Robust Action Recognition [75.5695991766902]
動作認識のための複数のデータセットをうまく一般化することを目的として,ロバストな特徴表現の課題について検討する。
本稿では、情報損失と投影損失という2つの新しい損失項を設計した、新しいマルチデータセットトレーニングパラダイムであるMultiTrainを提案する。
本研究では,Kineetics-400,Kineetics-700,Moments-in-Time,Activitynet,Some-something-v2の5つの課題データセットに対して,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-09-26T01:30:43Z) - MoCapAct: A Multi-Task Dataset for Simulated Humanoid Control [15.848947335588301]
私たちは、専門家エージェントとそのロールアウトのデータセットであるMoCapActをリリースします。
Dm_control内でMoCapデータセット全体を追跡可能な単一の階層的なポリシをトレーニングするために,MoCapActの有用性を実証する。
論文 参考訳(メタデータ) (2022-08-15T17:57:33Z) - Single-Modal Entropy based Active Learning for Visual Question Answering [75.1682163844354]
視覚質問応答(VQA)のマルチモーダル設定におけるアクティブラーニングに対処する
マルチモーダルな入力,画像,質問を考慮し,有効サンプル取得のための新しい手法を提案する。
私たちの新しいアイデアは、実装が簡単で、コスト効率が高く、他のマルチモーダルタスクにも容易に適応できます。
論文 参考訳(メタデータ) (2021-10-21T05:38:45Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。