論文の概要: OpenMarcie: Dataset for Multimodal Action Recognition in Industrial Environments
- arxiv url: http://arxiv.org/abs/2603.02390v1
- Date: Mon, 02 Mar 2026 21:05:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.545838
- Title: OpenMarcie: Dataset for Multimodal Action Recognition in Industrial Environments
- Title(参考訳): OpenMarcie: 産業環境におけるマルチモーダル行動認識のためのデータセット
- Authors: Hymalai Bello, Lala Ray, Joanna Sorysz, Sungho Suh, Paul Lukowicz,
- Abstract要約: OpenMarcieは、製造環境でのヒューマンアクション監視のために設計された、最大のマルチモーダルデータセットである。
周囲に散らばっているモダリティやカメラを感知するウェアラブルからのデータが含まれている。
データセットは3つの人間の活動認識タスクに対してベンチマークされる。
- 参考スコア(独自算出の注目度): 12.616751202866395
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Smart factories use advanced technologies to optimize production and increase efficiency. To this end, the recognition of worker activity allows for accurate quantification of performance metrics, improving efficiency holistically while contributing to worker safety. OpenMarcie is, to the best of our knowledge, the biggest multimodal dataset designed for human action monitoring in manufacturing environments. It includes data from wearables sensing modalities and cameras distributed in the surroundings. The dataset is structured around two experimental settings, involving a total of 36 participants. In the first setting, twelve participants perform a bicycle assembly and disassembly task under semi-realistic conditions without a fixed protocol, promoting divergent and goal-oriented problem-solving. The second experiment involves twenty-five volunteers (24 valid data) engaged in a 3D printer assembly task, with the 3D printer manufacturer's instructions provided to guide the volunteers in acquiring procedural knowledge. This setting also includes sequential collaborative assembly, where participants assess and correct each other's progress, reflecting real-world manufacturing dynamics. OpenMarcie includes over 37 hours of egocentric and exocentric, multimodal, and multipositional data, featuring eight distinct data types and more than 200 independent information channels. The dataset is benchmarked across three human activity recognition tasks: activity classification, open vocabulary captioning, and cross-modal alignment.
- Abstract(参考訳): スマートファクトリーは、生産の最適化と効率の向上に先進技術を使用している。
この目的のために、労働者活動の認識は、パフォーマンス指標の正確な定量化を可能にし、労働者の安全に寄与しながら、効率を均等に改善する。
OpenMarcieは、私たちの知る限り、製造環境でのヒューマンアクション監視のために設計された、最大のマルチモーダルデータセットです。
周囲に散らばっているモダリティやカメラを感知するウェアラブルからのデータが含まれている。
データセットは、合計36人の参加者を含む2つの実験的な設定に基づいて構成されている。
第1設定では、12人の参加者が、固定されたプロトコルを使わずに、半現実的な条件下で自転車組立および分解タスクを行い、分岐とゴール指向の問題解決を促進する。
第2の実験では、25人のボランティア(24の有効なデータ)が3Dプリンタの組み立て作業に従事しており、3Dプリンタメーカーは、ボランティアに手続き的な知識を得るための指示を提供している。
この設定には、参加者が互いの進捗を評価し、修正し、現実の製造業のダイナミクスを反映する、逐次的な協調アセンブリも含まれる。
OpenMarcieには37時間以上のエゴセントリック、エクソセントリック、マルチモーダル、マルチポジションのデータが含まれ、8つの異なるデータタイプと200以上の独立した情報チャネルがある。
データセットは、アクティビティ分類、オープン語彙キャプション、クロスモーダルアライメントの3つのヒューマンアクティビティ認識タスクでベンチマークされる。
関連論文リスト
- IndEgo: A Dataset of Industrial Scenarios and Collaborative Work for Egocentric Assistants [7.869752673792282]
IndEgoは、一般的な産業タスクに対処するマルチモーダルなエゴセントリックでエクソセントリックなデータセットである。
データセットには3,460件のエゴセントリックな記録(約197時間)と1,092件のエゴセントリックな記録が含まれている。
データセットの重要な焦点は、協調作業であり、2人の労働者が共同で認知的および身体的に集中的なタスクを行う。
論文 参考訳(メタデータ) (2025-11-24T20:45:17Z) - Hierarchical and Multimodal Data for Daily Activity Understanding [11.200514097148776]
Daily Activity Recordings for Artificial Intelligence (DARai)は、現実の環境での人間の活動を理解するために構築されたマルチモーダルデータセットである。
DARaiは、10の異なる環境における50人の参加者による連続的なスクリプトと未記述の録音で構成され、合計200時間以上のデータである。
さまざまな機械学習モデルによる実験では、人間中心のアプリケーションにおける重要な課題を明らかにする上で、DARaiの価値が示されている。
論文 参考訳(メタデータ) (2025-04-24T16:04:00Z) - Cream of the Crop: Harvesting Rich, Scalable and Transferable Multi-Modal Data for Instruction Fine-Tuning [59.56171041796373]
我々は、堅牢で効率的なマルチモーダル・インストラクショナルデータを収集する。
インタラクションスタイルを多様性指標とし、マルチモーダルリッチなスタイルラーを用いてデータインストラクションパターンを識別する。
14のマルチモーダルベンチマークによって検証された10以上の実験環境において、ランダムサンプリング、ベースライン戦略、最先端の選択方法に対する一貫した改善を示す。
論文 参考訳(メタデータ) (2025-03-17T17:11:22Z) - Rethinking Bimanual Robotic Manipulation: Learning with Decoupled Interaction Framework [51.39847596489193]
バイオマチックなロボット操作は、ロボティクスコミュニティにおいて、新しくて重要なトピックである。
本稿では,バイマニュアル操作における異なるタスクの特徴を考察した,疎結合なインタラクションフレームワークを提案する。
我々のフレームワークは,SOTA法よりも23.5%向上し,優れた性能を実現している。
論文 参考訳(メタデータ) (2025-03-12T09:28:41Z) - Consistency Based Weakly Self-Supervised Learning for Human Activity Recognition with Wearables [1.565361244756411]
センサデータから人間の活動を認識するための弱自己教師型アプローチについて述べる。
提案手法は, クラスタリングアルゴリズムが, 基礎となる人間の行動を特定し, 分類する上で, 同等のパフォーマンスを達成するのに有効であることを示す。
論文 参考訳(メタデータ) (2024-07-29T06:29:21Z) - Nymeria: A Massive Collection of Multimodal Egocentric Daily Motion in the Wild [66.34146236875822]
ニメリアデータセット(Nymeria dataset)は、複数のマルチモーダル・エゴセントリックなデバイスで野生で収集された、大規模で多様な、多彩な注釈付けされた人間のモーションデータセットである。
合計で399Kmを走行し、50か所にわたる264人の参加者から毎日300時間の録音を1200件記録している。
動作言語記述は、語彙サイズ6545の8.64万語で310.5K文を提供する。
論文 参考訳(メタデータ) (2024-06-14T10:23:53Z) - Classification of Primitive Manufacturing Tasks from Filtered Event Data [0.8122270502556371]
協調型ロボットは、人間の活動を支援するために、ますます産業に存在している。
人間とロボットの協調プロセスをより効果的にするためには、対処すべき課題がいくつかある。
本研究では,人間の動作イベントデータから原始的な組立作業を認識する行動分類システムを提案する。
論文 参考訳(メタデータ) (2023-03-15T19:59:38Z) - Navya3DSeg -- Navya 3D Semantic Segmentation Dataset & split generation
for autonomous vehicles [63.20765930558542]
3Dセマンティックデータは、障害物検出やエゴ-車両の局所化といった中核的な認識タスクに有用である。
そこで我々は,大規模生産段階の運用領域に対応する多様なラベル空間を持つ新しいデータセットであるNavala 3D(Navya3DSeg)を提案する。
ラベルのない23のラベル付きシーケンスと25の補足シーケンスが含まれており、ポイントクラウド上の自己教師付きおよび半教師付きセマンティックセマンティックセグメンテーションベンチマークを探索するために設計された。
論文 参考訳(メタデータ) (2023-02-16T13:41:19Z) - PEg TRAnsfer Workflow recognition challenge report: Does multi-modal
data improve recognition? [14.144188912860892]
PETRAW (PEg TRAnsfert Recognition) の課題は, 手術ワークフロー認識法の開発であった。
PETRAWチャレンジは、仮想シミュレータ上で実行される150ペグの転送シーケンスのデータセットを提供する。
ビデオ/キネマティックベースの手法と一様性(uni-modality)の改善は、すべてのチームにとって重要なものでした。
論文 参考訳(メタデータ) (2022-02-11T18:33:11Z) - Diverse Complexity Measures for Dataset Curation in Self-driving [80.55417232642124]
トラフィックシーンの面白さを定量化する多様な基準を活用した新たなデータ選択手法を提案する。
実験の結果,提案するキュレーションパイプラインは,より汎用的で高いパフォーマンスをもたらすデータセットを選択できることが判明した。
論文 参考訳(メタデータ) (2021-01-16T23:45:02Z) - The IKEA ASM Dataset: Understanding People Assembling Furniture through
Actions, Objects and Pose [108.21037046507483]
IKEA ASMは300万フレーム、マルチビュー、家具組み立てビデオデータセットで、深さ、原子活動、オブジェクトセグメンテーション、人間のポーズを含む。
我々は,この課題のあるデータセット上で,映像行動認識,オブジェクトセグメンテーション,人間のポーズ推定タスクの顕著な手法をベンチマークする。
このデータセットは、マルチモーダルデータとマルチビューデータを統合してこれらのタスクをよりよく実行する、全体論的手法の開発を可能にする。
論文 参考訳(メタデータ) (2020-07-01T11:34:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。