論文の概要: EvoStruggle: A Dataset Capturing the Evolution of Struggle across Activities and Skill Levels
- arxiv url: http://arxiv.org/abs/2510.01362v1
- Date: Wed, 01 Oct 2025 18:41:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.827757
- Title: EvoStruggle: A Dataset Capturing the Evolution of Struggle across Activities and Skill Levels
- Title(参考訳): EvoStruggle: 活動とスキルレベルをまたいだストラグルの進化をキャプチャするデータセット
- Authors: Shijia Feng, Michael Wray, Walterio Mayol-Cuevas,
- Abstract要約: 我々は、61.68時間のビデオ録画、2,793ビデオ、5,385の注釈付き時間的闘争セグメントを含む、闘争決定のためのデータセットを収集した。
データセットには、結び目、折り紙、タングラムパズル、シャッフルカードの4つのアクティビティにグループ化された18のタスクが含まれている。
我々は、闘争決定問題を時間的行動ローカライズタスクとして定義し、開始時間と終了時間による闘争セグメントの特定と正確な位置決めに焦点をあてる。
- 参考スコア(独自算出の注目度): 6.040360125900913
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to determine when a person struggles during skill acquisition is crucial for both optimizing human learning and enabling the development of effective assistive systems. As skills develop, the type and frequency of struggles tend to change, and understanding this evolution is key to determining the user's current stage of learning. However, existing manipulation datasets have not focused on how struggle evolves over time. In this work, we collect a dataset for struggle determination, featuring 61.68 hours of video recordings, 2,793 videos, and 5,385 annotated temporal struggle segments collected from 76 participants. The dataset includes 18 tasks grouped into four diverse activities -- tying knots, origami, tangram puzzles, and shuffling cards, representing different task variations. In addition, participants repeated the same task five times to capture their evolution of skill. We define the struggle determination problem as a temporal action localization task, focusing on identifying and precisely localizing struggle segments with start and end times. Experimental results show that Temporal Action Localization models can successfully learn to detect struggle cues, even when evaluated on unseen tasks or activities. The models attain an overall average mAP of 34.56% when generalizing across tasks and 19.24% across activities, indicating that struggle is a transferable concept across various skill-based tasks while still posing challenges for further improvement in struggle detection. Our dataset is available at https://github.com/FELIXFENG2019/EvoStruggle.
- Abstract(参考訳): 人間の学習を最適化し、効果的な支援システムの開発を可能にするためには、スキル獲得中にいつ苦労するかを判断する能力が不可欠である。
スキルが発達するにつれて、闘争のタイプと頻度が変化し、この進化を理解することが、ユーザの現在の学習段階を決定する鍵となる。
しかし、既存の操作データセットは、時間とともに苦労がどのように進化するかに重点を置いていない。
本研究では,76人の参加者から収集した61.68時間の映像記録,2,793本の動画,5,385本の注釈付き時間的闘争セグメントを収録した闘争判定用データセットを収集した。
データセットには,4つのさまざまなアクティビティ – 結び目,折り紙,タングラムパズル,シャッフルカード – にグループ化された18のタスクが含まれている。
さらに、参加者は同じタスクを5回繰り返して、スキルの進化を捉えました。
我々は、闘争決定問題を時間的行動ローカライズタスクとして定義し、開始時間と終了時間による闘争セグメントの特定と正確な位置決めに焦点をあてる。
実験の結果, 時間的行動局所化モデルは, 目に見えないタスクや活動で評価されたとしても, 苦難の手がかりを検出するのにうまく学習できることが示唆された。
これらのモデルは、タスクを一般化する場合の平均mAPが34.56%、アクティビティを19.24%に達する。
データセットはhttps://github.com/FELIXFENG2019/EvoStruggle.comから入手可能です。
関連論文リスト
- Are you Struggling? Dataset and Baselines for Struggle Determination in Assembly Videos [4.631245639292796]
ストラグル検出は、明確なステップやアクティビティの知識なしに特定できる、明確かつ重要なタスクである。
本稿では,エキスパートとクラウドソースアノテータの両方がラベル付けした,現実世界の3つの問題解決活動による最初の闘争データセットを紹介する。
このデータセットは73人の参加者による5.1時間のビデオを含む。
論文 参考訳(メタデータ) (2024-02-16T20:12:33Z) - NEVIS'22: A Stream of 100 Tasks Sampled from 30 Years of Computer Vision
Research [96.53307645791179]
我々は,100以上の視覚的分類タスクのストリームからなるベンチマークであるNever-Ending VIsual-classification Stream (NEVIS'22)を紹介する。
分類に制限されているにもかかわらず、OCR、テクスチャ分析、シーン認識など、様々なタスクが生成される。
NEVIS'22は、タスクの規模と多様性のために、現在のシーケンシャルな学習アプローチに対して前例のない課題を提起している。
論文 参考訳(メタデータ) (2022-11-15T18:57:46Z) - Task Compass: Scaling Multi-task Pre-training with Task Prefix [122.49242976184617]
既存の研究では、大規模教師付きタスクによるマルチタスク学習がタスク間の負の効果に悩まされていることが示されている。
タスク間の関係を探索するために,タスクプレフィックスガイド付きマルチタスク事前学習フレームワークを提案する。
我々のモデルは、幅広いタスクの強力な基盤バックボーンとして機能するだけでなく、タスク関係を分析するための探索ツールとしても実現可能である。
論文 参考訳(メタデータ) (2022-10-12T15:02:04Z) - BC-Z: Zero-Shot Task Generalization with Robotic Imitation Learning [108.41464483878683]
本稿では,視覚に基づくロボット操作システムにおいて,新しいタスクを一般化することの課題について検討する。
実演と介入の両方から学ぶことができるインタラクティブで柔軟な模倣学習システムを開発した。
実際のロボットにおけるデータ収集を100以上のタスクにスケールすると、このシステムは平均的な成功率44%で24の目に見えない操作タスクを実行できる。
論文 参考訳(メタデータ) (2022-02-04T07:30:48Z) - Efficiently Identifying Task Groupings for Multi-Task Learning [55.80489920205404]
マルチタスク学習は、あるタスクによって学習された情報を活用して、他のタスクのトレーニングに役立てることができる。
マルチタスク学習モデルにおいて、どのタスクを一緒にトレーニングすべきかを選択するアプローチを提案する。
本手法は,全タスクを協調学習し,タスクの勾配が他のタスクの損失に影響を及ぼす影響を定量化する。
論文 参考訳(メタデータ) (2021-09-10T02:01:43Z) - Toward Accurate Person-level Action Recognition in Videos of Crowded
Scenes [131.9067467127761]
我々は、シーンの情報を完全に活用し、新しいデータを集めることで、アクション認識を改善することに集中する。
具体的には、各フレームの空間的位置を検出するために、強い人間の検出器を採用する。
そして、行動認識モデルを適用して、HIEデータセットとインターネットから多様なシーンを持つ新しいデータの両方でビデオフレームから時間情報を学ぶ。
論文 参考訳(メタデータ) (2020-10-16T13:08:50Z) - LEMMA: A Multi-view Dataset for Learning Multi-agent Multi-task
Activities [119.88381048477854]
LEMMAデータセットを導入し、細心の注意深い設定で、行方不明な次元に対処するための単一の家を提供する。
我々は、人間と物体の相互作用による原子間相互作用を密に注釈し、日常の活動の構成性、スケジューリング、割り当ての土台として提供する。
この取り組みにより、マシンビジョンコミュニティは、目標指向の人間活動を調べ、現実世界におけるタスクのスケジューリングと割り当てをさらに研究できることを期待します。
論文 参考訳(メタデータ) (2020-07-31T00:13:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。