論文の概要: Should I take a walk? Estimating Energy Expenditure from Video Data
- arxiv url: http://arxiv.org/abs/2202.00712v1
- Date: Tue, 1 Feb 2022 19:04:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 14:59:13.715575
- Title: Should I take a walk? Estimating Energy Expenditure from Video Data
- Title(参考訳): 散歩しましょうか。
ビデオデータによるエネルギー消費量の推定
- Authors: Kunyu Peng, Alina Roitberg, Kailun Yang, Jiaming Zhang, Rainer
Stiefelhagen
- Abstract要約: Vid2Burnは、高強度と低強度の両方を特徴とするビデオデータからカロリー消費を推定するためのOmnicalorie-sourceベンチマークである。
医療文献で確立されたモデルに基づいて,エネルギー支出アノテーションを導出する。
エネルギー支出推定タスクのために修正された映像認識の最先端手法の評価は,この問題の難しさを実証するものである。
- 参考スコア(独自算出の注目度): 31.908276711898548
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We explore the problem of automatically inferring the amount of kilocalories
used by human during physical activity from his/her video observation. To study
this underresearched task, we introduce Vid2Burn -- an omni-source benchmark
for estimating caloric expenditure from video data featuring both, high- and
low-intensity activities for which we derive energy expenditure annotations
based on models established in medical literature. In practice, a training set
would only cover a certain amount of activity types, and it is important to
validate, if the model indeed captures the essence of energy expenditure,
(e.g., how many and which muscles are involved and how intense they work)
instead of memorizing fixed values of specific activity categories seen during
training. Ideally, the models should look beyond such category-specific biases
and regress the caloric cost in videos depicting activity categories not
explicitly present during training. With this property in mind, Vid2Burn is
accompanied with a cross-category benchmark, where the task is to regress
caloric expenditure for types of physical activities not present during
training. An extensive evaluation of state-of-the-art approaches for video
recognition modified for the energy expenditure estimation task demonstrates
the difficulty of this problem, especially for new activity types at test-time,
marking a new research direction. Dataset and code are available at
https://github.com/KPeng9510/Vid2Burn.
- Abstract(参考訳): 本研究は,身体活動中に人体が使用するキロカロリーを自動的に推定する問題をビデオ観察から検討する。
医療文献で確立されたモデルに基づくエネルギー支出アノテーションを導出する高強度・低強度の両方を特徴とするビデオデータから、カロリー消費を推定するための全ソースベンチマークであるVid2Burnを紹介する。
実際には、トレーニングセットは特定のアクティビティタイプのみをカバーするものであり、トレーニング中に見られる特定のアクティビティカテゴリの固定値を記憶する代わりに、モデルが実際にエネルギー消費の本質(例えば、どの筋肉が関与し、どの筋肉がどれだけ激しいか)を捉えているかどうかを検証することが重要である。
理想的には、モデルはそのようなカテゴリー固有のバイアスを越えて、トレーニング中に明示的に存在しない活動カテゴリを描写したビデオのカロリーコストを抑えるべきである。
この特性を念頭に置いて、Vid2Burnはクロスカテゴリベンチマークを伴い、トレーニング中に存在しない身体活動の種類に対するカロリー消費を抑える。
エネルギー支出推定タスクのために修正された映像認識の最先端手法の広範な評価は、特にテスト時の新しい活動タイプにおいて、この問題の難しさを示している。
データセットとコードはhttps://github.com/kpeng9510/vid2burnで入手できる。
関連論文リスト
- Intelligent Repetition Counting for Unseen Exercises: A Few-Shot Learning Approach with Sensor Signals [0.4998632546280975]
本研究は、IMU信号の解析により、運動繰り返しを自動カウントする方法を開発した。
本稿では,深度測定に基づく数点学習手法を用いた反復カウント手法を提案する。
86.8%の確率で、28回の異なるエクササイズで1セットに10回以上の繰り返しを正確に数えることが可能である。
論文 参考訳(メタデータ) (2024-10-01T05:04:40Z) - Query by Activity Video in the Wild [52.42177539947216]
現在のクェリ・バイ・アクティビティ・ビデオの文献では、埋め込みを学ぶ際に、すべてのアクティビティが十分なラベル付き例を持っているという仮定が一般的である。
本稿では,アクティビティ検索における不均衡なシナリオを明示的に扱う視覚意味埋め込みネットワークを提案する。
論文 参考訳(メタデータ) (2023-11-23T10:26:36Z) - Towards Activated Muscle Group Estimation in the Wild [44.7050439903772]
野生の身体活動における活動筋領域の同定を目的としたビデオベースの活動筋群推定(AMGE)の課題に取り組む。
我々は135の異なる活動と20のラベル付き筋群を持つ15Kビデオクリップを特徴とする筋マップデータセットを提供する。
このデータセットはYouTubeのビデオで構築されており、特にハイインテンシティ・インターバルトレーニング(HIIT)をターゲットとしている。
論文 参考訳(メタデータ) (2023-03-02T04:12:53Z) - Self-supervised Pretraining with Classification Labels for Temporal
Activity Detection [54.366236719520565]
時間的アクティビティ検出は、1フレーム当たりのアクティビティクラスを予測することを目的としている。
検出に必要なフレームレベルのアノテーションが高価なため、検出データセットの規模は限られている。
本研究では,分類ラベルを利用した自己教師付き事前学習手法を提案する。
論文 参考訳(メタデータ) (2021-11-26T18:59:28Z) - Energy Expenditure Estimation Through Daily Activity Recognition Using a
Smart-phone [1.8047694351309205]
本稿では,非侵襲的な方法で個人のリアルタイムエネルギー消費を推定する3段階システムを提案する。
まず、ユーザーのスマートフォンのセンサーを使って、彼の身体活動を認識するための決定木モデルを構築します。
そして,検出された身体活動,時間,利用者の速度を用いて,日常生活活動の推測を行う。
論文 参考訳(メタデータ) (2020-09-08T12:26:18Z) - Revisiting Few-shot Activity Detection with Class Similarity Control [107.79338380065286]
本稿では,提案回帰に基づく数ショットの時間的活動検出のためのフレームワークを提案する。
我々のモデルはエンドツーエンドのトレーニングが可能で、数ショットのアクティビティと未トリミングなテストビデオのフレームレートの違いを考慮しており、さらに数ショットのサンプルの恩恵を受けることができる。
論文 参考訳(メタデータ) (2020-03-31T22:02:38Z) - ZSTAD: Zero-Shot Temporal Activity Detection [107.63759089583382]
本研究では,ゼロショット時間的活動検出(ZSTAD)と呼ばれる新たなタスク設定を提案する。
このソリューションのアーキテクチャとして,R-C3Dに基づくエンドツーエンドのディープネットワークを設計する。
THUMOS14とCharadesデータセットの両方の実験は、目に見えない活動を検出するという点で有望なパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-03-12T02:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。