論文の概要: FoodTrack: Estimating Handheld Food Portions with Egocentric Video
- arxiv url: http://arxiv.org/abs/2505.04055v1
- Date: Wed, 07 May 2025 01:53:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:35.948672
- Title: FoodTrack: Estimating Handheld Food Portions with Egocentric Video
- Title(参考訳): FoodTrack:エゴセントリックなビデオでハンドヘルド食品のポーションを推定
- Authors: Ervin Wang, Yuhao Chen,
- Abstract要約: FoodTrackは、食品の量を直接見積もる。
ハンドヘルド食品の絶対損失率は約7.01%である。
- 参考スコア(独自算出の注目度): 5.010690651107531
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurately tracking food consumption is crucial for nutrition and health monitoring. Traditional approaches typically require specific camera angles, non-occluded images, or rely on gesture recognition to estimate intake, making assumptions about bite size rather than directly measuring food volume. We propose the FoodTrack framework for tracking and measuring the volume of hand-held food items using egocentric video which is robust to hand occlusions and flexible with varying camera and object poses. FoodTrack estimates food volume directly, without relying on intake gestures or fixed assumptions about bite size, offering a more accurate and adaptable solution for tracking food consumption. We achieve absolute percentage loss of approximately 7.01% on a handheld food object, improving upon a previous approach that achieved a 16.40% mean absolute percentage error in its best case, under less flexible conditions.
- Abstract(参考訳): 食物消費の正確な追跡は栄養と健康モニタリングに不可欠である。
伝統的なアプローチでは、通常、特定のカメラアングル、非閉塞画像、またはジェスチャー認識に頼って摂取量を推定し、食品の量を直接測定するのではなく、噛みサイズについて仮定する。
本稿では,手持ち食品の量を追跡するためのFoodTrackフレームワークを提案する。
FoodTrackは、食品の量を直接見積もるが、摂取のジェスチャーや噛みサイズに関する仮定を頼りにせず、食品の消費を追跡するためのより正確で適応可能なソリューションを提供する。
我々はハンドヘルド食品の絶対パーセンテージを約7.01%減少させ、フレキシブルでない条件下で16.40%の平均パーセンテージ誤差を達成した以前のアプローチを改善した。
関連論文リスト
- 6D Pose Estimation on Spoons and Hands [7.17871898732232]
本稿では,食事中のビデオフィードを定常的に分析するシステムを実装した。
6次元ポーズ推定を用いて手とスプーンの動きを追跡し、空間的位置と向きを捉える。
論文 参考訳(メタデータ) (2025-05-05T03:15:12Z) - NutritionVerse-Direct: Exploring Deep Neural Networks for Multitask Nutrition Prediction from Food Images [63.314702537010355]
自己申告法はしばしば不正確であり、重大な偏見に悩まされる。
近年、食品画像から栄養情報を予測するためにコンピュータビジョン予測システムを用いた研究が進められている。
本稿では,様々なニューラルネットワークアーキテクチャを活用することにより,食事摂取量推定の有効性を高めることを目的とする。
論文 参考訳(メタデータ) (2024-05-13T14:56:55Z) - How Much You Ate? Food Portion Estimation on Spoons [63.611551981684244]
現在の画像に基づく食品部分推定アルゴリズムは、ユーザが食事の画像を1、2回取ることを前提としている。
本稿では,静止型ユーザ向けカメラを用いて,機器上の食品の追跡を行う革新的なソリューションを提案する。
本システムは,スープやシチューなどの液状固形不均一混合物の栄養含量の推定に信頼性が高い。
論文 参考訳(メタデータ) (2024-05-12T00:16:02Z) - Food Portion Estimation via 3D Object Scaling [8.164262056488447]
本稿では2次元画像から食品の体積とエネルギーを推定する新しい枠組みを提案する。
入力画像中のカメラと食品オブジェクトのポーズを推定する。
また、45の食品の2D画像を含むSimpleFood45という新しいデータセットも導入しました。
論文 参考訳(メタデータ) (2024-04-18T15:23:37Z) - NutritionVerse-Real: An Open Access Manually Collected 2D Food Scene
Dataset for Dietary Intake Estimation [68.49526750115429]
食事摂取推定のための2D食品シーンデータセットであるNutritionVerse-Realを導入する。
NutritionVerse-Realデータセットは、実生活における食品シーンのイメージを手作業で収集し、各成分の重量を測定し、各料理の食生活内容を計算することによって作成されました。
論文 参考訳(メタデータ) (2023-11-20T11:05:20Z) - NutritionVerse: Empirical Study of Various Dietary Intake Estimation Approaches [59.38343165508926]
食事の正確な摂取推定は、健康的な食事を支援するための政策やプログラムを伝える上で重要である。
最近の研究は、コンピュータービジョンと機械学習を使用して、食物画像から食事摂取を自動的に推定することに焦点を当てている。
我々は,84,984個の合成2D食品画像と関連する食事情報を用いた最初の大規模データセットであるNutritionVerse-Synthを紹介した。
また、リアルなイメージデータセットであるNutritionVerse-Realを収集し、リアル性を評価するために、251の料理の889のイメージを含む。
論文 参考訳(メタデータ) (2023-09-14T13:29:41Z) - NutritionVerse-3D: A 3D Food Model Dataset for Nutritional Intake
Estimation [65.47310907481042]
高齢者の4人に1人は栄養不良です。
機械学習とコンピュータビジョンは、食品の自動栄養トラッキング方法の約束を示す。
NutritionVerse-3Dは、105個の3D食品モデルの大規模な高解像度データセットである。
論文 参考訳(メタデータ) (2023-04-12T05:27:30Z) - An End-to-End Food Image Analysis System [8.622335099019214]
食品の局所化, 分類, 部分サイズ推定を統合した画像に基づく食品分析フレームワークを提案する。
提案するフレームワークはエンドツーエンドであり,複数の食品を含む任意の食品画像として入力することができる。
本研究の枠組みは,栄養摂食調査から収集した実生活食品画像データセットを用いて評価する。
論文 参考訳(メタデータ) (2021-02-01T05:36:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。