論文の概要: What's on Your Plate? Inferring Chinese Cuisine Intake from Wearable IMUs
- arxiv url: http://arxiv.org/abs/2511.05292v1
- Date: Fri, 07 Nov 2025 14:54:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.798403
- Title: What's on Your Plate? Inferring Chinese Cuisine Intake from Wearable IMUs
- Title(参考訳): 皿に何が入ってる? ウェアラブルIMUから中華料理の摂取量
- Authors: Jiaxi Yin, Pengcheng Wang, Han Ding, Fei Wang,
- Abstract要約: 既存のウェアラブルベースの方法は、主にハンバーガーやピザのような限られた種類の食品に焦点を当てている。
スマートグラスのヘッドダイナミクスとスマートウォッチのハンドモーションキューを統合することで,中国の食品の種類を分類するシステムであるCuisineSenseを提案する。
実験により,CuisineSenseは食状態検出と食品分類の両方において高い精度を達成することが示された。
- 参考スコア(独自算出の注目度): 6.064832298655888
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate food intake detection is vital for dietary monitoring and chronic disease prevention. Traditional self-report methods are prone to recall bias, while camera-based approaches raise concerns about privacy. Furthermore, existing wearable-based methods primarily focus on a limited number of food types, such as hamburgers and pizza, failing to address the vast diversity of Chinese cuisine. To bridge this gap, we propose CuisineSense, a system that classifies Chinese food types by integrating hand motion cues from a smartwatch with head dynamics from smart glasses. To filter out irrelevant daily activities, we design a two-stage detection pipeline. The first stage identifies eating states by distinguishing characteristic temporal patterns from non-eating behaviors. The second stage then conducts fine-grained food type recognition based on the motions captured during food intake. To evaluate CuisineSense, we construct a dataset comprising 27.5 hours of IMU recordings across 11 food categories and 10 participants. Experiments demonstrate that CuisineSense achieves high accuracy in both eating state detection and food classification, offering a practical solution for unobtrusive, wearable-based dietary monitoring.The system code is publicly available at https://github.com/joeeeeyin/CuisineSense.git.
- Abstract(参考訳): 正確な食物摂取の検出は、食事監視と慢性疾患予防に不可欠である。
従来の自己申告方式は偏見を思い出す傾向があり、カメラベースのアプローチはプライバシーに関する懸念を引き起こす。
さらに、既存のウェアラブルベースの方法は、主にハンバーガーやピザのような限られた種類の食品に焦点を合わせており、中国料理の多様さに対処できない。
このギャップを埋めるために、スマートウォッチのハンドモーションキューとスマートグラスのヘッドダイナミクスを統合することで、中国の食品の種類を分類するシステムであるCuisineSenseを提案する。
無関係な日々の活動をフィルタリングするために、我々は2段階検出パイプラインを設計する。
第1段階は、特徴的な時間的パターンと非摂食行動とを区別することにより、摂食状態を識別する。
次に、第2段階は、食物摂取中に捕獲された動きに基づいて、きめ細かい食品タイプの認識を行う。
CuisineSenseを評価するために、11の食品カテゴリーと10の参加者からなる27.5時間のIMU記録からなるデータセットを構築した。
実験により,CuisineSenseは食状態検出と食品分類の両面で高い精度を達成し,ウェアラブルによる食生活監視のための実用的なソリューションを提供することが示された。
関連論文リスト
- How Much You Ate? Food Portion Estimation on Spoons [63.611551981684244]
現在の画像に基づく食品部分推定アルゴリズムは、ユーザが食事の画像を1、2回取ることを前提としている。
本稿では,静止型ユーザ向けカメラを用いて,機器上の食品の追跡を行う革新的なソリューションを提案する。
本システムは,スープやシチューなどの液状固形不均一混合物の栄養含量の推定に信頼性が高い。
論文 参考訳(メタデータ) (2024-05-12T00:16:02Z) - From Canteen Food to Daily Meals: Generalizing Food Recognition to More
Practical Scenarios [92.58097090916166]
DailyFood-172とDailyFood-16という2つの新しいベンチマークを、毎日の食事から食のイメージをキュレートする。
これらの2つのデータセットは、よく計算された食品画像領域から日常的な食品画像領域へのアプローチの伝達性を評価するために使用される。
論文 参考訳(メタデータ) (2024-03-12T08:32:23Z) - NutritionVerse-Real: An Open Access Manually Collected 2D Food Scene
Dataset for Dietary Intake Estimation [68.49526750115429]
食事摂取推定のための2D食品シーンデータセットであるNutritionVerse-Realを導入する。
NutritionVerse-Realデータセットは、実生活における食品シーンのイメージを手作業で収集し、各成分の重量を測定し、各料理の食生活内容を計算することによって作成されました。
論文 参考訳(メタデータ) (2023-11-20T11:05:20Z) - NutritionVerse: Empirical Study of Various Dietary Intake Estimation Approaches [59.38343165508926]
食事の正確な摂取推定は、健康的な食事を支援するための政策やプログラムを伝える上で重要である。
最近の研究は、コンピュータービジョンと機械学習を使用して、食物画像から食事摂取を自動的に推定することに焦点を当てている。
我々は,84,984個の合成2D食品画像と関連する食事情報を用いた最初の大規模データセットであるNutritionVerse-Synthを紹介した。
また、リアルなイメージデータセットであるNutritionVerse-Realを収集し、リアル性を評価するために、251の料理の889のイメージを含む。
論文 参考訳(メタデータ) (2023-09-14T13:29:41Z) - Towards the Creation of a Nutrition and Food Group Based Image Database [58.429385707376554]
栄養・食品群に基づく画像データベースを構築するための枠組みを提案する。
米国農務省食品栄養データベース(FNDDS)における食品群に基づく食品コードリンクプロトコルを設計する。
提案手法は16,114個の食品データセットを含む栄養・食品群に基づく画像データベースを構築するために用いられる。
論文 参考訳(メタデータ) (2022-06-05T02:41:44Z) - A Mobile Food Recognition System for Dietary Assessment [6.982738885923204]
我々は,生活支援のための食品認識アプリケーションの開発に焦点をあてる。
このタスクにMobilenet-v2アーキテクチャを使うことは、正確性とメモリ使用量の両方において有益である。
開発されたモバイルアプリケーションは、画像を介して自動食品認識において視覚障害者に役立てる可能性がある。
論文 参考訳(メタデータ) (2022-04-20T12:49:36Z) - An Intelligent Passive Food Intake Assessment System with Egocentric
Cameras [14.067860492694251]
栄養失調は低所得国(LMIC)の主要な公衆衛生問題である
我々は,エゴセントリックカメラを用いた知的受動的摂食評価システムの実装を提案する。
摂取量を確実に監視し、ユーザの食行動にフィードバックを与えることができます。
論文 参考訳(メタデータ) (2021-05-07T09:47:51Z) - Saliency-Aware Class-Agnostic Food Image Segmentation [10.664526852464812]
クラス別食品画像分割法を提案する。
画像の前後の情報を利用すれば、目立たないオブジェクトを見つけることで、食べ物のイメージをセグメンテーションすることができる。
本手法は,食餌研究から収集した食品画像を用いて検証する。
論文 参考訳(メタデータ) (2021-02-13T08:05:19Z) - MyFood: A Food Segmentation and Classification System to Aid Nutritional
Monitoring [1.5469452301122173]
食料モニタリングの欠如は、人口の体重増加に大きく寄与している。
食品画像を認識するためにコンピュータビジョンでいくつかのソリューションが提案されているが、栄養モニタリングに特化しているものはほとんどない。
本研究は, ユーザの食事と栄養摂取の自動モニタリングを支援するために, 画像に提示された食品を分類・分別するインテリジェントシステムの開発について述べる。
論文 参考訳(メタデータ) (2020-12-05T17:40:05Z) - Cross-Modal Food Retrieval: Learning a Joint Embedding of Food Images
and Recipes with Semantic Consistency and Attention Mechanism [70.85894675131624]
画像とレシピを共通の特徴空間に埋め込み、対応する画像とレシピの埋め込みが互いに近接するように学習する。
本稿では,2つのモダリティの埋め込みを正規化するためのセマンティック・一貫性とアテンション・ベース・ネットワーク(SCAN)を提案する。
食品画像や調理レシピの最先端のクロスモーダル検索戦略を,かなりの差で達成できることが示される。
論文 参考訳(メタデータ) (2020-03-09T07:41:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。