論文の概要: SnappyMeal: Design and Longitudinal Evaluation of a Multimodal AI Food Logging Application
- arxiv url: http://arxiv.org/abs/2511.03907v1
- Date: Wed, 05 Nov 2025 23:14:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.23438
- Title: SnappyMeal: Design and Longitudinal Evaluation of a Multimodal AI Food Logging Application
- Title(参考訳): SnappyMeal: マルチモーダルAI食品ログアプリケーションの設計と経年評価
- Authors: Liam Bakar, Zachary Englhardt, Vidya Srinivas, Girish Narayanswamy, Dilini Nissanka, Shwetak Patel, Vikram Iyer,
- Abstract要約: 食品の伐採は、食生活、医療、フィットネス、健康などの間の相関関係を明らかにする上で重要な役割を担っている。
手書きやアプリベースのジャーナリングなどの現在の手法は、柔軟性がなく、従順性が低く、栄養サマリーが不正確である可能性がある。
我々は,AIを活用した食事トラッキングシステムであるSnappyMealを提案する。
- 参考スコア(独自算出の注目度): 7.101331257479778
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Food logging, both self-directed and prescribed, plays a critical role in uncovering correlations between diet, medical, fitness, and health outcomes. Through conversations with nutritional experts and individuals who practice dietary tracking, we find current logging methods, such as handwritten and app-based journaling, are inflexible and result in low adherence and potentially inaccurate nutritional summaries. These findings, corroborated by prior literature, emphasize the urgent need for improved food logging methods. In response, we propose SnappyMeal, an AI-powered dietary tracking system that leverages multimodal inputs to enable users to more flexibly log their food intake. SnappyMeal introduces goal-dependent follow-up questions to intelligently seek missing context from the user and information retrieval from user grocery receipts and nutritional databases to improve accuracy. We evaluate SnappyMeal through publicly available nutrition benchmarks and a multi-user, 3-week, in-the-wild deployment capturing over 500 logged food instances. Users strongly praised the multiple available input methods and reported a strong perceived accuracy. These insights suggest that multimodal AI systems can be leveraged to significantly improve dietary tracking flexibility and context-awareness, laying the groundwork for a new class of intelligent self-tracking applications.
- Abstract(参考訳): 食品の伐採は、自己監督と処方の両方において、食事、医療、フィットネス、健康などの間の相関関係を明らかにする上で重要な役割を担っている。
食事トラッキングを実践している栄養専門家や個人との会話を通じて、手書きやアプリベースのジャーナリングのような現在のロギング手法は柔軟性に欠けており、従順性が低く、栄養サマリーが不正確である可能性がある。
これらの知見は、以前の文献で裏付けられ、食品伐採法の改善に対する緊急の必要性を強調している。
そこで我々は,AIを活用した食事トラッキングシステムであるSnappyMealを提案する。
SnappyMealでは、目標に依存したフォローアップ質問を導入して、ユーザから不足したコンテキストと、ユーザの食料品レシートや栄養データベースからの情報検索をインテリジェントに求め、精度を向上させる。
私たちはSnappyMealを、公開の栄養ベンチマークと、500以上のログされた食品インスタンスをキャプチャする複数ユーザ、3週間のインザミルデプロイメントを通じて評価します。
ユーザは複数の利用可能な入力方法を強く賞賛し、高い精度を報告した。
これらの知見は、マルチモーダルAIシステムが食事のトラッキングの柔軟性とコンテキスト認識を大幅に改善するために活用できることを示唆している。
関連論文リスト
- Exploring approaches to computational representation and classification of user-generated meal logs [6.888077368936294]
本研究は、患者が生成した健康データに機械学習とドメイン特化度を応用し、栄養目標に応じて食事の分類を行った。
モバイルアプリを用いて,米国大都市における多様で低所得なコミュニティから114人の個人が収集した3000以上の食事記録のデータセットを使用した。
論文 参考訳(メタデータ) (2025-09-08T04:23:48Z) - Advancing Food Nutrition Estimation via Visual-Ingredient Feature Fusion [69.84988999191343]
我々はファストフード(FastFood)について紹介する。ファストフード(FastFood)は、908のファストフードカテゴリーに84,446のイメージを持つデータセットで、成分や栄養のアノテーションが特徴である。
栄養推定の精度を高めるために,新しいモデル非依存型ビジュアル・イングレディエント・フィーチャー・フュージョン (VIF$2$) 法を提案する。
論文 参考訳(メタデータ) (2025-05-13T17:01:21Z) - DietGlance: Dietary Monitoring and Personalized Analysis at a Glance with Knowledge-Empowered AI Assistant [36.806619917276414]
本稿では,日常の食生活を自動的に監視し,知識ソースからパーソナライズされた分析を行うシステムであるDietGlanceを紹介する。
DietGlanceはまず、眼鏡を使ってマルチモーダル入力から摂取エピソードを検出し、消費されているさまざまな料理のプライバシー保護食の画像をキャプチャする。
推定食品とこれらの画像からの消費量に基づいて、栄養分析とパーソナライズされた食生活の提案も提供する。
論文 参考訳(メタデータ) (2025-02-03T12:46:37Z) - MOPI-HFRS: A Multi-objective Personalized Health-aware Food Recommendation System with LLM-enhanced Interpretation [50.309987904297415]
Yelpのような主要な食品レコメンデーションプラットフォームは、ユーザの選択した健康性よりも、ユーザの食事の好みを優先している。
我々はMOPI-HFRS(Multi-Objective Personalized Interpretable Health-Aware Food Recommendation System)を開発した。
ユーザの好み、パーソナライズされた健康、栄養の多様性の3つの目標と、大きな言語モデル(LLM)強化推論モジュールを共同で最適化することで、食品レコメンデーションを提供する。
論文 参考訳(メタデータ) (2024-12-12T01:02:09Z) - NutrifyAI: An AI-Powered System for Real-Time Food Detection, Nutritional Analysis, and Personalized Meal Recommendations [14.036206693783198]
本稿では,先進的なコンピュータビジョン技術と栄養分析を組み合わせた総合システムを提案する。
予備的な結果は、即時かつ正確な食事の洞察を提供することによって、システムの有効性を示し、食品認識精度は80%近くである。
論文 参考訳(メタデータ) (2024-08-20T04:18:53Z) - NutritionVerse-Direct: Exploring Deep Neural Networks for Multitask Nutrition Prediction from Food Images [63.314702537010355]
自己申告法はしばしば不正確であり、重大な偏見に悩まされる。
近年、食品画像から栄養情報を予測するためにコンピュータビジョン予測システムを用いた研究が進められている。
本稿では,様々なニューラルネットワークアーキテクチャを活用することにより,食事摂取量推定の有効性を高めることを目的とする。
論文 参考訳(メタデータ) (2024-05-13T14:56:55Z) - NutritionVerse: Empirical Study of Various Dietary Intake Estimation Approaches [59.38343165508926]
食事の正確な摂取推定は、健康的な食事を支援するための政策やプログラムを伝える上で重要である。
最近の研究は、コンピュータービジョンと機械学習を使用して、食物画像から食事摂取を自動的に推定することに焦点を当てている。
我々は,84,984個の合成2D食品画像と関連する食事情報を用いた最初の大規模データセットであるNutritionVerse-Synthを紹介した。
また、リアルなイメージデータセットであるNutritionVerse-Realを収集し、リアル性を評価するために、251の料理の889のイメージを含む。
論文 参考訳(メタデータ) (2023-09-14T13:29:41Z) - Food Recognition and Nutritional Apps [0.0]
食品認識と栄養アプリ(英語版)は、糖尿病患者が食事を管理する方法に革命をもたらすかもしれないトレンド技術である。
これらのアプリは糖尿病を管理するための有望なソリューションを提供するが、患者が使うことはめったにない。
本章は、食品の認識と栄養に関するアプリの現状を詳細に評価し、使用を阻害または促進する要因を特定することを目的としている。
論文 参考訳(メタデータ) (2023-06-20T13:23:59Z) - Vision-Based Food Analysis for Automatic Dietary Assessment [49.32348549508578]
本総説では, 食品画像分析, 容積推定, 栄養素抽出の3段階からなる, 統合型ビジョンベース食事評価(VBDA)の枠組みを概説する。
深層学習により、VBDAは徐々にエンドツーエンドの実装へと移行し、単一のネットワークに食品画像を適用して栄養を直接見積もる。
論文 参考訳(メタデータ) (2021-08-06T05:46:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。