論文の概要: Eating Smart: Advancing Health Informatics with the Grounding DINO based Dietary Assistant App
- arxiv url: http://arxiv.org/abs/2406.00848v1
- Date: Sun, 2 Jun 2024 19:59:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 03:07:06.149280
- Title: Eating Smart: Advancing Health Informatics with the Grounding DINO based Dietary Assistant App
- Title(参考訳): 食事のスマート化:DINOベースの食事アシスタントアプリで健康情報学を向上
- Authors: Abdelilah Nossair, Hamza El Housni,
- Abstract要約: Smart Dietary Assistantは機械学習を利用して、パーソナライズされた食事アドバイスを提供する。
アプリは複数のプラットフォームでシームレスに動作し、自己ホスト型データベースを統合する。
主な機能としては、パーソナライズされた栄養プロファイル、リアルタイム食品スキャン、健康情報などがある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Smart Dietary Assistant utilizes Machine Learning to provide personalized dietary advice, focusing on users with conditions like diabetes. This app leverages the Grounding DINO model, which combines a text encoder and image backbone to enhance food item detection without requiring a labeled dataset. With an AP score of 52.5 on the COCO dataset, the model demonstrates high accuracy in real-world scenarios, utilizing attention mechanisms to precisely recognize objects based on user-provided labels and images. Developed using React Native and TypeScript, the app operates seamlessly across multiple platforms and integrates a self-hosted PostgreSQL database, ensuring data integrity and enhancing user privacy. Key functionalities include personalized nutrition profiles, real-time food scanning, and health insights, facilitating informed dietary choices for health management and lifestyle optimization. Future developments aim to integrate wearable technologies for more tailored health recommendations. Keywords: Food Image Recognition, Machine Learning in Nutrition, Zero-Shot Object Detection
- Abstract(参考訳): Smart Dietary Assistantは、機械学習を利用して、糖尿病のような症状のあるユーザーに焦点を当てた、パーソナライズされた食事アドバイスを提供する。
このアプリは、テキストエンコーダと画像バックボーンを組み合わせてラベル付きデータセットを必要とせずに、食品の検出を強化する、Grounding DINOモデルを活用する。
COCOデータセットのAPスコアは52.5で、実際のシナリオにおいて高い精度を示し、ユーザが提供するラベルや画像に基づいてオブジェクトを正確に認識するための注意機構を活用する。
React NativeとTypeScriptを使って開発されたこのアプリは、複数のプラットフォームでシームレスに動作し、セルフホストのPostgreSQLデータベースを統合し、データの整合性とユーザのプライバシの向上を保証する。
主な機能としては、パーソナライズされた栄養プロファイル、リアルタイム食品スキャン、健康情報などがあり、健康管理やライフスタイルの最適化に有効な食事選択を促進する。
今後の開発は、ウェアラブル技術を統合することで、より適切なヘルスレコメンデーションを目指している。
キーワード:食品画像認識、栄養における機械学習、ゼロショットオブジェクト検出
関連論文リスト
- MetaFood3D: Large 3D Food Object Dataset with Nutrition Values [53.24500333363066]
このデータセットは、詳細な栄養情報、体重、および包括的栄養データベースに関連付けられた食品コードを含む、108カテゴリにわたる637の細かな3D食品オブジェクトから成っている。
実験の結果、我々のデータセットがアルゴリズムの性能を向上させる重要な可能性を実証し、ビデオキャプチャと3Dスキャンされたデータの間の困難さを強調し、高品質なデータ生成、シミュレーション、拡張におけるMetaFood3Dデータセットの強みを示した。
論文 参考訳(メタデータ) (2024-09-03T15:02:52Z) - NutritionVerse-Direct: Exploring Deep Neural Networks for Multitask Nutrition Prediction from Food Images [63.314702537010355]
自己申告法はしばしば不正確であり、重大な偏見に悩まされる。
近年、食品画像から栄養情報を予測するためにコンピュータビジョン予測システムを用いた研究が進められている。
本稿では,様々なニューラルネットワークアーキテクチャを活用することにより,食事摂取量推定の有効性を高めることを目的とする。
論文 参考訳(メタデータ) (2024-05-13T14:56:55Z) - How Much You Ate? Food Portion Estimation on Spoons [63.611551981684244]
現在の画像に基づく食品部分推定アルゴリズムは、ユーザが食事の画像を1、2回取ることを前提としている。
本稿では,静止型ユーザ向けカメラを用いて,機器上の食品の追跡を行う革新的なソリューションを提案する。
本システムは,スープやシチューなどの液状固形不均一混合物の栄養含量の推定に信頼性が高い。
論文 参考訳(メタデータ) (2024-05-12T00:16:02Z) - NutritionVerse-Real: An Open Access Manually Collected 2D Food Scene
Dataset for Dietary Intake Estimation [68.49526750115429]
食事摂取推定のための2D食品シーンデータセットであるNutritionVerse-Realを導入する。
NutritionVerse-Realデータセットは、実生活における食品シーンのイメージを手作業で収集し、各成分の重量を測定し、各料理の食生活内容を計算することによって作成されました。
論文 参考訳(メタデータ) (2023-11-20T11:05:20Z) - NutritionVerse: Empirical Study of Various Dietary Intake Estimation Approaches [59.38343165508926]
食事の正確な摂取推定は、健康的な食事を支援するための政策やプログラムを伝える上で重要である。
最近の研究は、コンピュータービジョンと機械学習を使用して、食物画像から食事摂取を自動的に推定することに焦点を当てている。
我々は,84,984個の合成2D食品画像と関連する食事情報を用いた最初の大規模データセットであるNutritionVerse-Synthを紹介した。
また、リアルなイメージデータセットであるNutritionVerse-Realを収集し、リアル性を評価するために、251の料理の889のイメージを含む。
論文 参考訳(メタデータ) (2023-09-14T13:29:41Z) - FIRE: Food Image to REcipe generation [10.45344523054623]
フードコンピューティングは、食品画像のレシピ情報を自律的に生成できるエンドツーエンドのインテリジェントシステムを開発することを目的としている。
本稿では,食品コンピューティング分野におけるレシピ生成に適した新しい手法であるFIREを提案する。
本稿では、FIREと大規模言語モデルのプロンプトを統合することの恩恵を享受できる2つの実用的なアプリケーションを紹介する。
論文 参考訳(メタデータ) (2023-08-28T08:14:20Z) - A Food Recommender System in Academic Environments Based on Machine
Learning Models [3.42658286826597]
Decision Tree, k-Nearest Neighbors (kNN), AdaBoost, Baggingなどの機械学習モデルについて, 食品レコメンデーションシステムの分野で検討した。
AdaBoostモデルは73.70%の精度で最高性能である。
論文 参考訳(メタデータ) (2023-06-26T11:43:37Z) - NutritionVerse-3D: A 3D Food Model Dataset for Nutritional Intake
Estimation [65.47310907481042]
高齢者の4人に1人は栄養不良です。
機械学習とコンピュータビジョンは、食品の自動栄養トラッキング方法の約束を示す。
NutritionVerse-3Dは、105個の3D食品モデルの大規模な高解像度データセットである。
論文 参考訳(メタデータ) (2023-04-12T05:27:30Z) - A Mobile Food Recognition System for Dietary Assessment [6.982738885923204]
我々は,生活支援のための食品認識アプリケーションの開発に焦点をあてる。
このタスクにMobilenet-v2アーキテクチャを使うことは、正確性とメモリ使用量の両方において有益である。
開発されたモバイルアプリケーションは、画像を介して自動食品認識において視覚障害者に役立てる可能性がある。
論文 参考訳(メタデータ) (2022-04-20T12:49:36Z) - An Integrated System for Mobile Image-Based Dietary Assessment [7.352044746821543]
本稿では,食事摂取状況の把握と分析を行うモバイル型イメージベース食事アセスメントシステムの設計と開発について述べる。
本システムは,自然条件下での高品質な食品画像の収集が可能であり,新しい計算手法を開発するための基盤となるアノテーションを提供する。
論文 参考訳(メタデータ) (2021-10-05T00:04:19Z) - MyFood: A Food Segmentation and Classification System to Aid Nutritional
Monitoring [1.5469452301122173]
食料モニタリングの欠如は、人口の体重増加に大きく寄与している。
食品画像を認識するためにコンピュータビジョンでいくつかのソリューションが提案されているが、栄養モニタリングに特化しているものはほとんどない。
本研究は, ユーザの食事と栄養摂取の自動モニタリングを支援するために, 画像に提示された食品を分類・分別するインテリジェントシステムの開発について述べる。
論文 参考訳(メタデータ) (2020-12-05T17:40:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。