論文の概要: Enhancing Food Intake Tracking in Long-Term Care with Automated Food
Imaging and Nutrient Intake Tracking (AFINI-T) Technology
- arxiv url: http://arxiv.org/abs/2112.04608v1
- Date: Wed, 8 Dec 2021 22:25:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 22:52:21.944846
- Title: Enhancing Food Intake Tracking in Long-Term Care with Automated Food
Imaging and Nutrient Intake Tracking (AFINI-T) Technology
- Title(参考訳): 食品自動撮像と栄養摂取追跡技術(afini-t)による長期ケアにおける食物摂取追跡の強化
- Authors: Kaylen J. Pfisterer, Robert Amelard, Jennifer Boger, Audrey G. Chung,
Heather H. Keller, Alexander Wong
- Abstract要約: 長期医療(LTC)の住民の半数は、入院、死亡、死亡率、生活の質の低下が悪化している。
本稿では,LCCのための食品自動撮像・栄養摂取追跡技術(AFINI-T)について述べる。
- 参考スコア(独自算出の注目度): 71.37011431958805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Half of long-term care (LTC) residents are malnourished increasing
hospitalization, mortality, morbidity, with lower quality of life. Current
tracking methods are subjective and time consuming. This paper presents the
automated food imaging and nutrient intake tracking (AFINI-T) technology
designed for LTC. We propose a novel convolutional autoencoder for food
classification, trained on an augmented UNIMIB2016 dataset and tested on our
simulated LTC food intake dataset (12 meal scenarios; up to 15 classes each;
top-1 classification accuracy: 88.9%; mean intake error: -0.4 mL$\pm$36.7 mL).
Nutrient intake estimation by volume was strongly linearly correlated with
nutrient estimates from mass ($r^2$ 0.92 to 0.99) with good agreement between
methods ($\sigma$= -2.7 to -0.01; zero within each of the limits of agreement).
The AFINI-T approach is a deep-learning powered computational nutrient sensing
system that may provide a novel means for more accurately and objectively
tracking LTC resident food intake to support and prevent malnutrition tracking
strategies.
- Abstract(参考訳): 長期医療(LTC)の住民の半数は、入院、死亡、死亡率、生活の質の低下が悪化している。
現在の追跡方法は主観的で時間を要する。
本稿では,LCCのための食品自動撮像・栄養摂取追跡技術(AFINI-T)について述べる。
食品分類のための新しい畳み込みオートエンコーダを提案し,拡張unimib2016データセットに基づいてトレーニングを行い,シミュレーションしたlcc食摂取データセット(食事シナリオ12名,最大15クラス,top-1分類精度88.9%,平均摂取誤差-0.4ml$\pm$36.7ml)でテストした。
体積による栄養素摂取量の推定は、質量(r^2$ 0.92 から 0.99)からの栄養素推定と、方法間の良好な一致(\sigma$= -2.7 から -0.01; 合意の範囲内で 0)と強く相関した。
AFINI-Tアプローチは、より正確に客観的にLCC常駐食品の摂取をトラッキングし、栄養失調の追跡戦略を支援し予防するための新しい手段を提供することができる。
関連論文リスト
- NutritionVerse-Direct: Exploring Deep Neural Networks for Multitask Nutrition Prediction from Food Images [63.314702537010355]
自己申告法はしばしば不正確であり、重大な偏見に悩まされる。
近年、食品画像から栄養情報を予測するためにコンピュータビジョン予測システムを用いた研究が進められている。
本稿では,様々なニューラルネットワークアーキテクチャを活用することにより,食事摂取量推定の有効性を高めることを目的とする。
論文 参考訳(メタデータ) (2024-05-13T14:56:55Z) - NutritionVerse-Real: An Open Access Manually Collected 2D Food Scene
Dataset for Dietary Intake Estimation [68.49526750115429]
食事摂取推定のための2D食品シーンデータセットであるNutritionVerse-Realを導入する。
NutritionVerse-Realデータセットは、実生活における食品シーンのイメージを手作業で収集し、各成分の重量を測定し、各料理の食生活内容を計算することによって作成されました。
論文 参考訳(メタデータ) (2023-11-20T11:05:20Z) - NutritionVerse: Empirical Study of Various Dietary Intake Estimation
Approaches [60.97896788599621]
食事の正確な摂取推定は、健康的な食事を支援するための政策やプログラムを伝える上で重要である。
最近の研究は、コンピュータービジョンと機械学習を使用して、食物画像から食事摂取を自動的に推定することに焦点を当てている。
我々は,84,984個の合成2D食品画像と関連する食事情報を用いた最初の大規模データセットであるNutritionVerse-Synthを紹介した。
また、リアルなイメージデータセットであるNutritionVerse-Realを収集し、リアル性を評価するために、251の料理の889のイメージを含む。
論文 参考訳(メタデータ) (2023-09-14T13:29:41Z) - UMDFood: Vision-language models boost food composition compilation [26.5694236976957]
本稿では, 食品組成プロファイルを正確に推定するために, フロント・オブ・パッケージ・ラベリングと製品画像を用いた新しい視覚言語モデル, UMDFood-VLを提案する。
化学分析結果とモデル推定結果の誤差の最大82.2%は10%未満である。
この性能は、他の食品および栄養関連データコンパイルと触媒化への一般化に光を当てている。
論文 参考訳(メタデータ) (2023-05-18T03:18:12Z) - Building Brains: Subvolume Recombination for Data Augmentation in Large
Vessel Occlusion Detection [56.67577446132946]
この戦略をデータから学ぶためには、標準的なディープラーニングベースのモデルに対して、大規模なトレーニングデータセットが必要である。
そこで本研究では, 異なる患者から血管木セグメントを組換えることで, 人工的なトレーニングサンプルを生成する方法を提案する。
拡張スキームに則って,タスク固有の入力を入力した3D-DenseNetを用いて,半球間の比較を行う。
論文 参考訳(メタデータ) (2022-05-05T10:31:57Z) - Vision-Based Food Analysis for Automatic Dietary Assessment [49.32348549508578]
本総説では, 食品画像分析, 容積推定, 栄養素抽出の3段階からなる, 統合型ビジョンベース食事評価(VBDA)の枠組みを概説する。
深層学習により、VBDAは徐々にエンドツーエンドの実装へと移行し、単一のネットワークに食品画像を適用して栄養を直接見積もる。
論文 参考訳(メタデータ) (2021-08-06T05:46:01Z) - MyFood: A Food Segmentation and Classification System to Aid Nutritional
Monitoring [1.5469452301122173]
食料モニタリングの欠如は、人口の体重増加に大きく寄与している。
食品画像を認識するためにコンピュータビジョンでいくつかのソリューションが提案されているが、栄養モニタリングに特化しているものはほとんどない。
本研究は, ユーザの食事と栄養摂取の自動モニタリングを支援するために, 画像に提示された食品を分類・分別するインテリジェントシステムの開発について述べる。
論文 参考訳(メタデータ) (2020-12-05T17:40:05Z) - A Data Driven End-to-end Approach for In-the-wild Monitoring of Eating
Behavior Using Smartwatches [8.257740966456172]
本稿では, 食事中の食行動の自動化と, 食事の時間的局在のモデル化に向けて, 完全な枠組みを提案する。
食物摂取事象(すなわち噛み跡)を検出するエンドツーエンドニューラルネットワークを提案する。
食事の開始点と終了点を信号処理アルゴリズムを用いて推定するために,検出した噛み跡の1日を通して分布を推定する方法を示す。
論文 参考訳(メタデータ) (2020-10-12T12:35:56Z) - An Artificial Intelligence-Based System to Assess Nutrient Intake for
Hospitalised Patients [4.048427587958764]
入院患者の栄養摂取の定期的なモニタリングは、疾患関連栄養失調のリスクを低減する上で重要な役割を担っている。
本稿では,栄養摂取量を正確に推定する人工知能(AI)に基づく新しいシステムを提案する。
論文 参考訳(メタデータ) (2020-03-18T15:28:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。