論文の概要: AI4Food-NutritionDB: Food Image Database, Nutrition Taxonomy, and
Recognition Benchmark
- arxiv url: http://arxiv.org/abs/2211.07440v1
- Date: Mon, 14 Nov 2022 15:14:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 19:43:54.858930
- Title: AI4Food-NutritionDB: Food Image Database, Nutrition Taxonomy, and
Recognition Benchmark
- Title(参考訳): AI4Food-NutritionDB:食品画像データベース、栄養分類学、認識ベンチマーク
- Authors: Sergio Romero-Tapiador, Ruben Tolosana, Aythami Morales, Isabel
Espinosa-Salinas, Gala Freixer, Julian Fierrez, Ruben Vera-Rodriguez, Javier
Ortega-Garcia, Enrique Carrillo de Santa Pau, Ana Ramirez de Molina
- Abstract要約: 本研究は, 食品画像と栄養分類を, 国家及び国際機関の勧告に基づいて検討した最初の栄養データベースである。
AI4Food-NutritionDBは、食品の摂取頻度、品質、分類の観点から、新しい食品コンピューティングアプローチへの扉を開く。
- 参考スコア(独自算出の注目度): 13.623711541490383
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Leading a healthy lifestyle has become one of the most challenging goals in
today's society due to our sedentary lifestyle and poor eating habits. As a
result, national and international organisms have made numerous efforts to
promote healthier food diets and physical activity habits. However, these
recommendations are sometimes difficult to follow in our daily life and they
are also based on a general population. As a consequence, a new area of
research, personalised nutrition, has been conceived focusing on individual
solutions through smart devices and Artificial Intelligence (AI) methods.
This study presents the AI4Food-NutritionDB database, the first nutrition
database that considers food images and a nutrition taxonomy based on
recommendations by national and international organisms. In addition, four
different categorisation levels are considered following nutrition experts: 6
nutritional levels, 19 main categories (e.g., "Meat"), 73 subcategories (e.g.,
"White Meat"), and 893 final food products (e.g., "Chicken"). The
AI4Food-NutritionDB opens the doors to new food computing approaches in terms
of food intake frequency, quality, and categorisation. Also, in addition to the
database, we propose a standard experimental protocol and benchmark including
three tasks based on the nutrition taxonomy (i.e., category, subcategory, and
final product) to be used for the research community. Finally, we also release
our Deep Learning models trained with the AI4Food-NutritionDB, which can be
used as pre-trained models, achieving accurate recognition results with
challenging food image databases.
- Abstract(参考訳): 健康なライフスタイルをリードすることは、私たちの摂食生活と食事習慣の悪化により、今日の社会において最も困難な目標の一つとなっている。
その結果、国内外の生物は健康的な食物食と身体活動の習慣を促進するために多くの努力をしている。
しかし、これらの勧告は日々の生活において従うのが難しい場合があり、一般人口にも基づいている。
その結果、個人化された栄養学という新たな研究領域が、スマートデバイスと人工知能(AI)メソッドによる個々のソリューションに焦点を当てることが考えられた。
本研究は, 食品画像と栄養分類を考察した初の栄養データベースであるAI4Food-NutritionDBデータベースを提案する。
さらに、栄養学の専門家は6つの栄養レベル、19の主なカテゴリー(例えば「ミート」)、73のサブカテゴリ(例えば「ホワイト・ミート」)、853の食品(例えば「チッケン」)の4つの異なる分類レベルを考える。
AI4Food-NutritionDBは、食品の摂取頻度、品質、分類の観点から、新しい食品コンピューティングアプローチへの扉を開く。
また,本データベースに加えて,栄養分類に基づく3つのタスク(カテゴリー,分類,最終製品)を研究コミュニティで使用するための標準実験プロトコルとベンチマークを提案する。
最後に、私たちはai4food-nutritiondbでトレーニングされたディープラーニングモデルもリリースしています。
関連論文リスト
- FoodSky: A Food-oriented Large Language Model that Passes the Chef and Dietetic Examination [37.11551779015218]
食品データを理解するために食品指向の大規模言語モデル(LLM)を導入する。
中国料理の複雑さと典型性を考えると、我々はまず1つの総合的な中華料理コーパス「FoodEarth」を構築した。
そこで我々は,HTRAG(Herarchical Topic Retrieval Augmented Generation)機構とTS3M(Selective State Space Model)を提案する。
論文 参考訳(メタデータ) (2024-06-11T01:27:00Z) - NutritionVerse-Direct: Exploring Deep Neural Networks for Multitask Nutrition Prediction from Food Images [63.314702537010355]
自己申告法はしばしば不正確であり、重大な偏見に悩まされる。
近年、食品画像から栄養情報を予測するためにコンピュータビジョン予測システムを用いた研究が進められている。
本稿では,様々なニューラルネットワークアーキテクチャを活用することにより,食事摂取量推定の有効性を高めることを目的とする。
論文 参考訳(メタデータ) (2024-05-13T14:56:55Z) - From Canteen Food to Daily Meals: Generalizing Food Recognition to More
Practical Scenarios [92.58097090916166]
DailyFood-172とDailyFood-16という2つの新しいベンチマークを、毎日の食事から食のイメージをキュレートする。
これらの2つのデータセットは、よく計算された食品画像領域から日常的な食品画像領域へのアプローチの伝達性を評価するために使用される。
論文 参考訳(メタデータ) (2024-03-12T08:32:23Z) - Dietary Assessment with Multimodal ChatGPT: A Systematic Analysis [17.333822848423708]
本研究は、食事アセスメントの領域におけるマルチモーダルChatGPTの適用について検討する。
モデルを特定の言語プロンプトで導くことで、GPT-4Vは、米やパンのような一般的な主食を認識することから、バンクーやウグリといった地域料理を正確に識別するようになる。
GPT-4Vは、周囲の物体をスケール基準として利用し、食品の部位サイズを推定し、食品の重量を栄養分に翻訳する精度をさらに高める。
論文 参考訳(メタデータ) (2023-12-14T01:26:45Z) - NutritionVerse-Real: An Open Access Manually Collected 2D Food Scene
Dataset for Dietary Intake Estimation [68.49526750115429]
食事摂取推定のための2D食品シーンデータセットであるNutritionVerse-Realを導入する。
NutritionVerse-Realデータセットは、実生活における食品シーンのイメージを手作業で収集し、各成分の重量を測定し、各料理の食生活内容を計算することによって作成されました。
論文 参考訳(メタデータ) (2023-11-20T11:05:20Z) - AI4Food-NutritionFW: A Novel Framework for the Automatic Synthesis and
Analysis of Eating Behaviours [15.054674226906265]
本稿では,食行動に応じた食品画像データセット作成のためのフレームワークであるAI4Food-NutritionFWを提案する。
15の異なるプロファイルと1200の被験者から4,800の異なる週ごとの食事行動を含む、ユニークな食品画像データセットについて述べる。
また,提案したAI4Food-NutritionFWのソフトウェア実装と,それを用いた食品画像データセットもリリースしている。
論文 参考訳(メタデータ) (2023-09-12T15:19:36Z) - NutritionVerse-3D: A 3D Food Model Dataset for Nutritional Intake
Estimation [65.47310907481042]
高齢者の4人に1人は栄養不良です。
機械学習とコンピュータビジョンは、食品の自動栄養トラッキング方法の約束を示す。
NutritionVerse-3Dは、105個の3D食品モデルの大規模な高解像度データセットである。
論文 参考訳(メタデータ) (2023-04-12T05:27:30Z) - Towards the Creation of a Nutrition and Food Group Based Image Database [58.429385707376554]
栄養・食品群に基づく画像データベースを構築するための枠組みを提案する。
米国農務省食品栄養データベース(FNDDS)における食品群に基づく食品コードリンクプロトコルを設計する。
提案手法は16,114個の食品データセットを含む栄養・食品群に基づく画像データベースを構築するために用いられる。
論文 参考訳(メタデータ) (2022-06-05T02:41:44Z) - Vision-Based Food Analysis for Automatic Dietary Assessment [49.32348549508578]
本総説では, 食品画像分析, 容積推定, 栄養素抽出の3段階からなる, 統合型ビジョンベース食事評価(VBDA)の枠組みを概説する。
深層学習により、VBDAは徐々にエンドツーエンドの実装へと移行し、単一のネットワークに食品画像を適用して栄養を直接見積もる。
論文 参考訳(メタデータ) (2021-08-06T05:46:01Z) - A Review of the Vision-based Approaches for Dietary Assessment [4.347952928399708]
肥満などの食生活にまつわる問題は現代社会ではますます懸念されている。
コンピュータによる食品認識は、食事摂取量を評価するための視覚に基づく自動手法を提供する。
論文 参考訳(メタデータ) (2021-06-21T06:30:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。