論文の概要: MetaFood3D: 3D Food Dataset with Nutrition Values
- arxiv url: http://arxiv.org/abs/2409.01966v2
- Date: Sat, 07 Dec 2024 21:37:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:49:03.582433
- Title: MetaFood3D: 3D Food Dataset with Nutrition Values
- Title(参考訳): MetaFood3D:栄養価を持つ3D食品データセット
- Authors: Yuhao Chen, Jiangpeng He, Gautham Vinod, Siddeshwar Raghavan, Chris Czarnecki, Jinge Ma, Talha Ibn Mahmud, Bruce Coburn, Dayou Mao, Saeejith Nair, Pengcheng Xi, Alexander Wong, Edward Delp, Fengqing Zhu,
- Abstract要約: このデータセットは、131のカテゴリにまたがって、743の精細にスキャンされ、ラベル付けされた3D食品オブジェクトで構成されている。
我々のMetaFood3Dデータセットはクラス内の多様性を重視しており、テクスチャメッシュファイル、RGB-Dビデオ、セグメンテーションマスクなどのリッチなモダリティを含んでいる。
- 参考スコア(独自算出の注目度): 52.16894900096017
- License:
- Abstract: Food computing is both important and challenging in computer vision (CV). It significantly contributes to the development of CV algorithms due to its frequent presence in datasets across various applications, ranging from classification and instance segmentation to 3D reconstruction. The polymorphic shapes and textures of food, coupled with high variation in forms and vast multimodal information, including language descriptions and nutritional data, make food computing a complex and demanding task for modern CV algorithms. 3D food modeling is a new frontier for addressing food related problems, due to its inherent capability to deal with random camera views and its straightforward representation for calculating food portion size. However, the primary hurdle in the development of algorithms for food object analysis is the lack of nutrition values in existing 3D datasets. Moreover, in the broader field of 3D research, there is a critical need for domain-specific test datasets. To bridge the gap between general 3D vision and food computing research, we introduce MetaFood3D. This dataset consists of 743 meticulously scanned and labeled 3D food objects across 131 categories, featuring detailed nutrition information, weight, and food codes linked to a comprehensive nutrition database. Our MetaFood3D dataset emphasizes intra-class diversity and includes rich modalities such as textured mesh files, RGB-D videos, and segmentation masks. Experimental results demonstrate our dataset's strong capabilities in enhancing food portion estimation algorithms, highlight the gap between video captures and 3D scanned data, and showcase the strengths of MetaFood3D in generating synthetic eating occasion data and 3D food objects.
- Abstract(参考訳): 食品コンピューティングはコンピュータビジョン(CV)において重要かつ困難である。
これは、分類やインスタンスセグメンテーションから3D再構成に至るまで、さまざまなアプリケーションにまたがるデータセットに頻繁に存在するため、CVアルゴリズムの開発に大きく貢献する。
食品の多形形状とテクスチャは、言語記述や栄養データを含む多モーダル情報の多様性と相まって、現代のCVアルゴリズムの複雑で要求の多いタスクとなっている。
3Dフードモデリングは、ランダムなカメラビューに対処する固有の能力と、食品の部分サイズを計算するための直接的な表現のため、食品関連の問題に対処するための新たなフロンティアである。
しかし、食品オブジェクト分析のためのアルゴリズムの開発における主要なハードルは、既存の3Dデータセットにおける栄養価の欠如である。
さらに、より広い3D研究分野においては、ドメイン固有のテストデータセットが不可欠である。
一般の3Dビジョンと食品コンピューティング研究のギャップを埋めるために,MetaFood3Dを紹介する。
このデータセットは、詳細な栄養情報、体重、および包括的栄養データベースに関連付けられた食品コードを含む131カテゴリにわたる、細心の注意を払ってスキャンされ、ラベル付けされた743個の3D食品オブジェクトで構成されている。
我々のMetaFood3Dデータセットはクラス内の多様性を重視しており、テクスチャメッシュファイル、RGB-Dビデオ、セグメンテーションマスクなどのリッチなモダリティを含んでいる。
実験結果は,食品部分推定アルゴリズムの強化におけるデータセットの強みを示し,ビデオキャプチャと3Dスキャンデータのギャップを強調し,合成食時データと3D食品オブジェクトの生成におけるMetaFood3Dの強みを示した。
関連論文リスト
- MFP3D: Monocular Food Portion Estimation Leveraging 3D Point Clouds [7.357322789192671]
本稿では,単一の単分子画像のみを用いて,食品の正確な推定を行うための新しい枠組みを提案する。
本フレームワークは,(1)2次元画像から食品の3次元点クラウド表現を生成する3次元再構成モジュール,(2)3次元点クラウドと2次元RGB画像の両方の特徴を抽出し表現する特徴抽出モジュール,(3)食品の容積とエネルギー量を推定するために深い回帰モデルを利用するポーション回帰モジュールの3つの主要なモジュールから構成される。
論文 参考訳(メタデータ) (2024-11-14T22:17:27Z) - MetaFood CVPR 2024 Challenge on Physically Informed 3D Food Reconstruction: Methods and Results [52.07174491056479]
私たちはMetaFood Workshopを主催し、物理的にインフォームドされた3Dフードレコンストラクションへの挑戦を行っている。
本課題は,2次元画像から,視認性チェッカーボードをサイズ基準として,食品の容積正確な3次元モデルを再構築することに焦点を当てる。
この課題で開発されたソリューションは、3D食品の復元において有望な成果を達成し、食事評価と栄養モニタリングのための部分推定の改善に有意な可能性を秘めている。
論文 参考訳(メタデータ) (2024-07-12T14:15:48Z) - NutritionVerse-Synth: An Open Access Synthetically Generated 2D Food
Scene Dataset for Dietary Intake Estimation [71.22646949733833]
大規模な合成食品画像データセットであるNutritionVerse-Synth(NV-Synth)を紹介する。
NV-Synthは7,082枚の動的3Dシーンからレンダリングされた84,984枚のフォトリアリスティックな食事画像を含んでいる。
オープンソースで最大の合成食品データセットであるNV-Synthは、物理学に基づくシミュレーションの価値を強調している。
論文 参考訳(メタデータ) (2023-12-11T08:15:49Z) - Transferring Knowledge for Food Image Segmentation using Transformers
and Convolutions [65.50975507723827]
食品画像のセグメンテーションは、食品の皿の栄養価を推定するなど、ユビキタスな用途を持つ重要なタスクである。
1つの課題は、食品が重なり合ったり混ざったりし、区別が難しいことだ。
2つのモデルが訓練され、比較される。1つは畳み込みニューラルネットワークに基づくもので、もう1つは画像変換器(BEiT)のための双方向表現に関するものである。
BEiTモデルは、FoodSeg103上の49.4の結合の平均的交点を達成することで、従来の最先端モデルよりも優れている。
論文 参考訳(メタデータ) (2023-06-15T15:38:10Z) - NutritionVerse-3D: A 3D Food Model Dataset for Nutritional Intake
Estimation [65.47310907481042]
高齢者の4人に1人は栄養不良です。
機械学習とコンピュータビジョンは、食品の自動栄養トラッキング方法の約束を示す。
NutritionVerse-3Dは、105個の3D食品モデルの大規模な高解像度データセットである。
論文 参考訳(メタデータ) (2023-04-12T05:27:30Z) - Deep Learning based Food Instance Segmentation using Synthetic Data [0.0]
本稿では,合成データを用いた実世界の食品のセグメンテーション手法を提案する。
医療ロボットシステム上で食品セグメンテーションを行うために,オープンソースの3DグラフィックスソフトウェアであるBlenderを用いて合成データを生成する。
その結果、実世界のデータセットでは、52.2%のマスクAP@allでトレーニングされていない食品インスタンスをセグメント化するために、合成データのみをトレーニングしたモデルが利用可能になった。
論文 参考訳(メタデータ) (2021-07-15T08:36:54Z) - Towards Building a Food Knowledge Graph for Internet of Food [66.57235827087092]
食品分類から食品分類、食品知識グラフまで、食品知識組織の進化を概観する。
食品知識グラフは、食品検索と質問回答(QA)、パーソナライズされた食事レコメンデーション、食品分析、可視化において重要な役割を果たす。
食品知識グラフの今後の方向性は、マルチモーダル食品知識グラフや食品インテリジェンスなど、いくつかの分野をカバーする。
論文 参考訳(メタデータ) (2021-07-13T06:26:53Z) - Are We Hungry for 3D LiDAR Data for Semantic Segmentation? A Survey and
Experimental Study [5.6780397318769245]
3Dセマンティックセグメンテーションは、ロボットおよび自律運転アプリケーションの基本課題である。
最近の研究はディープラーニング技術の利用に重点を置いているが、細かな注釈付き3DLiDARデータセットの開発は非常に労働集約的である。
不十分なデータセットによって引き起こされるパフォーマンスの制限は、データ飢餓問題と呼ばれる。
論文 参考訳(メタデータ) (2020-06-08T01:20:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。