論文の概要: Self-Supervised Visual Representation Learning on Food Images
- arxiv url: http://arxiv.org/abs/2303.09046v1
- Date: Thu, 16 Mar 2023 02:31:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 17:04:20.824994
- Title: Self-Supervised Visual Representation Learning on Food Images
- Title(参考訳): 食品画像を用いた自己監督型視覚表現学習
- Authors: Andrew Peng, Jiangpeng He, Fengqing Zhu
- Abstract要約: 既存の深層学習手法は、食品画像の人間のアノテーションに基づいて、下流タスクの視覚的表現を学習する。
実生活のほとんどの食品画像はラベルなしで取得され、データアノテーションには多くの時間と人的労力が必要です。
本稿では,食品画像における自己指導型学習手法の実装と分析に焦点をあてる。
- 参考スコア(独自算出の注目度): 6.602838826255494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Food image analysis is the groundwork for image-based dietary assessment,
which is the process of monitoring what kinds of food and how much energy is
consumed using captured food or eating scene images. Existing deep
learning-based methods learn the visual representation for downstream tasks
based on human annotation of each food image. However, most food images in real
life are obtained without labels, and data annotation requires plenty of time
and human effort, which is not feasible for real-world applications. To make
use of the vast amount of unlabeled images, many existing works focus on
unsupervised or self-supervised learning of visual representations directly
from unlabeled data. However, none of these existing works focus on food
images, which is more challenging than general objects due to its high
inter-class similarity and intra-class variance.
In this paper, we focus on the implementation and analysis of existing
representative self-supervised learning methods on food images. Specifically,
we first compare the performance of six selected self-supervised learning
models on the Food-101 dataset. Then we analyze the pros and cons of each
selected model when training on food data to identify the key factors that can
help improve the performance. Finally, we propose several ideas for future work
on self-supervised visual representation learning for food images.
- Abstract(参考訳): 食品画像分析は、画像ベースの食事アセスメントの土台であり、どのような種類の食品とどれだけのエネルギーが消費されるかを監視するプロセスである。
既存の深層学習手法は、食品画像の人間のアノテーションに基づいて下流タスクの視覚表現を学習する。
しかし、実生活のほとんどの食品画像はラベルなしで取得され、データアノテーションには多くの時間と人的労力が必要であり、現実の用途では実現できない。
膨大な量のラベルなし画像を使用するため、既存の作品の多くはラベルなしデータから直接視覚表現の教師なしまたは自己教師なし学習に焦点を当てている。
しかし、これらの既存の作品はいずれも食品イメージに焦点を当てていないため、クラス間の類似度やクラス内分散度が高いため、一般的なオブジェクトよりも難しい。
本稿では,食品画像における既存の代表的自己教師あり学習手法の実装と分析に着目する。
具体的には,Food-101データセット上で選択した6つの自己教師型学習モデルの性能を比較した。
次に,食品データを用いた学習において,各モデルの長所と短所を分析し,性能向上に寄与する要因を同定する。
最後に,食品画像の自己教師型視覚表現学習における今後の課題について提案する。
関連論文リスト
- Shape-Preserving Generation of Food Images for Automatic Dietary Assessment [1.602820210496921]
条件付き食品画像生成のための簡単なGANベースのニューラルネットワークアーキテクチャを提案する。
生成された画像中の食品や容器の形状は、参照入力画像の形状とよく似ている。
論文 参考訳(メタデータ) (2024-08-23T20:18:51Z) - How Much You Ate? Food Portion Estimation on Spoons [63.611551981684244]
現在の画像に基づく食品部分推定アルゴリズムは、ユーザが食事の画像を1、2回取ることを前提としている。
本稿では,静止型ユーザ向けカメラを用いて,機器上の食品の追跡を行う革新的なソリューションを提案する。
本システムは,スープやシチューなどの液状固形不均一混合物の栄養含量の推定に信頼性が高い。
論文 参考訳(メタデータ) (2024-05-12T00:16:02Z) - From Canteen Food to Daily Meals: Generalizing Food Recognition to More
Practical Scenarios [92.58097090916166]
DailyFood-172とDailyFood-16という2つの新しいベンチマークを、毎日の食事から食のイメージをキュレートする。
これらの2つのデータセットは、よく計算された食品画像領域から日常的な食品画像領域へのアプローチの伝達性を評価するために使用される。
論文 参考訳(メタデータ) (2024-03-12T08:32:23Z) - Personalized Food Image Classification: Benchmark Datasets and New
Baseline [8.019925729254178]
本稿では、自己教師付き学習と時間的特徴情報を活用することにより、個人化された食品画像分類のための新しい枠組みを提案する。
提案手法は両方のベンチマークデータセットで評価され,既存手法と比較して性能が向上した。
論文 参考訳(メタデータ) (2023-09-15T20:11:07Z) - NutritionVerse: Empirical Study of Various Dietary Intake Estimation Approaches [59.38343165508926]
食事の正確な摂取推定は、健康的な食事を支援するための政策やプログラムを伝える上で重要である。
最近の研究は、コンピュータービジョンと機械学習を使用して、食物画像から食事摂取を自動的に推定することに焦点を当てている。
我々は,84,984個の合成2D食品画像と関連する食事情報を用いた最初の大規模データセットであるNutritionVerse-Synthを紹介した。
また、リアルなイメージデータセットであるNutritionVerse-Realを収集し、リアル性を評価するために、251の料理の889のイメージを含む。
論文 参考訳(メタデータ) (2023-09-14T13:29:41Z) - Diffusion Model with Clustering-based Conditioning for Food Image
Generation [22.154182296023404]
深層学習に基づく手法は、食品分類、セグメンテーション、部分サイズ推定などの画像解析に一般的に用いられている。
潜在的な解決策の1つは、データ拡張に合成食品画像を使用することである。
本稿では,高品質で代表的な食品画像を生成するための効果的なクラスタリングベースのトレーニングフレームワークであるClusDiffを提案する。
論文 参考訳(メタデータ) (2023-09-01T01:40:39Z) - Food Image Classification and Segmentation with Attention-based Multiple
Instance Learning [51.279800092581844]
本稿では,食品画像分類とセマンティックセグメンテーションモデルを訓練するための弱教師付き方法論を提案する。
提案手法は、注意に基づくメカニズムと組み合わせて、複数のインスタンス学習アプローチに基づいている。
提案手法の有効性を検証するため,FoodSeg103データセット内の2つのメタクラスについて実験を行った。
論文 参考訳(メタデータ) (2023-08-22T13:59:47Z) - Transferring Knowledge for Food Image Segmentation using Transformers
and Convolutions [65.50975507723827]
食品画像のセグメンテーションは、食品の皿の栄養価を推定するなど、ユビキタスな用途を持つ重要なタスクである。
1つの課題は、食品が重なり合ったり混ざったりし、区別が難しいことだ。
2つのモデルが訓練され、比較される。1つは畳み込みニューラルネットワークに基づくもので、もう1つは画像変換器(BEiT)のための双方向表現に関するものである。
BEiTモデルは、FoodSeg103上の49.4の結合の平均的交点を達成することで、従来の最先端モデルよりも優れている。
論文 参考訳(メタデータ) (2023-06-15T15:38:10Z) - Online Continual Learning For Visual Food Classification [7.704949298975352]
既存の方法はトレーニングのために静的なデータセットを必要としており、シーケンシャルに利用可能な新しい食品画像から学ぶことができない。
本稿では,各学習食品に含まれる最も代表的なデータを格納するための,クラスタリングに基づく模範選択アルゴリズムを提案する。
その結果,既存のオンライン連続学習手法と比較して,大幅な改善が見られた。
論文 参考訳(メタデータ) (2021-08-15T17:48:03Z) - A Large-Scale Benchmark for Food Image Segmentation [62.28029856051079]
我々は9,490枚の画像を含む新しい食品画像データセットFoodSeg103(およびその拡張FoodSeg154)を構築します。
これらの画像に154種類の成分を付加し,各画像は平均6つの成分ラベルと画素単位のマスクを有する。
ReLeMと呼ばれるマルチモダリティプリトレーニングアプローチを提案し、豊富なセマンティックな食品知識を持つセグメンテーションモデルを明確に装備します。
論文 参考訳(メタデータ) (2021-05-12T03:00:07Z) - Saliency-Aware Class-Agnostic Food Image Segmentation [10.664526852464812]
クラス別食品画像分割法を提案する。
画像の前後の情報を利用すれば、目立たないオブジェクトを見つけることで、食べ物のイメージをセグメンテーションすることができる。
本手法は,食餌研究から収集した食品画像を用いて検証する。
論文 参考訳(メタデータ) (2021-02-13T08:05:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。