論文の概要: Recognizing Multiple Ingredients in Food Images Using a
Single-Ingredient Classification Model
- arxiv url: http://arxiv.org/abs/2401.14579v3
- Date: Mon, 19 Feb 2024 01:43:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 03:19:25.429233
- Title: Recognizing Multiple Ingredients in Food Images Using a
Single-Ingredient Classification Model
- Title(参考訳): 単一分布分類モデルによる食品画像中の複数の成分の認識
- Authors: Kun Fu, and Ying Dai
- Abstract要約: 本研究では,食品画像から区切られた成分を認識するための高度なアプローチを提案する。
本手法は、位置決めおよびスライドウインドウ技術を用いて、成分の候補領域をローカライズする。
分類モデルの効率を向上する新しいモデルプルーニング法を提案する。
- 参考スコア(独自算出の注目度): 4.409722014494348
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recognizing food images presents unique challenges due to the variable
spatial layout and shape changes of ingredients with different cooking and
cutting methods. This study introduces an advanced approach for recognizing
ingredients segmented from food images. The method localizes the candidate
regions of the ingredients using the locating and sliding window techniques.
Then, these regions are assigned into ingredient classes using a CNN
(Convolutional Neural Network)-based single-ingredient classification model
trained on a dataset of single-ingredient images. To address the challenge of
processing speed in multi-ingredient recognition, a novel model pruning method
is proposed that enhances the efficiency of the classification model.
Subsequently, the multi-ingredient identification is achieved through a
decision-making scheme, incorporating two novel algorithms. The
single-ingredient image dataset, designed in accordance with the book entitled
"New Food Ingredients List FOODS 2021", encompasses 9982 images across 110
diverse categories, emphasizing variety in ingredient shapes. In addition, a
multi-ingredient image dataset is developed to rigorously evaluate the
performance of our approach. Experimental results validate the effectiveness of
our method, particularly highlighting its improved capability in recognizing
multiple ingredients. This marks a significant advancement in the field of food
image analysis.
- Abstract(参考訳): 食品画像の認識には,調理方法や切断方法の異なる食材の空間配置や形状の変化など,独特の課題がある。
本研究では,食品画像から区切られた成分を認識するための高度なアプローチを提案する。
この方法は、位置決めおよびスライドウィンドウ技術を用いて、成分の候補領域をローカライズする。
次に、これらの領域をcnn(convolutional neural network)ベースの単一冗長分類モデルを用いて、単一冗長画像のデータセット上でトレーニングされた成分クラスに割り当てる。
マルチingredient recognitionにおける処理速度の課題に対処するために,分類モデルの効率を向上させる新しいモデルプルーニング法を提案する。
その後、2つの新しいアルゴリズムを組み込んだ意思決定スキームによって、多元的識別を実現する。
New Food Ingredients List FOODS 2021" という本に従って設計された単一独立画像データセットは、110の多様なカテゴリにわたる9982のイメージを含み、材料形状の多様性を強調している。
さらに,本手法の性能評価を行うために,多言語画像データセットを開発した。
実験により, 本手法の有効性, 特に複数の成分の認識能力の向上が示された。
これは食品画像分析の分野で重要な進歩を示している。
関連論文リスト
- Transferring Knowledge for Food Image Segmentation using Transformers
and Convolutions [65.50975507723827]
食品画像のセグメンテーションは、食品の皿の栄養価を推定するなど、ユビキタスな用途を持つ重要なタスクである。
1つの課題は、食品が重なり合ったり混ざったりし、区別が難しいことだ。
2つのモデルが訓練され、比較される。1つは畳み込みニューラルネットワークに基づくもので、もう1つは画像変換器(BEiT)のための双方向表現に関するものである。
BEiTモデルは、FoodSeg103上の49.4の結合の平均的交点を達成することで、従来の最先端モデルよりも優れている。
論文 参考訳(メタデータ) (2023-06-15T15:38:10Z) - Learning Structural Representations for Recipe Generation and Food
Retrieval [101.97397967958722]
本稿では,食品レシピ生成課題に取り組むために,構造認識ネットワーク(SGN)の新たな枠組みを提案する。
提案モデルは高品質でコヒーレントなレシピを作成でき、ベンチマークRecipe1Mデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-10-04T06:36:31Z) - A Large-Scale Benchmark for Food Image Segmentation [62.28029856051079]
我々は9,490枚の画像を含む新しい食品画像データセットFoodSeg103(およびその拡張FoodSeg154)を構築します。
これらの画像に154種類の成分を付加し,各画像は平均6つの成分ラベルと画素単位のマスクを有する。
ReLeMと呼ばれるマルチモダリティプリトレーニングアプローチを提案し、豊富なセマンティックな食品知識を持つセグメンテーションモデルを明確に装備します。
論文 参考訳(メタデータ) (2021-05-12T03:00:07Z) - Revamping Cross-Modal Recipe Retrieval with Hierarchical Transformers
and Self-supervised Learning [17.42688184238741]
近年, 生活における食品の重要性から, クロスモーダルなレシピ検索が注目されている。
本稿では,テキストおよび画像のエンコーダの確立と高性能化に基づく,簡易なエンド・ツー・エンドモデルを提案する。
提案手法は,Recipe1Mデータセットのクロスモーダルレシピ検索タスクにおける最新性能を実現する。
論文 参考訳(メタデータ) (2021-03-24T10:17:09Z) - Visual Aware Hierarchy Based Food Recognition [10.194167945992938]
本稿では,コンボリューショナルニューラルネットワーク(CNN)をバックボーンアーキテクチャとして用いた2段階の食品認識システムを提案する。
食品ローカライゼーションのステップは、食品領域を識別するFaster R-CNN法の実装に基づいている。
食品分類工程では、視覚的に類似した食品カテゴリーを自動的にまとめて階層構造を生成することができる。
論文 参考訳(メタデータ) (2020-12-06T20:25:31Z) - Cross-modal Retrieval and Synthesis (X-MRS): Closing the modality gap in
shared subspace [21.33710150033949]
本稿では,食品画像からレシピへの検索問題に対処するために,共有サブスペース学習のためのシンプルで斬新なアーキテクチャを提案する。
公開Recipe1Mデータセットの実験的解析により,提案手法を用いて学習した部分空間が,現在の最先端技術よりも優れていることが示された。
学習した部分空間の表現力を示すために,レシピの埋め込みを前提とした生成食品画像合成モデルを提案する。
論文 参考訳(メタデータ) (2020-12-02T17:27:00Z) - Structure-Aware Generation Network for Recipe Generation from Images [142.047662926209]
食品画像と材料のみに基づいて調理指導を行うオープン・リサーチ・タスクについて検討する。
ターゲットレシピは長い段落であり、構造情報に関する注釈を持たない。
本稿では,食品レシピ生成課題に取り組むために,構造認識ネットワーク(SGN)の新たな枠組みを提案する。
論文 参考訳(メタデータ) (2020-09-02T10:54:25Z) - ISIA Food-500: A Dataset for Large-Scale Food Recognition via Stacked
Global-Local Attention Network [50.7720194859196]
ウィキペディアのリストから500のカテゴリと399,726の画像を含むデータセットISIA Food-500を紹介する。
このデータセットは、既存の一般的なベンチマークデータセットをカテゴリカバレッジとデータボリュームで上回る。
食品認識のための2つのサブネットワークからなるグローバルローカルアテンションネットワークを提案する。
論文 参考訳(メタデータ) (2020-08-13T02:48:27Z) - Cross-Modal Food Retrieval: Learning a Joint Embedding of Food Images
and Recipes with Semantic Consistency and Attention Mechanism [70.85894675131624]
画像とレシピを共通の特徴空間に埋め込み、対応する画像とレシピの埋め込みが互いに近接するように学習する。
本稿では,2つのモダリティの埋め込みを正規化するためのセマンティック・一貫性とアテンション・ベース・ネットワーク(SCAN)を提案する。
食品画像や調理レシピの最先端のクロスモーダル検索戦略を,かなりの差で達成できることが示される。
論文 参考訳(メタデータ) (2020-03-09T07:41:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。