論文の概要: A Highly Clean Recipe Dataset with Ingredient States Annotation for State Probing Task
- arxiv url: http://arxiv.org/abs/2507.17232v1
- Date: Wed, 23 Jul 2025 05:56:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:14.874045
- Title: A Highly Clean Recipe Dataset with Ingredient States Annotation for State Probing Task
- Title(参考訳): 状態探索タスクに不規則な状態アノテーションを付加した高クリーンなレシピデータセット
- Authors: Mashiro Toyooka, Kiyoharu Aizawa, Yoko Yamakata,
- Abstract要約: 本稿では,調理過程における中間成分状態の認識方法を評価するための新しいタスクとデータセットを提案する。
まず, 成分状態変化の明確かつ正確なアノテーションを用いた新しいレシピデータセットを構築した。
このデータセットを用いて,LLMが成分状態遷移を追跡し,中間段階に存在する成分を識別できるかどうかを評価する3つの新しいタスクを設計する。
- 参考スコア(独自算出の注目度): 30.349846688239293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) are trained on a vast amount of procedural texts, but they do not directly observe real-world phenomena. In the context of cooking recipes, this poses a challenge, as intermediate states of ingredients are often omitted, making it difficult for models to track ingredient states and understand recipes accurately. In this paper, we apply state probing, a method for evaluating a language model's understanding of the world, to the domain of cooking. We propose a new task and dataset for evaluating how well LLMs can recognize intermediate ingredient states during cooking procedures. We first construct a new Japanese recipe dataset with clear and accurate annotations of ingredient state changes, collected from well-structured and controlled recipe texts. Using this dataset, we design three novel tasks to evaluate whether LLMs can track ingredient state transitions and identify ingredients present at intermediate steps. Our experiments with widely used LLMs, such as Llama3.1-70B and Qwen2.5-72B, show that learning ingredient state knowledge improves their understanding of cooking processes, achieving performance comparable to commercial LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、大量の手続き的テキストに基づいて訓練されているが、実際の現象を直接観察するわけではない。
料理の文脈では、成分の中間状態が省略されることがしばしばあり、モデルが成分の状態を追跡し、レシピを正確に理解することが困難になるため、これは課題となる。
本稿では,言語モデルによる世界理解の評価手法である状態探索を調理領域に適用する。
そこで本研究では,調理過程におけるLCMの中間成分状態の認識精度を評価するための新しいタスクとデータセットを提案する。
まず, 成分状態変化の明確かつ正確なアノテーションを用いた新しいレシピデータセットを構築し, 適切に構造化されたレシピテキストから収集した。
このデータセットを用いて,LLMが成分状態遷移を追跡し,中間段階に存在する成分を識別できるかどうかを評価する3つの新しいタスクを設計する。
Llama3.1-70B や Qwen2.5-72B など,広く使用されている LLM を用いた実験により,学習成分の状態知識が調理過程の理解を向上し,商業 LLM に匹敵する性能を達成することを示す。
関連論文リスト
- OSCAR: Object Status and Contextual Awareness for Recipes to Support Non-Visual Cooking [24.6085205199758]
調理中のレシピに従うことは、視覚障害者にとって重要な課題であるが難しい課題である。
我々は、レシピの進捗追跡とコンテキスト認識フィードバックを提供する新しいアプローチであるOSCARを開発した。
我々は、YouTubeの調理ビデオ173本と現実世界の非視覚的調理ビデオ12本を用いて、OSCARのレシピをフォローする機能を評価した。
論文 参考訳(メタデータ) (2025-03-07T22:03:21Z) - Retrieval Augmented Recipe Generation [96.43285670458803]
本稿では,レシピ生成のための拡張型大規模マルチモーダルモデルを提案する。
既存のデータストアからサプリメントとして、イメージにセマンティックに関連付けられたレシピを検索する。
生成したレシピ候補間の一貫性を計算し、異なる検索レシピを生成のコンテキストとして使用する。
論文 参考訳(メタデータ) (2024-11-13T15:58:50Z) - LLaVA-Chef: A Multi-modal Generative Model for Food Recipes [17.705244174235045]
大規模言語モデル(LLM)は、自然言語処理アプローチにより、食品関連のタスクをより深く掘り下げる道を開いた。
この研究は、多様なレシピプロンプトのキュレートされたデータセットに基づいて訓練された新しいモデルであるLLaVA-Chefを提案する。
詳細な質的分析により、LLaVA-Chefはより詳細なレシピを生成し、正確な成分が記述されていることが明らかになった。
論文 参考訳(メタデータ) (2024-08-29T20:20:49Z) - PizzaCommonSense: Learning to Model Commonsense Reasoning about Intermediate Steps in Cooking Recipes [7.839338724237275]
レシピを効果的に推論するモデルは、レシピ内の中間ステップの入力と出力を正確に識別し、理解する必要がある。
そこで本研究では,各工程の入力と出力を記述した中間ステップを記述した料理レシピの新たなコーパスを提案する。
論文 参考訳(メタデータ) (2024-01-12T23:33:01Z) - Data-Juicer: A One-Stop Data Processing System for Large Language Models [73.27731037450995]
データレシピは、大規模言語モデル(LLM)をトレーニングするための異なるソースからのデータの混合である。
我々はData-Juicerという新しいシステムを構築し、多様なデータレシピを効率的に生成できる。
Data-Juicerから派生したデータレシピは、最先端のLLMで顕著に改善されている。
論文 参考訳(メタデータ) (2023-09-05T08:22:07Z) - KitchenScale: Learning to predict ingredient quantities from recipe
contexts [13.001618172288198]
KitchenScaleは、レシピのコンテキストからターゲットの材料量と測定単位を予測するモデルである。
本稿では,成分測定型分類,単位分類,量回帰タスクの3つのサブタスクからなる成分量予測タスクを定式化する。
新たに構築したデータセットとレコメンデーションの例での実験では、さまざまなレシピコンテキストに対するKitchenScaleの理解が示されています。
論文 参考訳(メタデータ) (2023-04-21T04:28:16Z) - ICL-D3IE: In-Context Learning with Diverse Demonstrations Updating for
Document Information Extraction [56.790794611002106]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて、文脈内学習による顕著な結果を示している。
ICL-D3IEと呼ばれるシンプルだが効果的なテキスト内学習フレームワークを提案する。
具体的には、ハードトレーニング文書から最も困難で独特なセグメントをハードデモとして抽出する。
論文 参考訳(メタデータ) (2023-03-09T06:24:50Z) - Structured Vision-Language Pretraining for Computational Cooking [54.0571416522547]
Vision-Language PretrainingとFoundationモデルは、一般的なベンチマークでSoTAのパフォーマンスを達成するためのゴーツーレシピです。
本稿では,これらの手法を構造化テキストベースの計算料理タスクに活用することを提案する。
論文 参考訳(メタデータ) (2022-12-08T13:37:17Z) - Counterfactual Recipe Generation: Exploring Compositional Generalization
in a Realistic Scenario [60.20197771545983]
本研究では,材料の変化に応じて基本レシピを変更するようモデルに依頼する,反現実的なレシピ生成タスクを設計する。
料理の知識を学習するモデルのために、中国語で大規模なレシピデータセットを収集する。
その結果、既存のモデルでは原文のスタイルを保ちながら素材の変更が困難であり、調整が必要なアクションを見逃すことがしばしばあった。
論文 参考訳(メタデータ) (2022-10-20T17:21:46Z) - Learning Structural Representations for Recipe Generation and Food
Retrieval [101.97397967958722]
本稿では,食品レシピ生成課題に取り組むために,構造認識ネットワーク(SGN)の新たな枠組みを提案する。
提案モデルは高品質でコヒーレントなレシピを作成でき、ベンチマークRecipe1Mデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-10-04T06:36:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。