論文の概要: KERL: Knowledge-Enhanced Personalized Recipe Recommendation using Large Language Models
- arxiv url: http://arxiv.org/abs/2505.14629v1
- Date: Tue, 20 May 2025 17:19:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.63888
- Title: KERL: Knowledge-Enhanced Personalized Recipe Recommendation using Large Language Models
- Title(参考訳): KERL:大規模言語モデルを用いた知識強化型パーソナライズドレシピレコメンデーション
- Authors: Fnu Mohbat, Mohammed J Zaki,
- Abstract要約: 大規模言語モデル(LLMs)の最近の進歩と食品データの豊富さは、食品の理解を改善するために研究されている。
我々は、食品KGとLLMを活用して、パーソナライズされた食品レコメンデーションを提供する統一システムであるKERLを紹介する。
我々は,提案するKG拡張LDMが既存手法よりも大幅に優れていることを示す。
- 参考スコア(独自算出の注目度): 17.705244174235045
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in large language models (LLMs) and the abundance of food data have resulted in studies to improve food understanding using LLMs. Despite several recommendation systems utilizing LLMs and Knowledge Graphs (KGs), there has been limited research on integrating food related KGs with LLMs. We introduce KERL, a unified system that leverages food KGs and LLMs to provide personalized food recommendations and generates recipes with associated micro-nutritional information. Given a natural language question, KERL extracts entities, retrieves subgraphs from the KG, which are then fed into the LLM as context to select the recipes that satisfy the constraints. Next, our system generates the cooking steps and nutritional information for each recipe. To evaluate our approach, we also develop a benchmark dataset by curating recipe related questions, combined with constraints and personal preferences. Through extensive experiments, we show that our proposed KG-augmented LLM significantly outperforms existing approaches, offering a complete and coherent solution for food recommendation, recipe generation, and nutritional analysis. Our code and benchmark datasets are publicly available at https://github.com/mohbattharani/KERL.
- Abstract(参考訳): 大規模言語モデル (LLMs) の最近の進歩と食品データ量の増大により, LLMs を用いた食品理解の向上が研究されている。
LLMと知識グラフ(KG)を利用した推薦システムもいくつかあるが、食品関連KGとLLMの統合については限定的な研究がなされている。
KERLは食品KGとLLMを利用して、個人化された食品レコメンデーションを提供し、関連するマイクロ栄養情報でレシピを生成する統合システムである。
自然言語の質問が与えられた場合、KERLはエンティティを抽出し、KGからサブグラフを取得し、それを文脈としてLLMに入力し、制約を満たすレシピを選択する。
次に,本システムは,レシピごとに調理工程と栄養情報を生成する。
提案手法を評価するため,レシピに関連する質問を計算し,制約や個人の嗜好と組み合わせたベンチマークデータセットも開発した。
以上の結果から,提案したKG添加LCMは食品レコメンデーション,レシピ生成,栄養分析のための完全で一貫性のあるソリューションとして,既存のアプローチよりも優れていたことが示唆された。
コードとベンチマークのデータセットはhttps://github.com/mohbattharani/KERL.comで公開されています。
関連論文リスト
- Enhancing FKG.in: automating Indian food composition analysis [2.180451315432493]
本稿では,インド料理の食品組成データを知識グラフを用いて計算する手法を提案する。
このワークフローは、FKG.inを補完し、検証済み知識ベースからの食品組成データを反復的に補完することを目的としている。
ユーザがワークフローと対話して、ダイエットベースのヘルスレコメンデーションを得る方法について、簡単に説明している。
論文 参考訳(メタデータ) (2024-12-06T18:27:15Z) - LLaVA-Chef: A Multi-modal Generative Model for Food Recipes [17.705244174235045]
大規模言語モデル(LLM)は、自然言語処理アプローチにより、食品関連のタスクをより深く掘り下げる道を開いた。
この研究は、多様なレシピプロンプトのキュレートされたデータセットに基づいて訓練された新しいモデルであるLLaVA-Chefを提案する。
詳細な質的分析により、LLaVA-Chefはより詳細なレシピを生成し、正確な成分が記述されていることが明らかになった。
論文 参考訳(メタデータ) (2024-08-29T20:20:49Z) - RoDE: Linear Rectified Mixture of Diverse Experts for Food Large Multi-Modal Models [96.43285670458803]
Uni-Foodは、さまざまな食品ラベルを持つ10万以上の画像からなる統合食品データセットである。
Uni-Foodは、食品データ分析に対するより包括的なアプローチを提供するように設計されている。
本稿では,食品関連マルチタスキングの課題に対処するため,新しいリニア・リクティフィケーション・ミックス・オブ・ディバース・エキスパート (RoDE) アプローチを提案する。
論文 参考訳(メタデータ) (2024-07-17T16:49:34Z) - FoodLMM: A Versatile Food Assistant using Large Multi-modal Model [96.76271649854542]
大規模マルチモーダルモデル(LMM)は多くの視覚言語タスクにおいて顕著な進歩を遂げている。
本稿では,多機能なLMMに基づく多目的食品アシスタントであるFoodLMMを提案する。
本稿では,食品の栄養価と複数のセグメンテーションマスクを予測するために,一連の新しいタスク固有のトークンとヘッドを導入する。
論文 参考訳(メタデータ) (2023-12-22T11:56:22Z) - Data-Juicer: A One-Stop Data Processing System for Large Language Models [73.27731037450995]
データレシピは、大規模言語モデル(LLM)をトレーニングするための異なるソースからのデータの混合である。
我々はData-Juicerという新しいシステムを構築し、多様なデータレシピを効率的に生成できる。
Data-Juicerから派生したデータレシピは、最先端のLLMで顕著に改善されている。
論文 参考訳(メタデータ) (2023-09-05T08:22:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。