論文の概要: From "What to Eat?" to Perfect Recipe: ChefMind's Chain-of-Exploration for Ambiguous User Intent in Recipe Recommendation
- arxiv url: http://arxiv.org/abs/2509.18226v1
- Date: Mon, 22 Sep 2025 11:35:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.500189
- Title: From "What to Eat?" to Perfect Recipe: ChefMind's Chain-of-Exploration for Ambiguous User Intent in Recipe Recommendation
- Title(参考訳): What to Eat? to Perfect Recipe: The ChefMind's Chain-of-Exploration for Ambiguous User Intent in Recipe Recommendation
- Authors: Yu Fu, Linyue Cai, Ruoyu Wu, Yong Zhao,
- Abstract要約: ChefMindは、探索の連鎖(CoE)、知識グラフ(KG)、検索の強化(RAG)、大規模言語モデル(LLM)を組み合わせたハイブリッドアーキテクチャである。
我々はXiachufangデータセット上でChefMindを評価し、手動でアノテートしたクエリをLLMオンリー、KGオンリー、RAGオンリーのベースラインと比較した。
その結果、ChefMindは精度、妥当性、完全性、明度において、平均スコアが8.7対6.4-6.7であるのに対して、アブレーションモデルでは6.4-6.7であることがわかった。
- 参考スコア(独自算出の注目度): 13.147067854005885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized recipe recommendation faces challenges in handling fuzzy user intent, ensuring semantic accuracy, and providing sufficient detail coverage. We propose ChefMind, a hybrid architecture combining Chain of Exploration (CoE), Knowledge Graph (KG), Retrieval-Augmented Generation (RAG), and a Large Language Model (LLM). CoE refines ambiguous queries into structured conditions, KG offers semantic reasoning and interpretability, RAG supplements contextual culinary details, and LLM integrates outputs into coherent recommendations. We evaluate ChefMind on the Xiachufang dataset and manually annotated queries, comparing it with LLM-only, KG-only, and RAG-only baselines. Results show that ChefMind achieves superior performance in accuracy, relevance, completeness, and clarity, with an average score of 8.7 versus 6.4-6.7 for ablation models. Moreover, it reduces unprocessed queries to 1.6%, demonstrating robustness in handling fuzzy demands.
- Abstract(参考訳): パーソナライズされたレシピレコメンデーションは、ファジィなユーザ意図の扱い、セマンティックな精度の確保、そして十分な詳細情報の提供において課題に直面している。
本稿では、探索の連鎖(CoE)、知識グラフ(KG)、検索の強化(RAG)、大規模言語モデル(LLM)を組み合わせたハイブリッドアーキテクチャであるChefMindを提案する。
CoEはあいまいなクエリを構造化条件に洗練し、KGは意味論的推論と解釈可能性を提供し、RAGは文脈的料理の詳細を補完し、LCMは出力を一貫性のあるレコメンデーションに統合する。
我々はXiachufangデータセット上でChefMindを評価し、手動でアノテートしたクエリをLLMオンリー、KGオンリー、RAGオンリーのベースラインと比較した。
その結果、ChefMindは精度、妥当性、完全性、明度において、平均スコアが8.7対6.4-6.7であるのに対して、アブレーションモデルでは6.4-6.7であることがわかった。
さらに、処理されていないクエリを1.6%に減らし、ファジィ要求を処理する堅牢性を示す。
関連論文リスト
- KG-CQR: Leveraging Structured Relation Representations in Knowledge Graphs for Contextual Query Retrieval [5.263064605350636]
我々は、コンテキストクエリ検索(CQR)のための新しいフレームワークであるKG-CQRを提案する。
KG-CQRは、構造化された関係表現によるクエリエンリッチメントに焦点を当て、関連するKGサブグラフを抽出して、セマンティックにリッチなクエリコンテキストを生成する。
RAGBenchとMultiHop-RAGデータセットの実験結果は、KG-CQRの優れたパフォーマンスを示し、mAPが4-6%改善され、強力なベースラインモデルよりもRecall@25が2-3%改善された。
論文 参考訳(メタデータ) (2025-08-28T04:37:15Z) - KERL: Knowledge-Enhanced Personalized Recipe Recommendation using Large Language Models [17.705244174235045]
大規模言語モデル(LLMs)の最近の進歩と食品データの豊富さは、食品の理解を改善するために研究されている。
我々は、食品KGとLLMを活用して、パーソナライズされた食品レコメンデーションを提供する統一システムであるKERLを紹介する。
我々は,提案するKG拡張LDMが既存手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2025-05-20T17:19:57Z) - Knowledge Graph-based Retrieval-Augmented Generation for Schema Matching [3.7548609506798485]
本稿では,大規模言語モデル(LLM)マッチングのための知識グラフに基づく検索型生成モデルを提案する。
特に、KG-RAG4SMはベクトルベース、グラフベース、クエリベースのグラフ検索を導入している。
KG-RAG4SMは、MIMICデータセットの精度とF1スコアにおいて、最先端(SOTA)法を35.89%、30.50%で上回っている。
論文 参考訳(メタデータ) (2025-01-15T09:32:37Z) - KG-CF: Knowledge Graph Completion with Context Filtering under the Guidance of Large Language Models [55.39134076436266]
KG-CFはランキングベースの知識グラフ補完タスクに適したフレームワークである。
KG-CFは、LLMの推論能力を活用して、無関係なコンテキストをフィルタリングし、現実世界のデータセットで優れた結果を得る。
論文 参考訳(メタデータ) (2025-01-06T01:52:15Z) - LLM Self-Correction with DeCRIM: Decompose, Critique, and Refine for Enhanced Following of Instructions with Multiple Constraints [86.59857711385833]
実世界のマルチ制約命令に従うLLMの能力を評価するために設計された最初のベンチマークであるRealInstructを紹介する。
オープンソースモデルとプロプライエタリモデルのパフォーマンスギャップを解決するため,Decompose, Critique and Refine(DeCRIM)自己補正パイプラインを提案する。
この結果から,DeCRIMはフィードバックが弱い場合でも,RealInstructでは7.3%,IFEvalでは8.0%,Mistralでは7.3%向上した。
論文 参考訳(メタデータ) (2024-10-09T01:25:10Z) - SFR-RAG: Towards Contextually Faithful LLMs [57.666165819196486]
Retrieval Augmented Generation (RAG) は、外部コンテキスト情報を大言語モデル(LLM)と統合し、事実の精度と妥当性を高めるパラダイムである。
SFR-RAG(SFR-RAG)について述べる。
また、複数の人気かつ多様なRAGベンチマークをコンパイルする新しい評価フレームワークであるConBenchについても紹介する。
論文 参考訳(メタデータ) (2024-09-16T01:08:18Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - Multi-perspective Improvement of Knowledge Graph Completion with Large
Language Models [95.31941227776711]
我々は,文脈知識の不足を補うMPIKGCを提案し,大規模言語モデル(LLM)をクエリすることでKGCを改善する。
我々は4つの記述に基づくKGCモデルと4つのデータセットに基づくフレームワークの広範囲な評価を行い、リンク予測とトリプルト分類のタスクについて検討した。
論文 参考訳(メタデータ) (2024-03-04T12:16:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。