論文の概要: Evaluation of LLMs in retrieving food and nutritional context for RAG systems
- arxiv url: http://arxiv.org/abs/2603.09704v1
- Date: Tue, 10 Mar 2026 14:15:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.380687
- Title: Evaluation of LLMs in retrieving food and nutritional context for RAG systems
- Title(参考訳): RAGシステムにおける食品・栄養の回収におけるLCMの評価
- Authors: Maks Požarnik Vavken, Matevž Ogrinc, Tome Eftimov, Barbara Koroušić Seljak,
- Abstract要約: 本研究では,Large Language Model (LLM) を4つ評価し,RAG(Retrieval-Augmented Generation) システムにおけるデータ検索の有効性について検討した。
提案手法は,自然言語クエリを構造化メタデータフィルタに変換するLLM機能に着目している。
容易かつ適度に複雑なクエリのパフォーマンスにもかかわらず、難解な質問を解析した結果、クエリが非表現可能な制約を含む場合、信頼性の高い検索は依然として困難であることが判明した。
- 参考スコア(独自算出の注目度): 3.6073664126704537
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this article, we evaluate four Large Language Models (LLMs) and their effectiveness at retrieving data within a specialized Retrieval-Augmented Generation (RAG) system, using a comprehensive food composition database. Our method is focused on the LLMs ability to translate natural language queries into structured metadata filters, enabling efficient retrieval via a Chroma vector database. By achieving high accuracy in this critical retrieval step, we demonstrate that LLMs can serve as an accessible, high-performance tool, drastically reducing the manual effort and technical expertise previously required for domain experts, such as food compilers and nutritionists, to leverage complex food and nutrition data. However, despite the high performance on easy and moderately complex queries, our analysis of difficult questions reveals that reliable retrieval remains challenging when queries involve non-expressible constraints. These findings demonstrate that LLM-driven metadata filtering excels when constraints can be explicitly expressed, but struggles when queries exceed the representational scope of the metadata format.
- Abstract(参考訳): 本稿では,4つの大規模言語モデル(LLM)と,その特殊検索・拡張生成(RAG)システムにおけるデータ検索の有効性を,包括的食品合成データベースを用いて評価する。
提案手法は,自然言語クエリを構造化メタデータフィルタに変換するLLM機能に着目し,クロマベクトルデータベースによる効率的な検索を可能にする。
この重要な検索ステップにおいて高い精度を達成することにより、LLMは、複雑な食品や栄養データを活用するために、食品のコンパイラーや栄養学者といったドメインの専門家がこれまで必要としていた、手作業と技術的専門知識を大幅に削減し、アクセス可能で高性能なツールとして機能することを実証する。
しかし,難解な問合せを解析した結果,クエリに非表現的制約が伴う場合,信頼性の高い検索は依然として困難であることが判明した。
これらの結果から, LLMによるメタデータフィルタリングは制約を明示的に表現できる場合に優れるが, クエリがメタデータフォーマットの表現範囲を超える場合には困難であることがわかった。
関連論文リスト
- Can LLMs Clean Up Your Mess? A Survey of Application-Ready Data Preparation with LLMs [66.63911043019294]
データ準備は、生のデータセットを識別し、データセット間の関係を解明し、それらから貴重な洞察を抽出することを目的としている。
本稿では,様々な下流タスクのためのデータ準備にLLM技術を用いることに焦点を当てる。
データクリーニング、標準化、エラー処理、計算、データ統合、データ豊か化という3つの主要なタスクにフィールドを編成するタスク中心の分類を導入します。
論文 参考訳(メタデータ) (2026-01-22T12:02:45Z) - Enhancing Manufacturing Knowledge Access with LLMs and Context-aware Prompting [9.520082987178851]
大きな言語モデル(LLM)は、自然言語クエリを自動的にSPARQLフォーマットに変換することができる。
我々は、知識グラフ(KG)からの情報検索を容易にするため、LCMを仲介者として利用する戦略を評価する。
この結果から,KGスキーマの適切なコンテキストのみを提供すると,LLMは正しいクエリと完全なクエリを生成する際の性能を著しく向上できることがわかった。
論文 参考訳(メタデータ) (2025-07-30T12:39:01Z) - Iterative Self-Incentivization Empowers Large Language Models as Agentic Searchers [74.17516978246152]
大規模言語モデル(LLM)は、従来の手法を進化させるために情報検索に広く統合されている。
エージェント検索フレームワークであるEXSEARCHを提案する。
4つの知識集約ベンチマークの実験では、EXSEARCHはベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-05-26T15:27:55Z) - Extract Information from Hybrid Long Documents Leveraging LLMs: A Framework and Dataset [52.286323454512996]
大規模言語モデル(LLM)は、テキストと表のデータを含むハイブリッドテキストを理解し解析することができる。
本研究では,LLMがHLD(Hybrid Long Document)を処理できるようにするための自動情報抽出フレームワーク(AIE)を提案し,HLDからの情報抽出の4つの重要な側面を分析する実験を行った。
HLDにおけるデータセット不足の問題に対処し、今後の作業を支援するために、金融レポート数値抽出(FINE)データセットを提案する。
論文 参考訳(メタデータ) (2024-12-28T07:54:14Z) - A Survey of Query Optimization in Large Language Models [10.255235456427037]
RAGは、動的に検索し、最新の関連情報を活用することによって、大規模言語モデルの限界を緩和する。
QOは重要な要素として現れ、RAGの検索段階の有効性を決定する上で重要な役割を担っている。
論文 参考訳(メタデータ) (2024-12-23T13:26:04Z) - Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More? [54.667202878390526]
長文言語モデル(LCLM)は、従来、検索システムやデータベースといった外部ツールに依存していたタスクへのアプローチに革命をもたらす可能性がある。
実世界のタスクのベンチマークであるLOFTを導入し、文脈内検索と推論においてLCLMの性能を評価するために設計された数百万のトークンを出力する。
以上の結果からLCLMは,これらのタスクを明示的に訓練したことがないにも関わらず,最先端の検索システムやRAGシステムと競合する驚くべき能力を示した。
論文 参考訳(メタデータ) (2024-06-19T00:28:58Z) - Improving Retrieval for RAG based Question Answering Models on Financial Documents [0.046603287532620746]
本稿では,RAGパイプラインの既存の制約について検討し,テキスト検索の方法を紹介する。
高度なチャンキングテクニック、クエリ拡張、メタデータアノテーションの組み込み、再ランク付けアルゴリズムの適用、埋め込みアルゴリズムの微調整などの戦略を練っている。
論文 参考訳(メタデータ) (2024-03-23T00:49:40Z) - Reliable, Adaptable, and Attributable Language Models with Retrieval [144.26890121729514]
パラメトリック言語モデル(LM)は大量のWebデータに基づいて訓練されている。
幻覚、新しいデータ分布への適応の困難、妥当性の欠如など、実践的な課題に直面している。
我々は、次世代のLMとしてパラメトリックLMを置き換えるための検索拡張LMを提唱する。
論文 参考訳(メタデータ) (2024-03-05T18:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。