論文の概要: Beyond Fine-Tuning: Robust Food Entity Linking under Ontology Drift with FoodOntoRAG
- arxiv url: http://arxiv.org/abs/2603.09758v1
- Date: Tue, 10 Mar 2026 14:57:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.408465
- Title: Beyond Fine-Tuning: Robust Food Entity Linking under Ontology Drift with FoodOntoRAG
- Title(参考訳): 食品オントラグとオントロジードリフト下でのロバストな食品エンティティリンク
- Authors: Jan Drole, Ana Gjorgjevikj, Barbara Korouši'c Seljak, Tome Eftimov,
- Abstract要約: 本稿では,ドメインオンラグからNELエンティティを抽出するモデル診断パイプラインを提案する。
パイプラインは、既存のアノテーションのギャップと矛盾を明らかにする最先端の精度にアプローチする。
この設計は微調整を回避し、進化に対する堅牢性を改善し、基礎的な正当化を通じて解釈可能な決定をもたらす。
- 参考スコア(独自算出の注目度): 3.6073664126704537
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Standardizing food terms from product labels and menus into ontology concepts is a prerequisite for trustworthy dietary assessment and safety reporting. The dominant approach to Named Entity Linking (NEL) in the food and nutrition domains fine-tunes Large Language Models (LLMs) on task-specific corpora. Although effective, fine-tuning incurs substantial computational cost, ties models to a particular ontology snapshot (i.e., version), and degrades under ontology drift. This paper presents FoodOntoRAG, a model- and ontology-agnostic pipeline that performs few-shot NEL by retrieving candidate entities from domain ontologies and conditioning an LLM on structured evidence (food labels, synonyms, definitions, and relations). A hybrid lexical--semantic retriever enumerates candidates; a selector agent chooses a best match with rationale; a separate scorer agent calibrates confidence; and, when confidence falls below a threshold, a synonym generator agent proposes reformulations to re-enter the loop. The pipeline approaches state-of-the-art accuracy while revealing gaps and inconsistencies in existing annotations. The design avoids fine-tuning, improves robustness to ontology evolution, and yields interpretable decisions through grounded justifications.
- Abstract(参考訳): 食品用語を製品ラベルやメニューからオントロジーの概念に標準化することは、信頼できる食事評価と安全報告の前提条件である。
食品・栄養領域における名前付きエンティティリンク (NEL) への支配的なアプローチは、タスク固有コーパス上での細管大言語モデル (LLM) である。
実効性はあるものの、微調整は計算コストを大幅に上回るが、モデルを特定のオントロジースナップショット(バージョン)に結び付け、オントロジードリフトの下で劣化させる。
本稿では、ドメインオントロジーから候補エンティティを抽出し、構造化されたエビデンス(食品ラベル、同義語、定義、関係)にLLMを条件付けることにより、少数ショットNELを行うモデルおよびオントロジーに依存しないパイプラインであるFoodOntoRAGを提案する。
ハイブリッド語彙−セマンティックレトリバーは候補を列挙し、セレクタエージェントは有理値とのベストマッチを選択し、個別のスコアリングエージェントは信頼を校正し、信頼がしきい値以下になると、同義生成エージェントはループの再突入のための改革を提案する。
パイプラインは、既存のアノテーションのギャップと矛盾を明らかにしながら、最先端の精度にアプローチする。
この設計は微調整を回避し、オントロジーの進化に対する堅牢性を改善し、基礎的な正当化を通じて解釈可能な決定を与える。
関連論文リスト
- Amortized Reasoning Tree Search: Decoupling Proposal and Decision in Large Language Models [2.5170433424424874]
Reinforcement Learning with Verifiable Rewardsは、大規模言語モデルにおける厳格な推論能力を取り入れるための支配的なパラダイムとして、自らを確立している。
このアライメントプロセスにおいて重要な病理は、有効だが稀な(ベースモデル分布下での低様相)推論経路の体系的抑制である。
本稿では,ベースモデルの潜伏多様性を捨てることなく,この崩壊を防止すべく,ARTS(Amortized Reasoning Tree Search)を提案する。
論文 参考訳(メタデータ) (2026-02-13T11:52:50Z) - Enhancing Action and Ingredient Modeling for Semantically Grounded Recipe Generation [69.90401008542368]
命令生成のための内部コンテキストとして,アクションや材料を予測し,検証する意味的基盤を持つフレームワークを提案する。
Recipe1Mの実験は最先端の性能を示し、セマンティックな忠実さを著しく改善した。
論文 参考訳(メタデータ) (2026-01-26T10:06:18Z) - Think Locally, Explain Globally: Graph-Guided LLM Investigations via Local Reasoning and Belief Propagation [5.191980417814362]
LLMエージェントは、ほとんどの環境が静的で、必要な情報がモデルのコンテキストウインドウに適合する場合、排他的になる。
直腸型薬剤は、この体制では特に脆い。
本稿では,LLMが限定的な局所的エビデンスマイニングとラベリングを行うためのフレームワークであるEoGを提案する。
論文 参考訳(メタデータ) (2026-01-25T17:27:19Z) - Retrieval-Augmented Self-Taught Reasoning Model with Adaptive Chain-of-Thought for ASR Named Entity Correction [12.483998165719981]
自動音声認識(ASR)における名前付きエンティティエラーの修正のための検索拡張生成フレームワークを提案する。
提案手法は,(1)名前付きエンティティ認識のための言い換え言語モデル(RLM)と,(2)タスクの難易度に基づいて推論の深さを動的に調整する適応チェーン・オブ・シント(A-STAR)を用いた新しい自己学習推論モデルからなる。
論文 参考訳(メタデータ) (2026-01-21T15:05:39Z) - PROMISE: Process Reward Models Unlock Test-Time Scaling Laws in Generative Recommendations [52.67948063133533]
生成レコメンデーションは有望なパラダイムとして現れ、階層的なセマンティックIDよりもシーケンス・ツー・シーケンス生成タスクとしてレコメンデーションを改革している。
既存の手法は、セマンティックドリフト(Semantic Drift)と呼ばれる重要な問題に悩まされ、初期、高レベルのトークンのエラーは、生成軌道を無関係な意味部分空間に不可逆的に分散させる。
本稿では,高密度なステップバイステップ検証を生成モデルに統合する新しいフレームワークPromiseを提案する。
論文 参考訳(メタデータ) (2026-01-08T07:38:46Z) - Semantic Visual Anomaly Detection and Reasoning in AI-Generated Images [96.43608872116347]
AnomReasonは4倍のtextbfAnomAgentのような構造化アノテーションを備えた大規模ベンチマーク
AnomReasonとAnomAgentは、AI生成画像の意味的妥当性の測定と改善の基盤となっている。
論文 参考訳(メタデータ) (2025-10-11T14:09:24Z) - Hallucination-Resistant, Domain-Specific Research Assistant with Self-Evaluation and Vector-Grounded Retrieval [0.0]
RA-FSMはGPTベースの研究アシスタントであり、有限状態制御ループで生成をラップする。
コントローラはスコープ外クエリをフィルタリングし、応答可能性を評価し、質問を分解し、必要なときにのみ検索をトリガーする。
本稿では,フォトニクスのためのシステムを実装し,解析的推論,数値解析,方法論的批判,比較合成,事実抽出,アプリケーション設計の6つのカテゴリで評価する。
論文 参考訳(メタデータ) (2025-09-25T21:35:46Z) - Retrieval is Not Enough: Enhancing RAG Reasoning through Test-Time Critique and Optimization [58.390885294401066]
Retrieval-augmented Generation (RAG) は知識基底型大規模言語モデル(LLM)を実現するためのパラダイムとして広く採用されている。
RAGパイプラインは、モデル推論が得られた証拠と整合性を維持するのに失敗することが多く、事実上の矛盾や否定的な結論につながる。
批判駆動アライメント(CDA)に基づく新しい反復的枠組みであるAlignRAGを提案する。
AlignRAG-autoは、動的に洗練を終了し、批判的な反復回数を事前に指定する必要がなくなる自律的な変種である。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z) - Measuring Association Between Labels and Free-Text Rationales [60.58672852655487]
解釈可能なNLPでは、説明された例に対するモデルの意思決定プロセスを反映した忠実な理性が必要です。
情報抽出型タスクに対する忠実な抽出合理化のための既存のモデルであるパイプラインは、自由テキスト合理化を必要とするタスクに確実に拡張されないことを示す。
我々は、信頼が確立されていない自由文合理化のための、広く使われている高性能モデルのクラスである、共同予測と合理化のモデルに目を向ける。
論文 参考訳(メタデータ) (2020-10-24T03:40:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。