論文の概要: LGM: Enhancing Large Language Models with Conceptual Meta-Relations and Iterative Retrieval
- arxiv url: http://arxiv.org/abs/2511.03214v1
- Date: Wed, 05 Nov 2025 06:04:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.351906
- Title: LGM: Enhancing Large Language Models with Conceptual Meta-Relations and Iterative Retrieval
- Title(参考訳): LGM:概念メタリレーションと反復検索による大規模言語モデルの実現
- Authors: Wenchang Lei, Ping Zou, Yue Wang, Feng Sun, Lei Zhao,
- Abstract要約: 大規模言語モデル(LLM)は、強い意味的理解を示すが、ユーザ命令が曖昧あるいは概念的に不一致な用語を伴う場合、苦労する。
メタ関係の継承,エイリアス,合成を自然言語から抽出することにより,概念的明瞭度を高める言語グラフモデル(LGM)を提案する。
- 参考スコア(独自算出の注目度): 6.676760153583501
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) exhibit strong semantic understanding, yet struggle when user instructions involve ambiguous or conceptually misaligned terms. We propose the Language Graph Model (LGM) to enhance conceptual clarity by extracting meta-relations-inheritance, alias, and composition-from natural language. The model further employs a reflection mechanism to validate these meta-relations. Leveraging a Concept Iterative Retrieval Algorithm, these relations and related descriptions are dynamically supplied to the LLM, improving its ability to interpret concepts and generate accurate responses. Unlike conventional Retrieval-Augmented Generation (RAG) approaches that rely on extended context windows, our method enables large language models to process texts of any length without the need for truncation. Experiments on standard benchmarks demonstrate that the LGM consistently outperforms existing RAG baselines.
- Abstract(参考訳): 大規模言語モデル(LLM)は、強い意味的理解を示すが、ユーザ命令が曖昧あるいは概念的に不一致な用語を伴う場合、苦労する。
メタ関係の継承,エイリアス,合成を自然言語から抽出することにより,概念的明瞭度を高める言語グラフモデル(LGM)を提案する。
このモデルはさらに、これらのメタ関係を検証するためにリフレクション機構を使用する。
概念反復検索アルゴリズムを利用することで、これらの関係と関連する記述はLLMに動的に供給され、概念を解釈し正確な応答を生成する能力を向上させる。
拡張コンテキストウインドウに依存した従来のRAG手法とは異なり,本手法ではトランケーションを必要とせず,任意の長さのテキストを大規模言語モデルで処理することが可能である。
標準ベンチマークの実験は、LGMが既存のRAGベースラインを一貫して上回っていることを示している。
関連論文リスト
- Improving Implicit Discourse Relation Recognition with Natural Language Explanations from LLMs [6.696390269864987]
Implicit Discourse Relation Recognition (IDRR) は、深い意味理解を必要とするため、依然として困難な課題である。
大規模言語モデル(LLM)の最近の進歩は、深い言語理解と自然言語説明の生成において強力な推論能力を示している。
本稿では, LLMの推論能力を軽量IDRRモデルに抽出し, 性能と解釈性の両方を改善するための, 簡便かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2026-02-25T10:28:45Z) - Unleashing the Native Recommendation Potential: LLM-Based Generative Recommendation via Structured Term Identifiers [51.64398574262054]
本稿では,意味的にリッチで標準化されたテキストキーワードの集合として定義された用語ID(TID)を導入し,堅牢な項目識別子として機能する。
本稿では,TIDを中心にした新しいフレームワークGRLMを提案し,項目のメタデータを標準化されたTIDに変換し,統合的インストラクションファインタニングを活用して,用語の内部化とシーケンシャルレコメンデーションを協調的に最適化する。
論文 参考訳(メタデータ) (2026-01-11T07:53:20Z) - Language Models as Semantic Augmenters for Sequential Recommenders [20.934150208996048]
大規模言語モデル(LLM)は、様々なモダリティをまたいだ潜在意味論と文脈的関係を捉えるのに優れています。
このようなシーケンスを自動的に強化するフレームワークであるLaMARを紹介する。
LaMARは、ユーザの意図とメタデータからの項目関係の潜在意味的側面を推測することにより、補助的なコンテキスト信号を生成する。
論文 参考訳(メタデータ) (2025-10-20T19:36:38Z) - ReaLM: Residual Quantization Bridging Knowledge Graph Embeddings and Large Language Models [18.720486146234077]
大言語モデル(LLM)は知識グラフ補完(KGC)の強力なパラダイムとして登場した。
我々は、KG埋め込みとLLMトークン化のギャップを埋める、新しく効果的なフレームワークであるReaLMを提案する。
本稿では,ReaLMが最先端性能を実現し,構造化知識と大規模言語モデルとの整合性を確認した。
論文 参考訳(メタデータ) (2025-10-10T04:36:13Z) - CoT Referring: Improving Referring Expression Tasks with Grounded Reasoning [67.18702329644526]
CoT Referringは、構造化されたチェーン・オブ・シークレット・トレーニングデータ構造を通じて、モデル推論をモダリティにわたって強化する。
トレーニングデータを再構築して、新たな出力フォームを実行し、既存のデータセットに新たなアノテーションを提供します。
また、検出とセグメント化機能を統合MLLMフレームワークに統合し、新しい適応重み付き損失で学習して性能を最適化する。
論文 参考訳(メタデータ) (2025-10-03T08:50:21Z) - Integrating Visual Interpretation and Linguistic Reasoning for Math Problem Solving [61.992824291296444]
現在の大型視覚言語モデル(LVLM)は、通常、大型言語モデル(LLM)のテキスト埋め込みと視覚的特徴をリンクするためのコネクタモジュールを使用する。
本稿では,エンド・ツー・エンドの視覚言語推論モデルをトレーニングする代わりに,分離された推論フレームワークの開発を提唱する。
論文 参考訳(メタデータ) (2025-05-23T08:18:00Z) - Relation-R1: Progressively Cognitive Chain-of-Thought Guided Reinforcement Learning for Unified Relation Comprehension [31.952192907460713]
Relation-R1は、テキストファーストの統一関係理解フレームワークである。
認知連鎖(CoT)誘導型微調整(SFT)とグループ相対政策最適化(GRPO)を統合している。
広く使われているPSGデータセットとSWiGデータセットの実験により、リレーショナルR1はバイナリとtextitN-aryリレーショナル理解の両方で最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2025-04-20T14:50:49Z) - Improving Multilingual Retrieval-Augmented Language Models through Dialectic Reasoning Argumentations [65.11348389219887]
そこで,Dialectic-RAG(Dialectic-RAG, DRAG)を提案する。
我々は、文脈内学習戦略と、より小さなモデルをインストラクションするための実演の構築の両方において、我々のフレームワークが与える影響を示す。
論文 参考訳(メタデータ) (2025-04-07T06:55:15Z) - EAGER-LLM: Enhancing Large Language Models as Recommenders through Exogenous Behavior-Semantic Integration [60.47645731801866]
大規模言語モデル(LLM)は、高度なレコメンデータシステムの基本バックボーンとしてますます活用されている。
LLMは事前訓練された言語意味論であるが、llm-Backboneを通してゼロから協調意味論を学ぶ。
内因性行動情報と内因性行動情報とを非侵襲的に統合するデコーダのみの生成推薦フレームワークであるEAGER-LLMを提案する。
論文 参考訳(メタデータ) (2025-02-20T17:01:57Z) - Retrieval-Augmented Semantic Parsing: Improving Generalization with Lexical Knowledge [6.948555996661213]
本稿では,Retrieval-Augmented Semantic Parsing (RASP)を紹介する。
実験の結果,LLMはセマンティック解析において,従来のエンコーダ・デコーダベースラインよりも優れていることがわかった。
RASPはさらに、目に見えない概念を予測する能力を強化し、アウト・オブ・ディストリビューションの概念で以前のモデルのパフォーマンスをほぼ2倍にします。
論文 参考訳(メタデータ) (2024-12-13T15:30:20Z) - Align-SLM: Textless Spoken Language Models with Reinforcement Learning from AI Feedback [50.84142264245052]
テキストレス音声言語モデル(SLM)のセマンティック理解を強化するためのAlign-SLMフレームワークを導入する。
提案手法は、与えられたプロンプトから複数の音声継続を生成し、意味的指標を用いて、直接選好最適化(DPO)のための選好データを生成する。
語彙および構文モデリングのためのZeroSpeech 2021ベンチマーク、意味的コヒーレンスのためのStoryClozeデータセットの音声バージョン、GPT4-oスコアや人間評価などの音声生成指標を用いて、フレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-11-04T06:07:53Z) - FS-RAG: A Frame Semantics Based Approach for Improved Factual Accuracy in Large Language Models [2.1484130681985047]
本稿では,大規模言語モデルの出力における事実的不正確さを軽減することを目的として,検索強化生成の新たな拡張を提案する。
提案手法は,大規模言語モデルの問合せ支援に関連する事実情報のインデックス化と検索を目的とした,フレームセマンティクスの認知言語理論に基づく。
論文 参考訳(メタデータ) (2024-06-23T17:18:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。