論文の概要: OrLog: Resolving Complex Queries with LLMs and Probabilistic Reasoning
- arxiv url: http://arxiv.org/abs/2601.23085v1
- Date: Fri, 30 Jan 2026 15:31:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.529859
- Title: OrLog: Resolving Complex Queries with LLMs and Probabilistic Reasoning
- Title(参考訳): OrLog: LLMによる複雑なクエリの解決と確率論的推論
- Authors: Mohanna Hoveyda, Jelle Piepenbrock, Arjen P de Vries, Maarten de Rijke, Faegheh Hasibi,
- Abstract要約: そこで我々は,論理的推論から述語レベルの妥当性推定を分離するニューロシンボリック検索フレームワークOrLogを紹介する。
大規模言語モデル (LLM) は1つの復号のない前方通過において原子述語に対する可視性スコアを提供し、確率論的推論エンジンはクエリ満足度の後方確率を導出する。
- 参考スコア(独自算出の注目度): 51.58235452818926
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Resolving complex information needs that come with multiple constraints should consider enforcing the logical operators encoded in the query (i.e., conjunction, disjunction, negation) on the candidate answer set. Current retrieval systems either ignore these constraints in neural embeddings or approximate them in a generative reasoning process that can be inconsistent and unreliable. Although well-suited to structured reasoning, existing neuro-symbolic approaches remain confined to formal logic or mathematics problems as they often assume unambiguous queries and access to complete evidence, conditions rarely met in information retrieval. To bridge this gap, we introduce OrLog, a neuro-symbolic retrieval framework that decouples predicate-level plausibility estimation from logical reasoning: a large language model (LLM) provides plausibility scores for atomic predicates in one decoding-free forward pass, from which a probabilistic reasoning engine derives the posterior probability of query satisfaction. We evaluate OrLog across multiple backbone LLMs, varying levels of access to external knowledge, and a range of logical constraints, and compare it against base retrievers and LLM-as-reasoner methods. Provided with entity descriptions, OrLog can significantly boost top-rank precision compared to LLM reasoning with larger gains on disjunctive queries. OrLog is also more efficient, cutting mean tokens by $\sim$90\% per query-entity pair. These results demonstrate that generation-free predicate plausibility estimation combined with probabilistic reasoning enables constraint-aware retrieval that outperforms monolithic reasoning while using far fewer tokens.
- Abstract(参考訳): 複数の制約が伴う複雑な情報要求を解決するには、クエリにエンコードされた論理演算子(すなわち、結合、解答、否定)を候補の回答セットに強制することを検討する必要がある。
現在の検索システムは、ニューラル埋め込みにおけるこれらの制約を無視したり、不整合で信頼性の低い生成的推論プロセスでそれらを近似する。
構造化推論によく適しているが、既存のニューロシンボリックアプローチは、曖昧なクエリや完全なエビデンスへのアクセスを前提とする場合が多いため、形式論理や数学の問題に限られる。
このギャップを埋めるために、我々は論理的推論から述語レベルの可視性推定を分離する神経象徴的検索フレームワークOrLogを紹介した: 大規模言語モデル(LLM)は1つの復号自由前方通過において原子述語に対する可視性スコアを提供し、確率論的推論エンジンはクエリ満足度の遅さを導出する。
複数のバックボーンLLMにおけるOrLogの評価,外部知識へのアクセスレベル,論理的制約の多様さ,およびベースレトリバーとLCM-as-reasoner法との比較を行った。
エンティティ記述によって提供されるOrLogは、解離的クエリに対する大きなゲインを持つLLM推論と比較して、トップランクの精度を大幅に向上させることができる。
OrLogはさらに効率的で、平均トークンをクエリ-エンティティペアあたり$\sim$90\%カットする。
これらの結果から,予測不可能な予測可能性推定と確率論的推論を組み合わせることで,より少ないトークンを用いてモノリシック推論より優れた制約認識検索が可能であることが示唆された。
関連論文リスト
- A Balanced Neuro-Symbolic Approach for Commonsense Abductive Logic [21.003276503456632]
本稿では,大規模言語モデルによって提供されるコモンセンス関係を用いて論理問題を拡張するための新しい手法を提案する。
これは、有用な事実を見つける可能性を最大化するために、潜在的コモンセンス仮定による探索手順を含む。
論文 参考訳(メタデータ) (2026-01-26T15:40:26Z) - ComLQ: Benchmarking Complex Logical Queries in Information Retrieval [26.606215927237248]
情報検索システムは,様々なアプリケーションにまたがる情報過負荷をナビゲートする上で重要な役割を担っている。
これらのベンチマークは、現実世界のシナリオにおける複雑なクエリ上でのIRモデルの性能を十分に評価するためには使用できない。
大規模言語モデル(LLM)を利用してtextbfComplex textbfLogical textbfQueries 用の新しいIRデータセット textbfComLQ を構築する手法を提案する。
論文 参考訳(メタデータ) (2025-11-15T02:58:21Z) - Last Layer Logits to Logic: Empowering LLMs with Logic-Consistent Structured Knowledge Reasoning [55.55968342644846]
大規模言語モデル(LLM)は、膨大な非構造化テキストの事前学習を通じて、自然言語推論タスクにおいて優れた性能を達成する。
LLM出力の論理的欠陥を修正するために,ロジット強化とロジットフィルタリングをコアモジュールとして組み込んだ textitLogits-to-Logic フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-11T07:08:27Z) - Do LLMs Dream of Discrete Algorithms? [0.7646713951724011]
大規模言語モデル(LLM)は、人工知能の風景を急速に変化させてきた。
確率的推論への依存は、厳密な論理的推論を必要とする領域における有効性を制限する。
本稿では,論理ベースの推論モジュールでLLMを増強するニューロシンボリックアプローチを提案する。
論文 参考訳(メタデータ) (2025-06-29T22:03:01Z) - LogiCoL: Logically-Informed Contrastive Learning for Set-based Dense Retrieval [54.2765452810124]
我々は,高密度検索のための論理的インフォームド・コントラスト学習対象であるLogiCoLを紹介する。
結果から,LogiCoLで学習したモデルでは,検索性能と論理的整合性の両面で改善が見られた。
論文 参考訳(メタデータ) (2025-05-26T07:00:32Z) - Logic-of-Thought: Injecting Logic into Contexts for Full Reasoning in Large Language Models [9.689096888732642]
本稿では,論理的情報記述を拡張的に生成するために,命題論理を用いた論理解(LoT)プロンプトを提案する。
LoTは5つの論理的推論タスクで顕著なマージンで、様々なプロンプトメソッドのパフォーマンスを向上する。
論文 参考訳(メタデータ) (2024-09-26T04:59:45Z) - Neuro-Symbolic Integration Brings Causal and Reliable Reasoning Proofs [95.07757789781213]
LLMの複雑な推論には2行のアプローチが採用されている。
1行の作業は様々な推論構造を持つLLMを誘導し、構造出力は自然に中間推論ステップと見なすことができる。
他方の行では、LCMのない宣言的解法を用いて推論処理を行い、推論精度は向上するが、解法のブラックボックスの性質により解釈性に欠ける。
具体的には,Prologインタプリタが生成した中間検索ログにアクセスし,人間可読推論に解釈可能であることを示す。
論文 参考訳(メタデータ) (2023-11-16T11:26:21Z) - Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。