論文の概要: Counting Still Counts: Understanding Neural Complex Query Answering Through Query Relaxation
- arxiv url: http://arxiv.org/abs/2511.22565v1
- Date: Thu, 27 Nov 2025 15:57:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.628411
- Title: Counting Still Counts: Understanding Neural Complex Query Answering Through Query Relaxation
- Title(参考訳): Counting Still Counts: クエリ緩和によるニューラルネットワーク複雑クエリの解答を理解する
- Authors: Yannick Brunink, Daniel Daza, Yunjie He, Michael Cochez,
- Abstract要約: 我々は、知識グラフ(KGs)よりもCQA(Complex Query Answering)のニューラルネットワークを、学習自由なクエリ緩和戦略と比較する。
ニューラルモデルとリラクゼーションに基づくアプローチが同じように機能するケースがいくつか見出され、ニューラルモデルは後者よりも一貫して優れている。
我々の研究は、より強力な非ニューラルベースラインの重要性を強調し、将来のニューラルアプローチがクエリ緩和の原則を取り入れることの恩恵をもたらすことを示唆している。
- 参考スコア(独自算出の注目度): 6.887078292316648
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Neural methods for Complex Query Answering (CQA) over knowledge graphs (KGs) are widely believed to learn patterns that generalize beyond explicit graph structure, allowing them to infer answers that are unreachable through symbolic query processing. In this work, we critically examine this assumption through a systematic analysis comparing neural CQA models with an alternative, training-free query relaxation strategy that retrieves possible answers by relaxing query constraints and counting resulting paths. Across multiple datasets and query structures, we find several cases where neural and relaxation-based approaches perform similarly, with no neural model consistently outperforming the latter. Moreover, a similarity analysis reveals that their retrieved answers exhibit little overlap, and that combining their outputs consistently improves performance. These results call for a re-evaluation of progress in neural query answering: despite their complexity, current models fail to subsume the reasoning patterns captured by query relaxation. Our findings highlight the importance of stronger non-neural baselines and suggest that future neural approaches could benefit from incorporating principles of query relaxation.
- Abstract(参考訳): 知識グラフ(KG)上の複素クエリアンサーリング(CQA)のニューラルネットワークは、明示的なグラフ構造を超えて一般化されるパターンを学習し、シンボリッククエリ処理によって到達不能な回答を推測することができると広く信じられている。
本研究では、この仮定を、ニューラルネットワークCQAモデルと、クエリ制約を緩和し、結果の経路をカウントすることによって可能な回答を検索する訓練不要なクエリ緩和戦略とを比較して、体系的に検証する。
複数のデータセットとクエリ構造にまたがって、ニューラルネットワークと緩和ベースのアプローチが同じように機能するケースがいくつかあります。
さらに, 類似性分析の結果, 得られた回答の重なりがほとんどなく, 出力の組み合わせにより性能が一貫して向上することが判明した。
これらの結果は、ニューラルネットワークの解答の進歩を再評価することを求めている。その複雑さにもかかわらず、現在のモデルは、クエリ緩和によって取得された推論パターンをサブスプットすることができない。
我々の研究は、より強力な非ニューラルベースラインの重要性を強調し、将来のニューラルアプローチがクエリ緩和の原則を取り入れることの恩恵をもたらすことを示唆している。
関連論文リスト
- Efficient and Scalable Neural Symbolic Search for Knowledge Graph Complex Query Answering [50.1887329564127]
複雑なクエリに対する効率的でスケーラブルなシンボル検索フレームワークを提案する。
我々のフレームワークは、ほぼ同じ性能を維持しながら、シンボリックメソッドの計算負荷を90%削減する。
論文 参考訳(メタデータ) (2025-05-13T01:24:09Z) - Type-based Neural Link Prediction Adapter for Complex Query Answering [2.1098688291287475]
本稿では,タイプベースエンティティ関係グラフを構成する新しいモデルであるTypEベースのニューラルリンク予測アダプタ(TENLPA)を提案する。
型情報と複雑な論理的クエリを効果的に結合するために,適応学習機構を導入する。
3つの標準データセットの実験により、TENLPAモデルが複雑なクエリ応答における最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2024-01-29T10:54:28Z) - Rethinking Complex Queries on Knowledge Graphs with Neural Link Predictors [58.340159346749964]
本稿では,証明可能な推論能力を備えた複雑なクエリを用いたエンドツーエンド学習を支援するニューラルシンボリック手法を提案する。
これまでに検討されていない10種類の新しいクエリを含む新しいデータセットを開発する。
提案手法は,新しいデータセットにおいて先行手法を著しく上回り,既存データセットにおける先行手法を同時に上回っている。
論文 参考訳(メタデータ) (2023-04-14T11:35:35Z) - Adapting Neural Link Predictors for Data-Efficient Complex Query
Answering [45.961111441411084]
本稿では,複雑な問合せタスクに対して,ニューラルネットワーク予測スコアを再校正するために最適化されたパラメータ効率のスコア強調モデルを提案する。
CQD$mathcalA$は現在の最先端手法よりもはるかに正確な結果が得られる。
論文 参考訳(メタデータ) (2023-01-29T00:17:16Z) - Logical Message Passing Networks with One-hop Inference on Atomic
Formulas [57.47174363091452]
本稿では,ニューラルネットワーク演算子から知識グラフの埋め込みを分解する,複雑な問合せ応答のためのフレームワークを提案する。
クエリグラフの上に、局所的な原子式上のワンホップ推論とグローバル論理的推論を結びつける論理メッセージパッシングニューラルネットワーク(LMPNN)を提案する。
我々のアプローチは、最先端のニューラルCQAモデルをもたらす。
論文 参考訳(メタデータ) (2023-01-21T02:34:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。