論文の概要: LogiCoL: Logically-Informed Contrastive Learning for Set-based Dense Retrieval
- arxiv url: http://arxiv.org/abs/2505.19588v1
- Date: Mon, 26 May 2025 07:00:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.227918
- Title: LogiCoL: Logically-Informed Contrastive Learning for Set-based Dense Retrieval
- Title(参考訳): LogiCoL: 集合に基づくDense Retrievalのための論理型コントラスト学習
- Authors: Yanzhen Shen, Sihao Chen, Xueqiang Xu, Yunyi Zhang, Chaitanya Malaviya, Dan Roth,
- Abstract要約: 我々は,高密度検索のための論理的インフォームド・コントラスト学習対象であるLogiCoLを紹介する。
結果から,LogiCoLで学習したモデルでは,検索性能と論理的整合性の両面で改善が見られた。
- 参考スコア(独自算出の注目度): 54.2765452810124
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While significant progress has been made with dual- and bi-encoder dense retrievers, they often struggle on queries with logical connectives, a use case that is often overlooked yet important in downstream applications. Current dense retrievers struggle with such queries, such that the retrieved results do not respect the logical constraints implied in the queries. To address this challenge, we introduce LogiCoL, a logically-informed contrastive learning objective for dense retrievers. LogiCoL builds upon in-batch supervised contrastive learning, and learns dense retrievers to respect the subset and mutually-exclusive set relation between query results via two sets of soft constraints expressed via t-norm in the learning objective. We evaluate the effectiveness of LogiCoL on the task of entity retrieval, where the model is expected to retrieve a set of entities in Wikipedia that satisfy the implicit logical constraints in the query. We show that models trained with LogiCoL yield improvement both in terms of retrieval performance and logical consistency in the results. We provide detailed analysis and insights to uncover why queries with logical connectives are challenging for dense retrievers and why LogiCoL is most effective.
- Abstract(参考訳): 二重エンコーダと双エンコーダの高密度検索では大きな進歩があったが、論理的な接続性を持つクエリに苦戦することが多く、ダウンストリームアプリケーションでは見過ごされがちなユースケースである。
現在の高密度検索者は、検索した結果がクエリに暗示される論理的制約を尊重しないようなクエリに苦慮している。
この課題に対処するために,高密度検索のための論理的インフォームド・コントラスト学習対象であるLogiCoLを紹介する。
LogiCoLは、学習目的において、t-ノルムを介して表現される2組のソフト制約を通して、クエリ結果間のサブセットおよび相互排他的セット関係を尊重するために、密集した検索者を学習する。
我々は,エンティティ検索におけるLogiCoLの有効性を評価し,クエリの暗黙的な論理的制約を満たすエンティティの集合をウィキペディアで検索することが期待される。
結果から,LogiCoLで学習したモデルでは,検索性能と論理的整合性の両面で改善が見られた。
論理接続型クエリが高密度検索においてなぜ難しいのか,LogiCoLが最も有効なのかを明らかにするために,詳細な分析と洞察を提供する。
関連論文リスト
- Harnessing Large Language Models for Knowledge Graph Question Answering via Adaptive Multi-Aspect Retrieval-Augmentation [81.18701211912779]
本稿では,KG(Amar)フレームワーク上での適応型マルチアスペクト検索手法を提案する。
この方法は、エンティティ、リレーション、サブグラフを含む知識を検索し、検索した各テキストを即時埋め込みに変換する。
提案手法は2つの共通データセットに対して最先端の性能を達成した。
論文 参考訳(メタデータ) (2024-12-24T16:38:04Z) - Improving Complex Reasoning over Knowledge Graph with Logic-Aware Curriculum Tuning [89.89857766491475]
カリキュラムベースの論理認識型チューニングフレームワークであるLACTを提案する。
具体的には、任意の一階論理クエリをバイナリツリー分解によって拡張する。
広く使われているデータセットに対する実験では、LATは高度な手法よりも大幅に改善(平均+5.5% MRRスコア)し、新しい最先端技術を実現している。
論文 参考訳(メタデータ) (2024-05-02T18:12:08Z) - Prompt-fused framework for Inductive Logical Query Answering [31.736934787328156]
本稿では,Pro-QEという問合せ対応のプロンプトフューズフレームワークを提案する。
論理的クエリにおける未知のエンティティの問題に,我々のモデルがうまく対処できることが示される。
論文 参考訳(メタデータ) (2024-03-19T11:30:30Z) - Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z) - Complex Logical Reasoning over Knowledge Graphs using Large Language Models [13.594992599230277]
知識グラフ(KG)に対する推論は、エンティティ間の関係を深く理解する必要がある課題である。
現在のアプローチは、論理的なクエリ操作のために、ベクトル空間にエンティティを埋め込むための学習ジオメトリに依存している。
本稿では,文脈的KG探索と論理的クエリ推論を組み合わせた複雑なKG推論を定式化する,言語誘導型知識グラフによる抽象推論(LARK)を提案する。
論文 参考訳(メタデータ) (2023-05-02T02:21:49Z) - Fuzzy Logic based Logical Query Answering on Knowledge Graph [37.039516386710716]
本稿では,FOLクエリをKG上で応答するファジィ論理ベースのクエリ埋め込みフレームワークFuzzQEを提案する。
ファジィQEはファジィ論理に従い、原理的かつ学習的な方法で論理演算子を定義する。
2つのベンチマークデータセットの実験では、FOLクエリに対するFzzQEのパフォーマンスが大幅に向上している。
論文 参考訳(メタデータ) (2021-08-05T05:54:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。