論文の概要: Scientific Paper Retrieval with LLM-Guided Semantic-Based Ranking
- arxiv url: http://arxiv.org/abs/2505.21815v1
- Date: Tue, 27 May 2025 22:49:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.322936
- Title: Scientific Paper Retrieval with LLM-Guided Semantic-Based Ranking
- Title(参考訳): LLM誘導セマンティックランキングによる科学的論文検索
- Authors: Yunyi Zhang, Ruozhen Yang, Siqi Jiao, SeongKu Kang, Jiawei Han,
- Abstract要約: SemRankは効率的かつ効率的な紙検索フレームワークである。
クエリ理解と概念ベースのセマンティックインデックスを組み合わせる。
実験の結果、SemRankは様々なベースレトリバーの性能を一貫して改善していることがわかった。
- 参考スコア(独自算出の注目度): 32.40639079110799
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scientific paper retrieval is essential for supporting literature discovery and research. While dense retrieval methods demonstrate effectiveness in general-purpose tasks, they often fail to capture fine-grained scientific concepts that are essential for accurate understanding of scientific queries. Recent studies also use large language models (LLMs) for query understanding; however, these methods often lack grounding in corpus-specific knowledge and may generate unreliable or unfaithful content. To overcome these limitations, we propose SemRank, an effective and efficient paper retrieval framework that combines LLM-guided query understanding with a concept-based semantic index. Each paper is indexed using multi-granular scientific concepts, including general research topics and detailed key phrases. At query time, an LLM identifies core concepts derived from the corpus to explicitly capture the query's information need. These identified concepts enable precise semantic matching, significantly enhancing retrieval accuracy. Experiments show that SemRank consistently improves the performance of various base retrievers, surpasses strong existing LLM-based baselines, and remains highly efficient.
- Abstract(参考訳): 科学論文の検索は、文献発見と研究を支援するために不可欠である。
密度の高い検索手法は汎用的なタスクにおいて有効性を示すが、科学的クエリの正確な理解に欠かせない詳細な科学的概念を捉えることができないことが多い。
近年の研究では、クエリ理解のために大きな言語モデル(LLM)も使用されているが、これらの手法はコーパス固有の知識の基盤を欠いていることが多く、信頼できない、あるいは不信なコンテンツを生成する可能性がある。
これらの制約を克服するために,LLM誘導クエリ理解と概念に基づくセマンティックインデックスを組み合わせた,効率的かつ効率的な論文検索フレームワークSemRankを提案する。
各論文は、一般的な研究トピックや詳細なキーフレーズを含む、多粒性科学概念を用いて索引付けされる。
クエリ時には、LLMはコーパスから派生したコア概念を特定し、クエリの情報要求を明示的にキャプチャする。
これらの概念は正確なセマンティックマッチングを可能にし、精度を大幅に向上させる。
実験の結果、SemRankは様々なベースレトリバーの性能を一貫して改善し、強力なLCMベースラインを超え、高い効率を保っていることがわかった。
関連論文リスト
- Science Hierarchography: Hierarchical Organization of Science Literature [20.182213614072836]
我々は、科学文献を高品質な階層構造に整理する目的であるSCIENCE HARCHOGRAPHYを動機付けている。
我々は,SCIENCE HIERARCHOGRAPHYの目標を達成するために,様々なアルゴリズムを開発した。
その結果、この構造化されたアプローチは解釈可能性を高め、トレンド発見をサポートし、従来の探索手法を超えて科学的文献を探索するための代替手段を提供することが示された。
論文 参考訳(メタデータ) (2025-04-18T17:59:29Z) - Can LLMs Generate Tabular Summaries of Science Papers? Rethinking the Evaluation Protocol [83.90769864167301]
文献レビュー表は、科学論文の集合を要約し比較するために欠かせないものである。
学術論文の収集にあたり,ユーザの情報ニーズを最大限に満たす表を作成するタスクについて検討する。
我々の貢献は、現実世界で遭遇する3つの重要な課題に焦点を当てている: (i)ユーザープロンプトは、しばしば未特定である; (ii)検索された候補論文は、しばしば無関係な内容を含む; (iii)タスク評価は、浅いテキスト類似性技術を超えて進むべきである。
論文 参考訳(メタデータ) (2025-04-14T14:52:28Z) - Agentic AI for Improving Precision in Identifying Contributions to Sustainable Development Goals [0.0]
本研究では,学術出版物における国連の目標(UN)への関連する学術的貢献を特定するために,自己回帰型大規模言語モデル(LLM)を評価エージェントとして活用することを検討した。
ローカルにホストされた小さなLCMは、SDGターゲットに対する意味的に関連するコントリビューションを、従来のメソッドの制限に対処して、因果的キーワードマッチングによって検索された文書と区別できることを実証する。
論文 参考訳(メタデータ) (2024-11-26T17:06:30Z) - SciPIP: An LLM-based Scientific Paper Idea Proposer [30.670219064905677]
SciPIPは,文献検索とアイデア生成の両面での改善を通じて,科学的アイデアの提案を強化するために設計された,革新的なフレームワークである。
自然言語処理やコンピュータビジョンなど,さまざまな領域で実施した実験では,SciPIPが革新的で有用なアイデアを多数生成する能力を示した。
論文 参考訳(メタデータ) (2024-10-30T16:18:22Z) - Taxonomy-guided Semantic Indexing for Academic Paper Search [51.07749719327668]
TaxoIndexは学術論文検索のためのセマンティックインデックスフレームワークである。
学術分類学によって導かれる意味指標として、論文から重要な概念を整理する。
既存の高密度レトリバーを強化するために柔軟に使用できる。
論文 参考訳(メタデータ) (2024-10-25T00:00:17Z) - Rethinking Scientific Summarization Evaluation: Grounding Explainable Metrics on Facet-aware Benchmark [42.131133762827375]
本稿では,科学的要約の概念的および実験的分析について述べる。
要約を評価するために,先進的なセマンティックマッチングにLLMを用いたFacet-Aware Metric (FM)を導入する。
以上の結果から,FMは科学的要約を評価するためのより論理的なアプローチであることが明らかとなった。
論文 参考訳(メタデータ) (2024-02-22T07:58:29Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。