論文の概要: NeuroLit Navigator: A Neurosymbolic Approach to Scholarly Article Searches for Systematic Reviews
- arxiv url: http://arxiv.org/abs/2503.00278v1
- Date: Sat, 01 Mar 2025 01:11:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:26:59.760694
- Title: NeuroLit Navigator: A Neurosymbolic Approach to Scholarly Article Searches for Systematic Reviews
- Title(参考訳): NeuroLit Navigator: システムレビューのための学術論文検索のためのニューロシンボリックアプローチ
- Authors: Vedant Khandelwal, Kaushik Roy, Valerie Lookingbill, Ritvik Garimella, Harshul Surana, Heather Heckman, Amit Sheth,
- Abstract要約: NeuroLit Navigator' は、ドメイン固有の LLM と、MeSH (Messical Subject Headings) やUMLS (Unified Medical Language System) のような構造化知識ソースを組み合わせる。
この統合はクエリの定式化を強化し、検索語彙を拡張し、検索範囲を深くし、より正確な検索を可能にする。
NeuroLit Navigatorは、最初の文献検索に必要な時間を90%削減した。
- 参考スコア(独自算出の注目度): 15.32315124754677
- License:
- Abstract: The introduction of Large Language Models (LLMs) has significantly impacted various fields, including education, for example, by enabling the creation of personalized learning materials. However, their use in Systematic Reviews (SRs) reveals limitations such as restricted access to specialized vocabularies, lack of domain-specific reasoning, and a tendency to generate inaccurate information. Existing SR tools often rely on traditional NLP methods and fail to address these issues adequately. To overcome these challenges, we developed the ``NeuroLit Navigator,'' a system that combines domain-specific LLMs with structured knowledge sources like Medical Subject Headings (MeSH) and the Unified Medical Language System (UMLS). This integration enhances query formulation, expands search vocabularies, and deepens search scopes, enabling more precise searches. Deployed in multiple universities and tested by over a dozen librarians, the NeuroLit Navigator has reduced the time required for initial literature searches by 90\%. Despite this efficiency, the initial set of articles retrieved can vary in relevance and quality. Nonetheless, the system has greatly improved the reproducibility of search results, demonstrating its potential to support librarians in the SR process.
- Abstract(参考訳): LLM(Large Language Models)の導入は、例えばパーソナライズされた学習教材の作成を可能にするなど、教育を含む様々な分野に大きな影響を与えている。
しかしながら、システマティック・レビュー(SR)におけるそれらの使用は、特殊語彙へのアクセス制限、ドメイン固有の推論の欠如、不正確な情報を生成する傾向などの制限を明らかにしている。
既存のSRツールはしばしば従来のNLPメソッドに依存しており、これらの問題に適切に対処することができない。
これらの課題を克服するため,我々は,ドメイン固有のLLMと,メディカル・サブジェクト・ヘッダ(MeSH)やUMLS(Unified Medical Language System)といった構造化知識ソースを組み合わせたシステム「NeuroLit Navigator」を開発した。
この統合はクエリの定式化を強化し、検索語彙を拡張し、検索範囲を深くし、より正確な検索を可能にする。
複数の大学に展開し、1ダース以上の図書館員によってテストされたNeuroLit Navigatorは、最初の文献検索に必要な時間を90%削減した。
この効率にもかかわらず、回収された記事の最初のセットは、関連性や品質に変化がある。
それにもかかわらず、このシステムは検索結果の再現性を大幅に改善し、SRプロセスにおいて図書館員を支援する可能性を示している。
関連論文リスト
- Knowledge Tagging with Large Language Model based Multi-Agent System [17.53518487546791]
本稿では,従来のアルゴリズムの限界に対処するマルチエージェントシステムについて検討する。
我々は,従来の手法が抱えていた課題を克服する上で,LLMベースのマルチエージェントシステムの可能性を強調した。
論文 参考訳(メタデータ) (2024-09-12T21:39:01Z) - Retrieval-Enhanced Machine Learning: Synthesis and Opportunities [60.34182805429511]
検索エンハンスメントは機械学習(ML)の幅広い範囲に拡張できる
この研究は、MLの様々な領域の文献を、現在の文献から欠落している一貫した表記で合成することで、このパラダイムの正式なフレームワークであるRetrieval-Enhanced Machine Learning (REML)を導入する。
本研究の目的は、様々な分野の研究者に対して、検索強化モデルの包括的、正式に構造化された枠組みを付与し、学際的な将来の研究を促進することである。
論文 参考訳(メタデータ) (2024-07-17T20:01:21Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - Cross-Data Knowledge Graph Construction for LLM-enabled Educational Question-Answering System: A Case Study at HCMUT [2.8000537365271367]
大規模言語モデル(LLM)は活発な研究トピックとして現れている。
LLMはイベントの記憶、新しい情報の導入、ドメイン固有の問題や幻覚への対処において課題に直面している。
本稿では,複数のデータソースから知識グラフを自動的に構築する手法を提案する。
論文 参考訳(メタデータ) (2024-04-14T16:34:31Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Large Search Model: Redefining Search Stack in the Era of LLMs [63.503320030117145]
我々は,1つの大言語モデル(LLM)で検索タスクを統一することにより,従来の検索スタックを再定義する,大規模検索モデルと呼ばれる新しい概念的フレームワークを導入する。
全てのタスクは自動回帰テキスト生成問題として定式化され、自然言語のプロンプトを使ってタスクをカスタマイズできる。
提案フレームワークは,LLMの強力な言語理解と推論能力を活用し,既存の検索スタックを簡素化しつつ,検索結果の質を向上させる能力を提供する。
論文 参考訳(メタデータ) (2023-10-23T05:52:09Z) - Large Language Models for Information Retrieval: A Survey [58.30439850203101]
情報検索は、項ベースの手法から高度なニューラルモデルとの統合へと進化してきた。
近年の研究では、大規模言語モデル(LLM)を活用してIRシステムの改善が試みられている。
LLMとIRシステムの合流点を探索し、クエリリライト、リトリバー、リランカー、リーダーといった重要な側面を含む。
論文 参考訳(メタデータ) (2023-08-14T12:47:22Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。