論文の概要: Recent Advances and Future Directions in Literature-Based Discovery
- arxiv url: http://arxiv.org/abs/2506.12385v1
- Date: Sat, 14 Jun 2025 07:47:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:46.00689
- Title: Recent Advances and Future Directions in Literature-Based Discovery
- Title(参考訳): 文学に基づく発見の最近の進歩と今後の展望
- Authors: Andrej Kastrin, Bojan Cestnik, Nada Lavrač,
- Abstract要約: 本稿では,文献ベースの発見(LBD)における最近の方法論的進歩について調査する。
知識グラフ構築,ディープラーニングアプローチ,事前学習型および大規模言語モデル(LLM)の統合という,3つの重要な分野の進歩を概観する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The explosive growth of scientific publications has created an urgent need for automated methods that facilitate knowledge synthesis and hypothesis generation. Literature-based discovery (LBD) addresses this challenge by uncovering previously unknown associations between disparate domains. This article surveys recent methodological advances in LBD, focusing on developments from 2000 to the present. We review progress in three key areas: knowledge graph construction, deep learning approaches, and the integration of pre-trained and large language models (LLMs). While LBD has made notable progress, several fundamental challenges remain unresolved, particularly concerning scalability, reliance on structured data, and the need for extensive manual curation. By examining ongoing advances and outlining promising future directions, this survey underscores the transformative role of LLMs in enhancing LBD and aims to support researchers and practitioners in harnessing these technologies to accelerate scientific innovation.
- Abstract(参考訳): 科学出版物の爆発的な成長は、知識合成と仮説生成を促進する自動化手法への緊急の必要性を生み出している。
文学に基づく発見(LBD)は、これまで未知のドメイン間の関連を明らかにすることでこの問題に対処する。
本稿は,2000年から現在までのLBDの方法論的進歩を概観する。
本稿では,知識グラフ構築,ディープラーニングアプローチ,事前学習型および大規模言語モデル(LLM)の統合という,3つの重要な分野の進捗状況を概観する。
LBDは顕著な進歩を遂げているが、スケーラビリティ、構造化データへの依存、広範囲な手作業によるキュレーションの必要性など、いくつかの根本的な課題は未解決のままである。
この調査は、現在進行中の進歩を検証し、将来有望な方向性を概説することにより、LBDの強化におけるLLMの変革的役割を浮き彫りにし、これらの技術を活用して科学革新を加速する研究者や実践者を支援することを目的としている。
関連論文リスト
- Inverse Reinforcement Learning Meets Large Language Model Post-Training: Basics, Advances, and Opportunities [62.05713042908654]
本稿では,逆強化学習(IRL)のレンズによる大規模言語モデル(LLM)のアライメントの進歩について概観する。
我々は、人間のデータからニューラル報酬モデルを構築する必要性を強調し、このパラダイムシフトの形式的および実践的意味について議論する。
論文 参考訳(メタデータ) (2025-07-17T14:22:24Z) - A Survey on Large Language Models for Mathematical Reasoning [13.627895103752783]
本研究では,大規模言語モデル(LLM)における数学的推論能力の発達について検討する。
我々は,教師付き微調整や強化学習などの微調整アプローチから,訓練不要なプロンプトまで,数学的推論を強化する手法をレビューする。
顕著な進歩にもかかわらず、キャパシティ、効率、一般化の点で根本的な課題は残る。
論文 参考訳(メタデータ) (2025-06-10T04:44:28Z) - A Survey on Hypothesis Generation for Scientific Discovery in the Era of Large Language Models [0.9383505015433911]
大規模言語モデル(LLM)は仮説生成の強化と自動化への関心が高まっている。
本稿では,LLMを用いた仮説生成に関する包括的調査を行う。
論文 参考訳(メタデータ) (2025-04-07T20:44:33Z) - A Comprehensive Survey of Retrieval-Augmented Generation (RAG): Evolution, Current Landscape and Future Directions [0.0]
RAGは、検索機構と生成言語モデルを組み合わせることで、出力の精度を高める。
近年の研究では, 検索効率向上のための新しい手法が注目されている。
RAGモデルの堅牢性向上に焦点をあてた今後の研究方向性が提案されている。
論文 参考訳(メタデータ) (2024-10-03T22:29:47Z) - Self-Supervised Learning for Text Recognition: A Critical Survey [11.599791967838481]
テキスト認識(英語: Text Recognition, TR)とは、画像からテキスト情報を取得することに焦点を当てた研究領域である。
ディープニューラルネットワーク(DNN)のトレーニングにラベルなしデータの大規模なデータセットを活用することで、自己監視学習(SSL)が注目されている。
本稿では,TR分野におけるSSLの利用を集約し,その技術の現状を概観する。
論文 参考訳(メタデータ) (2024-07-29T11:11:17Z) - Recent Advances in Generative AI and Large Language Models: Current Status, Challenges, and Perspectives [10.16399860867284]
生成人工知能(AI)と大規模言語モデル(LLM)の出現は、自然言語処理(NLP)の新しい時代を象徴している。
本稿では,これらの最先端技術の現状を概観し,その顕著な進歩と広範囲な応用を実証する。
論文 参考訳(メタデータ) (2024-07-20T18:48:35Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - Large Language Models for Causal Discovery: Current Landscape and Future Directions [5.540272236593385]
因果発見(CD)とLarge Language Models(LLM)は、人工知能のトランスフォーメーション分野として登場した。
本研究は, テキストからの因果的抽出, ドメイン知識の統計的手法への統合, 因果的構造の改良の3つの重要な側面において, LLMがCDをどう変えるかを検討する。
論文 参考訳(メタデータ) (2024-02-16T20:48:53Z) - Recent Advances in Hate Speech Moderation: Multimodality and the Role of Large Models [52.24001776263608]
この包括的調査は、HSモデレーションの最近の歩みを掘り下げている。
大型言語モデル(LLM)と大規模マルチモーダルモデル(LMM)の急成長する役割を強調した。
研究における既存のギャップを、特に表現不足言語や文化の文脈で特定する。
論文 参考訳(メタデータ) (2024-01-30T03:51:44Z) - The Efficiency Spectrum of Large Language Models: An Algorithmic Survey [54.19942426544731]
LLM(Large Language Models)の急速な成長は、様々なドメインを変換する原動力となっている。
本稿では,LLMのエンドツーエンドのアルゴリズム開発に不可欠な多面的効率性について検討する。
論文 参考訳(メタデータ) (2023-12-01T16:00:25Z) - A Comprehensive Overview of Large Language Models [68.22178313875618]
大規模言語モデル(LLM)は、最近自然言語処理タスクにおいて顕著な機能を示した。
本稿では, LLM関連概念の幅広い範囲について, 既存の文献について概説する。
論文 参考訳(メタデータ) (2023-07-12T20:01:52Z) - Research Trends and Applications of Data Augmentation Algorithms [77.34726150561087]
我々は,データ拡張アルゴリズムの適用分野,使用するアルゴリズムの種類,重要な研究動向,時間経過に伴う研究の進展,およびデータ拡張文学における研究ギャップを同定する。
我々は、読者がデータ拡張の可能性を理解し、将来の研究方向を特定し、データ拡張研究の中で質問を開くことを期待する。
論文 参考訳(メタデータ) (2022-07-18T11:38:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。