論文の概要: Leveraging Large Language Models for Generating Research Topic Ontologies: A Multi-Disciplinary Study
- arxiv url: http://arxiv.org/abs/2508.20693v1
- Date: Thu, 28 Aug 2025 11:53:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.37032
- Title: Leveraging Large Language Models for Generating Research Topic Ontologies: A Multi-Disciplinary Study
- Title(参考訳): 研究トピックオントロジー生成のための大規模言語モデルの活用:多分野研究
- Authors: Tanay Aggarwal, Angelo Salatino, Francesco Osborne, Enrico Motta,
- Abstract要約: 本研究では,研究トピック間の意味的関係を識別する大規模言語モデルについて検討する。
実験の結果,PEM-Rel-8Kの微調整により,すべての分野において優れた性能が得られることがわかった。
- 参考スコア(独自算出の注目度): 0.8633013637160062
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ontologies and taxonomies of research fields are critical for managing and organising scientific knowledge, as they facilitate efficient classification, dissemination and retrieval of information. However, the creation and maintenance of such ontologies are expensive and time-consuming tasks, usually requiring the coordinated effort of multiple domain experts. Consequently, ontologies in this space often exhibit uneven coverage across different disciplines, limited inter-domain connectivity, and infrequent updating cycles. In this study, we investigate the capability of several large language models to identify semantic relationships among research topics within three academic domains: biomedicine, physics, and engineering. The models were evaluated under three distinct conditions: zero-shot prompting, chain-of-thought prompting, and fine-tuning on existing ontologies. Additionally, we assessed the cross-domain transferability of fine-tuned models by measuring their performance when trained in one domain and subsequently applied to a different one. To support this analysis, we introduce PEM-Rel-8K, a novel dataset consisting of over 8,000 relationships extracted from the most widely adopted taxonomies in the three disciplines considered in this study: MeSH, PhySH, and IEEE. Our experiments demonstrate that fine-tuning LLMs on PEM-Rel-8K yields excellent performance across all disciplines.
- Abstract(参考訳): 研究分野のオントロジーと分類学は、効率的な分類、普及、情報の検索を促進するため、科学的知識の管理と組織化に不可欠である。
しかしながら、このようなオントロジの作成とメンテナンスは高価で時間を要する作業であり、通常は複数のドメインエキスパートの協調作業を必要とします。
その結果、この分野のオントロジは、様々な分野、ドメイン間接続の制限、頻繁な更新サイクルに不均一なカバレッジを示すことが多い。
本研究では, バイオメディシン, 物理, 工学の3分野において, 研究トピック間の意味関係を識別する大規模言語モデルの能力について検討した。
モデルは、ゼロショットプロンプト、チェーンオブ思考プロンプト、既存のオントロジーの微調整の3つの異なる条件下で評価された。
さらに、1つのドメインでトレーニングされた場合のパフォーマンスを測定し、その後別のドメインに適用することで、微調整モデルのクロスドメイン転送性を評価した。
PEM-Rel-8Kは,本研究で検討された3つの分野(MeSH, PhySH, IEEE)において,最も広く採用されている分類群から8000以上の関係を抽出した新しいデータセットである。
PEM-Rel-8K上の微調整LDMは,全ての分野において優れた性能を発揮することを示す。
関連論文リスト
- Assessing the Capability of Large Language Models for Domain-Specific Ontology Generation [1.099532646524593]
大規模言語モデル(LLM)は、オントロジー工学に大きな可能性を示している。
本稿では,2つの最先端LCM,DeepSeek と o1-preview の一般化可能性について,一連の有能な質問から考察する。
その結果,全ての領域で実験性能が著しく整合していることが判明した。
論文 参考訳(メタデータ) (2025-04-24T09:47:14Z) - Biological Sequence with Language Model Prompting: A Survey [14.270959261105968]
大きな言語モデル(LLM)は、さまざまなドメインにまたがる課題に対処するための強力なツールとして登場した。
本稿では, LLMを用いたプロンプトベース手法の生物学的配列への応用を系統的に検討する。
論文 参考訳(メタデータ) (2025-03-06T06:28:36Z) - Large Language Models for Scholarly Ontology Generation: An Extensive Analysis in the Engineering Field [0.0]
本稿では,異なる研究トピック間の意味的関係を識別する大規模モデルの能力について分析する。
我々はそのタスクを評価するためにIEEE Thesaurusに基づく金の標準を開発した。
Mixtral-8x7B、Dolphin-Mistral、Claude 3-7Bなど、いくつかの優れた結果が得られた。
論文 参考訳(メタデータ) (2024-12-11T10:11:41Z) - Retrieval-Enhanced Machine Learning: Synthesis and Opportunities [60.34182805429511]
検索エンハンスメントは機械学習(ML)の幅広い範囲に拡張できる
この研究は、MLの様々な領域の文献を、現在の文献から欠落している一貫した表記で合成することで、このパラダイムの正式なフレームワークであるRetrieval-Enhanced Machine Learning (REML)を導入する。
本研究の目的は、様々な分野の研究者に対して、検索強化モデルの包括的、正式に構造化された枠組みを付与し、学際的な将来の研究を促進することである。
論文 参考訳(メタデータ) (2024-07-17T20:01:21Z) - Ontology Embedding: A Survey of Methods, Applications and Resources [54.3453925775069]
オンロジはドメインの知識とメタデータを表現するために広く使われている。
直接支援できる論理的推論は、学習、近似、予測において非常に限られています。
1つの簡単な解決策は、統計分析と機械学習を統合することである。
論文 参考訳(メタデータ) (2024-06-16T14:49:19Z) - A Comprehensive Survey of Scientific Large Language Models and Their Applications in Scientific Discovery [68.48094108571432]
大規模言語モデル(LLM)は、テキストやその他のデータ処理方法に革命をもたらした。
我々は,科学LLM間のクロスフィールドおよびクロスモーダル接続を明らかにすることで,研究ランドスケープのより総合的なビューを提供することを目指している。
論文 参考訳(メタデータ) (2024-06-16T08:03:24Z) - Evaluating the state-of-the-art in mapping research spaces: a Brazilian
case study [0.0]
最近の2つの研究は、科学者の出版記録から研究地図を作成する方法を提案している。
与えられたエンティティが新しいフィールドに入るかどうかを予測するモデルの能力を評価します。
これらのモデルがどのようにブラジルの文脈で科学のダイナミクスを特徴づけることができるかを示すケーススタディを実施します。
論文 参考訳(メタデータ) (2021-04-07T18:14:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。