論文の概要: The Empowerment of Science of Science by Large Language Models: New Tools and Methods
- arxiv url: http://arxiv.org/abs/2511.15370v1
- Date: Wed, 19 Nov 2025 11:57:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.788871
- Title: The Empowerment of Science of Science by Large Language Models: New Tools and Methods
- Title(参考訳): 大規模言語モデルによる科学の力--新しいツールと方法
- Authors: Guoqiang Liang, Jingqian Gong, Mengxuan Li, Gege Lin, Shuo Zhang,
- Abstract要約: 大規模言語モデル(LLM)は、自然言語の理解と生成、画像認識、マルチモーダルタスクにおいて例外的な機能を示した。
本書は, ユーザの視点から, LLMをサポートする中核技術について, 迅速な工学, 知識向上した検索拡張生成, 微調整, 事前学習, ツール学習など, 総合的なレビューを行う。
- 参考スコア(独自算出の注目度): 7.392576669260369
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have exhibited exceptional capabilities in natural language understanding and generation, image recognition, and multimodal tasks, charting a course towards AGI and emerging as a central issue in the global technological race. This manuscript conducts a comprehensive review of the core technologies that support LLMs from a user standpoint, including prompt engineering, knowledge-enhanced retrieval augmented generation, fine tuning, pretraining, and tool learning. Additionally, it traces the historical development of Science of Science (SciSci) and presents a forward looking perspective on the potential applications of LLMs within the scientometric domain. Furthermore, it discusses the prospect of an AI agent based model for scientific evaluation, and presents new research fronts detection and knowledge graph building methods with LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、自然言語の理解と生成、画像認識、マルチモーダルタスクにおいて例外的な能力を示し、AGIに向けてのコースをチャート化し、グローバル技術レースにおける中心的な課題として浮上した。
本書は, ユーザの視点から, LLMをサポートする中核技術について, 迅速な工学, 知識向上した検索拡張生成, 微調整, 事前学習, ツール学習など, 総合的なレビューを行う。
さらに、科学の科学(SciSci)の歴史的発展を辿り、サイエントメトリック領域におけるLSMの潜在的な応用について、今後の展望を示す。
さらに,科学評価のためのAIエージェントベースモデルの可能性について論じ,LLMを用いた知識グラフ構築手法の新たな研究分野について述べる。
関連論文リスト
- LLM-Supported Formal Knowledge Representation for Enhancing Control Engineering Content with an Interactive Semantic Layer [0.0]
本稿では,形式的知識表現の半自動生成のためのLLM支援手法について概説する。
自然言語記述や数学的定義を形式化された知識グラフに変換する上で,言語モデルがどのように役立つかを実証する。
論文 参考訳(メタデータ) (2025-11-04T17:36:57Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - A critical review of methods and challenges in large language models [6.850038413666062]
大規模言語モデル(LLM)の詳細な分析について
リカレントニューラルネットワーク(RNN)からトランスフォーマーモデルへの進化を検査する。
コンテキスト内学習や様々な微調整アプローチといった最先端のテクニックを記述します。
論文 参考訳(メタデータ) (2024-04-18T08:01:20Z) - ChatGPT Alternative Solutions: Large Language Models Survey [0.0]
大規模言語モデル(LLM)はこの領域における研究貢献の急増に火をつけた。
近年、学術と産業のダイナミックな相乗効果が見られ、LLM研究の分野を新たな高地へと押し上げた。
この調査は、ジェネレーティブAIの現状をよく理解し、さらなる探索、強化、イノベーションの機会に光を当てている。
論文 参考訳(メタデータ) (2024-03-21T15:16:50Z) - Advancing Graph Representation Learning with Large Language Models: A
Comprehensive Survey of Techniques [37.60727548905253]
グラフ表現学習(GRL)とLLM(Large Language Models)の統合は、複雑なデータ構造を分析する上で重要な進化である。
このコラボレーションは、LLMの洗練された言語機能を活用して、グラフモデルの文脈的理解と適応性を改善する。
LLMをグラフ領域に統合する研究団体が増えているにもかかわらず、コアコンポーネントとオペレーションを深く分析する包括的なレビューは特に欠落している。
論文 参考訳(メタデータ) (2024-02-04T05:51:14Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。