論文の概要: The Empowerment of Science of Science by Large Language Models: New Tools and Methods
- arxiv url: http://arxiv.org/abs/2511.15370v1
- Date: Wed, 19 Nov 2025 11:57:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.788871
- Title: The Empowerment of Science of Science by Large Language Models: New Tools and Methods
- Title(参考訳): 大規模言語モデルによる科学の力--新しいツールと方法
- Authors: Guoqiang Liang, Jingqian Gong, Mengxuan Li, Gege Lin, Shuo Zhang,
- Abstract要約: 大規模言語モデル(LLM)は、自然言語の理解と生成、画像認識、マルチモーダルタスクにおいて例外的な機能を示した。
本書は, ユーザの視点から, LLMをサポートする中核技術について, 迅速な工学, 知識向上した検索拡張生成, 微調整, 事前学習, ツール学習など, 総合的なレビューを行う。
- 参考スコア(独自算出の注目度): 7.392576669260369
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have exhibited exceptional capabilities in natural language understanding and generation, image recognition, and multimodal tasks, charting a course towards AGI and emerging as a central issue in the global technological race. This manuscript conducts a comprehensive review of the core technologies that support LLMs from a user standpoint, including prompt engineering, knowledge-enhanced retrieval augmented generation, fine tuning, pretraining, and tool learning. Additionally, it traces the historical development of Science of Science (SciSci) and presents a forward looking perspective on the potential applications of LLMs within the scientometric domain. Furthermore, it discusses the prospect of an AI agent based model for scientific evaluation, and presents new research fronts detection and knowledge graph building methods with LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、自然言語の理解と生成、画像認識、マルチモーダルタスクにおいて例外的な能力を示し、AGIに向けてのコースをチャート化し、グローバル技術レースにおける中心的な課題として浮上した。
本書は, ユーザの視点から, LLMをサポートする中核技術について, 迅速な工学, 知識向上した検索拡張生成, 微調整, 事前学習, ツール学習など, 総合的なレビューを行う。
さらに、科学の科学(SciSci)の歴史的発展を辿り、サイエントメトリック領域におけるLSMの潜在的な応用について、今後の展望を示す。
さらに,科学評価のためのAIエージェントベースモデルの可能性について論じ,LLMを用いた知識グラフ構築手法の新たな研究分野について述べる。
関連論文リスト
- LLM-Supported Formal Knowledge Representation for Enhancing Control Engineering Content with an Interactive Semantic Layer [0.0]
本稿では,形式的知識表現の半自動生成のためのLLM支援手法について概説する。
自然言語記述や数学的定義を形式化された知識グラフに変換する上で,言語モデルがどのように役立つかを実証する。
論文 参考訳(メタデータ) (2025-11-04T17:36:57Z) - Continual Learning for Generative AI: From LLMs to MLLMs and Beyond [56.29231194002407]
本稿では,主流生成型AIモデルに対する連続学習手法の総合的な調査を行う。
これらのアプローチをアーキテクチャベース、正規化ベース、リプレイベースという3つのパラダイムに分類する。
我々は、トレーニング目標、ベンチマーク、コアバックボーンを含む、異なる生成モデルに対する連続的な学習設定を分析する。
論文 参考訳(メタデータ) (2025-06-16T02:27:25Z) - A Survey of Spatio-Temporal EEG data Analysis: from Models to Applications [20.54846023209402]
本調査は,脳活動の理解と解釈を変革するための新しい手法と技術に焦点を当てる。
我々は、脳信号の堅牢な表現を可能にする自己教師あり学習手法を探求する。
また,グラフニューラルネットワーク(GNN)や基礎モデル,大規模言語モデル(LLM)に基づくアプローチなど,新たな差別的手法についても検討する。
この調査は、これらの最先端技術、その応用、そして彼らが将来の研究および臨床実践に持つ深い影響について、広範囲にわたる概要を提供している。
論文 参考訳(メタデータ) (2024-09-26T08:09:15Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - A critical review of methods and challenges in large language models [6.850038413666062]
大規模言語モデル(LLM)の詳細な分析について
リカレントニューラルネットワーク(RNN)からトランスフォーマーモデルへの進化を検査する。
コンテキスト内学習や様々な微調整アプローチといった最先端のテクニックを記述します。
論文 参考訳(メタデータ) (2024-04-18T08:01:20Z) - Large Language Models for Education: A Survey and Outlook [69.02214694865229]
各視点の技術的進歩を体系的にレビューし、関連するデータセットとベンチマークを整理し、教育におけるLSMの展開に伴うリスクと課題を特定する。
本調査は、LLMの力を利用して教育実践を変革し、より効果的なパーソナライズされた学習環境を育むための、教育者、研究者、政策立案者のための総合的な技術図を提供することを目的とする。
論文 参考訳(メタデータ) (2024-03-26T21:04:29Z) - ChatGPT Alternative Solutions: Large Language Models Survey [0.0]
大規模言語モデル(LLM)はこの領域における研究貢献の急増に火をつけた。
近年、学術と産業のダイナミックな相乗効果が見られ、LLM研究の分野を新たな高地へと押し上げた。
この調査は、ジェネレーティブAIの現状をよく理解し、さらなる探索、強化、イノベーションの機会に光を当てている。
論文 参考訳(メタデータ) (2024-03-21T15:16:50Z) - Advancing Graph Representation Learning with Large Language Models: A
Comprehensive Survey of Techniques [37.60727548905253]
グラフ表現学習(GRL)とLLM(Large Language Models)の統合は、複雑なデータ構造を分析する上で重要な進化である。
このコラボレーションは、LLMの洗練された言語機能を活用して、グラフモデルの文脈的理解と適応性を改善する。
LLMをグラフ領域に統合する研究団体が増えているにもかかわらず、コアコンポーネントとオペレーションを深く分析する包括的なレビューは特に欠落している。
論文 参考訳(メタデータ) (2024-02-04T05:51:14Z) - Scientific Large Language Models: A Survey on Biological & Chemical Domains [47.97810890521825]
大規模言語モデル(LLM)は、自然言語理解の強化において、変革的な力として現れてきた。
LLMの応用は従来の言語境界を超えて、様々な科学分野で開発された専門的な言語システムを含んでいる。
AI for Science(AI for Science)のコミュニティで急成長している分野として、科学LLMは包括的な探査を義務付けている。
論文 参考訳(メタデータ) (2024-01-26T05:33:34Z) - Large Language Models for Generative Information Extraction: A Survey [89.71273968283616]
大規模言語モデル(LLM)は、テキスト理解と生成において顕著な能力を示した。
各種IEサブタスクと技術の観点から,これらの作品を分類して概観する。
我々は,最も先進的な手法を実証的に分析し,LLMによるIEタスクの出現傾向を明らかにする。
論文 参考訳(メタデータ) (2023-12-29T14:25:22Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。