論文の概要: AcademicGPT: Empowering Academic Research
- arxiv url: http://arxiv.org/abs/2311.12315v1
- Date: Tue, 21 Nov 2023 03:17:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 02:22:12.410202
- Title: AcademicGPT: Empowering Academic Research
- Title(参考訳): academicgpt: 学術研究のエンパワーメント
- Authors: Shufa Wei, Xiaolong Xu, Xianbiao Qi, Xi Yin, Jun Xia, Jingyi Ren,
Peijun Tang, Yuxiang Zhong, Yihao Chen, Xiaoqin Ren, Yuxin Liang, Liankai
Huang, Kai Xie, Weikang Gui, Wei Tan, Shuanglong Sun, Yongquan Hu, Qinxian
Liu, Nanjin Li, Chihao Dai, Lihua Wang, Xiaohui Liu, Lei Zhang, and Yutao Xie
- Abstract要約: アカデミックGPT(AcademicGPT)は、LLaMA2-70Bから派生した連続訓練モデルである。
学習コーパスは主に学術論文、論文、一部の学術ドメインからのコンテンツ、高品質な中国語データなどで構成されています。
また、AcademicGPTの基礎モデルに基づいて、一般学術質問回答、AI支援論文読解、論文レビュー、AI支援タイトル・抽象生成など、学術分野向けのいくつかのアプリケーションを開発した。
- 参考スコア(独自算出の注目度): 19.175478235030234
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated exceptional capabilities
across various natural language processing tasks. Yet, many of these advanced
LLMs are tailored for broad, general-purpose applications. In this technical
report, we introduce AcademicGPT, designed specifically to empower academic
research. AcademicGPT is a continual training model derived from LLaMA2-70B.
Our training corpus mainly consists of academic papers, thesis, content from
some academic domain, high-quality Chinese data and others. While it may not be
extensive in data scale, AcademicGPT marks our initial venture into a
domain-specific GPT tailored for research area. We evaluate AcademicGPT on
several established public benchmarks such as MMLU and CEval, as well as on
some specialized academic benchmarks like PubMedQA, SCIEval, and our
newly-created ComputerScienceQA, to demonstrate its ability from general
knowledge ability, to Chinese ability, and to academic ability. Building upon
AcademicGPT's foundation model, we also developed several applications catered
to the academic area, including General Academic Question Answering,
AI-assisted Paper Reading, Paper Review, and AI-assisted Title and Abstract
Generation.
- Abstract(参考訳): 大規模言語モデル(LLM)は、様々な自然言語処理タスクにまたがる例外的な機能を示している。
しかし、これらの先進的なLLMの多くは広範で汎用的な用途に向いている。
本稿では,学術研究の促進を目的とした学術GPTを紹介する。
AcademicGPTはLLaMA2-70Bから派生した連続訓練モデルである。
学習コーパスは主に学術論文、論文、一部の学術ドメインからのコンテンツ、高品質な中国語データなどで構成されています。
データ規模は広くないかもしれないが、AcademicGPTは、調査分野に適したドメイン固有のGPTに、私たちの最初のベンチャーをマークしている。
我々は,MMLUやCEvalなどの定評ある公開ベンチマークやPubMedQA,SCIEval,新たに作成されたComputerScienceQAといった専門的な学術ベンチマークでAcademicGPTを評価し,一般知識能力から中国能力,学術能力に至るまでの能力を示す。
また,academicgptの基礎モデルに基づいて,一般の学術質問応答,ai支援論文読解,論文レビュー,ai支援タイトルと抽象生成など,学術分野に適したいくつかのアプリケーションを開発した。
関連論文リスト
- MMSci: A Multimodal Multi-Discipline Dataset for PhD-Level Scientific Comprehension [59.41495657570397]
我々は、Nature Communications Journalsに掲載されたオープンアクセス科学論文から、マルチモーダルで多分野のデータセットを収集した。
このデータセットは72の科学分野にまたがっており、多様性と品質の両方を保証している。
科学的な数字や内容を理解する上でLMMの能力を総合的に評価するために,様々なタスクと設定のベンチマークを作成した。
論文 参考訳(メタデータ) (2024-07-06T00:40:53Z) - Towards Integrating Emerging AI Applications in SE Education [4.956066467858058]
本稿では,AI分野における現在のトレンドの体系的分析の予備的結果を示す。
我々は、AIアプリケーションとさらなる研究分野の一連の機会について論じる。
論文 参考訳(メタデータ) (2024-05-28T11:21:45Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - Mapping the Increasing Use of LLMs in Scientific Papers [99.67983375899719]
2020年1月から2024年2月にかけて、arXiv、bioRxiv、Natureのポートフォリオジャーナルで950,965の論文をまとめて、体系的で大規模な分析を行った。
計算機科学の論文では, LLMの使用が着実に増加し, 最大, 最速の成長が観察された。
論文 参考訳(メタデータ) (2024-04-01T17:45:15Z) - A Large Language Model Supported Synthesis of Contemporary Academic
Integrity Research Trends [0.0]
本稿では,大規模言語モデル(LLM)であるChatGPTを用いた質的内容分析について報告する。
この分析は7つの研究テーマと13の重要領域を特定した。
論文 参考訳(メタデータ) (2024-01-07T13:23:29Z) - SciBench: Evaluating College-Level Scientific Problem-Solving Abilities of Large Language Models [70.5763210869525]
拡張ベンチマークスイートSciBench for Large Language Model (LLM)を導入する。
SciBenchには、数学、化学、物理学の分野から、さまざまな大学レベルの科学的問題を含むデータセットが含まれている。
その結果、現在のLLMは満足のいく性能を達成できないことが判明し、全体のスコアは43.22%に過ぎなかった。
論文 参考訳(メタデータ) (2023-07-20T07:01:57Z) - Domain Specialization as the Key to Make Large Language Models Disruptive: A Comprehensive Survey [100.24095818099522]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野を著しく進歩させた。
広範囲のアプリケーションに対して、非常に有用でタスクに依存しない基盤を提供する。
しかし、特定の領域における洗練された問題を解決するために直接LLMを適用することは、多くのハードルを満たす。
論文 参考訳(メタデータ) (2023-05-30T03:00:30Z) - Optimization- and AI-based approaches to academic quality quantification
for transparent academic recruitment: part 1-model development [0.0]
意思決定支援ツールの構築に使用できる2つの計算フレームワークを開発する。
両モデルのアウトプットはAQI(Academic Quality Index)と呼ばれる単一の指標であり、学術的品質の指標である。
モデルパラメータをチューニングするための基準データとして,Times Higher Education World University Rankings と QS World University Rankings に基づく一級・平均級世界大学からの学者のデータが推定される。
論文 参考訳(メタデータ) (2023-05-03T13:17:04Z) - AGIEval: A Human-Centric Benchmark for Evaluating Foundation Models [122.63704560157909]
我々は,人間中心の標準化試験の文脈で基礎モデルを評価するために設計された新しいベンチマークであるAGIEvalを紹介する。
GPT-4, ChatGPT, Text-Davinci-003 など,最先端基盤モデルの評価を行った。
GPT-4はSAT、LSAT、数学の競争で平均的な人事成績を上回り、SAT Mathテストでは95%の精度で、中国国立大学入試では92.5%の精度で合格している。
論文 参考訳(メタデータ) (2023-04-13T09:39:30Z) - Algorithmic Ghost in the Research Shell: Large Language Models and
Academic Knowledge Creation in Management Research [0.0]
本稿では,学術知識創造における大規模言語モデルの役割について考察する。
これには、書き込み、編集、レビュー、データセットの作成、キュレーションが含まれる。
論文 参考訳(メタデータ) (2023-03-10T14:25:29Z) - Application of Artificial Intelligence and Machine Learning in
Libraries: A Systematic Review [0.0]
本研究の目的は,図書館における人工知能と機械学習の適用を探求する実証研究の合成を提供することである。
データはWeb of Science, Scopus, LISA, LISTAデータベースから収集された。
LIS領域に関連するAIとML研究の現在の状況は、主に理論的な研究に焦点が当てられていることを示している。
論文 参考訳(メタデータ) (2021-12-06T07:33:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。