論文の概要: Large language models for automated scholarly paper review: A survey
- arxiv url: http://arxiv.org/abs/2501.10326v1
- Date: Fri, 17 Jan 2025 17:56:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-20 14:00:39.068653
- Title: Large language models for automated scholarly paper review: A survey
- Title(参考訳): 学術論文自動レビューのための大規模言語モデル:調査
- Authors: Zhenzhen Zhuang, Jiandong Chen, Hongfeng Xu, Yuwen Jiang, Jialiang Lin,
- Abstract要約: 本稿では,大規模言語モデル(LLM)の時代における自動学術論文レビュー(ASPR)の全体像を提供することを目的とする。
LLM技術の導入により,ASPR関連技術のボトルネックが解決されたのかを概観する。
本稿では,ASPR における LLM の性能と課題を要約し,ASPR に対する出版社や学界の態度と反応について考察する。
- 参考スコア(独自算出の注目度): 2.41072532750517
- License:
- Abstract: Large language models (LLMs) have significantly impacted human society, influencing various domains. Among them, academia is not simply a domain affected by LLMs, but it is also the pivotal force in the development of LLMs. In academic publications, this phenomenon is represented during the incorporation of LLMs into the peer review mechanism for reviewing manuscripts. We proposed the concept of automated scholarly paper review (ASPR) in our previous paper. As the incorporation grows, it now enters the coexistence phase of ASPR and peer review, which is described in that paper. LLMs hold transformative potential for the full-scale implementation of ASPR, but they also pose new issues and challenges that need to be addressed. In this survey paper, we aim to provide a holistic view of ASPR in the era of LLMs. We begin with a survey to find out which LLMs are used to conduct ASPR. Then, we review what ASPR-related technological bottlenecks have been solved with the incorporation of LLM technology. After that, we move on to explore new methods, new datasets, new source code, and new online systems that come with LLMs for ASPR. Furthermore, we summarize the performance and issues of LLMs in ASPR, and investigate the attitudes and reactions of publishers and academia to ASPR. Lastly, we discuss the challenges associated with the development of LLMs for ASPR. We hope this survey can serve as an inspirational reference for the researchers and promote the progress of ASPR for its actual implementation.
- Abstract(参考訳): 大規模言語モデル(LLM)は、様々な領域に影響を与える人間の社会に大きな影響を与えている。
それらの中で、アカデミアは単にLSMに影響されたドメインであるだけでなく、LSMの発展における重要な力でもある。
学術出版物では、この現象は、原稿をレビューするためのピアレビュー機構にLSMを組み込む際に表される。
前回論文では,自動学術論文レビュー(ASPR)の概念を提案した。
法人化が進むにつれて、ASPRとピアレビューの共存段階に入り、その論文で述べられている。
LLMは、ASPRのフルスケール実装の変革的な可能性を持っているが、対処すべき新しい問題や課題も引き起こしている。
本稿では,LSM時代におけるASPRの全体像について述べる。
我々はまず,どのLSMを用いてASPRを行うかを調べる調査から始める。
次に,LSM技術の導入によりASPR関連技術のボトルネックが解決されたのかを概観する。
その後、新しいメソッド、新しいデータセット、新しいソースコード、そしてASPRのLLMに付属する新しいオンラインシステムを探ります。
さらに,ASPR における LLM の性能と課題を要約し,出版社や学術関係者の ASPR に対する態度と反応について考察する。
最後に,ASPR 用 LLM の開発に関わる課題について論じる。
我々は,本調査が研究者のインスピレーションの基準となり,実際の実施に向けたASPRの進展を促進することを願っている。
関連論文リスト
- Understanding the LLM-ification of CHI: Unpacking the Impact of LLMs at CHI through a Systematic Literature Review [8.524433537542484]
大規模言語モデル(LLM)は、HCIに革命をもたらす位置にある。
現在、LLMsのHCIへの取り込みについてはほとんど理解されていない。
我々は、LLMに関わる2020-24年の153件のCHI論文をレビューする。
論文 参考訳(メタデータ) (2025-01-22T00:31:51Z) - Are We There Yet? Revealing the Risks of Utilizing Large Language Models in Scholarly Peer Review [66.73247554182376]
大規模言語モデル(LLM)がピアレビューに統合された。
未確認のLLMの採用は、ピアレビューシステムの完全性に重大なリスクをもたらす。
5%のレビューを操作すれば、論文の12%が上位30%のランキングでその地位を失う可能性がある。
論文 参考訳(メタデータ) (2024-12-02T16:55:03Z) - Can LLMs Solve longer Math Word Problems Better? [47.227621867242]
数学語問題(MWP)は、大規模言語モデル(LLM)の能力を評価する上で重要な役割を果たす。
より長い文脈が数学的推論に与える影響は未解明のままである。
本研究は文脈長一般化可能性(CoLeG)の研究の先駆者である。
論文 参考訳(メタデータ) (2024-05-23T17:13:50Z) - A Systematic Literature Review on Large Language Models for Automated Program Repair [15.239506022284292]
研究者が現在の成果、課題、潜在的な機会を理解することは困難である。
この研究は、2020年から2024年までのAPRにおけるLarge Language Modelsの応用を要約する最初の体系的な文献レビューを提供する。
論文 参考訳(メタデータ) (2024-05-02T16:55:03Z) - Large Language Models: A Survey [69.72787936480394]
大規模言語モデル(LLM)は、広範囲の自然言語タスクにおける強力なパフォーマンスのために、多くの注目を集めている。
LLMの汎用言語理解と生成能力は、膨大なテキストデータに基づいて数十億のモデルのパラメータを訓練することで得られる。
論文 参考訳(メタデータ) (2024-02-09T05:37:09Z) - Breaking the Silence: the Threats of Using LLMs in Software Engineering [12.368546216271382]
大規模言語モデル(LLM)は、ソフトウェア工学(SE)コミュニティ内で大きな注目を集めています。
本稿では,LSMに基づく研究の有効性に対する潜在的な脅威について,オープンな議論を開始する。
論文 参考訳(メタデータ) (2023-12-13T11:02:19Z) - Survey on Factuality in Large Language Models: Knowledge, Retrieval and
Domain-Specificity [61.54815512469125]
本調査は,大規模言語モデル(LLM)における事実性の重要課題に対処する。
LLMが様々な領域にまたがる応用を見出すにつれ、その出力の信頼性と正確性は重要となる。
論文 参考訳(メタデータ) (2023-10-11T14:18:03Z) - A Comprehensive Overview of Large Language Models [68.22178313875618]
大規模言語モデル(LLM)は、最近自然言語処理タスクにおいて顕著な機能を示した。
本稿では, LLM関連概念の幅広い範囲について, 既存の文献について概説する。
論文 参考訳(メタデータ) (2023-07-12T20:01:52Z) - A Survey on Evaluation of Large Language Models [87.60417393701331]
大規模言語モデル(LLM)は、学術と産業の両方で人気が高まっている。
本稿では,評価方法,評価方法,評価方法の3つの重要な側面に焦点をあてる。
論文 参考訳(メタデータ) (2023-07-06T16:28:35Z) - Assessing Hidden Risks of LLMs: An Empirical Study on Robustness,
Consistency, and Credibility [37.682136465784254]
我々は、ChatGPT、LLaMA、OPTを含む、主流の大規模言語モデル(LLM)に100万以上のクエリを実行します。
入力が極端に汚染された場合でも、ChatGPTは正しい答えを得ることができる。
そこで本研究では,LCMによる評価において,そのようなデータの有効性を大まかに決定する新たな指標を提案する。
論文 参考訳(メタデータ) (2023-05-15T15:44:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。