論文の概要: Transforming Scholarly Landscapes: Influence of Large Language Models on Academic Fields beyond Computer Science
- arxiv url: http://arxiv.org/abs/2409.19508v1
- Date: Sun, 29 Sep 2024 01:32:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 22:05:10.126322
- Title: Transforming Scholarly Landscapes: Influence of Large Language Models on Academic Fields beyond Computer Science
- Title(参考訳): ランドスケープの変容 : 大規模言語モデルがコンピュータ科学以外の学術分野に与える影響
- Authors: Aniket Pramanick, Yufang Hou, Saif M. Mohammad, Iryna Gurevych,
- Abstract要約: 大規模言語モデル (LLM) は自然言語処理 (NLP) において転換期を迎えた。
本研究は,NLP以外の分野におけるLLMの影響と利用について実験的に検討する。
- 参考スコア(独自算出の注目度): 77.31665252336157
- License:
- Abstract: Large Language Models (LLMs) have ushered in a transformative era in Natural Language Processing (NLP), reshaping research and extending NLP's influence to other fields of study. However, there is little to no work examining the degree to which LLMs influence other research fields. This work empirically and systematically examines the influence and use of LLMs in fields beyond NLP. We curate $106$ LLMs and analyze $\sim$$148k$ papers citing LLMs to quantify their influence and reveal trends in their usage patterns. Our analysis reveals not only the increasing prevalence of LLMs in non-CS fields but also the disparities in their usage, with some fields utilizing them more frequently than others since 2018, notably Linguistics and Engineering together accounting for $\sim$$45\%$ of LLM citations. Our findings further indicate that most of these fields predominantly employ task-agnostic LLMs, proficient in zero or few-shot learning without requiring further fine-tuning, to address their domain-specific problems. This study sheds light on the cross-disciplinary impact of NLP through LLMs, providing a better understanding of the opportunities and challenges.
- Abstract(参考訳): 大規模言語モデル(LLM)は、自然言語処理(NLP)の転換期を辿り、研究を再構築し、NLPの影響を他の研究分野にまで広げてきた。
しかし、LLMが他の研究分野にどのような影響を及ぼすかを調べる研究はほとんどない。
この研究は、NLP以外の分野におけるLSMの影響と利用を経験的かつ体系的に検証する。
LLMを引用し、その影響を定量化し、使用パターンの傾向を明らかにするために、116ドルのLLMをキュレートし、$\sim$148kの論文を分析します。
我々の分析では、非CS分野におけるLLMの普及だけでなく、その利用状況の相違も明らかであり、2018年以降の他の分野よりも利用頻度が高い分野もあり、特に言語学と工学が共にLLM引用の$\sim$45\%を計上している。
さらに,これらの分野のほとんどが,ドメイン固有の問題に対処するために,さらなる微調整を必要とせず,ゼロあるいは少数ショット学習に熟練したタスク非依存のLLMを主に採用していることが示唆された。
本研究は,LPMによるNLPの学際的影響に光を当て,その機会と課題をより深く理解するものである。
関連論文リスト
- Are LLMs Effective Backbones for Fine-tuning? An Experimental Investigation of Supervised LLMs on Chinese Short Text Matching [12.213307496643376]
中国語短文マッチング作業のための微調整LDMによる実験的検討を行った。
タスクモデリング手法,プロンプト形式,出力形式など,微調整LDMの性能に影響を及ぼす諸要因について検討する。
論文 参考訳(メタデータ) (2024-03-29T02:36:54Z) - FAC$^2$E: Better Understanding Large Language Model Capabilities by
Dissociating Language and Cognition [57.747888532651]
大規模言語モデル(LLM)は、主に様々なテキスト理解および生成タスクにおける全体的なパフォーマンスによって評価される。
FAC$2$E, FAC$2$Eについて述べる。
論文 参考訳(メタデータ) (2024-02-29T21:05:37Z) - Linguistic Intelligence in Large Language Models for Telecommunications [5.06945923921948]
自然言語処理(NLP)分野において,Large Language Models (LLMs) が大きな進歩を遂げている。
本研究は,電気通信分野におけるLLMの知識と理解能力を評価することを目的とする。
評価の結果,ゼロショットLLMは現状の細調整モデルに匹敵する性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-02-24T14:01:07Z) - Rethinking the Roles of Large Language Models in Chinese Grammatical
Error Correction [62.409807640887834]
中国語の文法的誤り訂正(CGEC)は、入力文中のすべての文法的誤りを修正することを目的としている。
CGECの修正器としてのLLMの性能は、課題の焦点が難しいため不満足なままである。
CGECタスクにおけるLCMの役割を再考し、CGECでよりよく活用し、探索できるようにした。
論文 参考訳(メタデータ) (2024-02-18T01:40:34Z) - Rethinking Interpretability in the Era of Large Language Models [76.1947554386879]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著な機能を示している。
自然言語で説明できる能力により、LLMは人間に与えられるパターンのスケールと複雑さを拡大することができる。
これらの新しい機能は、幻覚的な説明や膨大な計算コストなど、新しい課題を提起する。
論文 参考訳(メタデータ) (2024-01-30T17:38:54Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - A Comparative Analysis of Fine-Tuned LLMs and Few-Shot Learning of LLMs
for Financial Sentiment Analysis [0.0]
我々は、財務分野のデータセット上で、コンテキスト内学習と微調整LDMの2つのアプローチを採用する。
以上の結果から, 微調整された小型LCMは, 最先端の微調整LDMに匹敵する性能を達成できることが示唆された。
文脈内学習におけるショット数が増加すると、財務領域の感情分析のパフォーマンスが向上することはない。
論文 参考訳(メタデータ) (2023-12-14T08:13:28Z) - Survey on Factuality in Large Language Models: Knowledge, Retrieval and
Domain-Specificity [61.54815512469125]
本調査は,大規模言語モデル(LLM)における事実性の重要課題に対処する。
LLMが様々な領域にまたがる応用を見出すにつれ、その出力の信頼性と正確性は重要となる。
論文 参考訳(メタデータ) (2023-10-11T14:18:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。