論文の概要: LLMs as Research Tools: A Large Scale Survey of Researchers' Usage and Perceptions
- arxiv url: http://arxiv.org/abs/2411.05025v1
- Date: Wed, 30 Oct 2024 04:25:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-17 08:33:31.616894
- Title: LLMs as Research Tools: A Large Scale Survey of Researchers' Usage and Perceptions
- Title(参考訳): 研究ツールとしてのLLM:研究者の活用と知覚の大規模調査
- Authors: Zhehui Liao, Maria Antoniak, Inyoung Cheong, Evie Yu-Yen Cheng, Ai-Heng Lee, Kyle Lo, Joseph Chee Chang, Amy X. Zhang,
- Abstract要約: 大規模言語モデル (LLMs) は、多くの研究者が科学的な研究に利用することを検討している。
筆者らによる816件の研究論文の大規模調査を行った。
81%の研究者がすでにLLMを研究ワークフローのさまざまな側面に組み込んでいることがわかった。
- 参考スコア(独自算出の注目度): 20.44227547555244
- License:
- Abstract: The rise of large language models (LLMs) has led many researchers to consider their usage for scientific work. Some have found benefits using LLMs to augment or automate aspects of their research pipeline, while others have urged caution due to risks and ethical concerns. Yet little work has sought to quantify and characterize how researchers use LLMs and why. We present the first large-scale survey of 816 verified research article authors to understand how the research community leverages and perceives LLMs as research tools. We examine participants' self-reported LLM usage, finding that 81% of researchers have already incorporated LLMs into different aspects of their research workflow. We also find that traditionally disadvantaged groups in academia (non-White, junior, and non-native English speaking researchers) report higher LLM usage and perceived benefits, suggesting potential for improved research equity. However, women, non-binary, and senior researchers have greater ethical concerns, potentially hindering adoption.
- Abstract(参考訳): 大規模言語モデル(LLMs)の台頭により、多くの研究者が科学的研究に利用することを考えるようになった。
研究パイプラインの側面を拡大または自動化するためにLSMを使うことの利点を見出した者もいれば、リスクや倫理的懸念のために注意を促している者もいる。
しかし、LLMの使用方法や理由を定量化し、特徴付ける研究はほとんど行われていない。
本研究では,研究コミュニティがLLMを研究ツールとして活用し,どのように捉えているのかを理解するため,816の検証研究論文執筆者の大規模な調査を初めて実施する。
著者の81%がすでにLLMを研究ワークフローのさまざまな側面に組み込んでいることが判明した。
また,学界における伝統的に不利なグループ(非白人・中英語・非英語圏の研究者)は,LSM使用率の向上とメリットの認識を報告し,研究エクイティの向上の可能性も示唆した。
しかし、女性、非バイナリー、そして上級研究者はより倫理的な懸念を抱き、養子縁組を妨げている可能性がある。
関連論文リスト
- Towards Evaluation Guidelines for Empirical Studies involving LLMs [6.174354685766166]
大規模言語モデル(LLM)は、ソフトウェア工学の研究環境を変えました。
本稿では,このような研究のガイドラインを初めて提示する。
私たちのゴールは、LLMを含む高品質な実証研究において、私たちのコミュニティ標準が何であるかを共通理解するために、ソフトウェア工学研究コミュニティで議論を始めることです。
論文 参考訳(メタデータ) (2024-11-12T09:35:23Z) - The LLM Effect: Are Humans Truly Using LLMs, or Are They Being Influenced By Them Instead? [60.01746782465275]
大規模言語モデル(LLM)は、様々な分析タスクにおいて、人間のパフォーマンスに近い能力を示している。
本稿では,Human-LLMパートナーシップに着目した構造化ユーザスタディにより,特殊作業におけるLLMの効率と精度について検討する。
論文 参考訳(メタデータ) (2024-10-07T02:30:18Z) - What is the Role of Large Language Models in the Evolution of Astronomy Research? [0.0]
ChatGPTや他の最先端の大規模言語モデル(LLM)は、急速に複数のフィールドを変換している。
これらのモデルは、一般に広大なデータセットに基づいて訓練され、人間のようなテキスト生成能力を示す。
論文 参考訳(メタデータ) (2024-09-30T12:42:25Z) - Transforming Scholarly Landscapes: Influence of Large Language Models on Academic Fields beyond Computer Science [77.31665252336157]
大規模言語モデル (LLM) は自然言語処理 (NLP) において転換期を迎えた。
本研究は,NLP以外の分野におけるLLMの影響と利用について実験的に検討する。
論文 参考訳(メタデータ) (2024-09-29T01:32:35Z) - Can LLMs Generate Novel Research Ideas? A Large-Scale Human Study with 100+ NLP Researchers [90.26363107905344]
大型言語モデル(LLM)は、科学的な発見を加速する可能性についての楽観主義を喚起した。
LLMシステムは、新しい専門家レベルのアイデアを生み出すための第一歩を踏み出すことができるという評価はない。
論文 参考訳(メタデータ) (2024-09-06T08:25:03Z) - LLMs Assist NLP Researchers: Critique Paper (Meta-)Reviewing [106.45895712717612]
大規模言語モデル(LLM)は、様々な生成タスクにおいて顕著な汎用性を示している。
本研究は,NLP研究者を支援するLLMの話題に焦点を当てる。
私たちの知る限りでは、このような包括的な分析を提供するのはこれが初めてです。
論文 参考訳(メタデータ) (2024-06-24T01:30:22Z) - Mapping the Increasing Use of LLMs in Scientific Papers [99.67983375899719]
2020年1月から2024年2月にかけて、arXiv、bioRxiv、Natureのポートフォリオジャーナルで950,965の論文をまとめて、体系的で大規模な分析を行った。
計算機科学の論文では, LLMの使用が着実に増加し, 最大, 最速の成長が観察された。
論文 参考訳(メタデータ) (2024-04-01T17:45:15Z) - Small Models, Big Insights: Leveraging Slim Proxy Models To Decide When and What to Retrieve for LLMs [60.40396361115776]
本稿では,スリムプロキシモデルを用いた大規模言語モデル (LLM) における知識不足を検知する新しい協調手法であるSlimPLMを提案する。
パラメータがはるかに少ないプロキシモデルを採用し、回答を回答としています。
ヒューリスティックな回答は、LLM内の既知の未知の知識と同様に、ユーザの質問に答えるために必要な知識を予測するのに使用される。
論文 参考訳(メタデータ) (2024-02-19T11:11:08Z) - From Prompt Engineering to Prompt Science With Human in the Loop [12.230632679443364]
本稿では、それに対応する定性的な方法を通じて、コードブック構築にインスパイアされた新しい方法論を提案する。
研究者の集合が、厳密なラベル付け、検討、文書化のプロセスを通じて、主観性を排除し、生成プロセスに透明性と複製性をもたらす方法を示します。
論文 参考訳(メタデータ) (2024-01-01T01:37:36Z) - Judgments of research co-created by generative AI: experimental evidence [1.8275108630751844]
研究プロセスの一部をLSMに委譲することで、研究者や科学的成果に不信感と評価が生じるかどうかを検証する。
人々は、人間に委任するよりもLLMに委任する方が受け入れがたいと判断した。
我々は、この切り下げが、生成的AI利用の過小評価にどのように移行するかについて議論する。
論文 参考訳(メタデータ) (2023-05-03T15:57:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。