論文の概要: Get on the Train or be Left on the Station: Using LLMs for Software Engineering Research
- arxiv url: http://arxiv.org/abs/2506.12691v1
- Date: Sun, 15 Jun 2025 02:25:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:46.698576
- Title: Get on the Train or be Left on the Station: Using LLMs for Software Engineering Research
- Title(参考訳): 列車に乗るか、ステーションに残されるか:ソフトウェア工学研究にLLMを使う
- Authors: Bianca Trinkenreich, Fabio Calefato, Geir Hanssen, Kelly Blincoe, Marcos Kalinowski, Mauro Pezzè, Paolo Tell, Margaret-Anne Storey,
- Abstract要約: 我々はSE研究コミュニティが研究実践への大規模言語モデルの統合に積極的に関与し、形成する必要があると論じる。
このポジションペーパーは、McLuhanのTetrad of Media Lawsを用いて、LLMがSE研究に与える影響を分析する。
- 参考スコア(独自算出の注目度): 11.38769375570817
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The adoption of Large Language Models (LLMs) is not only transforming software engineering (SE) practice but is also poised to fundamentally disrupt how research is conducted in the field. While perspectives on this transformation range from viewing LLMs as mere productivity tools to considering them revolutionary forces, we argue that the SE research community must proactively engage with and shape the integration of LLMs into research practices, emphasizing human agency in this transformation. As LLMs rapidly become integral to SE research - both as tools that support investigations and as subjects of study - a human-centric perspective is essential. Ensuring human oversight and interpretability is necessary for upholding scientific rigor, fostering ethical responsibility, and driving advancements in the field. Drawing from discussions at the 2nd Copenhagen Symposium on Human-Centered AI in SE, this position paper employs McLuhan's Tetrad of Media Laws to analyze the impact of LLMs on SE research. Through this theoretical lens, we examine how LLMs enhance research capabilities through accelerated ideation and automated processes, make some traditional research practices obsolete, retrieve valuable aspects of historical research approaches, and risk reversal effects when taken to extremes. Our analysis reveals opportunities for innovation and potential pitfalls that require careful consideration. We conclude with a call to action for the SE research community to proactively harness the benefits of LLMs while developing frameworks and guidelines to mitigate their risks, to ensure continued rigor and impact of research in an AI-augmented future.
- Abstract(参考訳): LLM(Large Language Models)の採用は、ソフトウェア工学(SE)のプラクティスを変えるだけでなく、この分野における研究の実施方法を根本的に破壊する可能性もあります。
この変革の視点は、単なる生産性ツールから革命的な力を考えるものまで多岐にわたるが、SE研究コミュニティは、研究実践へのLSMの統合に積極的に関与し、形成し、この変革において人的エージェンシーを強調する必要があると論じている。
LLMは、調査を支援するツールとして、そして研究対象として、SE研究に急速に不可欠なものになっているため、人間中心の視点が不可欠である。
科学的厳密さの維持、倫理的責任の育成、分野の進歩の推進には、人間の監視と解釈可能性の確保が必要である。
第2回Copenhagen Symposium on Human-Centered AI in SEでの議論から引用し、このポジションペーパーはマクルーハンのメディア・ローズ(Tetrad of Media Laws)を用いて、SE研究におけるLLMの影響を分析する。
この理論レンズを通して、LLMは、アイデアの加速と自動化プロセスを通じて研究能力を向上し、従来の研究プラクティスを時代遅れにし、歴史的研究アプローチの貴重な側面を回収し、極端な場合のリスク反転効果について検討する。
我々の分析は、慎重に検討する必要があるイノベーションと潜在的な落とし穴の機会を明らかにします。
我々は、SE研究コミュニティに対して、リスクを軽減するためのフレームワークやガイドラインを開発しながら、LLMのメリットを積極的に活用し、AIの強化された将来における研究の厳格さと影響を確実にするために、積極的に行動するよう呼びかける。
関連論文リスト
- Towards Evaluation Guidelines for Empirical Studies involving LLMs [6.174354685766166]
大規模言語モデル(LLM)は、ソフトウェア工学の研究環境を変えました。
本稿では,このような研究の総括的ガイドラインを初めて提示する。
論文 参考訳(メタデータ) (2024-11-12T09:35:23Z) - A Survey on Large Language Models for Critical Societal Domains: Finance, Healthcare, and Law [65.87885628115946]
大規模言語モデル(LLM)は、金融、医療、法律の展望に革命をもたらしている。
我々は、医療における診断・治療方法論の強化、財務分析の革新、法的解釈・コンプライアンス戦略の精査におけるLCMの役割を強調した。
これらの分野におけるLLMアプリケーションの倫理を批判的に検討し、既存の倫理的懸念と透明で公平で堅牢なAIシステムの必要性を指摘した。
論文 参考訳(メタデータ) (2024-05-02T22:43:02Z) - Large Language Model Alignment: A Survey [42.03229317132863]
大きな言語モデル(LLM)の潜在能力は疑いようもなく大きいが、不正確、誤解を招く、あるいは有害なテキストを生成できる。
この調査は、LLM向けに設計されたアライメント方法論を広範囲に探究する試みである。
また、モデルの解釈可能性や、敵の攻撃に対する潜在的な脆弱性など、健全な問題を調査します。
論文 参考訳(メタデータ) (2023-09-26T15:49:23Z) - A Comprehensive Overview of Large Language Models [68.22178313875618]
大規模言語モデル(LLM)は、最近自然言語処理タスクにおいて顕著な機能を示した。
本稿では, LLM関連概念の幅広い範囲について, 既存の文献について概説する。
論文 参考訳(メタデータ) (2023-07-12T20:01:52Z) - Learnings from Frontier Development Lab and SpaceML -- AI Accelerators
for NASA and ESA [57.06643156253045]
AIとML技術による研究は、しばしば非同期の目標とタイムラインを備えたさまざまな設定で動作します。
我々は、NASAとESAの民間パートナーシップの下で、AIアクセラレータであるFrontier Development Lab(FDL)のケーススタディを実行する。
FDL研究は、AI研究の責任ある開発、実行、普及に基礎を置く原則的な実践に従う。
論文 参考訳(メタデータ) (2020-11-09T21:23:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。