論文の概要: Efficient and Green Large Language Models for Software Engineering: Literature Review, Vision, and the Road Ahead
- arxiv url: http://arxiv.org/abs/2404.04566v4
- Date: Wed, 04 Dec 2024 08:36:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:05:41.615354
- Title: Efficient and Green Large Language Models for Software Engineering: Literature Review, Vision, and the Road Ahead
- Title(参考訳): ソフトウェアエンジニアリングのための効率的でグリーンな大規模言語モデル:文献レビュー、ビジョン、そして道のり
- Authors: Jieke Shi, Zhou Yang, David Lo,
- Abstract要約: 大規模言語モデル(LLM)は、様々なソフトウェアエンジニアリングタスクにおいて顕著な機能を示している。
本稿は,LLM4SEの効率性と緑化に向けた研究コミュニティの焦点を振り返ることを目的としている。
- 参考スコア(独自算出の注目度): 8.461339326432228
- License:
- Abstract: Large Language Models (LLMs) have recently shown remarkable capabilities in various software engineering tasks, spurring the rapid growth of the Large Language Models for Software Engineering (LLM4SE) area. However, limited attention has been paid to developing efficient LLM4SE techniques that demand minimal computational cost, time, and memory resources, as well as green LLM4SE solutions that reduce energy consumption, water usage, and carbon emissions. This paper aims to redirect the focus of the research community towards the efficiency and greenness of LLM4SE, while also sharing potential research directions to achieve this goal. It commences with a brief overview of the significance of LLM4SE and highlights the need for efficient and green LLM4SE solutions. Subsequently, the paper presents a vision for a future where efficient and green LLM4SE revolutionizes the LLM-based software engineering tool landscape, benefiting various stakeholders, including industry, individual practitioners, and society. The paper then delineates a roadmap for future research, outlining specific research paths and potential solutions for the research community to pursue. While not intended to be a definitive guide, the paper aims to inspire further progress, with the ultimate goal of establishing efficient and green LLM4SE as a central element in the future of software engineering.
- Abstract(参考訳): 大規模言語モデル(LLM)は、最近、様々なソフトウェアエンジニアリングタスクにおいて顕著な能力を示し、ソフトウェアエンジニアリングのための大規模言語モデル(LLM4SE)領域が急速に成長した。
しかし、計算コスト、時間、メモリ資源の最小化を必要とする効率的なLLM4SE技術や、エネルギー消費量、水利用量、二酸化炭素排出量を減らすグリーンなLLM4SEソリューションの開発には、限られた注意が払われている。
本稿は,LLM4SEの効率性と緑度に研究コミュニティの焦点を向けるとともに,この目標を達成するための潜在的研究方向性を共有することを目的とする。
LLM4SEの意義を簡潔に概説し、効率的でグリーンなLLM4SEソリューションの必要性を強調している。
次に, LLM4SE が LLM ベースのソフトウェア工学ツールの展望に革命をもたらし, 産業, 個人実践者, 社会など様々な利害関係者に利益をもたらす, 未来への展望を示す。
本稿は、今後の研究のロードマップを概説し、研究コミュニティが追求すべき具体的な研究パスと潜在的な解決策を概説する。
この論文は、決定的なガイドになることを意図したものではないが、ソフトウェア工学の未来の中心的な要素として、効率的でグリーンなLSM4SEを確立するという究極の目標を掲げ、さらなる進歩を促すことを目的としている。
関連論文リスト
- A Systematic Survey on Large Language Models for Algorithm Design [25.556342145274613]
アルゴリズム設計(AD)は、様々な領域にわたる効果的な問題解決に不可欠である。
LLM(Large Language Models)の出現は、この分野における自動化とイノベーションを著しく強化した。
論文 参考訳(メタデータ) (2024-10-11T13:17:19Z) - Tool Learning with Large Language Models: A Survey [60.733557487886635]
大規模言語モデル(LLM)を用いたツール学習は,高度に複雑な問題に対処するLLMの能力を強化するための,有望なパラダイムとして登場した。
この分野での注目と急速な進歩にもかかわらず、現存する文献は断片化され、体系的な組織が欠如している。
論文 参考訳(メタデータ) (2024-05-28T08:01:26Z) - ChatGPT Alternative Solutions: Large Language Models Survey [0.0]
大規模言語モデル(LLM)はこの領域における研究貢献の急増に火をつけた。
近年、学術と産業のダイナミックな相乗効果が見られ、LLM研究の分野を新たな高地へと押し上げた。
この調査は、ジェネレーティブAIの現状をよく理解し、さらなる探索、強化、イノベーションの機会に光を当てている。
論文 参考訳(メタデータ) (2024-03-21T15:16:50Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - An Empirical Study on Usage and Perceptions of LLMs in a Software
Engineering Project [1.433758865948252]
大規模言語モデル(LLM)は人工知能の飛躍であり、人間の言語を用いたタスクに優れる。
本稿では、AI生成したコードを分析し、コード生成に使用するプロンプトと人間の介入レベルを分析し、コードをコードベースに統合する。
ソフトウェア開発の初期段階において,LSMが重要な役割を担っていることが示唆された。
論文 参考訳(メタデータ) (2024-01-29T14:32:32Z) - Towards Goal-oriented Prompt Engineering for Large Language Models: A Survey [4.362755917924305]
大規模言語モデル(LLM)は、様々な下流タスクで顕著なパフォーマンスを示している。
本稿では,人為的仮定に基づく設計プロンプトの限界を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-01-25T09:47:55Z) - The Efficiency Spectrum of Large Language Models: An Algorithmic Survey [54.19942426544731]
LLM(Large Language Models)の急速な成長は、様々なドメインを変換する原動力となっている。
本稿では,LLMのエンドツーエンドのアルゴリズム開発に不可欠な多面的効率性について検討する。
論文 参考訳(メタデータ) (2023-12-01T16:00:25Z) - On the Opportunities of Green Computing: A Survey [80.21955522431168]
人工知能(AI)は数十年にわたり、技術と研究において大きな進歩を遂げてきた。
高いコンピューティングパワーの必要性は、より高い二酸化炭素排出量をもたらし、研究の公正性を損なう。
コンピューティングリソースの課題とAIの環境への影響に取り組むため、グリーンコンピューティングはホットな研究トピックとなっている。
論文 参考訳(メタデータ) (2023-11-01T11:16:41Z) - A Comprehensive Overview of Large Language Models [68.22178313875618]
大規模言語モデル(LLM)は、最近自然言語処理タスクにおいて顕著な機能を示した。
本稿では, LLM関連概念の幅広い範囲について, 既存の文献について概説する。
論文 参考訳(メタデータ) (2023-07-12T20:01:52Z) - Towards Green Automated Machine Learning: Status Quo and Future
Directions [71.86820260846369]
AutoMLは高いリソース消費で批判されている。
本稿では,AutoMLプロセス全体を環境に優しいものにするためのパラダイムであるGreen AutoMLを提案する。
論文 参考訳(メタデータ) (2021-11-10T18:57:27Z) - A Survey on Green Deep Learning [25.71572024291251]
本稿では,グリーンディープラーニング技術の発展を体系的にレビューすることに焦点を当てる。
提案手法は,(1)コンパクトネットワーク,(2)エネルギー効率のトレーニング戦略,(3)エネルギー効率の推論アプローチ,(4)データ利用率の4つのカテゴリに分類される。
論文 参考訳(メタデータ) (2021-11-08T16:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。