論文の概要: Learn to Code Sustainably: An Empirical Study on LLM-based Green Code
Generation
- arxiv url: http://arxiv.org/abs/2403.03344v1
- Date: Tue, 5 Mar 2024 22:12:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 16:42:17.510028
- Title: Learn to Code Sustainably: An Empirical Study on LLM-based Green Code
Generation
- Title(参考訳): コードを持続的に学習する: llmベースのグリーンコード生成に関する実証的研究
- Authors: Tina Vartziotis, Ippolyti Dellatolas, George Dasoulas, Maximilian
Schmidt, Florian Schneider, Tim Hoffmann, Sotirios Kotsopoulos, Michael
Keckeisen
- Abstract要約: 生成型商用AI言語モデルにより生成された自動生成符号の持続可能性を評価する。
3つのAI言語モデルによって生成された人為的なコードとコードのパフォーマンスとグリーンキャパシティを比較した。
- 参考スコア(独自算出の注目度): 7.8273713434806345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing use of information technology has led to a significant share
of energy consumption and carbon emissions from data centers. These
contributions are expected to rise with the growing demand for big data
analytics, increasing digitization, and the development of large artificial
intelligence (AI) models. The need to address the environmental impact of
software development has led to increased interest in green (sustainable)
coding and claims that the use of AI models can lead to energy efficiency
gains. Here, we provide an empirical study on green code and an overview of
green coding practices, as well as metrics used to quantify the sustainability
awareness of AI models. In this framework, we evaluate the sustainability of
auto-generated code. The auto-generate codes considered in this study are
produced by generative commercial AI language models, GitHub Copilot, OpenAI
ChatGPT-3, and Amazon CodeWhisperer. Within our methodology, in order to
quantify the sustainability awareness of these AI models, we propose a
definition of the code's "green capacity", based on certain sustainability
metrics. We compare the performance and green capacity of human-generated code
and code generated by the three AI language models in response to easy-to-hard
problem statements. Our findings shed light on the current capacity of AI
models to contribute to sustainable software development.
- Abstract(参考訳): 情報技術の利用の増加は、データセンターからのエネルギー消費と二酸化炭素排出量のかなりのシェアを生み出した。
これらの貢献は、ビッグデータ分析の需要の増加、デジタル化の増大、大規模人工知能(AI)モデルの開発によって増加すると期待されている。
ソフトウェア開発の環境への影響に対処する必要性は、グリーン(持続可能な)コーディングへの関心を高め、AIモデルの使用はエネルギー効率の向上につながると主張している。
ここでは、グリーンコードに関する実証的研究と、グリーンコーディングプラクティスの概要、およびaiモデルの持続可能性意識の定量化に使用されるメトリクスを提供する。
本稿では,自動生成コードの持続可能性を評価する。
この研究で考慮された自動生成コードは、生成可能な商用AI言語モデル、GitHub Copilot、OpenAI ChatGPT-3、Amazon CodeWhispererによって生成される。
本手法では,これらaiモデルの持続可能性意識を定量化するために,持続可能性指標に基づくコードの「グリーンキャパシティ」の定義を提案する。
我々は,3つのAI言語モデルが生成する人為的コードの性能とグリーンキャパシティを比較し,難解な問題文に応答する。
我々の調査結果は、持続可能なソフトウェア開発に貢献するaiモデルの現在の能力に光を当てた。
関連論文リスト
- Generative AI in Health Economics and Outcomes Research: A Taxonomy of Key Definitions and Emerging Applications, an ISPOR Working Group Report [12.204470166456561]
ジェネレーティブAIは、健康経済学と成果研究(HEOR)において大きな可能性を秘めている
生成AIは、HEORに大きな可能性を示し、効率性、生産性を高め、複雑な課題に対する新しいソリューションを提供する。
ファウンデーションモデルは複雑なタスクを自動化する上で有望だが、科学的信頼性、バイアス、解釈可能性、ワークフローの統合には課題が残っている。
論文 参考訳(メタデータ) (2024-10-26T15:42:50Z) - Green Federated Learning: A new era of Green Aware AI [11.536626349203361]
フェデレートラーニング(FL)は、このニーズに対処する新たな機会を提供する。
グリーンアウェアなAIアルゴリズムの既存の取り組みとギャップをナビゲートし、理解するためのロードマップを、研究者、ステークホルダ、関心のある関係者に提供することが重要です。
この調査は主に、100を超えるFL作品を特定し分析することで、この目的を達成することを目的としている。
論文 参考訳(メタデータ) (2024-09-19T09:54:18Z) - Generative AI for Low-Carbon Artificial Intelligence of Things with Large Language Models [67.0243099823109]
ジェネレーティブAI(GAI)は、AIoT(Artificial Intelligence of Things)の二酸化炭素排出量を減らす大きな可能性を秘めている
本稿では, 炭素排出量削減のためのGAIの可能性について検討し, 低炭素AIoTのための新しいGAI対応ソリューションを提案する。
本稿では,Large Language Model (LLM) を利用したCO_2排出最適化フレームワークを提案し,このフレームワークにより,プラグ可能なLLMとRetrieval Augmented Generation (RAG) モジュールを設計する。
論文 参考訳(メタデータ) (2024-04-28T05:46:28Z) - On the Opportunities of Green Computing: A Survey [80.21955522431168]
人工知能(AI)は数十年にわたり、技術と研究において大きな進歩を遂げてきた。
高いコンピューティングパワーの必要性は、より高い二酸化炭素排出量をもたらし、研究の公正性を損なう。
コンピューティングリソースの課題とAIの環境への影響に取り組むため、グリーンコンピューティングはホットな研究トピックとなっている。
論文 参考訳(メタデータ) (2023-11-01T11:16:41Z) - Guiding AI-Generated Digital Content with Wireless Perception [69.51950037942518]
本稿では,AIGC(AIGC)と無線認識を統合し,デジタルコンテンツ制作の質を向上させる。
このフレームワークは、単語の正確な記述が難しいユーザの姿勢を読み取るために、新しいマルチスケール認識技術を採用し、それをスケルトン画像としてAIGCモデルに送信する。
生産プロセスはAIGCモデルの制約としてユーザの姿勢を強制するため、生成されたコンテンツはユーザの要求に適合する。
論文 参考訳(メタデータ) (2023-03-26T04:39:03Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Towards Sustainable Artificial Intelligence: An Overview of
Environmental Protection Uses and Issues [0.0]
本稿では,明日の生態学的課題に対応するエネルギー消費技術のパラドックスについて述べる。
これは、ユースケースや具体的な例を示すために、グリーンプレイヤー向けのAIから多くの例を引き合いに出している。
環境の次元は、AIの幅広い倫理的問題の一部であり、長期的にAIの持続可能性を保証するために不可欠である。
論文 参考訳(メタデータ) (2022-12-22T14:31:48Z) - Eco2AI: carbon emissions tracking of machine learning models as the
first step towards sustainable AI [47.130004596434816]
eco2AIでは、エネルギー消費の追跡と地域CO2排出量の正当性に重点を置いている。
モチベーションは、サステナブルAIとグリーンAI経路の両方で、AIベースの温室効果ガスの隔離サイクルの概念からもたらされる。
論文 参考訳(メタデータ) (2022-07-31T09:34:53Z) - Data-Driven and SE-assisted AI Model Signal-Awareness Enhancement and
Introspection [61.571331422347875]
モデルの信号認識性を高めるためのデータ駆動型手法を提案する。
コード複雑性のSE概念とカリキュラム学習のAIテクニックを組み合わせる。
モデル信号認識における最大4.8倍の改善を実現している。
論文 参考訳(メタデータ) (2021-11-10T17:58:18Z) - Sustainable AI: Environmental Implications, Challenges and Opportunities [13.089123643565724]
我々は、産業規模の機械学習ユースケースにおけるモデル開発サイクルを調べることで、AIコンピューティングの炭素フットプリントを特徴づける。
ハードウェア・ソフトウェア設計と大規模最適化がAIのカーボンフットプリント全体の削減にどのように役立つのかを、エンドツーエンドで分析する。
論文 参考訳(メタデータ) (2021-10-30T23:36:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。