論文の概要: Can Large-Language Models Help us Better Understand and Teach the Development of Energy-Efficient Software?
- arxiv url: http://arxiv.org/abs/2411.08912v1
- Date: Wed, 30 Oct 2024 01:09:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-17 08:33:31.017289
- Title: Can Large-Language Models Help us Better Understand and Teach the Development of Energy-Efficient Software?
- Title(参考訳): 大規模言語モデルは、エネルギー効率の良いソフトウェアの開発をよりよく理解し、教えるのに役立つか?
- Authors: Ryan Hasler, Konstantin Läufer, George K. Thiruvathukal, Huiyun Peng, Kyle Robinson, Kirsten Davis, Yung-Hsiang Lu, James C. Davis,
- Abstract要約: エネルギー効率のよいソフトウェア工学の技術は、しばしば学部のカリキュラムから欠落している。
本稿では,エネルギー効率のよいソフトウェアのための学習用モジュールの開発について提案する。
- 参考スコア(独自算出の注目度): 2.8812501020074968
- License:
- Abstract: Computing systems are consuming an increasing and unsustainable fraction of society's energy footprint, notably in data centers. Meanwhile, energy-efficient software engineering techniques are often absent from undergraduate curricula. We propose to develop a learning module for energy-efficient software, suitable for incorporation into an undergraduate software engineering class. There is one major problem with such an endeavor: undergraduate curricula have limited space for mastering energy-related systems programming aspects. To address this problem, we propose to leverage the domain expertise afforded by large language models (LLMs). In our preliminary studies, we observe that LLMs can generate energy-efficient variations of basic linear algebra codes tailored to both ARM64 and AMD64 architectures, as well as unit tests and energy measurement harnesses. On toy examples suitable for classroom use, this approach reduces energy expenditure by 30-90%. These initial experiences give rise to our vision of LLM-based meta-compilers as a tool for students to transform high-level algorithms into efficient, hardware-specific implementations. Complementing this tooling, we will incorporate systems thinking concepts into the learning module so that students can reason both locally and globally about the effects of energy optimizations.
- Abstract(参考訳): コンピューティングシステムは、特にデータセンターにおいて、社会のエネルギーフットプリントの増大と持続不可能な割合を消費している。
一方、エネルギー効率のよいソフトウェア工学技術は、しばしば学部生のカリキュラムを欠いている。
本稿では,エネルギー効率のよいソフトウェアのための学習用モジュールの開発について提案する。
そのような取り組みには1つの大きな問題がある: 学部のカリキュラムは、エネルギー関連のシステムプログラミングの側面をマスターするための限られたスペースを持っている。
この問題に対処するために,大規模言語モデル (LLM) が持つ領域の専門知識を活用することを提案する。
予備研究において, LLMはARM64およびAMD64アーキテクチャに適合する基本線形代数符号のエネルギー効率の変動と, 単体テストおよびエネルギー測定ハーネスを生成することができることを示した。
教室での使用に適した玩具の例では, エネルギー消費量を30~90%削減する。
これらの初期の経験から、高レベルのアルゴリズムを効率的なハードウェア固有の実装に変換するためのツールとして、LLMベースのメタコンパイラのビジョンが生まれました。
このツールを補完することで,システム思考の概念を学習モジュールに組み込むことで,学生がエネルギー最適化の効果について,地域的およびグローバルに推論できる。
関連論文リスト
- Large Language Models for Energy-Efficient Code: Emerging Results and Future Directions [2.848398051763324]
エネルギー効率向上のための符号として,大規模言語モデル (LLM) の新たな適用法を提案する。
我々はプロトタイプを記述し評価し、我々のシステムでは、コンパイラの最適化だけで最大2倍のエネルギー効率を向上できる6つの小さなプログラムを探索した。
論文 参考訳(メタデータ) (2024-10-11T20:35:40Z) - Solving Boltzmann Optimization Problems with Deep Learning [0.21485350418225244]
Isingモデルは、高エネルギー効率計算のための将来のフレームワークとして、特に有望であることを示している。
イジングシステムは、計算のエネルギー消費に対する熱力学的限界に近づくエネルギーで操作することができる。
Isingベースのハードウェアを作成する際の課題は、基本的な非決定論的ハードウェア上で正しい結果を生成する有用な回路を最適化することである。
論文 参考訳(メタデータ) (2024-01-30T19:52:02Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - The Efficiency Spectrum of Large Language Models: An Algorithmic Survey [54.19942426544731]
LLM(Large Language Models)の急速な成長は、様々なドメインを変換する原動力となっている。
本稿では,LLMのエンドツーエンドのアルゴリズム開発に不可欠な多面的効率性について検討する。
論文 参考訳(メタデータ) (2023-12-01T16:00:25Z) - Federated Fine-Tuning of LLMs on the Very Edge: The Good, the Bad, the Ugly [62.473245910234304]
本稿では,最新のエッジコンピューティングシステムにおいて,Large Language Modelsをどのように導入できるかを,ハードウェア中心のアプローチで検討する。
マイクロレベルのハードウェアベンチマークを行い、FLOPモデルと最先端のデータセンターGPUを比較し、現実的な条件下でのネットワーク利用について検討する。
論文 参考訳(メタデータ) (2023-10-04T20:27:20Z) - From Words to Watts: Benchmarking the Energy Costs of Large Language
Model Inference [19.439683873290623]
大規模言語モデル(LLM)は、新しい生成能力によって、最先端の最先端をはるかに超えているため、人気が高まっている。
これらのモデルには計算上の課題、特に推論に必要な計算とエネルギーのコストが伴う。
論文 参考訳(メタデータ) (2023-10-04T17:41:59Z) - Trends in Energy Estimates for Computing in AI/Machine Learning
Accelerators, Supercomputers, and Compute-Intensive Applications [3.2634122554914]
幾何スケーリング法則により駆動される異なるシステムの計算エネルギー要求について検討する。
幾何スケーリングによるエネルギー効率が低下していることを示す。
応用レベルでは、汎用AI-ML手法は計算エネルギー集約化が可能である。
論文 参考訳(メタデータ) (2022-10-12T16:14:33Z) - OMLT: Optimization & Machine Learning Toolkit [54.58348769621782]
最適化と機械学習ツールキット(OMLT)は、ニューラルネットワークと勾配ブーストツリーサロゲートモデルを組み込んだオープンソースのソフトウェアパッケージである。
我々は、OMLTを可能とした最適化技術の進歩について論じ、OMLTが代数モデリング言語であるPyomoとシームレスに統合されていることを示す。
論文 参考訳(メタデータ) (2022-02-04T22:23:45Z) - Energy-Efficient Multi-Orchestrator Mobile Edge Learning [54.28419430315478]
Mobile Edge Learning(MEL)は、エッジデバイス上で機械学習(ML)モデルの分散トレーニングを特徴とする、協調学習パラダイムである。
MELでは、異なるデータセットで複数の学習タスクが共存する可能性がある。
本稿では, エネルギー消費, 精度, 解複雑性のトレードオフを容易にする軽量なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-02T07:37:10Z) - Learning Discrete Energy-based Models via Auxiliary-variable Local
Exploration [130.89746032163106]
離散構造データに対する条件付きおよび非条件付きEMMを学習するための新しいアルゴリズムであるALOEを提案する。
エネルギー関数とサンプリング器は、新しい変分型電力繰り返しにより効率よく訓練できることを示す。
本稿では、ソフトウェアテストのためのエネルギーモデルガイド付ファジィザについて、libfuzzerのようなよく設計されたファジィエンジンに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2020-11-10T19:31:29Z) - Learnergy: Energy-based Machine Learners [0.0]
ディープラーニングアーキテクチャの文脈では、機械学習技術が広く推奨されている。
制限ボルツマンマシン(Restricted Boltzmann Machine)と呼ばれるエキサイティングなアルゴリズムは、分類、再構成、画像と信号の生成など、最も多様な応用に取り組むために、エネルギーと確率に基づく性質に依存している。
論文 参考訳(メタデータ) (2020-03-16T21:14:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。