論文の概要: The Green Side of the Lua
- arxiv url: http://arxiv.org/abs/2601.16670v1
- Date: Fri, 23 Jan 2026 11:40:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.667077
- Title: The Green Side of the Lua
- Title(参考訳): ルアの緑の側
- Authors: André Brandão, Diogo Matos, Miguel Guimarães, Simão Cunha, João Saraiva,
- Abstract要約: Lua氏はこのトレードオフを説明している。 人気があるにもかかわらず、C言語のようなよりグリーンで高速な言語よりもエネルギー効率が低い。
本稿では,25の公式インタプリタバージョンとジャスト・イン・タイム(JIT)コンパイラを対象に,Luaのランタイム性能とエネルギー効率に関する実証的研究を行った。
- 参考スコア(独自算出の注目度): 0.558562584434493
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The United Nations' 2030 Agenda for Sustainable Development highlights the importance of energy-efficient software to reduce the global carbon footprint. Programming languages and execution models strongly influence software energy consumption, with interpreted languages generally being less efficient than compiled ones. Lua illustrates this trade-off: despite its popularity, it is less energy-efficient than greener and faster languages such as C. This paper presents an empirical study of Lua's runtime performance and energy efficiency across 25 official interpreter versions and just-in-time (JIT) compilers. Using a comprehensive benchmark suite, we measure execution time and energy consumption to analyze Lua's evolution, the impact of JIT compilation, and comparisons with other languages. Results show that all LuaJIT compilers significantly outperform standard Lua interpreters. The most efficient LuaJIT consumes about seven times less energy and runs seven times faster than the best Lua interpreter. Moreover, LuaJIT approaches C's efficiency, using roughly six times more energy and running about eight times slower, demonstrating the substantial benefits of JIT compilation for improving both performance and energy efficiency in interpreted languages.
- Abstract(参考訳): 国連の2030 Agenda for Sustainable Developmentは、二酸化炭素排出量を減らすためのエネルギー効率の良いソフトウェアの重要性を強調している。
プログラミング言語と実行モデルはソフトウェアのエネルギー消費に強く影響を与え、解釈された言語は一般的にコンパイルされた言語よりも効率が低い。
本稿では,25の公式インタプリタバージョンとジャスト・イン・タイム(JIT)コンパイラにまたがる,Luaのランタイム性能とエネルギー効率に関する実証的研究を紹介する。
包括的なベンチマークスイートを使用して、Luaの進化、JITコンパイルの影響、および他の言語との比較を分析するために、実行時間とエネルギー消費を測定します。
結果は、すべてのLuaJITコンパイラが標準のLuaインタプリタよりも大幅に優れていることを示している。
もっとも効率的なLuaJITはエネルギーを約7倍消費し、最高のLuaインタプリタの7倍高速で動作する。
さらに、LuaJITはCの効率に近づき、約6倍のエネルギを使用し、約8倍遅く動作し、インタプリタ言語のパフォーマンスとエネルギ効率を改善するためにJITコンパイルの実質的なメリットを示している。
関連論文リスト
- Who Wins the Race? (R Vs Python) - An Exploratory Study on Energy Consumption of Machine Learning Algorithms [5.294137281815185]
本稿では、機械学習モデルトレーニングと推論に異なるプログラミング言語を採用する際のエネルギーコストの意識を高めることを目的とする。
その結果,95%の症例において,両言語間のコストの統計的に有意な差が認められた。
プログラミング言語の選択は、モデルトレーニング中に99.16%まで、推論時に99.8%まで、エネルギー効率に大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2025-08-24T12:59:47Z) - An Empirical Study on the Performance and Energy Usage of Compiled Python Code [5.829253903555323]
Pythonは、学習の容易さと広範なライブラリで知られる人気のあるプログラミング言語である。
性能とエネルギー効率を比較した分析は限られている。
本研究では,コンパイルがPythonコードの性能とエネルギー消費に与える影響について検討した。
論文 参考訳(メタデータ) (2025-05-05T04:01:56Z) - Fine-tuning LLaMA 2 interference: a comparative study of language implementations for optimal efficiency [0.0]
PyTorch、Python、Mojo、C++、Javaなど、さまざまなプログラミング言語やフレームワークを評価します。
Apple Silicon上での大規模言語モデル(LLM)推論用に設計された新しいフレームワークであるMojo SDKについて検討する。
Apple M1 Max上で実施した実験では,Mojo SDKの競合性能,使いやすさ,Pythonとのシームレスな互換性が実証された。
論文 参考訳(メタデータ) (2025-01-30T19:36:33Z) - Insights into resource utilization of code small language models serving with runtime engines and execution providers [11.998900897003997]
言語モデルの急速な成長、特にコード生成は、かなりの計算資源を必要とする。
小言語モデル(SLM)は、リソース要求を減らすための有望なソリューションを提供する。
私たちの目標は、ランタイムエンジンと実行プロバイダの組み合わせとして定義されたディープラーニングサービス構成がリソース利用に与える影響を分析することです。
論文 参考訳(メタデータ) (2024-12-19T22:44:02Z) - CRUXEval-X: A Benchmark for Multilingual Code Reasoning, Understanding and Execution [50.1875460416205]
CRUXEVAL-Xコード推論ベンチマークには19のプログラミング言語が含まれている。
各言語に対して少なくとも600人の被験者で構成され、合計19Kのコンテンツ一貫性テストがある。
Pythonでのみトレーニングされたモデルでさえ、他の言語で34.4%のPass@1を達成することができる。
論文 参考訳(メタデータ) (2024-08-23T11:43:00Z) - Python is Not Always the Best Choice: Embracing Multilingual Program of Thoughts [51.49688654641581]
本稿では,多言語からの強みと多様性を生かしたMultiPoTというタスクとモデル非依存のアプローチを提案する。
実験の結果、Python Self-Consistencyを著しく上回ることがわかった。
特にMultiPoTはChatGPT(gpt-3.5-turbo-0701)で平均4.6%以上の改善を実現している。
論文 参考訳(メタデータ) (2024-02-16T13:48:06Z) - LPR: Large Language Models-Aided Program Reduction [9.772279651428406]
本稿では,LLMを用いて複数の言語に対して言語固有のプログラム還元を行う最初の手法であるLPRを提案する。
有効性のために、LPRは、C、Rust、JavaScriptのベンチマークで24.93%、4.47%、11.71%の小さなプログラムを生成することでVulcanを上回っている。
論文 参考訳(メタデータ) (2023-12-20T14:43:36Z) - GlobalBench: A Benchmark for Global Progress in Natural Language
Processing [114.24519009839142]
GlobalBenchは、すべての言語におけるすべてのNLPデータセットの進捗を追跡することを目的としている。
話者当たりのユーティリティと、全言語にわたるテクノロジのエクイティをトラックする。
現在、GlobalBenchは190言語で966のデータセットをカバーしており、62言語にまたがる1,128のシステムサブミッションを持っている。
論文 参考訳(メタデータ) (2023-05-24T04:36:32Z) - Not All Languages Are Created Equal in LLMs: Improving Multilingual
Capability by Cross-Lingual-Thought Prompting [123.16452714740106]
大規模言語モデル(LLM)は印象的な多言語機能を示すが、その性能は言語によって大きく異なる。
XLT (cross-lingual- Thought prompting) という,シンプルで効果的な方法を提案する。
XLTは汎用テンプレートプロンプトで、言語間および論理的推論スキルを刺激し、言語間のタスクパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2023-05-11T17:44:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。