論文の概要: Balancing Sustainability And Performance: The Role Of Small-Scale Llms In Agentic Artificial Intelligence Systems
- arxiv url: http://arxiv.org/abs/2601.19311v1
- Date: Tue, 27 Jan 2026 07:49:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.232823
- Title: Balancing Sustainability And Performance: The Role Of Small-Scale Llms In Agentic Artificial Intelligence Systems
- Title(参考訳): サステナビリティとパフォーマンスのバランス:エージェント人工知能システムにおける小規模Llmの役割
- Authors: Anh Khoa Ngo Ho, Martin Chauvin, Simon Gosset, Philippe Cordier, Boris Gamazaychikov,
- Abstract要約: 本研究では,小規模言語モデルの展開が応答性や出力品質を損なうことなく,エネルギー消費を低減できるかどうかを検討する。
その結果、小型のオープンウェイトモデルでは、タスク品質を維持しながらエネルギー使用量を削減できることがわかった。
- 参考スコア(独自算出の注目度): 0.2796197251957245
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As large language models become integral to agentic artificial intelligence systems, their energy demands during inference may pose significant sustainability challenges. This study investigates whether deploying smaller-scale language models can reduce energy consumption without compromising responsiveness and output quality in a multi-agent, real-world environments. We conduct a comparative analysis across language models of varying scales to quantify trade-offs between efficiency and performance. Results show that smaller open-weights models can lower energy usage while preserving task quality. Building on these findings, we propose practical guidelines for sustainable artificial intelligence design, including optimal batch size configuration and computation resource allocation. These insights offer actionable strategies for developing scalable, environmentally responsible artificial intelligence systems.
- Abstract(参考訳): 大きな言語モデルがエージェント人工知能システムに不可欠なものとなると、推論中のエネルギー需要は持続可能性に重大な課題をもたらす可能性がある。
本研究では, マルチエージェント実環境において, 応答性と出力品質を損なうことなく, 小規模言語モデルの展開によりエネルギー消費を低減できるかどうかを検討する。
我々は、効率と性能のトレードオフを定量化するために、様々なスケールの言語モデルの比較分析を行う。
その結果、小型のオープンウェイトモデルでは、タスク品質を維持しながらエネルギー使用量を削減できることがわかった。
これらの知見に基づいて,最適なバッチサイズ設定と計算資源割り当てを含む,持続可能な人工知能設計のための実践的ガイドラインを提案する。
これらの洞察は、スケーラブルで環境に責任のある人工知能システムを開発するための実用的な戦略を提供する。
関連論文リスト
- From Word to World: Can Large Language Models be Implicit Text-based World Models? [82.47317196099907]
エージェント強化学習は、経験駆動のスケーリングにますます依存している。
世界モデルは、シミュレートされた経験を通して学習効率を改善する潜在的方法を提供する。
大規模言語モデルがこの役割を確実に果たせるか,どのような条件でエージェントに有意義な利益をもたらすかを検討する。
論文 参考訳(メタデータ) (2025-12-21T17:28:42Z) - Information Capacity: Evaluating the Efficiency of Large Language Models via Text Compression [53.39128997308138]
テキスト圧縮性能に基づくモデル効率の指標である情報容量を導入する。
主流のオープンソースモデルに対する実証的な評価は、シリーズ内のさまざまなサイズのモデルが一貫した情報容量を示すことを示している。
情報容量の特徴的な特徴は、入力と出力の両方のトークン数に影響を与えるトークン化効率が組み込まれていることである。
論文 参考訳(メタデータ) (2025-11-11T10:07:32Z) - Comparing energy consumption and accuracy in text classification inference [0.9208007322096533]
本研究は,テキスト分類推定におけるモデル精度とエネルギー消費のトレードオフを系統的に評価する。
精度の点で最高の性能モデルはエネルギー効率も良いが、より大きなLCMはより低い分類精度ではるかに多くのエネルギーを消費する傾向がある。
論文 参考訳(メタデータ) (2025-08-19T18:00:08Z) - The Cost of Dynamic Reasoning: Demystifying AI Agents and Test-Time Scaling from an AI Infrastructure Perspective [3.0868637098088403]
大規模言語モデル(LLM)ベースのAIエージェントは最近、動的推論を採用することで、印象的な汎用性を示した。
本稿では,AIエージェントを包括的に分析し,リソース使用量,遅延動作,エネルギー消費,テストタイムスケーリング戦略を定量化する。
その結果,エージェントは計算量の増加によって精度が向上する一方で,急速に低下するリターン,レイテンシのばらつきの拡大,持続不可能なインフラストラクチャコストに悩まされていることがわかった。
論文 参考訳(メタデータ) (2025-06-04T14:37:54Z) - Systematic Weight Evaluation for Pruning Large Language Models: Enhancing Performance and Sustainability [1.542607498220242]
本研究は,トレーニング過程を通じて,個人の体重重大度を体系的に評価することに焦点を当てる。
性能を損なうことなくモデルサイズを効果的に削減する手法を提案する。
これらの発見は、持続可能な開発を保証するために最適化されたAIモデルの必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-02-24T11:34:49Z) - Addressing the sustainable AI trilemma: a case study on LLM agents and RAG [7.6212949300713015]
大規模言語モデル(LLM)は重要な機能を示しているが、その広範なデプロイメントとより高度なアプリケーションによって、重要な持続可能性の課題が提起されている。
本稿では、持続可能なAIトリレムマの概念を提案し、AI能力、デジタルエクイティ、環境サステナビリティの緊張関係を強調する。
論文 参考訳(メタデータ) (2025-01-14T17:21:16Z) - On the Modeling Capabilities of Large Language Models for Sequential Decision Making [52.128546842746246]
大規模な事前訓練されたモデルでは、推論や計画タスクのパフォーマンスがますます向上している。
我々は、直接的または間接的に、意思決定ポリシーを作成する能力を評価する。
未知の力学を持つ環境において、合成データを用いた微調整LDMが報酬モデリング能力を大幅に向上させる方法について検討する。
論文 参考訳(メタデータ) (2024-10-08T03:12:57Z) - Energy-frugal and Interpretable AI Hardware Design using Learning
Automata [5.514795777097036]
Tsetlin Machineと呼ばれる新しい機械学習アルゴリズムが提案されている。
本稿では,エネルギーフルーガルな人工知能ハードウェア設計手法について検討する。
本研究は, 資源配分が, 頑健かつ解釈可能な学習を達成しつつ, 決定的なエネルギー削減をもたらすことを示す。
論文 参考訳(メタデータ) (2023-05-19T15:11:18Z) - Online reinforcement learning with sparse rewards through an active
inference capsule [62.997667081978825]
本稿では,将来期待される新しい自由エネルギーを最小化するアクティブ推論エージェントを提案する。
我々のモデルは、非常に高いサンプル効率でスパース・リワード問題を解くことができる。
また、複雑な目的の表現を単純化する報奨関数から事前モデルを近似する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-06-04T10:03:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。