論文の概要: From FLOPs to Footprints: The Resource Cost of Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2512.04142v1
- Date: Wed, 03 Dec 2025 17:01:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:45.813417
- Title: From FLOPs to Footprints: The Resource Cost of Artificial Intelligence
- Title(参考訳): FLOPからフットプリントへ:人工知能の資源コスト
- Authors: Sophia Falk, Nicholas Kluge Corrêa, Sasha Luccioni, Lisa Biber-Freudenberger, Aimee van Wynsberghe,
- Abstract要約: 本研究では,計算処理とハードウェアの物理的ニーズを結びつけることで,AIトレーニングの材料フットプリントを定量化する。
Nvidia A100 SXM 40GBグラフィックス処理ユニット(GPU)の素子組成を誘導結合プラズマ発光分光法を用いて解析し,32個の素子を同定した。
その結果、AIハードウェアは約90%の重金属と微量の貴金属からなることがわかった。
- 参考スコア(独自算出の注目度): 4.315953541684344
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As computational demands continue to rise, assessing the environmental footprint of AI requires moving beyond energy and water consumption to include the material demands of specialized hardware. This study quantifies the material footprint of AI training by linking computational workloads to physical hardware needs. The elemental composition of the Nvidia A100 SXM 40 GB graphics processing unit (GPU) was analyzed using inductively coupled plasma optical emission spectroscopy, which identified 32 elements. The results show that AI hardware consists of about 90% heavy metals and only trace amounts of precious metals. The elements copper, iron, tin, silicon, and nickel dominate the GPU composition by mass. In a multi-step methodology, we integrate these measurements with computational throughput per GPU across varying lifespans, accounting for the computational requirements of training specific AI models at different training efficiency regimes. Scenario-based analyses reveal that, depending on Model FLOPs Utilization (MFU) and hardware lifespan, training GPT-4 requires between 1,174 and 8,800 A100 GPUs, corresponding to the extraction and eventual disposal of up to 7 tons of toxic elements. Combined software and hardware optimization strategies can reduce material demands: increasing MFU from 20% to 60% lowers GPU requirements by 67%, while extending lifespan from 1 to 3 years yields comparable savings; implementing both measures together reduces GPU needs by up to 93%. Our findings highlight that incremental performance gains, such as those observed between GPT-3.5 and GPT-4, come at disproportionately high material costs. The study underscores the necessity of incorporating material resource considerations into discussions of AI scalability, emphasizing that future progress in AI must align with principles of resource efficiency and environmental responsibility.
- Abstract(参考訳): 計算要求が増加し続けるにつれて、AIの環境フットプリントを評価するには、特別なハードウェアの物質的要求を含むために、エネルギーと水の消費を超えて移動する必要がある。
本研究では,計算処理とハードウェアの物理的ニーズを結びつけることで,AIトレーニングの材料フットプリントを定量化する。
Nvidia A100 SXM 40GBグラフィックス処理ユニット(GPU)の素子組成を誘導結合プラズマ発光分光法を用いて解析し,32個の素子を同定した。
その結果、AIハードウェアは約90%の重金属と微量の貴金属からなることがわかった。
銅、鉄、スズ、シリコン、ニッケルはGPU組成を質量で支配する。
多段階の手法では、これらの測定をGPU当たりの計算スループットと様々な寿命にわたって統合し、異なるトレーニング効率のレギュレーションで特定のAIモデルを訓練する際の計算要求を考慮に入れます。
シナリオベースの分析によると、モデルFLOP(MFU)とハードウェア寿命に応じて、トレーニング用GPT-4は1,174から8,800のA100 GPUを必要とする。
MFUを20%から60%に増やすことでGPUの要求を67%削減し、ライフスパンを1年から3年延長すると同等の節約が得られる。
以上の結果から, GPT-3.5 と GPT-4 では, 材料コストが著しく高い傾向がみられた。
この研究は、AIのスケーラビリティに関する議論に材料資源の考慮を組み込むことの必要性を強調し、将来のAIの進歩は、資源効率と環境責任の原則と一致しなければならないことを強調した。
関連論文リスト
- Holographic Knowledge Manifolds: A Novel Pipeline for Continual Learning Without Catastrophic Forgetting in Large Language Models [0.0]
ホログラフィック・ナレッジ・マニフォールド (HKM) は, 知識表現における壊滅的忘れをゼロにする4相パイプラインである。
HKMは知識基板を67%のストレージで3倍圧縮し、ホログラフィックを100%統合し、インクリメント毎に1%成長した1,020以上の更新をサポートする。
業界をリードするパフォーマンスを示す。0%の忘れ込み、3倍の圧縮、および53%のトレーニング時間削減である。
論文 参考訳(メタデータ) (2025-09-03T16:54:45Z) - Sustainable AI Training via Hardware-Software Co-Design on NVIDIA, AMD, and Emerging GPU Architectures [0.0]
大規模なディープラーニングと人工知能モデルのトレーニングは、多くの計算能力とエネルギーを使用するため、深刻な持続可能性の問題が発生する。
本研究では,NVIDIA,AMD,その他の新興GPUアーキテクチャの高度なGPUアーキテクチャを対象とした,環境駆動型パフォーマンス最適化手法について検討する。
我々の主な焦点は、メモリレベルとカーネルレベルの演算を大幅に向上することを目的とした、ハードウェア・ソフトウェア・コンパイラの共同設計技術の調査である。
論文 参考訳(メタデータ) (2025-07-28T03:25:44Z) - POLARON: Precision-aware On-device Learning and Adaptive Runtime-cONfigurable AI acceleration [0.0]
本研究は,効率的な乗算累積演算を行うSIMD対応マルチ精度MACエンジンを提案する。
このアーキテクチャは、計算精度をワークロードの感度に合わせるための層適応的精度戦略を取り入れている。
その結果,PDPは最大で2倍,資源使用量は3倍に改善した。
論文 参考訳(メタデータ) (2025-06-10T13:33:02Z) - Guidelines for the Quality Assessment of Energy-Aware NAS Benchmarks [26.441107070248016]
エネルギーを意識したベンチマークは、NASがモデルエネルギー消費を精度から引き離すことを可能にすることを目的としている。
これらの原則に基づいてEA-HAS-Benchを分析し、GPU測定APIの選択が結果の品質に大きな影響を与えることを発見した。
論文 参考訳(メタデータ) (2025-05-21T15:16:41Z) - Every FLOP Counts: Scaling a 300B Mixture-of-Experts LING LLM without Premium GPUs [96.68469559192846]
2つの異なる大きさのMoE大言語モデル(LLM)を提示する。
Ling-Liteは168億のパラメータと275億のアクティベートパラメータを持ち、Ling-Plusは2900億のパラメータと288億のアクティベートパラメータを持っている。
本稿では,(1)モデルアーキテクチャとトレーニングプロセスの最適化,(2)トレーニング異常処理の洗練,(3)モデル評価効率の向上のための革新的な手法を提案する。
論文 参考訳(メタデータ) (2025-03-07T04:43:39Z) - Taming 3DGS: High-Quality Radiance Fields with Limited Resources [50.92437599516609]
3D Gaussian Splatting (3DGS)は、高速で解釈可能で高忠実なレンダリングで新規ビュー合成を変換した。
予算で3DGSモデルをトレーニングし、レンダリングするという課題に取り組みます。
我々は、勾配計算と属性更新のための高速で数値的に等価な解を導出する。
論文 参考訳(メタデータ) (2024-06-21T20:44:23Z) - On-Chip Hardware-Aware Quantization for Mixed Precision Neural Networks [52.97107229149988]
エッジデバイス上でハードウェア対応の混合精度量子化を行うOn-Chipハードウェア・アウェア量子化フレームワークを提案する。
このパイプラインは、量子化プロセスが量子化演算子の実際のハードウェア効率を知覚することを可能にする。
精度測定のために,マルチチップシナリオにおける演算子の精度への影響を効果的に推定するMask-Guided Quantization Estimation技術を提案する。
論文 参考訳(メタデータ) (2023-09-05T04:39:34Z) - Model-to-Circuit Cross-Approximation For Printed Machine Learning
Classifiers [4.865819809855699]
プリントエレクトロニクス(PE)は、オンデマンド製造、低い非再帰エンジニアリングコスト、サブセント製造コストを約束する。
PEにおける大きな特徴サイズは、PEにおける複雑なMLモデルの実現を禁止している。
本稿では,PEにおける複雑なMLモデルを実現するため,自動層間近似フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-14T22:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。