論文の概要: The Feasibility of Training Sovereign Language Models in the Global South: A Study of Brazil and Mexico
- arxiv url: http://arxiv.org/abs/2510.19801v1
- Date: Wed, 22 Oct 2025 17:37:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:16.238112
- Title: The Feasibility of Training Sovereign Language Models in the Global South: A Study of Brazil and Mexico
- Title(参考訳): 世界南部における言語モデル教育の可能性 : ブラジルとメキシコの事例から
- Authors: Sandra Malagon, Monica A. Ulloa Ruiz, Tatiana Elizabeth Sandoval Plaza, Gabriel Rafael Rosario Bolívar, Valentina García Mesa, Ivanna Alvarado Morales,
- Abstract要約: 本稿ではブラジルとメキシコにおけるソブリンスケール言語モデルトレーニングの技術的および財政的実現可能性について検討する。
計算需要、エネルギー消費、資本支出、および10トリリオントーケンモデルのトレーニングのための規制適合性を推定する。
トレーニングタイムラインの拡張は、ハードウェア制約を軽減するためのポリシーレバーとして扱われるべきである、と我々は主張する。
- 参考スコア(独自算出の注目度): 0.06245835455390699
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid escalation of computational requirements for training large-scale language models has reinforced structural asymmetries between high-capacity jurisdictions and countries in the Global South. This paper examines the technical and fiscal feasibility of sovereign-scale language model training in Brazil and Mexico under conditions of constrained hardware access, energy availability, and fiscal ceilings. Using a dual-axis design that varies accelerator generation (NVIDIA H100 vs. A100) and training duration (90 vs. 150 days), we estimate compute demand, energy consumption, capital expenditures, and regulatory compatibility for the training of a 10-trillion-token model. Our findings show that while all configurations remain below export-control and electrical infrastructure thresholds, fiscal viability is determined by hardware efficiency. H100-based scenarios achieve training feasibility at a total cost of 8-14 million USD, while A100 deployments require 19-32 million USD due to higher energy and hardware demand. We argue that extending training timelines should be treated as a policy lever to mitigate hardware constraints, enabling the production of usable, auditable, and locally aligned models without competing at the global frontier. This study contributes to the discourse on AI compute governance and technological sovereignty by highlighting context-sensitive strategies that allow middle-income countries to establish sustainable and strategically sufficient AI capabilities.
- Abstract(参考訳): 大規模言語モデルを訓練するための計算要求の急激なエスカレーションは、大容量の管轄区域とグローバル・サウスの国々の間の構造的対称性を補強した。
本稿では,制約付きハードウェアアクセス,エネルギー可用性,財政的天井条件下でのブラジルとメキシコにおけるソブリンスケール言語モデルトレーニングの技術的および財政的実現可能性について検討する。
アクセラレータ生成(NVIDIA H100 vs. A100)とトレーニング期間(90 vs. 150日)の異なる2軸設計を用いて、計算需要、エネルギー消費、資本支出、および10トリリオントーケンモデルのトレーニングのための規制適合性を推定する。
以上の結果から,すべての構成が輸出管理・電気インフラのしきい値以下にとどまっているのに対して,財政の持続性はハードウェアの効率によって決定されることがわかった。
H100ベースのシナリオは、合計8~1400万USDのトレーニング実現性を達成する一方、A100のデプロイメントには、エネルギーとハードウェアの需要が高ければ19~3200万USDのトレーニングが必要になる。
トレーニングタイムラインの拡張は、ハードウェア制約を軽減するためのポリシーレバーとして扱われるべきであり、グローバルフロンティアで競合することなく、使用可能な、監査可能な、局所的に整合したモデルの作成を可能にする。
この研究は、中所得国が持続的かつ戦略的に十分なAI能力を確立するための文脈に敏感な戦略を強調することによって、AIのコンピューティングガバナンスと技術的主権に関する議論に寄与する。
関連論文リスト
- Improving AI Efficiency in Data Centres by Power Dynamic Response [74.12165648170894]
近年、人工知能(AI)の着実に成長が加速し、洗練されたモデルの開発が進められている。
AIの潜在能力を最大限に活用するためには、堅牢で信頼性の高い電力インフラの確保が不可欠だ。
しかし、AIデータセンターは電力に非常に飢えており、彼らの電力管理の問題が注目されている。
論文 参考訳(メタデータ) (2025-10-13T08:08:21Z) - Survey of HPC in US Research Institutions [16.354150881950147]
AI、データ集約科学、デジタルツインテクノロジーは、ハイパフォーマンスコンピューティングに対する前例のない需要を駆り立ててきた。
この調査は、米国全大学におけるHPCの展望を総合的に評価するものである。
計算能力、建築設計、ガバナンスモデル、エネルギー効率を分析し、50以上の主要な研究機関について検討する。
論文 参考訳(メタデータ) (2025-06-23T18:13:36Z) - Low-resource domain adaptation while minimizing energy and hardware resource consumption [3.427366431933441]
異なる数値精度フォーマットとデータ並列化戦略が、トレーニング速度とモデルの精度の両方にどのように影響するかを評価する。
私たちの発見は、エネルギー効率、アクセシビリティ、ハードウェアの可用性の制限が重要な懸念事項であるような環境に関係しています。
論文 参考訳(メタデータ) (2025-06-10T04:14:19Z) - Every FLOP Counts: Scaling a 300B Mixture-of-Experts LING LLM without Premium GPUs [96.68469559192846]
2つの異なる大きさのMoE大言語モデル(LLM)を提示する。
Ling-Liteは168億のパラメータと275億のアクティベートパラメータを持ち、Ling-Plusは2900億のパラメータと288億のアクティベートパラメータを持っている。
本稿では,(1)モデルアーキテクチャとトレーニングプロセスの最適化,(2)トレーニング異常処理の洗練,(3)モデル評価効率の向上のための革新的な手法を提案する。
論文 参考訳(メタデータ) (2025-03-07T04:43:39Z) - Bridging the Data Provenance Gap Across Text, Speech and Video [67.72097952282262]
我々は、人気テキスト、音声、ビデオデータセットのモダリティにまたがって、最大かつ第1級の経時的監査を行う。
私たちの手動分析では、1990年から2024年の間に、608言語、798のソース、659の組織、67の国で4000近い公開データセットをカバーしています。
マルチモーダル機械学習アプリケーションは、トレーニングセットのために、YouTubeのようなWebcrawled、synthetic、ソーシャルメディアプラットフォームに圧倒的に移行した。
論文 参考訳(メタデータ) (2024-12-19T01:30:19Z) - Reducing the Barriers to Entry for Foundation Model Training [0.28756346738878485]
最近、世界は機械学習と人工知能のアプリケーションに対する需要が前例のない加速を目撃した。
この需要の急増は、サプライチェーンの基盤技術スタックに多大な負担を課している。
技術エコシステム全体にわたるAIトレーニング基盤の根本的な変更を提案する。
論文 参考訳(メタデータ) (2024-04-12T20:58:25Z) - Future Computer Systems and Networking Research in the Netherlands: A
Manifesto [137.47124933818066]
我々はICTの重要部分としてCompSysに注目している。
オランダ経済のトップセクター、国家研究アジェンダの各ルート、国連持続可能な開発目標の各ルートは、コンプシーズの進歩なしには対処できない課題を提起する。
論文 参考訳(メタデータ) (2022-05-26T11:02:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。