論文の概要: Buy versus Build an LLM: A Decision Framework for Governments
- arxiv url: http://arxiv.org/abs/2602.13033v1
- Date: Fri, 13 Feb 2026 15:39:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:54.017121
- Title: Buy versus Build an LLM: A Decision Framework for Governments
- Title(参考訳): LLMの構築と購入 - 政府の意思決定フレームワーク
- Authors: Jiahao Lu, Ziwei Xu, William Tjhi, Junnan Li, Antoine Bosselut, Pang Wei Koh, Mohan Kankanhalli,
- Abstract要約: 大規模言語モデル(LLM)は、幅広いパブリックセクタアプリケーションをサポートするデジタルインフラストラクチャの新しいフロンティアである。
AIアクセスを拡大する際、政府は既存のサービスを購入するか、国内能力を構築するか、ハイブリッドアプローチを採用するか、という戦略的な選択に直面している。
本稿では,これらの選択肢を,主権,安全,コスト,資源能力,文化的適合性,持続可能性といった範囲で評価することで,この決定を行うための戦略的枠組みを提供する。
- 参考スコア(独自算出の注目度): 48.79793054207466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) represent a new frontier of digital infrastructure that can support a wide range of public-sector applications, from general purpose citizen services to specialized and sensitive state functions. When expanding AI access, governments face a set of strategic choices over whether to buy existing services, build domestic capabilities, or adopt hybrid approaches across different domains and use cases. These are critical decisions especially when leading model providers are often foreign corporations, and LLM outputs are increasingly treated as trusted inputs to public decision-making and public discourse. In practice, these decisions are not intended to mandate a single approach across all domains; instead, national AI strategies are typically pluralistic, with sovereign, commercial and open-source models coexisting to serve different purposes. Governments may rely on commercial models for non-sensitive or commodity tasks, while pursuing greater control for critical, high-risk or strategically important applications. This paper provides a strategic framework for making this decision by evaluating these options across dimensions including sovereignty, safety, cost, resource capability, cultural fit, and sustainability. Importantly, "building" does not imply that governments must act alone: domestic capabilities may be developed through public research institutions, universities, state-owned enterprises, joint ventures, or broader national ecosystems. By detailing the technical requirements and practical challenges of each pathway, this work aims to serve as a reference for policy-makers to determine whether a buy or build approach best aligns with their specific national needs and societal goals.
- Abstract(参考訳): 大規模言語モデル(LLM)は、汎用的な市民サービスから専門的で機密性の高い状態機能まで、幅広いパブリックセクターアプリケーションをサポートするデジタルインフラストラクチャの新しいフロンティアである。
AIアクセスを拡大する際、政府は既存のサービスを購入したり、国内能力を構築したり、異なるドメインやユースケースにまたがるハイブリッドアプローチを採用するか、という戦略的な選択に直面している。
主要なモデルプロバイダがしばしば外国企業である場合、特に重要な決定であり、LCMのアウトプットは、公共の意思決定や公の議論に対する信頼あるインプットとして扱われる。
実際には、これらの決定は、すべてのドメインにまたがる単一のアプローチを規定することを目的としていない。代わりに、国家AI戦略は、通常、複数の目的のために、主権、商業、およびオープンソースモデルが共存する、多元的である。
政府は、重要でリスクの高い、あるいは戦略的に重要なアプリケーションに対して、より強力な制御を追求しながら、非機密またはコモディティなタスクのために商業モデルに頼ることができる。
本稿では,これらの選択肢を,主権,安全,コスト,資源能力,文化的適合性,持続可能性といった範囲で評価することで,この決定を行うための戦略的枠組みを提供する。
国内能力は、公共研究機関、大学、国有企業、ジョイントベンチャー、あるいはより広範な国家生態系を通じて発達する可能性がある。
本研究は、各経路の技術的要件と実践的課題を詳述することにより、政策立案者に対して、購入や建設のアプローチが国家のニーズや社会的目標に最も適しているかどうかを判断するための基準として機能することを目的とする。
関連論文リスト
- EPO: Explicit Policy Optimization for Strategic Reasoning in LLMs via Reinforcement Learning [69.55982246413046]
戦略的推論のための明示的なポリシー最適化(EPO)を提案する。
我々は,マルチターン強化学習(RL)による戦略的推論モデルを訓練し,プロセス報酬と反復的な自己プレイを活用する。
本研究は, EPOに出現する様々な協調的推論機構と, 新規戦略の創出における有効性を明らかにするものである。
論文 参考訳(メタデータ) (2025-02-18T03:15:55Z) - The Case for an Industrial Policy Approach to AI Sector of Pakistan for Growth and Autonomy [0.0]
この論文は、パキスタンの幅広い産業政策枠組みにおける重要な産業として、人工知能の戦略的扱いについて論じている。
パキスタンのAIへの適用は、その大きな可能性、規制されていない採用のリスク、そして市場における非効率さが原因だ、と同社は主張する。
この分析は、パキスタンのAIセクターが主にサービス指向であり、製品革新の制限と外国技術への依存が強調されている。
論文 参考訳(メタデータ) (2024-11-02T18:41:17Z) - Assistive AI for Augmenting Human Decision-making [3.379906135388703]
この論文は、人間の監視を維持しながら、AIが意思決定の複雑なプロセスを支援する方法を示している。
私たちのフレームワークの中心は、プライバシ、説明責任、信頼性の原則です。
論文 参考訳(メタデータ) (2024-10-18T10:16:07Z) - Strategic AI Governance: Insights from Leading Nations [0.0]
人工知能(AI)は、さまざまな分野に革命をもたらす可能性があるが、その採用は、データプライバシ、セキュリティ、AI能力の理解に関する懸念によって妨げられることが多い。
本稿では、先進国のAI戦略をレビューすることで、AIガバナンスのアプローチ、戦略的テーマ、AI導入に向けたイネーブラーと課題を合成する。
論文 参考訳(メタデータ) (2024-09-16T06:00:42Z) - Domain Specialization as the Key to Make Large Language Models Disruptive: A Comprehensive Survey [100.24095818099522]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野を著しく進歩させた。
広範囲のアプリケーションに対して、非常に有用でタスクに依存しない基盤を提供する。
しかし、特定の領域における洗練された問題を解決するために直接LLMを適用することは、多くのハードルを満たす。
論文 参考訳(メタデータ) (2023-05-30T03:00:30Z) - On solving decision and risk management problems subject to uncertainty [91.3755431537592]
不確実性は意思決定とリスク管理において広範囲にわたる課題である。
本稿では,このような戦略を体系的に理解し,その適用範囲を判断し,それらをうまく活用するための枠組みを開発する。
論文 参考訳(メタデータ) (2023-01-18T19:16:23Z) - Envisioning a Human-AI collaborative system to transform policies into
decision models [7.9231719294492065]
我々は、人力で読み取り可能なポリシールールと機械で実行可能なポリシールールの両方をスケールする上で、政府機関や政策専門家を支援するAIの巨大な可能性を探る。
我々は、ポリシー文書から、AI、NLP、知識グラフを用いた実行可能、解釈可能、標準化された決定モデルへのルートを短くするための、初期的アプローチを提案する。
オープンドメインの課題は数多くありますが、このポジションペーパーでは、人力で読み取り可能なポリシルールとマシン実行可能なポリシルールの両方をスケールする上で、政府機関や政策専門家を支援するAIの巨大な可能性について検討します。
論文 参考訳(メタデータ) (2022-11-01T18:29:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。