論文の概要: Beyond Private or Public: Large Language Models as Quasi-Public Goods in the AI Economy
- arxiv url: http://arxiv.org/abs/2509.13265v1
- Date: Tue, 16 Sep 2025 17:22:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:53.197648
- Title: Beyond Private or Public: Large Language Models as Quasi-Public Goods in the AI Economy
- Title(参考訳): プライベートまたはパブリックを超えて:AI経済における準公共財としての大規模言語モデル
- Authors: Yukun Zhang, TianYang Zhang,
- Abstract要約: 本稿では,Large Language Models (LLMs) をデジタルインフラ内における混合公共商品の形式として概念化する。
本研究では,LLMの非磁区特性,部分排他可能性,正の外部性を定量化するための数学的モデルを開発する。
- 参考スコア(独自算出の注目度): 4.887749221165767
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper conceptualizes Large Language Models (LLMs) as a form of mixed public goods within digital infrastructure, analyzing their economic properties through a comprehensive theoretical framework. We develop mathematical models to quantify the non-rivalry characteristics, partial excludability, and positive externalities of LLMs. Through comparative analysis of open-source and closed-source development paths, we identify systematic differences in resource allocation efficiency, innovation trajectories, and access equity. Our empirical research evaluates the spillover effects and network externalities of LLMs across different domains, including knowledge diffusion, innovation acceleration, and industry transformation. Based on these findings, we propose policy recommendations for balancing innovation incentives with equitable access, including public-private partnership mechanisms, computational resource democratization, and governance structures that optimize social welfare. This interdisciplinary approach contributes to understanding the economic nature of foundation AI models and provides policy guidance for their development as critical digital infrastructure
- Abstract(参考訳): 本稿では,Large Language Models (LLMs) をデジタルインフラ内における混合公共財の一形態として概念化し,その経済特性を包括的理論的枠組みを用いて分析する。
我々は,LLMの非リバリ特性,部分排他可能性,正の外部性を定量化する数学的モデルを開発した。
オープンソースおよびクローズドソース開発パスの比較分析により,資源配分効率,イノベーション軌跡,アクセスエクイティの系統的差異を同定する。
我々の実証研究は、知識拡散、イノベーション加速、産業変革など、異なる領域にわたるLCMの流出効果とネットワーク外部性を評価する。
これらの知見に基づき、社会福祉を最適化する公共民間パートナーシップ機構、計算資源の民主化、ガバナンス構造など、イノベーションインセンティブと公平なアクセスのバランスをとるための政策勧告を提案する。
この学際的アプローチは、基礎的AIモデルの経済的性質の理解に寄与し、重要なデジタルインフラとしての発展のための政策ガイダンスを提供する。
関連論文リスト
- Toward a Public and Secure Generative AI: A Comparative Analysis of Open and Closed LLMs [0.0]
本研究では,オープンかつクローズドな生成型AIモデルの特徴,機会,課題を批判的に評価し,比較することを目的とする。
提案されたフレームワークは、重要な側面、オープン性、パブリックガバナンス、セキュリティを、信頼できる、包括的なGen AIの未来を形成するための必須の柱として概説している。
論文 参考訳(メタデータ) (2025-05-15T15:21:09Z) - Edge-Cloud Collaborative Computing on Distributed Intelligence and Model Optimization: A Survey [58.50944604905037]
エッジクラウドコラボレーティブコンピューティング(ECCC)は、現代のインテリジェントアプリケーションの計算要求に対処するための重要なパラダイムとして登場した。
AIの最近の進歩、特にディープラーニングと大規模言語モデル(LLM)は、これらの分散システムの能力を劇的に向上させてきた。
この調査は、基本的なアーキテクチャ、技術の実現、新しいアプリケーションに関する構造化されたチュートリアルを提供する。
論文 参考訳(メタデータ) (2025-05-03T13:55:38Z) - The Role of Open-Source LLMs in Shaping the Future of GeoAI [11.083173173865491]
大規模言語モデル(LLM)は地理空間人工知能(GeoAI)を変換している
本稿では,このトランスフォーメーションにおけるオープンソースパラダイムの重要性について考察する。
論文 参考訳(メタデータ) (2025-04-24T13:20:17Z) - A Survey on Post-training of Large Language Models [185.51013463503946]
大規模言語モデル(LLM)は、自然言語処理を根本的に変革し、会話システムから科学的探索まで、さまざまな領域で欠かせないものにしている。
これらの課題は、制限された推論能力、倫理的不確実性、最適なドメイン固有のパフォーマンスといった欠点に対処するために、先進的な訓練後言語モデル(PoLM)を必要とする。
本稿では,タスク固有の精度を向上するファインチューニング,倫理的コヒーレンスと人間の嗜好との整合性を保証するアライメント,報酬設計の課題によらず多段階の推論を進める推論,統合と適応の5つのパラダイムを体系的に追跡したPoLMの総合的な調査について述べる。
論文 参考訳(メタデータ) (2025-03-08T05:41:42Z) - An Overview of Large Language Models for Statisticians [109.38601458831545]
大規模言語モデル(LLM)は人工知能(AI)の変換ツールとして登場した。
本稿では, 統計学者がLLMの開発に重要な貢献できる可能性について考察する。
我々は不確実性定量化、解釈可能性、公正性、プライバシー、透かし、モデル適応といった問題に焦点を当てる。
論文 参考訳(メタデータ) (2025-02-25T03:40:36Z) - A Multi-LLM-Agent-Based Framework for Economic and Public Policy Analysis [0.0]
本稿では,多言語モデル(LLM)を異種人工経済エージェントとして活用することにより,経済・公共政策分析の新しいアプローチを開拓する。
まず,2周期消費配分問題の解決において,LLMの5つの経済意思決定能力を評価した。
LLMを特定の教育グループとそれに対応する収入ブラケットにマッピングすることで、MLAB(Multi-LLM-Agent-Based)フレームワークを構築する。
論文 参考訳(メタデータ) (2025-02-24T06:27:07Z) - The Open Source Advantage in Large Language Models (LLMs) [0.0]
大規模言語モデル(LLM)は急速に進歩した自然言語処理を持ち、テキスト生成、機械翻訳、ドメイン固有の推論といったタスクにおいて大きなブレークスルーを引き起こしている。
GPT-4のようなクローズドソースモデルは、最先端のパフォーマンスを提供するが、アクセシビリティを制限し、外部の監視を行う。
LLaMAやMixtralといったオープンソースフレームワークはアクセスを民主化し、コラボレーションを促進し、多様なアプリケーションをサポートする。
論文 参考訳(メタデータ) (2024-12-16T17:32:11Z) - SRAP-Agent: Simulating and Optimizing Scarce Resource Allocation Policy with LLM-based Agent [45.41401816514924]
本稿では,大規模言語モデル(LLM)を経済シミュレーションに統合する,革新的なフレームワークSRAP-Agentを提案する。
我々は、SRAP-Agentの有効性と有効性を検証するために、広範な政策シミュレーション実験を行う。
論文 参考訳(メタデータ) (2024-10-18T03:43:42Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。