論文の概要: Market Concentration Implications of Foundation Models
- arxiv url: http://arxiv.org/abs/2311.01550v1
- Date: Thu, 2 Nov 2023 19:00:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-06 15:59:31.308323
- Title: Market Concentration Implications of Foundation Models
- Title(参考訳): ファンデーションモデルにおける市場集中の意義
- Authors: Jai Vipra, Anton Korinek
- Abstract要約: 我々は、ChatGPTを駆動するような基礎的AIモデルのための市場構造を分析する。
我々は、最も有能なモデルは自然の独占に傾向があり、潜在的に巨大な市場を持つ可能性があることを観察する。
- 参考スコア(独自算出の注目度): 0.2913760942403036
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We analyze the structure of the market for foundation models, i.e., large AI
models such as those that power ChatGPT and that are adaptable to downstream
uses, and we examine the implications for competition policy and regulation. We
observe that the most capable models will have a tendency towards natural
monopoly and may have potentially vast markets. This calls for a two-pronged
regulatory response: (i) Antitrust authorities need to ensure the
contestability of the market by tackling strategic behavior, in particular by
ensuring that monopolies do not propagate vertically to downstream uses, and
(ii) given the diminished potential for market discipline, there is a role for
regulators to ensure that the most capable models meet sufficient quality
standards (including safety, privacy, non-discrimination, reliability and
interoperability standards) to maximally contribute to social welfare.
Regulators should also ensure a level regulatory playing field between AI and
non-AI applications in all sectors of the economy. For models that are behind
the frontier, we expect competition to be quite intense, implying a more
limited role for competition policy, although a role for regulation remains.
- Abstract(参考訳): 本稿では,ChatGPTや下流利用に適応可能な大規模AIモデルなどの基盤モデルの市場構造を分析し,競争政策や規制の影響について検討する。
我々は、最も有能なモデルは自然の独占に傾向があり、潜在的に巨大な市場を持つ可能性があることを観察する。
これは2段階の規制対応を要求する。
(i)反トラスト当局は、特に独占が下流の用途に垂直に伝播しないことを保証することにより、戦略的行動に取り組むことにより、市場の競争性を確保する必要がある。
(二)市場規律の弱体化により、最も有能なモデルが社会福祉に最大限貢献するために十分な品質基準(安全、プライバシー、非差別、信頼性及び相互運用性基準を含む)を満たすことを保証する役割がある。
また、レギュレータは、経済のあらゆる分野におけるAIと非AIアプリケーションの間のレベル規制のフィールドを確保する必要がある。
フロンティアの背後にあるモデルでは、競争は非常に激しく、競争政策におけるより限定的な役割を示唆するが、規制の役割は依然として残っている。
関連論文リスト
- Ethical and Scalable Automation: A Governance and Compliance Framework for Business Applications [0.0]
本稿では、AIが倫理的で、制御可能で、実行可能で、望ましいものであることを保証するフレームワークを紹介する。
異なるケーススタディは、学術と実践の両方の環境でAIを統合することで、このフレームワークを検証する。
論文 参考訳(メタデータ) (2024-09-25T12:39:28Z) - Strategic Collusion of LLM Agents: Market Division in Multi-Commodity Competitions [0.0]
機械学習技術は、現実世界の市場シナリオへの展開が増えている。
マルチコモディティ市場において,大規模言語モデル(LLM)が自律エージェントとして展開する際の戦略行動について検討する。
論文 参考訳(メタデータ) (2024-09-19T20:10:40Z) - Liability and Insurance for Catastrophic Losses: the Nuclear Power Precedent and Lessons for AI [0.0]
本稿では、フロンティアAIモデルの開発者は、クリティカルAI発生(CAIO)による損害に対して、限定的で厳格で排他的な第三者責任を課すべきである、と論じる。
CAIO責任の強制保険は、開発者の判断力、勝者の呪いのダイナミクスを克服し、保険会社の準規制能力を活用するために推奨される。
論文 参考訳(メタデータ) (2024-09-10T17:41:31Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Frontier AI Regulation: Managing Emerging Risks to Public Safety [15.85618115026625]
脆弱なAI」モデルは、公共の安全に深刻なリスクをもたらすのに十分な危険能力を持つ可能性がある。
業界の自己規制は重要な第一歩です。
安全基準の最初のセットを提案する。
論文 参考訳(メタデータ) (2023-07-06T17:03:25Z) - Regulatory Markets: The Future of AI Governance [0.7230697742559377]
産業の自己規制への過度な依存は、生産者とユーザーが民主的要求に責任を負うことに失敗する。
AI規制に対するこのアプローチは、コマンド・アンド・コントロールの規制と自己規制の両方の制限を克服する可能性がある。
論文 参考訳(メタデータ) (2023-04-11T01:05:55Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z) - Finding Regularized Competitive Equilibria of Heterogeneous Agent
Macroeconomic Models with Reinforcement Learning [151.03738099494765]
労働市場に参入する世帯や企業を無限に数える異種エージェントマクロ経済モデルについて検討する。
本稿では,モデルの正規化競争均衡を求めるデータ駆動強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-24T17:16:27Z) - Parity in Markets -- Methods, Costs, and Consequences [109.5267969644294]
我々は、市場デザイナーがフィッシャー市場の税や補助金を使って、市場均衡の結果が一定の制約内に収まることを確実にする方法を示します。
我々は、既存の文献で提案されている様々な公正性制約を市場ケースに適用し、その制約から誰が利益を得るか、誰を失うかを示す。
論文 参考訳(メタデータ) (2022-10-05T22:27:44Z) - Normative Disagreement as a Challenge for Cooperative AI [56.34005280792013]
典型的な協調誘導学習アルゴリズムは、問題の解決に協力することができないと論じる。
我々は,ノルム適応政策のクラスを開発し,これらが協調性を著しく向上させることを示す実験を行った。
論文 参考訳(メタデータ) (2021-11-27T11:37:42Z) - Regulation conform DLT-operable payment adapter based on trustless -
justified trust combined generalized state channels [77.34726150561087]
物の経済(EoT)は、ピアツーピアの信頼性のないネットワークで動作するソフトウェアエージェントに基づいています。
基本的価値と技術的可能性が異なる現在のソリューションの概要を述べる。
我々は,暗号ベースの分散型の信頼できない要素の強みと,確立された,十分に規制された支払い手段を組み合わせることを提案する。
論文 参考訳(メタデータ) (2020-07-03T10:45:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。