論文の概要: When AI Levels the Playing Field: Skill Homogenization, Asset Concentration, and Two Regimes of Inequality
- arxiv url: http://arxiv.org/abs/2603.05565v2
- Date: Mon, 09 Mar 2026 15:29:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:12.491153
- Title: When AI Levels the Playing Field: Skill Homogenization, Asset Concentration, and Two Regimes of Inequality
- Title(参考訳): AIがプレイ分野をレベルアップする:スキル均質化、アセット濃度、不平等の2つのレジーム
- Authors: Xupeng Chen, Shuchen Meng,
- Abstract要約: 生成AIは、経済価値を集中的な補完資産にシフトしながら、タスク内スキルの違いを圧縮する。
我々は、この緊張関係を内在的教育、雇用主検診、異種企業によるタスクベースモデルで定式化する。
このモデルでは、境界がAIの技術構造に依存する2つのレジームが生成される。
- 参考スコア(独自算出の注目度): 0.7016842616745783
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI compresses within-task skill differences while shifting economic value toward concentrated complementary assets, creating an apparent paradox: the technology that equalizes individual performance may widen aggregate inequality. We formalize this tension in a task-based model with endogenous education, employer screening, and heterogeneous firms. The model yields two regimes whose boundary depends on AI's technology structure (proprietary vs. commodity) and labor market institutions (rent-sharing elasticity, asset concentration). A scenario analysis via Method of Simulated Moments, matching six empirical targets, disciplines the model's quantitative magnitudes; a sensitivity decomposition reveals that the five non-$Δ$Gini moments identify mechanism rates but not the aggregate sign, which at the calibrated parameters is pinned by $m_6$ and $ξ$, while AI's technology structure ($η_1$ vs. $η_0$) independently crosses the boundary. The contribution is the mechanism -- not a verdict on the sign. Occupation-level regressions using BLS OEWS data (2019--2023) illustrate why such data cannot test the model's task-level predictions. The predictions are testable with within-occupation, within-task panel data that do not yet exist at scale.
- Abstract(参考訳): 生成AIは、経済価値を集中的な補完資産にシフトしながら、タスク内のスキルの違いを圧縮し、明らかなパラドックスを生み出します。
我々は、この緊張関係を内在的教育、雇用主検診、異種企業によるタスクベースモデルで定式化する。
このモデルでは、AIの技術構造(プロプライエタリ対商品)と労働市場機関(ロートシェアリングの弾力性、資産集中)に依存する2つの体制が生まれる。
感度分解により、5つの非$$$$Giniモーメントがメカニズムの速度を識別するが、アグリゲーションサインは特定しないことが明らかとなり、パラメータの調整時に$m_6$と$s$が固定される一方、AIの技術構造(η_1$ vs. $η_0$)は独立して境界を越えている。
貢献はメカニズムです - サインの判断ではありません。
BLS OEWSデータ(2019-2023)を用いた作業レベルの回帰は、なぜそのようなデータがモデルのタスクレベルの予測をテストできないのかを示す。
予測は、まだ大規模に存在していないタスク内パネルデータで検証可能である。
関連論文リスト
- A Sustainable AI Economy Needs Data Deals That Work for Generators [56.949279542190084]
機械学習のバリューチェーンは、経済的なデータ処理の不平等のため、構造的に持続不可能である、と我々は主張する。
73の公開データ取引を分析し、アグリゲータに価値の大部分が蓄積されていることを示す。
参加者全員に利益をもたらす最小市場を実現するために、等価なData-Value Exchange Frameworkを提案する。
論文 参考訳(メタデータ) (2026-01-15T01:05:48Z) - How AI Agents Follow the Herd of AI? Network Effects, History, and Machine Optimism [7.1683021355290295]
本研究では,AIエージェントがネットワーク効果ゲームをどのようにナビゲートするかを検討する。
本稿では,大規模言語モデル(LLM)に基づくエージェントを用いた新しいワークフロー設計を提案する。
論文 参考訳(メタデータ) (2025-12-12T12:14:48Z) - Idempotent Equilibrium Analysis of Hybrid Workflow Allocation: A Mathematical Schema for Future Work [0.0]
大規模なAIシステムは、仕事をどのように人と機械に分割するかを変えようとしている。
我々は、この位置を反復的タスクデリゲーション写像として定式化し、その過程が安定な等等均衡に収束することを示す。
我々は、「センタウル」な人間とAIの連携を促進する政策は、福祉を最大化する固定点に向けて経済を操ることができると論じる。
論文 参考訳(メタデータ) (2025-08-02T11:28:34Z) - Shifting AI Efficiency From Model-Centric to Data-Centric Compression [67.45087283924732]
AI研究の焦点は、モデル中心の圧縮からデータ中心の圧縮へとシフトしている、と私たちは主張する。
データ中心圧縮は、モデルトレーニングや推論中に処理されたデータのボリュームを直接圧縮することで、AI効率を向上させる。
我々の研究は、AIの効率性に関する新たな視点を提供し、既存の取り組みを合成し、コンテキスト長の増大によって引き起こされる課題に対処するためにイノベーションを触媒することを目的としています。
論文 参考訳(メタデータ) (2025-05-25T13:51:17Z) - Will Neural Scaling Laws Activate Jevons' Paradox in AI Labor Markets? A Time-Varying Elasticity of Substitution (VES) Analysis [0.0]
我々は、人工知能における神経スケーリング法則が労働市場におけるJevonsのパラドックスを活性化するかどうかを分析する。
我々は、AIシステムが補完から人間の労働の代替へと移行する分析条件を確立する。
論文 参考訳(メタデータ) (2025-03-04T16:55:30Z) - Delta-AI: Local objectives for amortized inference in sparse graphical models [64.5938437823851]
スパース確率的グラフィカルモデル(PGM)における補正推論のための新しいアルゴリズムを提案する。
提案手法は, PGMにおける変数のサンプリングをエージェントが行う一連の行動とみなす場合, エージェントのポリシー学習目的において, PGMの疎結合が局所的な信用割当を可能にするという観察に基づいている。
合成PGMからサンプリングし、スパース因子構造を持つ潜在変数モデルを訓練するための$Delta$-AIの有効性について説明する。
論文 参考訳(メタデータ) (2023-10-03T20:37:03Z) - Ecosystem-level Analysis of Deployed Machine Learning Reveals Homogeneous Outcomes [72.13373216644021]
本研究では,機械学習の社会的影響を,特定の文脈に展開されるモデルの集合を考慮し検討する。
デプロイされた機械学習はシステム障害を起こしやすいため、利用可能なすべてのモデルに排他的に誤分類されているユーザもいます。
これらの例は、エコシステムレベルの分析が、機械学習の社会的影響を特徴づける独自の強みを持っていることを示している。
論文 参考訳(メタデータ) (2023-07-12T01:11:52Z) - Data quality dimensions for fair AI [0.0]
我々は、データ品質の次元の観点から、AIシステムにおけるバイアスの問題を考察する。
我々は、精度戦略に基づくバイアス軽減ツールの限定モデル構築について強調する。
本稿では, 完全性, 一貫性, タイムライン, 信頼性の観点から, 分類タスクの公平性を再考する。
論文 参考訳(メタデータ) (2023-05-11T16:48:58Z) - Unintended Selection: Persistent Qualification Rate Disparities and
Interventions [6.006936459950188]
機械学習におけるグループレベルの格差のダイナミクスについて検討する。
特に、人間の人工グループに固有の差異を仮定しないモデルを求めている。
我々は,非自明な平衡状態の集合に対して,サブポピュレーション間の資格率の差が無期限に持続可能であることを示す。
論文 参考訳(メタデータ) (2021-11-01T18:53:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。