論文の概要: The Tragedy of Productivity: A Unified Framework for Diagnosing Coordination Failures in Labor Markets and AI Governance
- arxiv url: http://arxiv.org/abs/2512.05995v2
- Date: Wed, 10 Dec 2025 07:03:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.203726
- Title: The Tragedy of Productivity: A Unified Framework for Diagnosing Coordination Failures in Labor Markets and AI Governance
- Title(参考訳): 生産性の悲劇:労働市場のコーディネーション失敗とAIガバナンスを診断するための統一フレームワーク
- Authors: Ali Dasdan,
- Abstract要約: ケインズが1930年に15時間労働を予測して以来、生産性は8倍に増加したが、全世界の労働者はこの時間にほぼ2倍の仕事をしている。
同時に、AI開発は、主要な研究者による既存のリスク警告にもかかわらず加速する。
我々は、これらの失敗が同一のゲーム理論構造を共有することを実証する: 個別に合理的な選択が集合的に最適以下の結果をもたらす協調失敗。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite productivity increasing eightfold since Keynes's 1930 prediction of 15-hour workweeks, workers globally still work roughly double these hours. Separately, AI development accelerates despite existential risk warnings from leading researchers. We demonstrate these failures share identical game-theoretic structure: coordination failures where individually rational choices produce collectively suboptimal outcomes. We synthesize five necessary and sufficient conditions characterizing such coordination failures as structural tragedies: N-player structure, binary choices with negative externalities, dominance where defection yields higher payoffs, Pareto-inefficiency where cooperation dominates mutual defection, and enforcement difficulty from structural barriers. We validate this framework across canonical cases and extend it through condition intensities, introducing a Tragedy Index revealing governance of transformative AI breakthroughs faces orders-of-magnitude greater coordination difficulty than climate change or nuclear weapons. Applied to productivity competition, we prove firms face coordination failure preventing productivity gains from translating to worker welfare. European evidence shows that even under favorable conditions, productivity-welfare decoupling persists. Applied to AI governance, we demonstrate development faces the same structure but with amplified intensity across eight dimensions compared to successful arms control, making coordination structurally more difficult than for nuclear weapons. The Russia-Ukraine drone war validates this: both sides escalated from dozens to thousands of drones monthly within two years despite prior governance dialogue. The analysis is diagnostic rather than prescriptive, identifying structural barriers to coordination rather than proposing solutions.
- Abstract(参考訳): ケインズが1930年に15時間労働を予測して以来、生産性は8倍に増加したが、全世界の労働者はこの時間にほぼ2倍の仕事をしている。
同時に、AI開発は、主要な研究者による既存のリスク警告にもかかわらず加速する。
我々は、これらの失敗が同一のゲーム理論構造を共有することを実証する: 個別に合理的な選択が集合的に最適以下の結果をもたらす協調失敗。
N-プレイヤー構造、負の外部性を持つ二元選択、欠陥がより高いペイオフをもたらす優位性、協調が相互の欠陥を支配しているパレート非効率性、構造的障壁からの強制的困難といった、協調的障害を特徴付ける5つの必要十分条件を合成する。
私たちは、このフレームワークを標準的なケースを越えて検証し、条件強度を通じて拡張し、変革的なAIブレークスルーのガバナンスを、気候変動や核兵器よりも大きな調整困難に直面している、とTragedy Indexを紹介します。
生産性競争に応用して、企業側が協調の失敗に直面し、生産性向上が労働者福祉に変換されるのを防ぐことを証明します。
欧州の証拠は、良好な条件下であっても生産性と自由の疎結合が持続していることを示している。
AIガバナンスに適用すると、開発は同じ構造に直面するが、成功している武器制御と比較して8次元にわたる強度が増幅されていることが示され、核兵器よりも構造的な調整が困難になる。
ロシアとウクライナのドローン戦争は、両陣営が2年以内に数十から数千のドローンにエスカレートしたことを証明している。
この分析は規範的ではなく診断であり、ソリューションの提案よりも協調のための構造的障壁を特定する。
関連論文リスト
- Artificial intelligence and the Gulf Cooperation Council workforce adapting to the future of work [0.5735035463793009]
湾岸協力評議会(GCC)における人工知能(AI)の急速な拡大は、中心的な疑問を提起している。
本研究はサウジアラビア王国(KSA)、アラブ首長国連邦(UAE)、カタール、クウェート、バーレーン、オマーンで労働準備を監査する。
我々は、ブリッジ機構を使わずに労働市場の分岐を危険にさらす、新たな2トラックの人材システム、研究エリート対急激な訓練実践者を特定する。
論文 参考訳(メタデータ) (2025-11-08T08:42:14Z) - The Collaboration Gap [28.553543260404425]
i)協調機能を分離し,(ii)問題複雑性を変調し,(iii)スケーラブルな自動グレーディングを可能にし,(iv)出力制約を課さない協調迷路解決ベンチマークを提案する。
このフレームワークを用いて、32個のオープンソースおよびクローズドソースモデルを、単独、同種、異種ペアリングで評価する。
私たちの結果からは,“コラボレーションギャップ”が明らかになっている。
論文 参考訳(メタデータ) (2025-11-04T16:10:57Z) - DeepThinkVLA: Enhancing Reasoning Capability of Vision-Language-Action Models [51.76664843721462]
DeepThinkVLAはVision-Language-Actionモデルのための新しいアーキテクチャである。
因果的注意を伴うシーケンシャルCoTを生成し、双方向の注意に切り替え、アクションベクトルを高速に復号する。
LIBEROベンチマークで97.0%の成功率を達成した。
論文 参考訳(メタデータ) (2025-10-31T05:26:16Z) - Enabling Responsible, Secure and Sustainable Healthcare AI - A Strategic Framework for Clinical and Operational Impact [0.5076419064097734]
私たちは、責任があり、安全で持続可能なヘルスケアAIを運用するための実用モデルを提供しています。
このフレームワークには、リーダーシップと戦略、MLOps & Technical Infrastructure、ガバナンスと倫理、教育と労働力開発、変革管理と採用の5つの重要な柱が含まれている。
2つのデプロイを通じてそのユーティリティを実証します。
論文 参考訳(メタデータ) (2025-10-09T12:40:59Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Who's Driving? Game Theoretic Path Risk of AGI Development [0.0]
人工知能(Artificial General Intelligence, AGI)の開発を誰がコントロールするかは、私たちがコントロールそのもののために戦う方法よりも重要かもしれない。
我々は、この「ハンドル問題」を、人類の最も大きな短期的存在リスクは、AGIのミスアライメントではなく、それを開発するための競争のダイナミクスから生じるものであるとして定式化する。
本稿では,AGI開発ダイナミクスをモデル化したゲーム理論フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-25T17:13:12Z) - Perturbation-Invariant Adversarial Training for Neural Ranking Models:
Improving the Effectiveness-Robustness Trade-Off [107.35833747750446]
正統な文書に不可避な摂動を加えることで 敵の例を作れます
この脆弱性は信頼性に関する重大な懸念を生じさせ、NRMの展開を妨げている。
本研究では,NRMにおける有効・損耗トレードオフに関する理論的保証を確立する。
論文 参考訳(メタデータ) (2023-12-16T05:38:39Z) - Quantifying Assistive Robustness Via the Natural-Adversarial Frontier [40.125563987538044]
RIGIDは、ロボット報酬の最小化と人間の行動とをトレードオフする対人政策の訓練方法である。
補助ギムタスクでは、RIGIDを用いて、標準的な協調強化学習のパフォーマンスを分析する。
また,フロンティアのRIGIDを,専門家の対人インタラクションで特定された障害と,ユーザインタラクション中に自然に発生する障害とを比較した。
論文 参考訳(メタデータ) (2023-10-16T17:34:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。