論文の概要: Scaling Laws for Economic Productivity: Experimental Evidence in LLM-Assisted Consulting, Data Analyst, and Management Tasks
- arxiv url: http://arxiv.org/abs/2512.21316v1
- Date: Wed, 24 Dec 2025 18:24:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 19:43:21.845513
- Title: Scaling Laws for Economic Productivity: Experimental Evidence in LLM-Assisted Consulting, Data Analyst, and Management Tasks
- Title(参考訳): 経済生産性のスケーリング法則--LCM支援コンサルティング・データ分析・管理課題における実験的証拠-
- Authors: Ali Merali,
- Abstract要約: AIモデルの進歩は毎年、タスクタイムを8%削減しています。
非エージェント分析では生産性が有意に向上した。
これらの結果は、継続したモデルスケーリングが今後10年間で米国の生産性を約20%向上させることを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper derives `Scaling Laws for Economic Impacts' -- empirical relationships between the training compute of Large Language Models (LLMs) and professional productivity. In a preregistered experiment, over 500 consultants, data analysts, and managers completed professional tasks using one of 13 LLMs. We find that each year of AI model progress reduced task time by 8%, with 56% of gains driven by increased compute and 44% by algorithmic progress. However, productivity gains were significantly larger for non-agentic analytical tasks compared to agentic workflows requiring tool use. These findings suggest continued model scaling could boost U.S. productivity by approximately 20% over the next decade.
- Abstract(参考訳): 本稿では,Large Language Models (LLMs) のトレーニング計算と生産性の実証的関係について述べる。
事前登録された実験では、500人以上のコンサルタント、データアナリスト、マネージャが13のLLMのうちの1つを使って専門的なタスクを完了した。
毎年のAIモデルの進歩によってタスク時間が8%削減され、56%が計算量の増加、44%がアルゴリズムの進歩による。
しかし,非エージェント分析作業では,ツールの使用を必要とするエージェントワークフローに比べて生産性が有意に向上した。
これらの結果は、継続したモデルスケーリングが今後10年間で米国の生産性を約20%向上させることを示唆している。
関連論文リスト
- A Research on Business Process Optimisation Model Integrating AI and Big Data Analytics [4.644589778994777]
本研究では,人工知能とビッグデータを統合したビジネスプロセス最適化モデルを構築し,プロセスライフサイクル全体のインテリジェントな管理を実現する。
このモデルは、リアルタイムのプロセス監視と最適化を可能にするために、データ処理、AIアルゴリズム、ビジネスロジックを組み込んだ3層アーキテクチャを採用している。
複数のエンタープライズシナリオに対する実験的検証では、プロセス処理時間を42%短縮し、リソース利用率を28%改善し、運用コストを35%削減している。
論文 参考訳(メタデータ) (2025-11-12T03:20:06Z) - MM-HELIX: Boosting Multimodal Long-Chain Reflective Reasoning with Holistic Platform and Adaptive Hybrid Policy Optimization [103.74675519953898]
ロングチェーンのリフレクティブ推論は、複雑な現実世界の問題を解決するための前提条件である。
我々は42の難解な合成タスクの1,260のサンプルからなるベンチマークを構築した。
トレーニング後のデータを生成し、そのようなデータを活用するための学習パラダイムを探索する。
論文 参考訳(メタデータ) (2025-10-09T17:53:58Z) - Intuition to Evidence: Measuring AI's True Impact on Developer Productivity [30.02516976149379]
本稿では,企業規模でのAI支援ソフトウェア開発ツールの総合的実環境評価について述べる。
1年以上にわたり、複数のチームにわたる300人のエンジニアが、コード生成と自動レビュー機能を組み合わせた社内AIプラットフォーム(DeputyDev)を統合した。
論文 参考訳(メタデータ) (2025-09-24T02:34:11Z) - How Difficulty-Aware Staged Reinforcement Learning Enhances LLMs' Reasoning Capabilities: A Preliminary Experimental Study [16.441081996257576]
本稿では,難易度の高い強化学習戦略が推論性能を大幅に向上させる方法について,厳密な実験的検討を行った。
本研究は,RLの最適化を著しく向上させることを特徴とする,明確な難易度に応じて,戦略的にトレーニングデータを選択することを示す。
私たちはデータセットをGitHubとHugging Faceでオープンソース化します。
論文 参考訳(メタデータ) (2025-04-01T14:18:38Z) - DSBench: How Far Are Data Science Agents from Becoming Data Science Experts? [58.330879414174476]
現実的なタスクでデータサイエンスエージェントを評価するためのベンチマークであるDSBenchを紹介する。
このベンチマークには、466のデータ分析タスクと、EloquenceとKaggleのコンペからソースされた74のデータモデリングタスクが含まれている。
現状のLLM, LVLM, エージェントを評価したところ, 最高のエージェントはデータ解析タスクの34.12%しか解決できず, RPG(Relative Performance Gap)は34.74%であった。
論文 参考訳(メタデータ) (2024-09-12T02:08:00Z) - Scaling Laws for Economic Productivity: Experimental Evidence in LLM-Assisted Translation [0.0]
10倍のモデル計算でタスク完了速度が12.3%向上し、グレードは0.18標準偏差、利益は16.1%向上した。
これらの結果は、継続したモデルスケーリングが今後10年間で米国の生産性を少なくとも6.9%向上させることを示唆している。
論文 参考訳(メタデータ) (2024-09-04T02:39:31Z) - Monte Carlo Tree Search Boosts Reasoning via Iterative Preference Learning [55.96599486604344]
本稿では,Large Language Models (LLMs) の推論能力向上を目的とした,反復的な選好学習プロセスによるアプローチを提案する。
我々は、MCTS(Monte Carlo Tree Search)を用いて好みデータを反復的に収集し、そのルックアヘッド機能を利用して、インスタンスレベルの報酬をよりきめ細かいステップレベルの信号に分解する。
提案アルゴリズムはDPO(Direct Preference Optimization)を用いて,新たに生成されたステップレベルの優先度データを用いてLCMポリシーを更新する。
論文 参考訳(メタデータ) (2024-05-01T11:10:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。