論文の概要: State of AI: An Empirical 100 Trillion Token Study with OpenRouter
- arxiv url: http://arxiv.org/abs/2601.10088v1
- Date: Thu, 15 Jan 2026 05:28:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.002857
- Title: State of AI: An Empirical 100 Trillion Token Study with OpenRouter
- Title(参考訳): State of AI: OpenRouterによる100トリリオンの実証研究
- Authors: Malika Aubakirova, Alex Atallah, Chris Clark, Justin Summerville, Anjney Midha,
- Abstract要約: 私たちは、AI推論プロバイダであるOpenプラットフォームを使用して、現実のLLMインタラクションの100兆以上のトークンを分析しています。
我々は,オープンウェイトモデルの採用,創造的ロールプレイの普及,エージェント推論の台頭を観察する。
我々の保持分析はコホートを識別する: エンゲージメントが後期コホートよりもずっと長く続く初期のユーザー。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The past year has marked a turning point in the evolution and real-world use of large language models (LLMs). With the release of the first widely adopted reasoning model, o1, on December 5th, 2024, the field shifted from single-pass pattern generation to multi-step deliberation inference, accelerating deployment, experimentation, and new classes of applications. As this shift unfolded at a rapid pace, our empirical understanding of how these models have actually been used in practice has lagged behind. In this work, we leverage the OpenRouter platform, which is an AI inference provider across a wide variety of LLMs, to analyze over 100 trillion tokens of real-world LLM interactions across tasks, geographies, and time. In our empirical study, we observe substantial adoption of open-weight models, the outsized popularity of creative roleplay (beyond just the productivity tasks many assume dominate) and coding assistance categories, plus the rise of agentic inference. Furthermore, our retention analysis identifies foundational cohorts: early users whose engagement persists far longer than later cohorts. We term this phenomenon the Cinderella "Glass Slipper" effect. These findings underscore that the way developers and end-users engage with LLMs "in the wild" is complex and multifaceted. We discuss implications for model builders, AI developers, and infrastructure providers, and outline how a data-driven understanding of usage can inform better design and deployment of LLM systems.
- Abstract(参考訳): この1年は、大規模言語モデル(LLM)の進化と実世界の利用の転換点となった。
最初の広く採用されている推論モデルであるo1が2024年12月5日にリリースされたことにより、フィールドはシングルパスパターン生成からマルチステップの議論推論、デプロイメントの加速、実験、アプリケーションの新しいクラスへと移行した。
この変化が急速に拡大するにつれて、これらのモデルが実際にどのように使われているかという経験的な理解が遅れています。
この作業では、さまざまなLLMにわたるAI推論プロバイダであるOpenRouterプラットフォームを活用し、タスク、地理的、時間にわたる現実のLLMインタラクションの100兆以上のトークンを分析します。
実証的研究では,オープンウェイトモデルの採用,創造的ロールプレイ(生産性タスクが支配的であるだけでなく)やコーディング支援カテゴリの大幅な普及,エージェント推論の台頭が観察された。
さらに,我々の保持分析では,後続のコホートよりもはるかに長いエンゲージメントを継続する早期ユーザという,基礎的コホートを識別する。
この現象をシンデレラ・"グラス・スリッパ"効果と呼ぶ。
これらの発見は、開発者とエンドユーザがLDMを"野生"で扱う方法が複雑で多面的であることを示している。
モデルビルダー、AI開発者、インフラストラクチャプロバイダへの影響について論じ、データ駆動による使用法理解がLLMシステムの設計とデプロイにどのように役立つかを概説する。
関連論文リスト
- General-Reasoner: Advancing LLM Reasoning Across All Domains [64.70599911897595]
強化学習(RL)は近年,大規模言語モデル(LLM)の推論能力の向上に強い可能性を示している。
本稿では,多分野にわたるLSM推論能力の向上を目的とした,新たなトレーニングパラダイムであるGeneral-Reasonerを提案する。
私たちは一連のモデルをトレーニングし、物理学、化学、金融、電子工学など幅広い分野をカバーする幅広いデータセットでそれらを評価します。
論文 参考訳(メタデータ) (2025-05-20T17:41:33Z) - On Path to Multimodal Generalist: General-Level and General-Bench [153.9720740167528]
本稿では,MLLMの性能と汎用性を5段階に定義した評価フレームワークであるGeneral-Levelを紹介する。
フレームワークの中核はSynergyの概念であり、モデルが理解と生成をまたいだ一貫性のある機能を維持するかどうかを測定する。
既存の100以上のMLLMを含む評価結果は、ジェネラリストの能力ランキングを明らかにする。
論文 参考訳(メタデータ) (2025-05-07T17:59:32Z) - Large Action Models: From Inception to Implementation [51.81485642442344]
大規模アクションモデル(LAM)は動的環境内でのアクション生成と実行のために設計されている。
LAMは、AIを受動的言語理解からアクティブなタスク完了に変換する可能性を秘めている。
創発から展開まで,LAMを体系的に開発するための総合的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-13T11:19:56Z) - A Survey on Self-Evolution of Large Language Models [116.54238664264928]
大規模言語モデル(LLM)は、様々な分野やインテリジェントエージェントアプリケーションにおいて大きく進歩している。
この問題に対処するために、LLMが自律的に獲得し、洗練し、モデル自身によって生成された経験から学ぶことができる自己進化的アプローチが急速に成長している。
論文 参考訳(メタデータ) (2024-04-22T17:43:23Z) - CogBench: a large language model walks into a psychology lab [12.981407327149679]
本稿では,7つの認知心理学実験から得られた10の行動指標を含むベンチマークであるCogBenchを紹介する。
本稿では,CagBenchを35大言語モデル(LLM)に適用し,統計的多レベルモデリング手法を用いて解析する。
オープンソースモデルは、プロプライエタリなモデルよりもリスクが高く、コードの微調整は必ずしもLLMの振舞いを促進しない。
論文 参考訳(メタデータ) (2024-02-28T10:43:54Z) - Large Language Model based Multi-Agents: A Survey of Progress and Challenges [44.92286030322281]
大規模言語モデル(LLM)は、幅広いタスクで大きな成功を収めています。
近年, 1 つの LLM を単一計画や意思決定エージェントとして利用する手法の開発により, 複雑な問題解決や世界シミュレーションにおいて, LLM ベースのマルチエージェントシステムは大きな進歩を遂げている。
論文 参考訳(メタデータ) (2024-01-21T23:36:14Z) - Advancing Transformer Architecture in Long-Context Large Language
Models: A Comprehensive Survey [18.930417261395906]
トランスフォーマーベースの大規模言語モデル(LLM)は、知識ベース、ヒューマンインタフェース、動的エージェントなど様々な分野に適用されている。
本稿では,トランスフォーマーをベースとしたLLMアーキテクチャの最近の進歩について,LLMの長期的コンテキスト能力の向上を目的とした調査を行う。
論文 参考訳(メタデータ) (2023-11-21T04:59:17Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。