論文の概要: Measuring AI Diffusion: A Population-Normalized Metric for Tracking Global AI Usage
- arxiv url: http://arxiv.org/abs/2511.02781v1
- Date: Tue, 04 Nov 2025 18:03:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:06.138207
- Title: Measuring AI Diffusion: A Population-Normalized Metric for Tracking Global AI Usage
- Title(参考訳): AI拡散を測定する:グローバルなAI使用を追跡するための人口正規化メトリクス
- Authors: Amit Misra, Jane Wang, Scott McCullers, Kevin White, Juan Lavista Ferres,
- Abstract要約: AI User Shareは、各国の労働者人口のシェアをAIツールを使って積極的に見積もる新しい指標である。
この指標は147の経済に及び、グローバルAI拡散に関する一貫したリアルタイムな洞察を提供する。
先進国では高い消費が集中しているが、低所得国ではインターネット接続人口での利用が著しく遅れている。
- 参考スコア(独自算出の注目度): 0.5641845770129658
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Measuring global AI diffusion remains challenging due to a lack of population-normalized, cross-country usage data. We introduce AI User Share, a novel indicator that estimates the share of each country's working-age population actively using AI tools. Built from anonymized Microsoft telemetry and adjusted for device access and mobile scaling, this metric spans 147 economies and provides consistent, real-time insight into global AI diffusion. We find wide variation in adoption, with a strong correlation between AI User Share and GDP. High uptake is concentrated in developed economies, though usage among internet-connected populations in lower-income countries reveals substantial latent demand. We also detect sharp increases in usage following major product launches, such as DeepSeek in early 2025. While the metric's reliance solely on Microsoft telemetry introduces potential biases related to this user base, it offers an important new lens into how AI is spreading globally. AI User Share enables timely benchmarking that can inform data-driven AI policy.
- Abstract(参考訳): 人口正規化されたクロスカントリー利用データがないため、グローバルなAI拡散を測定することは依然として困難である。
AI User Shareは、各国の労働者人口のシェアをAIツールを使って積極的に見積もる新しい指標です。
匿名化されたMicrosoftテレメトリから構築され、デバイスアクセスとモバイルスケーリング用に調整されたこのメトリクスは、147のエコノミーにまたがり、グローバルAI拡散に関する一貫したリアルタイムな洞察を提供する。
AI User ShareとGDPの間には大きな相関関係がある。
先進国では高い消費が集中しているが、低所得国ではインターネット接続人口での利用が著しく遅れている。
また、2025年初めのDeepSeekなど、メジャーなプロダクトローンチ後の使用量の増加も検出しています。
このメトリックは、Microsoftのテレメトリのみに依存しているため、このユーザベースに関連する潜在的なバイアスがもたらされるが、AIのグローバル展開に関する重要な新しいレンズを提供する。
AI User Shareは、データ駆動型AIポリシを通知するタイムリーなベンチマークを可能にする。
関連論文リスト
- General Scales Unlock AI Evaluation with Explanatory and Predictive Power [57.7995945974989]
ベンチマークはAIの進歩を導くものだが、汎用AIシステムには限られた説明力と予測力を提供している。
私たちは、一般的なAIベンチマークが実際に何を計測しているかを説明することができる、AI評価のための一般的な尺度を紹介します。
私たちの完全に自動化された方法論は、飽和しない一般的なスケールにインスタンス要求を配置する18の新しく作られたルーリックの上に構築されます。
論文 参考訳(メタデータ) (2025-03-09T01:13:56Z) - Artificial Intelligence Index Report 2024 [15.531650534547945]
AI Indexのレポートでは、人工知能(AI)に関連するデータを追跡、照合、蒸留、可視化している。
AIインデックスは、AIに関するデータと洞察の最も信頼性が高く権威のある情報源の1つとして、世界的に認識されている。
今年のエディションは、サイズ、スケール、スコープのすべての旧版を上回り、AIが私たちの人生で持つ重要性が増していることを反映している。
論文 参考訳(メタデータ) (2024-05-29T20:59:57Z) - Filling the Missing: Exploring Generative AI for Enhanced Federated
Learning over Heterogeneous Mobile Edge Devices [72.61177465035031]
ローカルデータのFIMI(FIlling the MIssing)部分を活用することにより,これらの課題に対処する,AIを活用した創発的なフェデレーション学習を提案する。
実験の結果,FIMIはデバイス側エネルギーの最大50%を節約し,目標とするグローバルテスト精度を達成できることがわかった。
論文 参考訳(メタデータ) (2023-10-21T12:07:04Z) - Bending the Automation Bias Curve: A Study of Human and AI-based
Decision Making in National Security Contexts [0.0]
私たちは、AIに関する背景知識とAIに対する信頼の関係、自動化バイアスの確率に影響を与える他の要因との相互作用について理論を立てています。
我々は、AI産業のレベルが異なる9カ国の9000人の成人の代表例を対象に、事前登録されたタスク識別実験でテストを行った。
論文 参考訳(メタデータ) (2023-06-28T18:57:36Z) - What Else Do I Need to Know? The Effect of Background Information on
Users' Reliance on QA Systems [23.69129423040988]
本研究では,予測に十分な情報がない場合のQAシステムとのインタラクションについて検討する。
本研究は,モデルの正しさを評価するのに十分な情報がない場合でも,利用者がモデル予測に頼っていることを明らかにした。
論文 参考訳(メタデータ) (2023-05-23T17:57:12Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - FATE in AI: Towards Algorithmic Inclusivity and Accessibility [0.0]
AIにおけるアルゴリズム上の格差、公平性、説明責任、透明性、倫理(FATE)が実装されている。
本研究では、AIによって守られている世界南部地域のFATE関連デシダータ、特に透明性と倫理について検討する。
インクリシティを促進するために、コミュニティ主導の戦略が提案され、責任あるAI設計のための代表データを収集し、キュレートする。
論文 参考訳(メタデータ) (2023-01-03T15:08:10Z) - Bias in Data-driven AI Systems -- An Introductory Survey [37.34717604783343]
この調査は、(大きな)データと強力な機械学習(ML)アルゴリズムによって、AIの大部分は、データ駆動型AIに重点を置いている。
さもなければ、一般的な用語バイアスを使ってデータの収集や処理に関連する問題を説明します。
論文 参考訳(メタデータ) (2020-01-14T09:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。