論文の概要: Follow the money: a startup-based measure of AI exposure across occupations, industries and regions
- arxiv url: http://arxiv.org/abs/2412.04924v2
- Date: Thu, 12 Dec 2024 15:47:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-13 13:31:05.775543
- Title: Follow the money: a startup-based measure of AI exposure across occupations, industries and regions
- Title(参考訳): Follow the money: 職業、産業、地域にわたってAIが露出する度合いをスタートアップが測定
- Authors: Enrico Maria Fenoaltea, Dario Mazzilli, Aurelio Patelli, Angelica Sbardella, Andrea Tacchella, Andrea Zaccaria, Marco Trombetti, Luciano Pietronero,
- Abstract要約: 既存のAIの職業曝露対策は、技術的実現可能性に基づいて人間の労働を代用または補うAIの理論的可能性に焦点を当てている。
我々は,O*NETとスタートアップが開発したAIアプリケーションからの職業的記述に基づく,新たな指標であるAISE(AI Startup Exposure)指標を紹介する。
我々の発見は、AIの採用は、AIアプリケーションの技術的実現可能性と同様に、社会的要因によって徐々に形成されていくことを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The integration of artificial intelligence (AI) into the workplace is advancing rapidly, necessitating robust metrics to evaluate its tangible impact on the labour market. Existing measures of AI occupational exposure largely focus on AI's theoretical potential to substitute or complement human labour on the basis of technical feasibility, providing limited insight into actual adoption and offering inadequate guidance for policymakers. To address this gap, we introduce the AI Startup Exposure (AISE) index-a novel metric based on occupational descriptions from O*NET and AI applications developed by startups funded by the Y Combinator accelerator. Our findings indicate that while high-skilled professions are theoretically highly exposed according to conventional metrics, they are heterogeneously targeted by startups. Roles involving routine organizational tasks-such as data analysis and office management-display significant exposure, while occupations involving tasks that are less amenable to AI automation due to ethical or high-stakes, more than feasibility, considerations -- such as judges or surgeons -- present lower AISE scores. By focusing on venture-backed AI applications, our approach offers a nuanced perspective on how AI is reshaping the labour market. It challenges the conventional assumption that high-skilled jobs uniformly face high AI risks, highlighting instead the role of today's AI players' societal desirability-driven and market-oriented choices as critical determinants of AI exposure. Contrary to fears of widespread job displacement, our findings suggest that AI adoption will be gradual and shaped by social factors as much as by the technical feasibility of AI applications. This framework provides a dynamic, forward-looking tool for policymakers and stakeholders to monitor AI's evolving impact and navigate the changing labour landscape.
- Abstract(参考訳): 人工知能(AI)の職場への統合は急速に進み、労働市場に対するその具体的な影響を評価するために堅牢な指標を必要としている。
既存のAI職種曝露対策は、技術的実現可能性に基づいて人間の労働を代用または補うAIの理論的な可能性に重点を置いており、実際の採用に関する限られた洞察を提供し、政策立案者に不適切なガイダンスを提供する。
このギャップに対処するために、私たちは、AI Startup Exposure(AISE)インデックスを紹介します。これは、O*NETと、Y Combinatorアクセラレーターが出資したスタートアップによって開発されたAIアプリケーションからの職業的記述に基づく、新しいメトリクスです。
以上の結果から,高度専門職は従来の指標により理論的に高度に露呈するが,新興企業を標的にしていることが明らかとなった。
データ分析やオフィス管理など、日常的な組織的タスクに関わる役割 – 重要な露出 – は、倫理的あるいは高い評価によってAI自動化に適さないタスクを含む職業 – は、実現可能性以上のもの、裁判官や外科医のような考慮 – は、AISEスコアを低くする。
ベンチャー支援のAIアプリケーションに焦点を当てることで、私たちのアプローチは、AIが労働市場をどう変えようとしているかについて、微妙な視点を提供する。
これは、スキルの高い仕事がAIのリスクに均一に直面するという従来の仮定に挑戦し、AI露出の重要な決定要因として、今日のAIプレーヤーの社会的望ましくない選択と市場指向の選択の役割を強調している。
幅広い仕事のずれを恐れているとは対照的に、我々の研究結果は、AIの採用は、AIアプリケーションの技術的実現可能性と同様に、社会的要因によって徐々に形作られていくことを示唆している。
このフレームワークは、政策立案者や利害関係者がAIの進化する影響を監視し、変化する労働環境をナビゲートするための、ダイナミックで前向きなツールを提供する。
関連論文リスト
- Human services organizations and the responsible integration of AI: Considering ethics and contextualizing risk(s) [0.0]
著者らは、AIデプロイメントに関する倫理的懸念は、実装コンテキストや特定のユースケースによって大きく異なると主張している。
彼らは、データ感度、専門的な監視要件、クライアントの幸福に対する潜在的影響などの要因を考慮に入れた、次元的リスクアセスメントアプローチを提案する。
論文 参考訳(メタデータ) (2025-01-20T19:38:21Z) - Augmenting Minds or Automating Skills: The Differential Role of Human Capital in Generative AI's Impact on Creative Tasks [4.39919134458872]
ジェネレーティブAIは、創造的な仕事を急速に作り直し、その受益者や社会的意味について批判的な疑問を提起している。
この研究は、創造的タスクにおいて、生成的AIが様々な形態の人的資本とどのように相互作用するかを探求することによって、一般的な仮定に挑戦する。
AIはクリエイティブツールへのアクセスを民主化するが、同時に認知的不平等を増幅する。
論文 参考訳(メタデータ) (2024-12-05T08:27:14Z) - Towards the Terminator Economy: Assessing Job Exposure to AI through LLMs [10.844598404826355]
米国の雇用の3分の1はAIに強く依存している。
この露出は、2019年から2023年までの雇用と賃金の伸びと正の相関関係にある。
論文 参考訳(メタデータ) (2024-07-27T08:14:18Z) - The Ethics of Advanced AI Assistants [53.89899371095332]
本稿では,高度AIアシスタントがもたらす倫理的・社会的リスクについて論じる。
我々は、高度なAIアシスタントを自然言語インタフェースを持つ人工知能エージェントとして定義し、ユーザに代わってアクションのシーケンスを計画し実行することを目的としている。
先進的なアシスタントの社会規模での展開を考察し、協力、株式とアクセス、誤情報、経済的影響、環境、先進的なAIアシスタントの評価方法に焦点をあてる。
論文 参考訳(メタデータ) (2024-04-24T23:18:46Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Brief for the Canada House of Commons Study on the Implications of
Artificial Intelligence Technologies for the Canadian Labor Force: Generative
Artificial Intelligence Shatters Models of AI and Labor [1.0878040851638]
過去の技術と同様に、生成的AIは大量失業に繋がらないかもしれない。
生成AIは創造的で認知的で、潜在的にユビキタスである。
AIのフルセットの能力とアプリケーションが出現するにつれて、政策立案者は労働者のキャリア適応性を促進するべきである。
論文 参考訳(メタデータ) (2023-11-06T22:58:24Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Guideline for Trustworthy Artificial Intelligence -- AI Assessment
Catalog [0.0]
AIアプリケーションとそれに基づくビジネスモデルが、高品質な標準に従って開発されている場合にのみ、その潜在能力を最大限に発揮できることは明らかです。
AIアプリケーションの信頼性の問題は非常に重要であり、多くの主要な出版物の主題となっている。
このAIアセスメントカタログは、まさにこの点に対応しており、2つのターゲットグループを対象としている。
論文 参考訳(メタデータ) (2023-06-20T08:07:18Z) - AI for IT Operations (AIOps) on Cloud Platforms: Reviews, Opportunities
and Challenges [60.56413461109281]
IT運用のための人工知能(AIOps)は、AIのパワーとIT運用プロセスが生成するビッグデータを組み合わせることを目的としている。
我々は、IT運用活動が発信する重要なデータの種類、分析における規模と課題、そしてどのように役立つかについて深く議論する。
主要なAIOpsタスクは、インシデント検出、障害予測、根本原因分析、自動アクションに分類します。
論文 参考訳(メタデータ) (2023-04-10T15:38:12Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。