論文の概要: Follow the money: a startup-based measure of AI exposure across occupations, industries and regions
- arxiv url: http://arxiv.org/abs/2412.04924v1
- Date: Fri, 06 Dec 2024 10:25:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-09 15:55:15.658660
- Title: Follow the money: a startup-based measure of AI exposure across occupations, industries and regions
- Title(参考訳): Follow the money: 職業、産業、地域にわたってAIが露出する度合いをスタートアップが測定
- Authors: Enrico Maria Fenoaltea, Dario Mazzilli, Aurelio Patelli, Angelica Sbardella, Andrea Tacchella, Andrea Zaccaria, Marco Trombetti, Luciano Pietronero,
- Abstract要約: 既存のAIの職業曝露対策は、技術的実現可能性に基づいて人間の労働を代用または補うAIの理論的可能性に焦点を当てている。
我々は,O*NETとスタートアップが開発したAIアプリケーションからの職業的記述に基づく,新たな指標であるAISE(AI Startup Exposure)指標を紹介する。
我々の発見は、AIの採用は、AIアプリケーションの技術的実現可能性と同様に、社会的要因によって徐々に形成されていくことを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The integration of artificial intelligence (AI) into the workplace is advancing rapidly, necessitating robust metrics to evaluate its tangible impact on the labour market. Existing measures of AI occupational exposure largely focus on AI's theoretical potential to substitute or complement human labour on the basis of technical feasibility, providing limited insight into actual adoption and offering inadequate guidance for policymakers. To address this gap, we introduce the AI Startup Exposure (AISE) index-a novel metric based on occupational descriptions from O*NET and AI applications developed by startups funded by the Y Combinator accelerator. Our findings indicate that while high-skilled professions are theoretically highly exposed according to conventional metrics, they are heterogeneously targeted by startups. Roles involving routine organizational tasks-such as data analysis and office management-display significant exposure, while occupations involving tasks that are less amenable to AI automation due to ethical or high-stakes, more than feasibility, considerations -- such as judges or surgeons -- present lower AISE scores. By focusing on venture-backed AI applications, our approach offers a nuanced perspective on how AI is reshaping the labour market. It challenges the conventional assumption that high-skilled jobs uniformly face high AI risks, highlighting instead the role of today's AI players' societal desirability-driven and market-oriented choices as critical determinants of AI exposure. Contrary to fears of widespread job displacement, our findings suggest that AI adoption will be gradual and shaped by social factors as much as by the technical feasibility of AI applications. This framework provides a dynamic, forward-looking tool for policymakers and stakeholders to monitor AI's evolving impact and navigate the changing labour landscape.
- Abstract(参考訳): 人工知能(AI)の職場への統合は急速に進み、労働市場に対するその具体的な影響を評価するために堅牢な指標を必要としている。
既存のAI職種曝露対策は、技術的実現可能性に基づいて人間の労働を代用または補うAIの理論的な可能性に重点を置いており、実際の採用に関する限られた洞察を提供し、政策立案者に不適切なガイダンスを提供する。
このギャップに対処するために、私たちは、AI Startup Exposure(AISE)インデックスを紹介します。これは、O*NETと、Y Combinatorアクセラレーターが出資したスタートアップによって開発されたAIアプリケーションからの職業的記述に基づく、新しいメトリクスです。
以上の結果から,高度専門職は従来の指標により理論的に高度に露呈するが,新興企業を標的にしていることが明らかとなった。
データ分析やオフィス管理など、日常的な組織的タスクに関わる役割 – 重要な露出 – は、倫理的あるいは高い評価によってAI自動化に適さないタスクを含む職業 – は、実現可能性以上のもの、裁判官や外科医のような考慮 – は、AISEスコアを低くする。
ベンチャー支援のAIアプリケーションに焦点を当てることで、私たちのアプローチは、AIが労働市場をどう変えようとしているかについて、微妙な視点を提供する。
これは、スキルの高い仕事がAIのリスクに均一に直面するという従来の仮定に挑戦し、AI露出の重要な決定要因として、今日のAIプレーヤーの社会的望ましくない選択と市場指向の選択の役割を強調している。
幅広い仕事のずれを恐れているとは対照的に、我々の研究結果は、AIの採用は、AIアプリケーションの技術的実現可能性と同様に、社会的要因によって徐々に形作られていくことを示唆している。
このフレームワークは、政策立案者や利害関係者がAIの進化する影響を監視し、変化する労働環境をナビゲートするための、ダイナミックで前向きなツールを提供する。
関連論文リスト
- Towards the Terminator Economy: Assessing Job Exposure to AI through LLMs [10.844598404826355]
米国の雇用の3分の1はAIに強く依存している。
この露出は、2019年から2023年までの雇用と賃金の伸びと正の相関関係にある。
論文 参考訳(メタデータ) (2024-07-27T08:14:18Z) - The Impact of AI on Perceived Job Decency and Meaningfulness: A Case Study [3.9134031118910264]
本稿では,AIが職場における仕事の怠慢と有意義性に与える影響について考察する。
先進的なAIを導入しても、人間が支配的な役割を担い続けている職場を、回答者が視覚化していることが分かる。
回答者は、AIの導入が全体の仕事満足度を維持するか、あるいは向上する可能性があると信じている。
論文 参考訳(メタデータ) (2024-06-20T12:52:57Z) - The Ethics of Advanced AI Assistants [53.89899371095332]
本稿では,高度AIアシスタントがもたらす倫理的・社会的リスクについて論じる。
我々は、高度なAIアシスタントを自然言語インタフェースを持つ人工知能エージェントとして定義し、ユーザに代わってアクションのシーケンスを計画し実行することを目的としている。
先進的なアシスタントの社会規模での展開を考察し、協力、株式とアクセス、誤情報、経済的影響、環境、先進的なAIアシスタントの評価方法に焦点をあてる。
論文 参考訳(メタデータ) (2024-04-24T23:18:46Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Brief for the Canada House of Commons Study on the Implications of
Artificial Intelligence Technologies for the Canadian Labor Force: Generative
Artificial Intelligence Shatters Models of AI and Labor [1.0878040851638]
過去の技術と同様に、生成的AIは大量失業に繋がらないかもしれない。
生成AIは創造的で認知的で、潜在的にユビキタスである。
AIのフルセットの能力とアプリケーションが出現するにつれて、政策立案者は労働者のキャリア適応性を促進するべきである。
論文 参考訳(メタデータ) (2023-11-06T22:58:24Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Potentiality and Awareness: A Position Paper from the Perspective of
Human-AI Teaming in Cybersecurity [18.324118502535775]
我々は、人間とAIのコラボレーションはサイバーセキュリティに価値があると論じている。
私たちは、AIの計算能力と人間の専門知識を取り入れたバランスのとれたアプローチの重要性を強調します。
論文 参考訳(メタデータ) (2023-09-28T01:20:44Z) - Guideline for Trustworthy Artificial Intelligence -- AI Assessment
Catalog [0.0]
AIアプリケーションとそれに基づくビジネスモデルが、高品質な標準に従って開発されている場合にのみ、その潜在能力を最大限に発揮できることは明らかです。
AIアプリケーションの信頼性の問題は非常に重要であり、多くの主要な出版物の主題となっている。
このAIアセスメントカタログは、まさにこの点に対応しており、2つのターゲットグループを対象としている。
論文 参考訳(メタデータ) (2023-06-20T08:07:18Z) - AI for IT Operations (AIOps) on Cloud Platforms: Reviews, Opportunities
and Challenges [60.56413461109281]
IT運用のための人工知能(AIOps)は、AIのパワーとIT運用プロセスが生成するビッグデータを組み合わせることを目的としている。
我々は、IT運用活動が発信する重要なデータの種類、分析における規模と課題、そしてどのように役立つかについて深く議論する。
主要なAIOpsタスクは、インシデント検出、障害予測、根本原因分析、自動アクションに分類します。
論文 参考訳(メタデータ) (2023-04-10T15:38:12Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。