論文の概要: AI exposure predicts unemployment risk
- arxiv url: http://arxiv.org/abs/2308.02624v1
- Date: Fri, 4 Aug 2023 15:21:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 19:38:12.265702
- Title: AI exposure predicts unemployment risk
- Title(参考訳): AIが失業リスクを予測
- Authors: Morgan Frank, Yong-Yeol Ahn, Esteban Moro
- Abstract要約: AI暴露のどのモデルが仕事の分離や失業リスクを予測するかを評価する。
個々のAI露出モデルは失業率、失業リスク、仕事分離率の予測にはならない。
我々の結果はまた、AI暴露を評価するための動的、文脈認識、検証された方法も求めている。
- 参考スコア(独自算出の注目度): 1.5101132008238312
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Is artificial intelligence (AI) disrupting jobs and creating unemployment?
Despite many attempts to quantify occupations' exposure to AI, inconsistent
validation obfuscates the relative benefits of each approach. A lack of
disaggregated labor outcome data, including unemployment data, further
exacerbates the issue. Here, we assess which models of AI exposure predict job
separations and unemployment risk using new occupation-level unemployment data
by occupation from each US state's unemployment insurance office spanning 2010
through 2020. Although these AI exposure scores have been used by governments
and industry, we find that individual AI exposure models are not predictive of
unemployment rates, unemployment risk, or job separation rates. However, an
ensemble of those models exhibits substantial predictive power suggesting that
competing models may capture different aspects of AI exposure that collectively
account for AI's variable impact across occupations, regions, and time. Our
results also call for dynamic, context-aware, and validated methods for
assessing AI exposure. Interactive visualizations for this study are available
at https://sites.pitt.edu/~mrfrank/uiRiskDemo/.
- Abstract(参考訳): 人工知能(AI)は雇用を混乱させ失業を生み出すのか?
職業のaiへの露出を定量化しようとする多くの試みにもかかわらず、一貫性のない検証はそれぞれのアプローチの相対的な利点を損なう。
失業データを含む不合理な労働結果データが不足すると、さらに問題はさらに悪化する。
ここでは,2010年から2020年にかけての米国の各失業保険庁の職業別失業率データを用いて,AI被曝のモデルと失業リスクを予測する。
これらのAI露光スコアは政府や業界で使用されているが、個々のAI露光モデルは失業率、失業リスク、仕事分離率の予測にはならない。
しかし、これらのモデルのアンサンブルは、競合するモデルがAIの露出の異なる側面を捉え、職業、地域、時間にまたがるAIの変動的な影響を総合的に考慮していることを示唆するかなりの予測力を示している。
我々の結果はまた、AI暴露を評価するための動的、文脈認識、検証された方法も求めている。
この研究のインタラクティブな可視化はhttps://sites.pitt.edu/~mrfrank/uiRiskDemo/で見ることができる。
関連論文リスト
- Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Towards the Terminator Economy: Assessing Job Exposure to AI through LLMs [10.844598404826355]
米国の雇用の3分の1はAIに強く依存している。
この露出は、2019年から2023年までの雇用と賃金の伸びと正の相関関係にある。
論文 参考訳(メタデータ) (2024-07-27T08:14:18Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Reconciling AI Performance and Data Reconstruction Resilience for
Medical Imaging [52.578054703818125]
人工知能(AI)モデルは、トレーニングデータの情報漏洩に対して脆弱であり、非常に敏感である。
差別化プライバシ(DP)は、定量的なプライバシー予算を設定することで、これらの感受性を回避することを目的としている。
非常に大きなプライバシ予算を使用することで、リコンストラクション攻撃は不可能であり、パフォーマンスの低下は無視可能であることを示す。
論文 参考訳(メタデータ) (2023-12-05T12:21:30Z) - Towards more Practical Threat Models in Artificial Intelligence Security [66.67624011455423]
最近の研究で、人工知能のセキュリティの研究と実践のギャップが特定されている。
我々は、AIセキュリティ研究で最も研究されている6つの攻撃の脅威モデルを再検討し、実際にAIの使用と一致させる。
論文 参考訳(メタデータ) (2023-11-16T16:09:44Z) - Brief for the Canada House of Commons Study on the Implications of
Artificial Intelligence Technologies for the Canadian Labor Force: Generative
Artificial Intelligence Shatters Models of AI and Labor [1.0878040851638]
過去の技術と同様に、生成的AIは大量失業に繋がらないかもしれない。
生成AIは創造的で認知的で、潜在的にユビキタスである。
AIのフルセットの能力とアプリケーションが出現するにつれて、政策立案者は労働者のキャリア適応性を促進するべきである。
論文 参考訳(メタデータ) (2023-11-06T22:58:24Z) - Unmasking Biases and Navigating Pitfalls in the Ophthalmic Artificial
Intelligence Lifecycle: A Review [3.1929071422400446]
この記事では、AIライフサイクルを7つのステップに分割する。
データ収集; モデルタスクの定義; データ前処理とラベル付け; モデル開発; モデル評価と検証; デプロイメント。
最後に、デプロイ後の評価、監視、システムリカレーションを行い、各ステップにおける害のリスクと、それらを緩和するための戦略を掘り下げます。
論文 参考訳(メタデータ) (2023-10-08T03:49:42Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Being Automated or Not? Risk Identification of Occupations with Graph
Neural Networks [13.092145058320316]
人工知能(AI)やロボット工学などの自動化技術の急速な進歩は、職業における自動化のリスクを増大させる。
最近の社会経済研究は、職業の50%近くが今後10年以内に自動化されるリスクが高いことを示唆している。
職業の自動化リスクを特定するために, グラフに基づく半自動分類手法 textbf Automated textbfOccupation textbf Classification を提案する。
論文 参考訳(メタデータ) (2022-09-06T02:19:50Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。