論文の概要: The recessionary pressures of generative AI: A threat to wellbeing
- arxiv url: http://arxiv.org/abs/2403.17405v1
- Date: Tue, 26 Mar 2024 05:51:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 16:36:05.444184
- Title: The recessionary pressures of generative AI: A threat to wellbeing
- Title(参考訳): ジェネレーティブAIの不況 : 幸福への脅威
- Authors: Jo-An Occhipinti, Ante Prodan, William Hynes, Roy Green, Sharan Burrow, Harris A Eyre, Adam Skinner, Goran Ujdur, John Buchanan, Ian B Hickie, Mark Heffernan, Christine Song, Marcel Tanner,
- Abstract要約: 生成人工知能(AI)は、パラドックスを示す変換力である。
経済成長に前例のない機会を提供し、経済の安定と社会福祉に重大な脅威をもたらす可能性がある。
本稿では,両者が真である可能性のある条件について考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Artificial Intelligence (AI) stands as a transformative force that presents a paradox; it offers unprecedented opportunities for productivity growth while potentially posing significant threats to economic stability and societal wellbeing. Many consider generative AI as akin to previous technological advancements, using historical precedent to argue that fears of widespread job displacement are unfounded, while others contend that generative AI`s unique capacity to undertake non-routine cognitive tasks sets it apart from other forms of automation capital and presents a threat to the quality and availability of work that underpin stable societies. This paper explores the conditions under which both may be true. We posit the existence of an AI-capital-to-labour ratio threshold beyond which a self-reinforcing cycle of recessionary pressures could be triggered, exacerbating social disparities, reducing social cohesion, heightening tensions, and requiring sustained government intervention to maintain stability. To prevent this, the paper underscores the urgent need for proactive policy responses, making recommendations to reduce these risks through robust regulatory frameworks and a new social contract characterised by progressive social and economic policies. This approach aims to ensure a sustainable, inclusive, and resilient economic future where human contribution to the economy is retained and integrated with generative AI to enhance the Mental Wealth of nations.
- Abstract(参考訳): 創造的人工知能(AI)は、パラドックスを示す変革的な力であり、生産性向上のための前例のない機会を提供すると同時に、経済の安定と社会的幸福への重大な脅威を生じさせる可能性がある。
多くの人は、生成AIは以前の技術進歩と類似していると考え、昔ながらの先例を用いて、広範な仕事のずれの恐れは未確立であると主張する一方で、生成AIが非ルーチン認知タスクを遂行するユニークな能力は、他の形態の自動化資本とは切り離され、安定した社会を支える仕事の品質と可用性への脅威であると主張している。
本稿では,両者が真である可能性のある条件について考察する。
我々は、不況の自己抑制サイクルを誘発し、社会的格差を悪化させ、社会的結束を減少させ、緊張を増し、安定を維持するために持続的な政府の介入を必要とする、AI資本と労働比のしきい値の存在を仮定する。
これを防ぐために, 社会・経済の進歩的政策を特徴とする, 堅牢な規制枠組みと新たな社会的契約を通じて, リスク低減を推奨する, 積極的な政策対応の必要性を強調した。
このアプローチは、人間の経済への貢献が維持され、生産的なAIと統合され、国のメンタルウェルスを高める持続可能な、包括的で回復力のある経済の将来を保証することを目的としている。
関連論文リスト
- AI-Powered Autonomous Weapons Risk Geopolitical Instability and Threaten AI Research [6.96356867602455]
自律兵器システム(AWS)開発における機械学習の最近の採用は、地政学的な安定性とAI研究におけるアイデアの自由交換に深刻なリスクをもたらす、と我々は主張する。
MLはすでに、多くの戦場で、人間の兵士のためのAWSの代替を可能にしている。
さらに、AWSの軍事的価値は、AIによる軍備競争の投機と、AI研究に対する国家安全保障上の制限の誤った適用を提起する。
論文 参考訳(メタデータ) (2024-05-03T05:19:45Z) - Near to Mid-term Risks and Opportunities of Open Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのGenerative AIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Exploiting the Margin: How Capitalism Fuels AI at the Expense of Minoritized Groups [0.0]
本稿では、資本主義、人種的不正、人工知能(AI)の関係について考察する。
それは、AIが時代遅れの搾取のための現代的な乗り物として機能する、と論じている。
本論文は、社会正義と株式を技術デザインと政策の核心に組み込むアプローチを推進している。
論文 参考訳(メタデータ) (2024-03-10T22:40:07Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - The impact of generative artificial intelligence on socioeconomic inequalities and policy making [1.5156317247732694]
生成的人工知能は、既存の社会経済的不平等を悪化させ、改善する可能性がある。
私たちのゴールは、AIが普及する社会問題の緩和にどのように役立つかを明らかにしながら、生成的AIが既存の不平等をいかに悪化させるかを強調することです。
情報領域では、生成AIはコンテンツの創造とアクセスを民主化することができるが、誤情報の生成と拡散を劇的に拡大する可能性がある。
教育ではパーソナライズされた学習を提供するが、デジタルディビジョンを広げる可能性がある。
医療分野では、診断とアクセシビリティを改善するが、既存の不平等をより深める可能性がある。
論文 参考訳(メタデータ) (2023-12-16T10:37:22Z) - Managing AI Risks in an Era of Rapid Progress [147.61764296776164]
我々は、大規模社会被害と悪用、および自律型AIシステムに対する人間の制御の不可逆的喪失について検討する。
迅速かつ継続的なAIの進歩を踏まえ、我々はAI研究開発とガバナンスの緊急優先事項を提案する。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Artificial Intelligence for Real Sustainability? -- What is Artificial
Intelligence and Can it Help with the Sustainability Transformation? [0.0]
この記事では、AI技術を簡潔に説明し、分類し、理論化する。
そして、持続可能性に関する議論の観点から、その分析を政治的に文脈化する。
持続可能な社会へ進む上で、AIは小さな役割を担っている、と氏は主張する。
論文 参考訳(メタデータ) (2023-06-15T15:40:00Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Voluntary safety commitments provide an escape from over-regulation in
AI development [8.131948859165432]
この研究は、ピアまたは機関による制裁による自発的なコミットメントが、社会的に有益な結果をもたらすことを初めて明らかにしている。
結果は、倫理的で責任あるAI技術開発プロセスを保証することを目的としたガバナンスと規制ポリシーの設計に直接関係しています。
論文 参考訳(メタデータ) (2021-04-08T12:54:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。