論文の概要: AI Safety Should Prioritize the Future of Work
- arxiv url: http://arxiv.org/abs/2504.13959v1
- Date: Wed, 16 Apr 2025 23:12:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 08:18:05.109385
- Title: AI Safety Should Prioritize the Future of Work
- Title(参考訳): AIの安全性は仕事の未来を優先すべきである
- Authors: Sanchaita Hazra, Bodhisattwa Prasad Majumder, Tuhin Chakrabarty,
- Abstract要約: AIの安全性に関する現在の取り組みは、有害なコンテンツのフィルタリングを優先し、人間の行動の操作を防止し、サイバーセキュリティやバイオセキュリティの既存のリスクを排除している。
この狭義の焦点は、社会の長期的な軌跡を形成する人間中心の批判的考察を見落としている。
- 参考スコア(独自算出の注目度): 13.076075926681522
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current efforts in AI safety prioritize filtering harmful content, preventing manipulation of human behavior, and eliminating existential risks in cybersecurity or biosecurity. While pressing, this narrow focus overlooks critical human-centric considerations that shape the long-term trajectory of a society. In this position paper, we identify the risks of overlooking the impact of AI on the future of work and recommend comprehensive transition support towards the evolution of meaningful labor with human agency. Through the lens of economic theories, we highlight the intertemporal impacts of AI on human livelihood and the structural changes in labor markets that exacerbate income inequality. Additionally, the closed-source approach of major stakeholders in AI development resembles rent-seeking behavior through exploiting resources, breeding mediocrity in creative labor, and monopolizing innovation. To address this, we argue in favor of a robust international copyright anatomy supported by implementing collective licensing that ensures fair compensation mechanisms for using data to train AI models. We strongly recommend a pro-worker framework of global AI governance to enhance shared prosperity and economic justice while reducing technical debt.
- Abstract(参考訳): AIの安全性に関する現在の取り組みは、有害なコンテンツをフィルタリングし、人間の行動の操作を防ぎ、サイバーセキュリティやバイオセキュリティの既存のリスクを排除している。
この狭義の焦点は、社会の長期的軌跡を形成する人間中心の批判的考察を見落としている。
本稿では、AIが仕事の将来に与える影響を見越すリスクを特定し、人事機関による有意義な労働の進化への包括的移行支援を推奨する。
経済理論のレンズを通して、人間の生活に対するAIの時間的影響と、所得格差を悪化させる労働市場の構造的変化を強調した。
さらに、AI開発における主要な利害関係者のクローズソースなアプローチは、リソースの活用、創造的労働の平凡さの育成、イノベーションの独占といった、賃貸購入行動に類似している。
この問題に対処するため、我々は、AIモデルをトレーニングするためにデータを使用するための公正な補償機構を保証する、集合的なライセンスを実装することで、堅牢な国際著作権解剖学を支持する。
我々は、技術的負債を減らしながら、共有繁栄と経済正義を高めるため、グローバルAIガバナンスの先駆的なフレームワークを強く推奨する。
関連論文リスト
- The Economics of p(doom): Scenarios of Existential Risk and Economic Growth in the Age of Transformative AI [0.0]
主な焦点は、変革型AI(TAI)の出現の可能性である。
公表されたシナリオは、不整合TAIが引き継いだ後のヒトの絶滅(「AIの運命」)から、前例のない経済成長と豊かさ(「ポスト・スカーシティ」)まで様々である。
論文 参考訳(メタデータ) (2025-03-10T13:53:39Z) - Fully Autonomous AI Agents Should Not be Developed [58.88624302082713]
本稿では,完全自律型AIエージェントを開発すべきではないと主張している。
この立場を支持するために、我々は、従来の科学文献と現在の製品マーケティングから、異なるAIエージェントレベルを規定するために構築する。
分析の結果,システムの自律性によって人へのリスクが増大することが明らかとなった。
論文 参考訳(メタデータ) (2025-02-04T19:00:06Z) - Transparency, Security, and Workplace Training & Awareness in the Age of Generative AI [0.0]
AI技術の進歩に伴い、倫理的考慮、透明性、データのプライバシー、そして人間の労働への影響は、イノベーションと効率の推進力と交差する。
我々の研究は、主流の精査から離れて、しばしば周辺で機能する公開アクセス可能な大規模言語モデル(LLM)を探索する。
具体的には、制限のないコミュニケーションとプライバシを中心としたプラットフォームであるGab AIを調べ、検閲なしで自由に対話できるようにします。
論文 参考訳(メタデータ) (2024-12-19T17:40:58Z) - Follow the money: a startup-based measure of AI exposure across occupations, industries and regions [0.0]
既存のAIの職業曝露対策は、技術的実現可能性に基づいて人間の労働を代用または補うAIの理論的可能性に焦点を当てている。
我々は,O*NETとスタートアップが開発したAIアプリケーションからの職業的記述に基づく,新たな指標であるAISE(AI Startup Exposure)指標を紹介する。
我々の発見は、AIの採用は、AIアプリケーションの技術的実現可能性と同様に、社会的要因によって徐々に形成されていくことを示唆している。
論文 参考訳(メタデータ) (2024-12-06T10:25:05Z) - The Dual Imperative: Innovation and Regulation in the AI Era [0.0]
本稿では,人工知能における規制の欠如に伴う社会的コストについて論じる。
50年以上にわたるAI研究は、AIを主流に、有望な経済的利益へと押し上げてきた。
この談話は、加速主義者と、未発の技術的進歩を提唱するドーマー、そしてディストピア的な結果を防ぐための減速を求めるドーマーの間で偏在している。
論文 参考訳(メタデータ) (2024-05-23T08:26:25Z) - Exploiting the Margin: How Capitalism Fuels AI at the Expense of Minoritized Groups [0.0]
本稿では、資本主義、人種的不正、人工知能(AI)の関係について考察する。
それは、AIが時代遅れの搾取のための現代的な乗り物として機能する、と論じている。
本論文は、社会正義と株式を技術デザインと政策の核心に組み込むアプローチを推進している。
論文 参考訳(メタデータ) (2024-03-10T22:40:07Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。