論文の概要: The impact of artificial intelligence: from cognitive costs to global inequality
- arxiv url: http://arxiv.org/abs/2503.16494v1
- Date: Tue, 11 Mar 2025 05:49:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-30 08:01:18.423265
- Title: The impact of artificial intelligence: from cognitive costs to global inequality
- Title(参考訳): 人工知能の影響:認知的コストから世界的不平等へ
- Authors: Guy Paić, Leonid Serkin,
- Abstract要約: 人工知能は進歩のための重要な機会を提供するが、その急速な成長は世界の不平等を悪化させるかもしれないと我々は主張する。
我々は,人工知能のメリットを公平に共有し,そのリスクを効果的に管理するための政策作成に,学術コミュニティが積極的に参加するよう促す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In this paper, we examine the wide-ranging impact of artificial intelligence on society, focusing on its potential to both help and harm global equity, cognitive abilities, and economic stability. We argue that while artificial intelligence offers significant opportunities for progress in areas like healthcare, education, and scientific research, its rapid growth -- mainly driven by private companies -- may worsen global inequalities, increase dependence on automated systems for cognitive tasks, and disrupt established economic paradigms. We emphasize the critical need for strong governance and ethical guidelines to tackle these issues, urging the academic community to actively participate in creating policies that ensure the benefits of artificial intelligence are shared fairly and its risks are managed effectively.
- Abstract(参考訳): 本稿では,人工知能が社会に与える影響を概観し,グローバルエクイティ,認知能力,経済安定の両立と損なう可能性に注目した。
人工知能は、医療、教育、科学研究などの分野で大きな進歩の機会を提供するが、その急速な成長は、主に民間企業によって推進され、世界的な不平等を悪化させ、認知タスクの自動化システムへの依存を高め、確立された経済パラダイムを乱す可能性がある。
我々は、これらの問題に対処するための強力なガバナンスと倫理的ガイドラインの批判的必要性を強調し、学術コミュニティに対して、人工知能の利点が公平に共有され、そのリスクが効果的に管理されることを保証する政策作成に積極的に参加するよう促す。
関連論文リスト
- Gradual Disempowerment: Systemic Existential Risks from Incremental AI Development [15.701299669203618]
我々は、AI能力の漸進的な改善が、社会が依存する大規模システムに対する人間の影響力を損なうことができるかを分析する。
このダイナミクスは、重要な社会システムに対する人間の影響を効果的に不可逆的に喪失させ、人類の恒久的な分散を通じて、実在する大惨事を引き起こす可能性がある、と我々は主張する。
論文 参考訳(メタデータ) (2025-01-28T13:45:41Z) - Augmenting Minds or Automating Skills: The Differential Role of Human Capital in Generative AI's Impact on Creative Tasks [4.39919134458872]
ジェネレーティブAIは、創造的な仕事を急速に作り直し、その受益者や社会的意味について批判的な疑問を提起している。
この研究は、創造的タスクにおいて、生成的AIが様々な形態の人的資本とどのように相互作用するかを探求することによって、一般的な仮定に挑戦する。
AIはクリエイティブツールへのアクセスを民主化するが、同時に認知的不平等を増幅する。
論文 参考訳(メタデータ) (2024-12-05T08:27:14Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - The Rise of Artificial Intelligence in Educational Measurement: Opportunities and Ethical Challenges [2.569083526579529]
教育におけるAIは、妥当性、信頼性、透明性、公平性、公平性に関する倫理的な懸念を提起する。
教育者、政策立案者、組織を含む様々な利害関係者は、教育における倫理的AIの使用を保証するガイドラインを開発した。
本稿では,AIを活用したツールの教育測定における倫理的意義について検討する。
論文 参考訳(メタデータ) (2024-06-27T05:28:40Z) - The Global Impact of AI-Artificial Intelligence: Recent Advances and
Future Directions, A Review [0.0]
この記事では、経済的、倫理的、社会的、セキュリティとプライバシ、仕事のずれといった、AIの影響を強調している。
偏見、セキュリティ、プライバシー侵害などの問題を含む、AI開発に関する倫理的懸念について論じている。
この記事は、社会全体にAIが及ぼす影響の認識と理解を促進するために、公的なエンゲージメントと教育の重要性を強調して締めくくっている。
論文 参考訳(メタデータ) (2023-12-22T00:41:21Z) - The impact of generative artificial intelligence on socioeconomic inequalities and policy making [1.5156317247732694]
生成的人工知能は、既存の社会経済的不平等を悪化させ、改善する可能性がある。
私たちのゴールは、AIが普及する社会問題の緩和にどのように役立つかを明らかにしながら、生成的AIが既存の不平等をいかに悪化させるかを強調することです。
情報領域では、生成AIはコンテンツの創造とアクセスを民主化することができるが、誤情報の生成と拡散を劇的に拡大する可能性がある。
教育ではパーソナライズされた学習を提供するが、デジタルディビジョンを広げる可能性がある。
医療分野では、診断とアクセシビリティを改善するが、既存の不平等をより深める可能性がある。
論文 参考訳(メタデータ) (2023-12-16T10:37:22Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - The Future of Fundamental Science Led by Generative Closed-Loop
Artificial Intelligence [67.70415658080121]
機械学習とAIの最近の進歩は、技術革新、製品開発、社会全体を破壊している。
AIは、科学的な実践とモデル発見のための高品質なデータの大規模なデータセットへのアクセスがより困難であるため、基礎科学にはあまり貢献していない。
ここでは、科学的な発見に対するAI駆動、自動化、クローズドループアプローチの側面を調査し、調査する。
論文 参考訳(メタデータ) (2023-07-09T21:16:56Z) - Empowering Local Communities Using Artificial Intelligence [70.17085406202368]
人中心の観点から、AIが社会に与える影響を探求する上で重要なトピックとなっている。
市民科学におけるこれまでの研究は、AIを使って研究に大衆を巻き込む方法を特定してきた。
本稿では,コミュニティ市民科学にAIを適用する上での課題について論じる。
論文 参考訳(メタデータ) (2021-10-05T12:51:11Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。