論文の概要: The impact of artificial intelligence: from cognitive costs to global inequality
- arxiv url: http://arxiv.org/abs/2503.16494v1
- Date: Tue, 11 Mar 2025 05:49:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-30 23:11:29.477281
- Title: The impact of artificial intelligence: from cognitive costs to global inequality
- Title(参考訳): 人工知能の影響:認知的コストから世界的不平等へ
- Authors: Guy Paić, Leonid Serkin,
- Abstract要約: 人工知能は進歩のための重要な機会を提供するが、その急速な成長は世界の不平等を悪化させるかもしれないと我々は主張する。
我々は,人工知能のメリットを公平に共有し,そのリスクを効果的に管理するための政策作成に,学術コミュニティが積極的に参加するよう促す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we examine the wide-ranging impact of artificial intelligence on society, focusing on its potential to both help and harm global equity, cognitive abilities, and economic stability. We argue that while artificial intelligence offers significant opportunities for progress in areas like healthcare, education, and scientific research, its rapid growth -- mainly driven by private companies -- may worsen global inequalities, increase dependence on automated systems for cognitive tasks, and disrupt established economic paradigms. We emphasize the critical need for strong governance and ethical guidelines to tackle these issues, urging the academic community to actively participate in creating policies that ensure the benefits of artificial intelligence are shared fairly and its risks are managed effectively.
- Abstract(参考訳): 本稿では,人工知能が社会に与える影響を概観し,グローバルエクイティ,認知能力,経済安定の両立と損なう可能性に注目した。
人工知能は、医療、教育、科学研究などの分野で大きな進歩の機会を提供するが、その急速な成長は、主に民間企業によって推進され、世界的な不平等を悪化させ、認知タスクの自動化システムへの依存を高め、確立された経済パラダイムを乱す可能性がある。
我々は、これらの問題に対処するための強力なガバナンスと倫理的ガイドラインの批判的必要性を強調し、学術コミュニティに対して、人工知能の利点が公平に共有され、そのリスクが効果的に管理されることを保証する政策作成に積極的に参加するよう促す。
関連論文リスト
- AI Safety Should Prioritize the Future of Work [13.076075926681522]
AIの安全性に関する現在の取り組みは、有害なコンテンツのフィルタリングを優先し、人間の行動の操作を防止し、サイバーセキュリティやバイオセキュリティの既存のリスクを排除している。
この狭義の焦点は、社会の長期的な軌跡を形成する人間中心の批判的考察を見落としている。
論文 参考訳(メタデータ) (2025-04-16T23:12:30Z) - Bridging the Gap: Integrating Ethics and Environmental Sustainability in AI Research and Practice [57.94036023167952]
我々は、AIの倫理的影響を研究するための努力は、その環境への影響を評価するものと相まって行われるべきであると論じる。
我々は,AI研究と実践にAI倫理と持続可能性を統合するためのベストプラクティスを提案する。
論文 参考訳(メタデータ) (2025-04-01T13:53:11Z) - Gradual Disempowerment: Systemic Existential Risks from Incremental AI Development [15.701299669203618]
我々は、AI能力の漸進的な改善が、社会が依存する大規模システムに対する人間の影響力を損なうことができるかを分析する。
このダイナミクスは、重要な社会システムに対する人間の影響を効果的に不可逆的に喪失させ、人類の恒久的な分散を通じて、実在する大惨事を引き起こす可能性がある、と我々は主張する。
論文 参考訳(メタデータ) (2025-01-28T13:45:41Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - The Rise of Artificial Intelligence in Educational Measurement: Opportunities and Ethical Challenges [2.569083526579529]
教育におけるAIは、妥当性、信頼性、透明性、公平性、公平性に関する倫理的な懸念を提起する。
教育者、政策立案者、組織を含む様々な利害関係者は、教育における倫理的AIの使用を保証するガイドラインを開発した。
本稿では,AIを活用したツールの教育測定における倫理的意義について検討する。
論文 参考訳(メタデータ) (2024-06-27T05:28:40Z) - The Global Impact of AI-Artificial Intelligence: Recent Advances and
Future Directions, A Review [0.0]
この記事では、経済的、倫理的、社会的、セキュリティとプライバシ、仕事のずれといった、AIの影響を強調している。
偏見、セキュリティ、プライバシー侵害などの問題を含む、AI開発に関する倫理的懸念について論じている。
この記事は、社会全体にAIが及ぼす影響の認識と理解を促進するために、公的なエンゲージメントと教育の重要性を強調して締めくくっている。
論文 参考訳(メタデータ) (2023-12-22T00:41:21Z) - The impact of generative artificial intelligence on socioeconomic inequalities and policy making [1.5156317247732694]
生成的人工知能は、既存の社会経済的不平等を悪化させ、改善する可能性がある。
私たちのゴールは、AIが普及する社会問題の緩和にどのように役立つかを明らかにしながら、生成的AIが既存の不平等をいかに悪化させるかを強調することです。
情報領域では、生成AIはコンテンツの創造とアクセスを民主化することができるが、誤情報の生成と拡散を劇的に拡大する可能性がある。
教育ではパーソナライズされた学習を提供するが、デジタルディビジョンを広げる可能性がある。
医療分野では、診断とアクセシビリティを改善するが、既存の不平等をより深める可能性がある。
論文 参考訳(メタデータ) (2023-12-16T10:37:22Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - The Future of Fundamental Science Led by Generative Closed-Loop
Artificial Intelligence [67.70415658080121]
機械学習とAIの最近の進歩は、技術革新、製品開発、社会全体を破壊している。
AIは、科学的な実践とモデル発見のための高品質なデータの大規模なデータセットへのアクセスがより困難であるため、基礎科学にはあまり貢献していない。
ここでは、科学的な発見に対するAI駆動、自動化、クローズドループアプローチの側面を調査し、調査する。
論文 参考訳(メタデータ) (2023-07-09T21:16:56Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。