論文の概要: The economic alignment problem of artificial intelligence
- arxiv url: http://arxiv.org/abs/2602.21843v1
- Date: Wed, 25 Feb 2026 12:22:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.826349
- Title: The economic alignment problem of artificial intelligence
- Title(参考訳): 人工知能の経済アライメント問題
- Authors: Daniel W. O'Neill, Stefano Vrizzi, Noemi Luna Carmeno, Felix Creutzig, Jefim Vogel,
- Abstract要約: 我々は、成長ベースのシステム内で高度なAIを開発することは、社会的、環境的、実在的なリスクを増大させる可能性があると論じる。
成長後の研究は、AIのリスクを大幅に削減できる概念とポリシーを提供することを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) is advancing exponentially and is likely to have profound impacts on human wellbeing, social equity, and environmental sustainability. Here we argue that the "alignment problem" in AI research is also an economic alignment problem, as developing advanced AI inside a growth-based system is likely to increase social, environmental, and existential risks. We show that post-growth research offers concepts and policies that could substantially reduce AI risks, such as by replacing optimisation with satisficing, using the Doughnut of social and planetary boundaries to guide development, and curbing systemic rebound with resource caps. We propose governance and business reforms that treat AI as a commons and prioritise tool-like autonomy-enhancing systems over agentic AI. Finally, we argue that the development of artificial general intelligence (AGI) may require a new economics, for which post-growth scholarship provides a strong foundation.
- Abstract(参考訳): 人工知能(AI)は指数関数的に進歩しており、人間の幸福、社会的平等、環境の持続可能性に大きな影響を与える可能性が高い。
ここでは、成長ベースのシステム内で高度なAIを開発することは、社会的、環境的、存在的リスクを増大させる可能性があるため、AI研究における「調整問題」もまた経済的アライメントの問題であると主張する。
成長後の研究は、最適化を満足度で置き換える、社会的・惑星境界のドーナツを使って開発をガイドする、リソースキャップによるシステム的リバウンドを抑制する、といった、AIリスクを大幅に削減できる概念とポリシーを提供する。
我々は、AIをコモンズとして扱うガバナンスとビジネス改革を提案し、エージェントAIよりもツールライクな自律性向上システムを優先する。
最後に、人工知能(AGI)の発展には、成長後の奨学金が強力な基盤となる新しい経済技術が必要であると論じる。
関連論文リスト
- AI+HW 2035: Shaping the Next Decade [135.53570243498987]
人工知能(AI)とハードウェア(HW)は前例のない速度で進歩している。
このビジョンペーパーは、AI+HWの共同設計と共同開発のための10年間のロードマップをレイアウトし、アルゴリズム、アーキテクチャ、システム、持続可能性にまたがる。
主要な課題と機会を特定し、潜在的な障害や落とし穴を効果的に評価し、統合されたソリューションを提案する。
論文 参考訳(メタデータ) (2026-03-05T14:36:33Z) - Should AI Become an Intergenerational Civil Right? [2.7937298764423573]
AIへのアクセスは、単に商用サービスとして扱われるのではなく、明示的な保護を必要とする基本的な公民権として扱われるべきである、と私たちは主張する。
我々は,AIへのアクセスを先進的市民権として認識し,現代の包摂と将来の世代の権利を守るための法的・倫理的枠組みを確立することを提案する。
論文 参考訳(メタデータ) (2025-12-09T20:22:16Z) - The California Report on Frontier AI Policy [110.35302787349856]
フロンティアAIの継続的な進歩は、科学的発見、経済生産性、より広範な社会福祉における大きな進歩の可能性を秘めている。
グローバルAIイノベーションの中心として、カリフォルニアには、フロンティアAIの開発を継続するユニークな機会がある。
報告書は、カリフォルニアがフロンティアAIの使用、評価、ガバナンスにどのようにアプローチするかを知らせる政策原則を導出する。
論文 参考訳(メタデータ) (2025-06-17T23:33:21Z) - Open and Sustainable AI: challenges, opportunities and the road ahead in the life sciences (October 2025 -- Version 2) [49.142289900583705]
我々は、AI研究成果に対する信頼の侵食の増加についてレビューする。
我々は、AIエコシステムの断片化されたコンポーネントと、OpenとSustainable AIを最大限にサポートするためのガイドパスの欠如について論じる。
私たちの研究は、研究者と関連するAIリソースを結びつけることで、持続可能な、再利用可能な、透過的なAIの実装を容易にします。
論文 参考訳(メタデータ) (2025-05-22T12:52:34Z) - Societal Adaptation to Advanced AI [1.2607853680700076]
先進的なAIシステムからリスクを管理する既存の戦略は、AIシステムの開発方法と拡散方法に影響を与えることに集中することが多い。
我々は、先進的なAIへの社会適応の増大という補完的なアプローチを奨励する。
我々は、AIシステムの潜在的に有害な使用を回避し、防御し、治療する適応的介入を特定するのに役立つ概念的枠組みを導入する。
論文 参考訳(メタデータ) (2024-05-16T17:52:12Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - The Future of Fundamental Science Led by Generative Closed-Loop
Artificial Intelligence [67.70415658080121]
機械学習とAIの最近の進歩は、技術革新、製品開発、社会全体を破壊している。
AIは、科学的な実践とモデル発見のための高品質なデータの大規模なデータセットへのアクセスがより困難であるため、基礎科学にはあまり貢献していない。
ここでは、科学的な発見に対するAI駆動、自動化、クローズドループアプローチの側面を調査し、調査する。
論文 参考訳(メタデータ) (2023-07-09T21:16:56Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Artificial Intelligence for Real Sustainability? -- What is Artificial
Intelligence and Can it Help with the Sustainability Transformation? [0.0]
この記事では、AI技術を簡潔に説明し、分類し、理論化する。
そして、持続可能性に関する議論の観点から、その分析を政治的に文脈化する。
持続可能な社会へ進む上で、AIは小さな役割を担っている、と氏は主張する。
論文 参考訳(メタデータ) (2023-06-15T15:40:00Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - A Survey on AI Sustainability: Emerging Trends on Learning Algorithms
and Research Challenges [35.317637957059944]
我々は、AIの持続可能性問題に対処できる機械学習アプローチの大きなトレンドについてレビューする。
我々は、既存の研究の大きな限界を強調し、次世代の持続可能なAI技術を開発するための潜在的研究課題と方向性を提案する。
論文 参考訳(メタデータ) (2022-05-08T09:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。