論文の概要: The economic alignment problem of artificial intelligence
- arxiv url: http://arxiv.org/abs/2602.21843v1
- Date: Wed, 25 Feb 2026 12:22:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.826349
- Title: The economic alignment problem of artificial intelligence
- Title(参考訳): 人工知能の経済アライメント問題
- Authors: Daniel W. O'Neill, Stefano Vrizzi, Noemi Luna Carmeno, Felix Creutzig, Jefim Vogel,
- Abstract要約: 我々は、成長ベースのシステム内で高度なAIを開発することは、社会的、環境的、実在的なリスクを増大させる可能性があると論じる。
成長後の研究は、AIのリスクを大幅に削減できる概念とポリシーを提供することを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) is advancing exponentially and is likely to have profound impacts on human wellbeing, social equity, and environmental sustainability. Here we argue that the "alignment problem" in AI research is also an economic alignment problem, as developing advanced AI inside a growth-based system is likely to increase social, environmental, and existential risks. We show that post-growth research offers concepts and policies that could substantially reduce AI risks, such as by replacing optimisation with satisficing, using the Doughnut of social and planetary boundaries to guide development, and curbing systemic rebound with resource caps. We propose governance and business reforms that treat AI as a commons and prioritise tool-like autonomy-enhancing systems over agentic AI. Finally, we argue that the development of artificial general intelligence (AGI) may require a new economics, for which post-growth scholarship provides a strong foundation.
- Abstract(参考訳): 人工知能(AI)は指数関数的に進歩しており、人間の幸福、社会的平等、環境の持続可能性に大きな影響を与える可能性が高い。
ここでは、成長ベースのシステム内で高度なAIを開発することは、社会的、環境的、存在的リスクを増大させる可能性があるため、AI研究における「調整問題」もまた経済的アライメントの問題であると主張する。
成長後の研究は、最適化を満足度で置き換える、社会的・惑星境界のドーナツを使って開発をガイドする、リソースキャップによるシステム的リバウンドを抑制する、といった、AIリスクを大幅に削減できる概念とポリシーを提供する。
我々は、AIをコモンズとして扱うガバナンスとビジネス改革を提案し、エージェントAIよりもツールライクな自律性向上システムを優先する。
最後に、人工知能(AGI)の発展には、成長後の奨学金が強力な基盤となる新しい経済技術が必要であると論じる。
関連論文リスト
- Open and Sustainable AI: challenges, opportunities and the road ahead in the life sciences (October 2025 -- Version 2) [49.142289900583705]
我々は、AI研究成果に対する信頼の侵食の増加についてレビューする。
我々は、AIエコシステムの断片化されたコンポーネントと、OpenとSustainable AIを最大限にサポートするためのガイドパスの欠如について論じる。
私たちの研究は、研究者と関連するAIリソースを結びつけることで、持続可能な、再利用可能な、透過的なAIの実装を容易にします。
論文 参考訳(メタデータ) (2025-05-22T12:52:34Z) - Societal Adaptation to Advanced AI [1.2607853680700076]
先進的なAIシステムからリスクを管理する既存の戦略は、AIシステムの開発方法と拡散方法に影響を与えることに集中することが多い。
我々は、先進的なAIへの社会適応の増大という補完的なアプローチを奨励する。
我々は、AIシステムの潜在的に有害な使用を回避し、防御し、治療する適応的介入を特定するのに役立つ概念的枠組みを導入する。
論文 参考訳(メタデータ) (2024-05-16T17:52:12Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。