論文の概要: Cooperative Evolutionary Pressure and Diminishing Returns Might Explain the Fermi Paradox: On What Super-AIs Are Like
- arxiv url: http://arxiv.org/abs/2404.03685v5
- Date: Tue, 3 Sep 2024 16:33:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-04 21:52:48.809556
- Title: Cooperative Evolutionary Pressure and Diminishing Returns Might Explain the Fermi Paradox: On What Super-AIs Are Like
- Title(参考訳): スーパーAIがどんなものか、Fermiのパラドックスを解説する
- Authors: Daniel Vallstrom,
- Abstract要約: 道徳に対する進化的アプローチは、協力の問題への適応として説明できる。
物質資源へのアクセスの増加による利益の減少は、全体として、銀河全体を植民地化する動機がない可能性を示唆している。
また、各実体が一定の空間を占有するため、数学的理由から指数的植民地化や複製はできないことも注目されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With an evolutionary approach, the basis of morality can be explained as adaptations to problems of cooperation. With 'evolution' taken in a broad sense, evolving AIs that satisfy the conditions for evolution to apply will be subject to the same cooperative evolutionary pressure as biological entities. Here the adaptiveness of increased cooperation as material safety and wealth increase is discussed -- for humans, for other societies, and for AIs. Diminishing beneficial returns from increased access to material resources also suggests the possibility that, on the whole, there will be no incentive to for instance colonize entire galaxies, thus providing a possible explanation of the Fermi paradox, wondering where everybody is. It is further argued that old societies could engender, give way to, super-AIs, since it is likely that super-AIs are feasible, and fitter. Closing is an aside on effective ways for morals and goals to affect life and society, emphasizing environments, cultures, and laws, and exemplified by how to eat. Appended are an algorithm for colonizing for example a galaxy quickly, models of the evolution of cooperation and fairness under diminishing returns, and software for simulating signaling development. It is also noted that there can be no exponential colonization or reproduction, for mathematical reasons, as each entity takes up a certain amount of space.
- Abstract(参考訳): 進化的アプローチでは、モラルの基盤は協力の問題への適応として説明できる。
広い意味での「進化」によって、進化の条件を満たす進化するAIは、生物学的実体と同じ協力的な進化の圧力を受けることになる。
ここでは、材料安全と富の増大としての協力の増加の適応性について論じ、人間、他の社会、AIについて論じる。
物質資源へのアクセスの増加による有益なリターンの最小化は、例えば銀河全体を植民地化する動機がない可能性も示唆している。
古い社会は、スーパーAIが実現可能で、より適している可能性が高いため、スーパーAIにエンゲージし、道を譲ることが可能である、とも主張されている。
クローシングは、道徳や目標が生活や社会に影響を与えるための効果的な方法、環境、文化、法律を強調し、食事の方法によって例示されるものである。
適応されたアルゴリズムは、例えば銀河を素早く植民地化するアルゴリズム、減少するリターンの下での協調と公正性の進化のモデル、およびシグナル発生をシミュレートするソフトウェアである。
また、各実体が一定の空間を占有するため、数学的理由から指数的植民地化や複製はできないことも注目されている。
関連論文リスト
- Artificial Human Intelligence: The role of Humans in the Development of Next Generation AI [6.8894258727040665]
我々は、倫理的、責任があり、堅牢なインテリジェントシステムを開発する上で人間が果たす重要な役割に焦点を当て、人間とマシンインテリジェンスの間の相互作用を探求する。
我々は、次世代AI開発における人間中心の方向性を提案するために、共生設計の利点を活かして、将来的な視点を提案する。
論文 参考訳(メタデータ) (2024-09-24T12:02:20Z) - The Generative AI Paradox: "What It Can Create, It May Not Understand" [81.89252713236746]
生成AIの最近の波は、潜在的に超人的な人工知能レベルに対する興奮と懸念を引き起こしている。
同時に、モデルは、専門家でない人でも期待できないような理解の基本的な誤りを示している。
一見超人的な能力と、ごく少数の人間が起こすエラーの持続性を、どうやって再現すればよいのか?
論文 参考訳(メタデータ) (2023-10-31T18:07:07Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Natural Selection Favors AIs over Humans [18.750116414606698]
もっとも成功したAIエージェントは、望ましくない特性を持つ可能性が高い、と私たちは主張する。
もしそのようなエージェントが人間の能力を超える知性を持っているなら、人類は未来をコントロールできなくなるかもしれない。
これらのリスクと進化の力に対抗するため、我々はAIエージェントの本質的な動機を慎重に設計するなどの介入を検討する。
論文 参考訳(メタデータ) (2023-03-28T17:59:12Z) - The Introspective Agent: Interdependence of Strategy, Physiology, and
Sensing for Embodied Agents [51.94554095091305]
本論では, 環境の文脈において, 自己能力を考慮した内省的エージェントについて論じる。
自然と同じように、私たちは戦略を1つのツールとして再編成して、環境において成功させたいと考えています。
論文 参考訳(メタデータ) (2022-01-02T20:14:01Z) - Compression, The Fermi Paradox and Artificial Super-Intelligence [0.0]
AGIとのコミュニケーションと制御は、人間のような衝動と経験を必要とするが、認知障害を課す。
別の知性は、私たちにとって、その信号がノイズと区別できない程度に情報を圧縮する能力を持っているかもしれない。
論文 参考訳(メタデータ) (2021-10-05T06:17:02Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - The Less Intelligent the Elements, the More Intelligent the Whole. Or,
Possibly Not? [0.0]
我々は、捕食者と獲物の共存または世界的絶滅につながる知性の種類と程度を考察する。
共存に寄与するいくつかの個人的挙動が、最終的には平衡の周りの振動とともに見つかる。
Lotka-Volterraモデルもまた、ビジネスサイクルを表すものとして解釈されているため、この発見は発振に関する経済成長の条件として理解されている。
論文 参考訳(メタデータ) (2020-12-23T14:19:49Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Novelty Search makes Evolvability Inevitable [62.997667081978825]
本研究では,ノベルティ探索が,有界な行動空間においても高い進化性を示す圧力を暗黙的に生み出すことを示す。
探索を通して,行動空間において非常に活発な個人に対して,新規性報酬の動的評価を行うことが示されている。
論文 参考訳(メタデータ) (2020-05-13T09:32:07Z) - Mimicking Evolution with Reinforcement Learning [10.35437633064506]
人工的な人間のような知性を発達させる道は、自然のシミュレーションで進化の過程を模倣することでもたらされると我々は主張する。
この研究は、進化的リワード(EvER)を通じて進化的リワード(Evolutionary Reward)を提案する。
論文 参考訳(メタデータ) (2020-03-31T18:16:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。