論文の概要: Could AI be the Great Filter? What Astrobiology can Teach the
Intelligence Community about Anthropogenic Risks
- arxiv url: http://arxiv.org/abs/2305.05653v1
- Date: Tue, 9 May 2023 17:50:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 11:51:53.292773
- Title: Could AI be the Great Filter? What Astrobiology can Teach the
Intelligence Community about Anthropogenic Risks
- Title(参考訳): AIは偉大なフィルターか?
astrobiologyが人工知能コミュニティに人為的リスクについて教えること
- Authors: Mark M. Bailey
- Abstract要約: フェルミ・パラドックス(Fermi Paradox)は、地球外生命体が宇宙で可能ならば、なぜ私たちはそれと遭遇しなかったのか?
1つの興味深い仮説はグレートフィルター (Great Filter) と呼ばれ、これは知的な生命の出現に必要な出来事が極めてありそうにないことを示唆している。
インテリジェンスの観点から見ると、グレートフィルターの文脈における世界的な破滅的なリスクを浮き彫りにすることで、人工知能のような私たちが完全に理解していない技術の長期的な未来についての洞察を得ることができるのです。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Where is everybody? This phrase distills the foreboding of what has come to
be known as the Fermi Paradox - the disquieting idea that, if extraterrestrial
life is probable in the Universe, then why have we not encountered it? This
conundrum has puzzled scholars for decades, and many hypotheses have been
proposed suggesting both naturalistic and sociological explanations. One
intriguing hypothesis is known as the Great Filter, which suggests that some
event required for the emergence of intelligent life is extremely unlikely,
hence the cosmic silence. A logically equivalent version of this hypothesis -
and one that should give us pause - suggests that some catastrophic event is
likely to occur that prevents life's expansion throughout the cosmos. This
could be a naturally occurring event, or more disconcertingly, something that
intelligent beings do to themselves that leads to their own extinction. From an
intelligence perspective, framing global catastrophic risk (particularly risks
of anthropogenic origin) within the context of the Great Filter can provide
insight into the long-term futures of technologies that we don't fully
understand, like artificial intelligence. For the intelligence professional
concerned with global catastrophic risk, this has significant implications for
how these risks ought to be prioritized.
- Abstract(参考訳): みんなはどこ?
フェルミパラドックス(fermi paradox)とは、地球外生命が宇宙で起こりうるならば、なぜ我々がそれと遭遇しなかったのかという疑わしい考えである。
この説は何十年にもわたって学者を困惑させ、多くの仮説が自然主義的・社会学的な説明を提唱している。
1つの興味深い仮説は「グレートフィルター」と呼ばれ、これは知的生命の出現に必要な出来事が極めてありそうにないことを示唆している。
この仮説の論理的に等価なバージョンと、我々に一時停止を与えるバージョンは、宇宙全体の生命の膨張を妨げる何らかの破滅的な出来事が起こる可能性が高いことを示唆している。
これは自然に起こる出来事かもしれないし、より不愉快なことに、知的な生物が自らを絶滅に導くために行うことかもしれない。
インテリジェンスの観点から見ると、グレートフィルターの文脈内で地球規模の破滅的なリスク(特に人為的起源のリスク)を浮き彫りにすることで、人工知能のような私たちが完全に理解していない技術の長期的な未来についての洞察を得ることができる。
世界的な破滅的なリスクに関する情報専門家にとって、これはこれらのリスクの優先順位付けに重要な意味を持つ。
関連論文リスト
- Can a Bayesian Oracle Prevent Harm from an Agent? [48.12936383352277]
我々は、所定の安全仕様に違反する確率に基づいて、文脈依存境界を推定することを検討する。
世界の異なる仮説が全く異なる結果をもたらす可能性があることに注意し、我々は真だが未知の仮説の下で予測される安全違反の確率に基づいて導かれる。
iidの場合と非idの場合の2つの形態を考察し、その結果を実用的なAIガードレールに変換するためのオープンな問題に結論付ける。
論文 参考訳(メタデータ) (2024-08-09T18:10:42Z) - On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - Extinction Risks from AI: Invisible to Science? [0.0]
絶滅レベルのグッドハートの法則は「極端に追求されたあらゆる目標仕様は、人類の絶滅をもたらす」。
このことは、人工知能による絶滅のリスクが本物であるかどうか、その基礎となるダイナミクスが現在の科学的手法には見えない可能性を高める。
論文 参考訳(メタデータ) (2024-02-02T23:04:13Z) - Two Types of AI Existential Risk: Decisive and Accumulative [3.5051464966389116]
本稿では,従来の「決定型AI x-リスク仮説」と「累積型AI x-リスク仮説」を対比する。
累積仮説は、インクリメンタルなAIリスクが徐々に収束し、トリガーイベントが不可逆的な崩壊をもたらすまでレジリエンスを損なう、沸騰するカエルのシナリオを示唆している。
論文 参考訳(メタデータ) (2024-01-15T17:06:02Z) - The Generative AI Paradox: "What It Can Create, It May Not Understand" [81.89252713236746]
生成AIの最近の波は、潜在的に超人的な人工知能レベルに対する興奮と懸念を引き起こしている。
同時に、モデルは、専門家でない人でも期待できないような理解の基本的な誤りを示している。
一見超人的な能力と、ごく少数の人間が起こすエラーの持続性を、どうやって再現すればよいのか?
論文 参考訳(メタデータ) (2023-10-31T18:07:07Z) - A Measure-Theoretic Axiomatisation of Causality [55.6970314129444]
我々は、コルモゴロフの確率の測度理論的公理化を因果関係の公理化への出発点とすることを好んで論じる。
提案するフレームワークは測度理論に厳格に根ざしているが,既存のフレームワークの長期的制限にも光を当てている。
論文 参考訳(メタデータ) (2023-05-19T13:15:48Z) - Understanding Natural Language Understanding Systems. A Critical
Analysis [91.81211519327161]
自然言語理解システム(Natural Language Understanding (NLU) system)としても知られる usguillemotright(英語版) のようなギユモトレフトークを持つ機械の開発は、人工知能の聖杯(英語版) (AI) である。
しかし、Gillemottalking machineguillemotrightを構築することができるという信頼は、次世代のNLUシステムによってもたらされたものよりも強かった。
私たちは新しい時代の夜明けに、ついに砂利が我々に近づいたのか?
論文 参考訳(メタデータ) (2023-03-01T08:32:55Z) - Life in a random universe: Sciama's argument reconsidered [5.15018725021934]
ランダムな宇宙は、知的な設計で、その代わりに、生命の最も高い確率を達成するために罰金を課されるように見える基本定数で、マスクレードすることができることを示す。
我々の宇宙にとって、このメカニズムは、現在未知の基本定数が約1ダースしか必要としないかもしれない。
論文 参考訳(メタデータ) (2021-09-10T23:15:31Z) - On the Unimportance of Superintelligence [0.0]
スーパーインテリジェンスのリスクを軽減するため、資源配分の優先順位を分析します。
第1部は、外部に接続されていない超知能が脅威を及ぼさないことを観察する。
第2部では、バイオテクノロジーが周辺システムに高いリスクを負うことを提案する。
論文 参考訳(メタデータ) (2021-08-30T01:23:25Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Intelligence Primer [0.0]
人工知能は、すべての生物の基本的な部分であり、人工知能の基礎でもある。
このプライマーでは、インテリジェンスに関連するアイデアを探求し、それによって意味や制約を理解する。
私たちはこれを、ダグラス・アダムズの有名なSF小説「Life, the Universe, and Everything primer」と呼ぶ。
論文 参考訳(メタデータ) (2020-08-13T15:47:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。