論文の概要: Compression, The Fermi Paradox and Artificial Super-Intelligence
- arxiv url: http://arxiv.org/abs/2110.01835v1
- Date: Tue, 5 Oct 2021 06:17:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-06 14:13:54.224950
- Title: Compression, The Fermi Paradox and Artificial Super-Intelligence
- Title(参考訳): 圧縮, フェルミパラドックスと人工超知能
- Authors: Michael Timothy Bennett
- Abstract要約: AGIとのコミュニケーションと制御は、人間のような衝動と経験を必要とするが、認知障害を課す。
別の知性は、私たちにとって、その信号がノイズと区別できない程度に情報を圧縮する能力を持っているかもしれない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The following briefly discusses possible difficulties in communication with
and control of an AGI (artificial general intelligence), building upon an
explanation of The Fermi Paradox and preceding work on symbol emergence and
artificial general intelligence. The latter suggests that to infer what someone
means, an agent constructs a rationale for the observed behaviour of others.
Communication then requires two agents labour under similar compulsions and
have similar experiences (construct similar solutions to similar tasks). Any
non-human intelligence may construct solutions such that any rationale for
their behaviour (and thus the meaning of their signals) is outside the scope of
what a human is inclined to notice or comprehend. Further, the more compressed
a signal, the closer it will appear to random noise. Another intelligence may
possess the ability to compress information to the extent that, to us, their
signals would appear indistinguishable from noise (an explanation for The Fermi
Paradox). To facilitate predictive accuracy an AGI would tend to more
compressed representations of the world, making any rationale for their
behaviour more difficult to comprehend for the same reason. Communication with
and control of an AGI may subsequently necessitate not only human-like
compulsions and experiences, but imposed cognitive impairment.
- Abstract(参考訳): 以下は、The Fermi Paradoxの説明と、シンボルの出現と人工知能に関する先行研究に基づいて、AGI(Artificial General Intelligence)との通信と制御の難しさを簡潔に論じたものである。
後者は、ある人の意味を推測するために、エージェントが他者の観察された行動の理論的根拠を構築することを示唆する。
コミュニケーションには2人のエージェントが同様の強制下で労働し、同様の経験を持つ(同様のタスクに類似した解決策を構築する)。
あらゆる非人間知性は、その行動(つまりその信号の意味)の理論的根拠が、人間が気付き、理解しようとするものの範囲外にあるような解を構築することができる。
さらに、信号がより圧縮されると、その信号がランダムなノイズに近くなる。
別の知性は、我々にとって、その信号がノイズと区別できないような程度に情報を圧縮する能力を持っているかもしれない(The Fermi Paradoxの説明)。
予測精度を高めるために、AGIは世界のより圧縮された表現をしがちであり、それらの行動に対する理性は、同じ理由から理解することがより困難である。
AGIとのコミュニケーションと制御は、人間のような衝動や経験だけでなく、認知障害を課す。
関連論文リスト
- On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - The Generative AI Paradox: "What It Can Create, It May Not Understand" [81.89252713236746]
生成AIの最近の波は、潜在的に超人的な人工知能レベルに対する興奮と懸念を引き起こしている。
同時に、モデルは、専門家でない人でも期待できないような理解の基本的な誤りを示している。
一見超人的な能力と、ごく少数の人間が起こすエラーの持続性を、どうやって再現すればよいのか?
論文 参考訳(メタデータ) (2023-10-31T18:07:07Z) - On the link between conscious function and general intelligence in
humans and machines [0.9176056742068814]
意識機能に関する3つの理論に関連する認知能力について考察する。
これら3つの理論は、意識機能と、人間におけるドメインジェネラルインテリジェンス(ドメインジェネリジェンス)のいくつかの側面を特に関連付けている。
3つの理論のそれぞれからの洞察を統一モデルに組み込む方法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:22:23Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Emergence of Machine Language: Towards Symbolic Intelligence with Neural
Networks [73.94290462239061]
本稿では、ニューラルネットワークを用いてシンボルとコネクショナリズムの原理を組み合わせることで、離散表現を導出することを提案する。
対話型環境とタスクを設計することにより、機械が自発的で柔軟でセマンティックな言語を生成できることを実証した。
論文 参考訳(メタデータ) (2022-01-14T14:54:58Z) - Towards Relatable Explainable AI with the Perceptual Process [5.581885362337179]
我々は、説明は、他の概念、仮説、および関連性により関連していなければならないと論じる。
認知心理学に触発されて、相対論的説明可能なAIのためのXAI知覚処理フレームワークとRexNetモデルを提案する。
論文 参考訳(メタデータ) (2021-12-28T05:48:53Z) - An argument for the impossibility of machine intelligence [0.0]
AIの担い手になり得るエージェント(デバイス)とは何かを定義する。
我々は「知性の主流」の定義が弱すぎて、昆虫に知性を割り当てる際に関係するものを捉えることができないことを示した。
私たちは、この定義によって知能の担い手となるために、AIエージェントが保持しなければならない特性を特定します。
論文 参考訳(メタデータ) (2021-10-20T08:54:48Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。