論文の概要: Computational Dualism and Objective Superintelligence
- arxiv url: http://arxiv.org/abs/2302.00843v4
- Date: Tue, 23 Apr 2024 12:45:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-24 20:24:35.346128
- Title: Computational Dualism and Objective Superintelligence
- Title(参考訳): 計算双対性と目的超知能
- Authors: Michael Timothy Bennett,
- Abstract要約: 性能に関する客観的な主張を行うためには、計算双対性を避ける必要がある。
我々は、システムを行動(インプットとアウトプット)として形式化し、認識を具体化、組込み、拡張、活動的とします。
これにより、私たちはインテリジェンスに関する客観的な主張を行うことができ、それは''を一般化し、原因を特定し、適応する能力であると主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The concept of intelligent software is flawed. The behaviour of software depends upon the hardware that interprets it. This undermines claims regarding the behaviour of theorised, software superintelligence. Here we characterise this problem as ``computational dualism'', where instead of mental and physical substance, we have software and hardware. We argue that to make objective claims regarding performance we must avoid computational dualism. We propose using an alternative based upon pancomputationalism, wherein every aspect of the environment is a relation between irreducible states. We formalise systems as behaviour (inputs and outputs), and cognition as embodied, embedded, extended and enactive. The result is cognition formalised as a part of the environment, rather than as a disembodied policy interacting with the environment though an interpreter. This allows us to make objective claims regarding intelligence, which we argue is the ability to ``generalise'', identify causes and adapt. We then propose objective upper bounds for intelligent behaviour.
- Abstract(参考訳): インテリジェントソフトウェアの概念には欠陥がある。
ソフトウェアの振る舞いは、それを解釈するハードウェアに依存する。
これは、理論化されたソフトウェア超知能の振る舞いに関する主張を損なう。
ここでは、この問題を「計算双対性」と特徴づけ、心的・物理的物質の代わりに、ソフトウェアとハードウェアがある。
性能に関する客観的な主張を行うためには、計算双対性を避ける必要がある。
本研究では,パンコンピュテーション主義に基づく代替手法を提案し,環境のあらゆる側面が既約状態間の関係である。
我々は、システムを行動(インプットとアウトプット)として形式化し、認識を具体化、組込み、拡張、活動的とします。
結果は、インタプリタではなく環境と相互作用する非身体的政策として、環境の一部として形式化されている。
これにより、インテリジェンスに関する客観的な主張が可能になり、それは'一般化'し、原因を特定し、適応する能力である、と我々は主張する。
次に,知的行動に対する客観的な上限を提案する。
関連論文リスト
- Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - Artificial intelligence is algorithmic mimicry: why artificial "agents"
are not (and won't be) proper agents [0.0]
人工知能(AGI)開発の可能性について検討する
私は「緊急性」の概念に特に焦点をあてて、生活システムとアルゴリズムシステムを比較します。
真のAGIが現在のAI研究のアルゴリズムフレームワークで開発される可能性は極めて低い。
論文 参考訳(メタデータ) (2023-06-27T19:25:09Z) - Computability of Optimizers [71.84486326350338]
様々な状況において、チューリングマシンでは実現不可能であり、結果としてデジタルコンピュータでは実現不可能であることを示す。
我々は、人工知能、金融数学、情報理論など、非常に異なる分野からよく知られた様々な問題に対して、そのような結果を証明している。
論文 参考訳(メタデータ) (2023-01-15T17:41:41Z) - On Avoiding Power-Seeking by Artificial Intelligence [93.9264437334683]
私たちは、非常にインテリジェントなAIエージェントの振る舞いと人間の関心を協調する方法を知りません。
私は、世界に限られた影響を与え、自律的に力を求めないスマートAIエージェントを構築できるかどうか調査する。
論文 参考訳(メタデータ) (2022-06-23T16:56:21Z) - Computable Artificial General Intelligence [0.0]
人工知能(Artificial General Intelligence, AGI)は、正確な予測を行うために、他のどのエージェントよりも少ない情報を必要とするエージェントである。
一般的な強化学習エージェントであるAIXIが、この定義を満たしただけでなく、それを行う唯一の数学的形式主義であったことは疑わしい。
本稿では,両問題を克服するAGIの代替形式性を提案する。
論文 参考訳(メタデータ) (2022-05-21T06:32:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Hybrid Intelligence [4.508830262248694]
今後数十年間、人間と機械の間の労働分業の最も可能性の高いパラダイムはハイブリッド・インテリジェンスであると主張する。
このコンセプトは、人間の知性とAIの相補的な強みを利用することを目標とし、それぞれが個別にできることよりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-05-03T08:56:09Z) - The Why, What and How of Artificial General Intelligence Chip
Development [0.0]
インテリジェントなセンシング、自動化、エッジコンピューティングアプリケーションは、AIチップの市場ドライバとなっている。
AIチップソリューションの一般化、パフォーマンス、堅牢性、スケーラビリティは、人間のような知能能力と比較される。
論文 参考訳(メタデータ) (2020-12-08T02:36:04Z) - Human $\neq$ AGI [1.370633147306388]
AGI(General Intelligence)とHLAI(Human-Level Artificial Intelligence)は、人工知能研究の聖杯を相互に参照するために用いられる。
本稿では,AGI と HLAI の能力の等価性の暗黙的な仮定は,人間は一般知能ではないため不当であると考えられる。
論文 参考訳(メタデータ) (2020-07-11T14:06:13Z) - From Checking to Inference: Actual Causality Computations as
Optimization Problems [79.87179017975235]
本稿では、最適化問題として二元非巡回モデルよりも、因果推論の異なる概念を定式化するための新しいアプローチを提案する。
8000ドル以上の変数を持つモデルを用いて,MaxSAT が ILP を上回り,数秒単位でチェック処理を行う場合が多い。
論文 参考訳(メタデータ) (2020-06-05T10:56:52Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。