論文の概要: Enactivism & Objectively Optimal Super-Intelligence
- arxiv url: http://arxiv.org/abs/2302.00843v1
- Date: Thu, 2 Feb 2023 03:02:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 15:43:05.113760
- Title: Enactivism & Objectively Optimal Super-Intelligence
- Title(参考訳): エノクティビズムと客観的最適超知能
- Authors: Michael Timothy Bennett
- Abstract要約: 我々は、人工知能(AGI)や人工超知能(ASI)の形式化のために、このアプローチは理想的ではないと主張する。
この問題を考察し,この問題に対処するために,能動的認知と汎計算主義に基づくアプローチを定式化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Software's effect upon the world hinges upon the hardware that interprets it.
This tends not to be an issue, because we standardise hardware. AI is typically
conceived of as a software ``mind'' running on such interchangeable hardware.
This formalises mind-body dualism, in that a software ``mind'' can be run on
any number of standardised bodies. While this works well for simple
applications, we argue that this approach is less than ideal for the purposes
of formalising artificial general intelligence (AGI) or artificial
super-intelligence (ASI). The general reinforcement learning agent AIXI is
pareto optimal. However, this claim regarding AIXI's performance is highly
subjective, because that performance depends upon the choice of interpreter. We
examine this problem and formulate an approach based upon enactive cognition
and pancomputationalism to address the issue. Weakness is a measure of
simplicity, a ``proxy for intelligence'' unrelated to compression. If
hypotheses are evaluated in terms of weakness, rather than length, we are able
to make objective claims regarding performance. Subsequently, we propose
objectively optimal notions of AGI and ASI such that the former is computable
and the latter anytime computable (though impractical).
- Abstract(参考訳): ソフトウェアが世界に与える影響は、それを解釈するハードウェアにかかっている。
ハードウェアを標準化するため、これは問題にならない傾向があります。
AIは通常、そのような交換可能なハードウェア上で動くソフトウェア ``mind'' として考えられている。
これは、ソフトウェア ``mind'' が任意の数の標準化された体上で実行できるという点で、心身双対論を形式化する。
これは単純なアプリケーションではうまく機能するが、このアプローチはagi(artificial general intelligence)やasi(artificial super-intelligence)を形式化する目的には理想的ではない。
一般的な強化学習剤AIXIは最適である。
しかし、AIXIのパフォーマンスに関するこの主張は、インタプリタの選択に依存するため、非常に主観的である。
そこで本研究では,この課題を考察し,enactive cognition と pancomputationalism に基づくアプローチを定式化した。
弱点は単純さの尺度であり、圧縮とは無関係な'proxy for intelligence' である。
仮説が長さよりも弱点の観点から評価されれば、パフォーマンスに関する客観的な主張をすることができる。
次に,AGI と ASI の客観的に最適な概念を提案し,前者は計算可能であり,後者は計算可能である(非現実的ではあるが)。
関連論文リスト
- Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - Artificial intelligence is algorithmic mimicry: why artificial "agents"
are not (and won't be) proper agents [0.0]
人工知能(AGI)開発の可能性について検討する
私は「緊急性」の概念に特に焦点をあてて、生活システムとアルゴリズムシステムを比較します。
真のAGIが現在のAI研究のアルゴリズムフレームワークで開発される可能性は極めて低い。
論文 参考訳(メタデータ) (2023-06-27T19:25:09Z) - Computability of Optimizers [71.84486326350338]
様々な状況において、チューリングマシンでは実現不可能であり、結果としてデジタルコンピュータでは実現不可能であることを示す。
我々は、人工知能、金融数学、情報理論など、非常に異なる分野からよく知られた様々な問題に対して、そのような結果を証明している。
論文 参考訳(メタデータ) (2023-01-15T17:41:41Z) - On Avoiding Power-Seeking by Artificial Intelligence [93.9264437334683]
私たちは、非常にインテリジェントなAIエージェントの振る舞いと人間の関心を協調する方法を知りません。
私は、世界に限られた影響を与え、自律的に力を求めないスマートAIエージェントを構築できるかどうか調査する。
論文 参考訳(メタデータ) (2022-06-23T16:56:21Z) - Computable Artificial General Intelligence [0.0]
人工知能(Artificial General Intelligence, AGI)は、正確な予測を行うために、他のどのエージェントよりも少ない情報を必要とするエージェントである。
一般的な強化学習エージェントであるAIXIが、この定義を満たしただけでなく、それを行う唯一の数学的形式主義であったことは疑わしい。
本稿では,両問題を克服するAGIの代替形式性を提案する。
論文 参考訳(メタデータ) (2022-05-21T06:32:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Hybrid Intelligence [4.508830262248694]
今後数十年間、人間と機械の間の労働分業の最も可能性の高いパラダイムはハイブリッド・インテリジェンスであると主張する。
このコンセプトは、人間の知性とAIの相補的な強みを利用することを目標とし、それぞれが個別にできることよりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-05-03T08:56:09Z) - The Why, What and How of Artificial General Intelligence Chip
Development [0.0]
インテリジェントなセンシング、自動化、エッジコンピューティングアプリケーションは、AIチップの市場ドライバとなっている。
AIチップソリューションの一般化、パフォーマンス、堅牢性、スケーラビリティは、人間のような知能能力と比較される。
論文 参考訳(メタデータ) (2020-12-08T02:36:04Z) - Human $\neq$ AGI [1.370633147306388]
AGI(General Intelligence)とHLAI(Human-Level Artificial Intelligence)は、人工知能研究の聖杯を相互に参照するために用いられる。
本稿では,AGI と HLAI の能力の等価性の暗黙的な仮定は,人間は一般知能ではないため不当であると考えられる。
論文 参考訳(メタデータ) (2020-07-11T14:06:13Z) - From Checking to Inference: Actual Causality Computations as
Optimization Problems [79.87179017975235]
本稿では、最適化問題として二元非巡回モデルよりも、因果推論の異なる概念を定式化するための新しいアプローチを提案する。
8000ドル以上の変数を持つモデルを用いて,MaxSAT が ILP を上回り,数秒単位でチェック処理を行う場合が多い。
論文 参考訳(メタデータ) (2020-06-05T10:56:52Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。