論文の概要: Existence and perception as the basis of AGI (Artificial General
Intelligence)
- arxiv url: http://arxiv.org/abs/2202.03155v1
- Date: Sun, 30 Jan 2022 14:06:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-14 00:48:00.457535
- Title: Existence and perception as the basis of AGI (Artificial General
Intelligence)
- Title(参考訳): AGI(Artificial General Intelligence)の基礎としての存在と認識
- Authors: Victor V. Senkevich
- Abstract要約: AIとは異なり、AGIは意味で操作すべきである。AIと区別するのはそれだ。
人間の思考をエミュレートするAGIにとって、この能力は不可欠である。
意味」の概念を定義する多くの試みには、非常に大きな欠点がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As is known, AGI (Artificial General Intelligence), unlike AI, should operate
with meanings. And that's what distinguishes it from AI. Any successful AI
implementations (playing chess, unmanned driving, face recognition etc.) do not
operate with the meanings of the processed objects in any way and do not
recognize the meaning. And they don't need to. But for AGI, which emulates
human thinking, this ability is crucial. Numerous attempts to define the
concept of "meaning" have one very significant drawback - all such definitions
are not strict and formalized, so they cannot be programmed. The meaning search
procedure should use a formalized description of its existence and possible
forms of its perception. For the practical implementation of AGI, it is
necessary to develop such "ready-to-code" descriptions in the context of their
use for processing the related cognitive concepts of "meaning" and "knowledge".
An attempt to formalize the definition of such concepts is made in this
article.
- Abstract(参考訳): AGI(Artificial General Intelligence, 人工知能)は、AIとは違って意味を持つ。
そして、それがAIとの違いなのです。
成功したAI実装(チェス、無人運転、顔認識など)は、処理対象の意味をいかなる方法でも操作せず、その意味を認識できない。
必要ありません。
しかし、人間の思考をエミュレートするAGIにとって、この能力は不可欠だ。
このような定義はすべて厳密で形式化されたものではなく、プログラム化できない。
検索手順の意味は、その存在と認識の可能な形態の形式化された記述を用いるべきである。
AGIの実践的な実装には、関連する認知概念である「意味」と「知識」の処理に使用される文脈において、このような「可読な」記述を開発する必要がある。
このような概念の定義を形式化する試みは、この記事で述べられている。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - The Reasons that Agents Act: Intention and Instrumental Goals [24.607124467778036]
AIエージェントに適用可能な、普遍的に受け入れられる意図の理論は存在しない。
我々は,エージェントが決定を下す理由に関して,エージェントが行動する意図を運用する。
我々の定義は、意図という直感的な概念を捉え、過去の作業によって設定されたデシダラタを満足させる。
論文 参考訳(メタデータ) (2024-02-11T14:39:40Z) - Unsocial Intelligence: an Investigation of the Assumptions of AGI Discourse [1.9506923346234724]
我々は、人間レベルのAIや人工知能(AGI)の意味がいまだ解明され、争われていると論じる。
我々は、AGI定義の分類を提供し、彼らが行う重要な社会的、政治的、倫理的仮定を調べるための基盤を築き上げます。
我々は、未来のマシンインテリジェンスを想像するための文脈的、民主的、参加的な経路を提案する。
論文 参考訳(メタデータ) (2024-01-23T23:37:51Z) - Honesty Is the Best Policy: Defining and Mitigating AI Deception [26.267047631872366]
我々は、エージェントが目標を達成するために騙される可能性のある問題に焦点を当てる。
本稿では,構造因果ゲームにおける偽造の形式的定義を紹介する。
実験により、これらの結果は、強化学習エージェントや言語モデルにおける騙しの軽減に有効であることが示された。
論文 参考訳(メタデータ) (2023-12-03T11:11:57Z) - Concepts is All You Need: A More Direct Path to AGI [0.0]
20年ほど前にAGI(Artificial General Intelligence)という用語が発明されて以来、ほとんど進歩していない。
ここではアーキテクチャと開発計画を概説し、いくつかの予備的な結果とともに、完全な人間レベルAI(HLAI)/AGIへのより直接的なパスを提供します。
論文 参考訳(メタデータ) (2023-09-04T14:14:41Z) - HAKE: A Knowledge Engine Foundation for Human Activity Understanding [65.24064718649046]
人間の活動理解は人工知能に広く興味を持ち、医療や行動分析といった多様な応用にまたがっている。
本稿では,この課題を2段階にまとめた新しいパラダイムを提案する。まず,原子活動プリミティブを対象とする中間空間に画素をマッピングし,解釈可能な論理規則で検出されたプリミティブをプログラムして意味論を推論する。
我々のフレームワークであるHAKE(Human Activity Knowledge Engine)は、挑戦的なベンチマークよりも優れた一般化能力と性能を示す。
論文 参考訳(メタデータ) (2022-02-14T16:38:31Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Philosophical Specification of Empathetic Ethical Artificial
Intelligence [0.0]
倫理的AIは、無意味なルールを推論し、ニュアンスと文脈を解釈し、意図を推論する能力を持つ必要がある。
我々は、エージェントを特定するために、エノクティビズム、セミオティックス、知覚記号システム、シンボルの出現を利用する。
それは、記号の意味が学習するにつれて変化し、その意図が目的として象徴的に表されるためである。
論文 参考訳(メタデータ) (2021-07-22T14:37:46Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Dark, Beyond Deep: A Paradigm Shift to Cognitive AI with Humanlike
Common Sense [142.53911271465344]
我々は、次世代のAIは、新しいタスクを解決するために、人間のような「暗黒」の常識を取り入れなければならないと論じている。
我々は、人間のような常識を持つ認知AIの5つの中核領域として、機能、物理学、意図、因果性、実用性(FPICU)を識別する。
論文 参考訳(メタデータ) (2020-04-20T04:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。