論文の概要: Artificial Open World for Evaluating AGI: a Conceptual Design
- arxiv url: http://arxiv.org/abs/2206.01044v1
- Date: Thu, 2 Jun 2022 13:43:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-03 14:01:23.769557
- Title: Artificial Open World for Evaluating AGI: a Conceptual Design
- Title(参考訳): agi評価のための人工オープンワールド:概念設計
- Authors: Bowen Xu, Quansheng Ren
- Abstract要約: AGI(Artificial General Intelligence)の評価は、長い間議論され解決されていない重要な問題である。
本稿では,このトラップから飛び出すことを目的とした,Artificial Open Worldという評価手法を提案する。
- 参考スコア(独自算出の注目度): 1.6498361958317633
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How to evaluate Artificial General Intelligence (AGI) is a critical problem
that is discussed and unsolved for a long period. In the research of narrow AI,
this seems not a severe problem, since researchers in that field focus on some
specific problems as well as one or some aspects of cognition, and the criteria
for evaluation are explicitly defined. By contrast, an AGI agent should solve
problems that are never-encountered by both agents and developers. However,
once a developer tests and debugs the agent with a problem, the
never-encountered problem becomes the encountered problem, as a result, the
problem is solved by the developers to some extent, exploiting their
experience, rather than the agents. This conflict, as we call the trap of
developers' experience, leads to that this kind of problems is probably hard to
become an acknowledged criterion. In this paper, we propose an evaluation
method named Artificial Open World, aiming to jump out of the trap. The
intuition is that most of the experience in the actual world should not be
necessary to be applied to the artificial world, and the world should be open
in some sense, such that developers are unable to perceive the world and solve
problems by themselves before testing, though after that they are allowed to
check all the data. The world is generated in a similar way as the actual
world, and a general form of problems is proposed. A metric is proposed aiming
to quantify the progress of research. This paper describes the conceptual
design of the Artificial Open World, though the formalization and the
implementation are left to the future.
- Abstract(参考訳): AGI(Artificial General Intelligence)の評価は、長い間議論され解決されていない重要な問題である。
狭義のAIの研究では、その分野の研究者が特定の問題と認知の1つまたはいくつかの側面に焦点を当てており、評価基準が明確に定義されているため、これは深刻な問題とは思えない。
対照的に、AGIエージェントは、エージェントと開発者の両方が説明しない問題を解決するべきです。
しかし、一度開発者がエージェントをテストしてデバッグすると、未報告の問題は遭遇する問題となり、結果として、その問題はエージェントではなく彼らの経験をある程度活用して開発者によって解決される。
この対立は、私たちが開発者の経験の罠と呼ぶように、この種の問題が認識される基準になることはおそらく困難である。
本稿では,このトラップから飛び出すことを目的とした,Artificial Open Worldという評価手法を提案する。
直感的に言えば、実際の世界の経験のほとんどは人工世界に適用される必要はなく、開発者がテスト前に世界を理解して問題解決することができないように、世界は何らかの意味で開放されるべきである。
世界は現実の世界と同じような方法で生成され、一般的な問題形式が提案されている。
研究の進捗を定量化する指標が提案されている。
本稿では,人工オープンワールドの概念設計について述べるが,形式化と実装は将来に委ねられている。
関連論文リスト
- A Review on Building Blocks of Decentralized Artificial Intelligence [0.0]
分散人工知能(DEAI)は、最も到達した問題のいくつかを解決する。
Paperの主な焦点は、DEAIソリューションとネットワークの構成要素を特定することである。
最終的には、研究とオープンな問題の今後の方向性が提案される。
論文 参考訳(メタデータ) (2024-02-05T10:54:14Z) - MacGyver: Are Large Language Models Creative Problem Solvers? [90.62345519188655]
本稿では,現代大言語モデル(LLM)の創造的問題解決能力について,制約のある環境で検討する。
私たちは1,600の現実世界の問題からなる自動生成されたデータセットであるMacGyverを作成します。
MacGyverはどちらのグループでも難しいが、ユニークで相補的な方法では難しい。
論文 参考訳(メタデータ) (2023-11-16T08:52:27Z) - Brain in a Vat: On Missing Pieces Towards Artificial General
Intelligence in Large Language Models [83.63242931107638]
本稿では,知的エージェントの4つの特徴について述べる。
実世界の物体との活発な関わりは、概念的表現を形成するためのより堅牢な信号をもたらすと我々は主張する。
我々は、人工知能分野における将来的な研究の方向性を概説して結論付ける。
論文 参考訳(メタデータ) (2023-07-07T13:58:16Z) - OpenAGI: When LLM Meets Domain Experts [51.86179657467822]
ヒューマン・インテリジェンス(HI)は、複雑なタスクを解くための基本的なスキルの組み合わせに長けている。
この機能は人工知能(AI)にとって不可欠であり、包括的なAIエージェントに組み込まれるべきである。
マルチステップで現実的なタスクを解決するために設計されたオープンソースのプラットフォームであるOpenAGIを紹介します。
論文 参考訳(メタデータ) (2023-04-10T03:55:35Z) - Mathematics, word problems, common sense, and artificial intelligence [0.0]
本稿では,基本知識とコモンセンス推論を組み合わせた単語問題の解法として,現在の人工知能(AI)技術の能力と限界について論じる。
我々は、AI自然言語技術を用いて開発されている3つのアプローチについてレビューする。
純粋な数学的研究のためのAI技術を開発する上で、このような制限が重要であるかどうかは明らかではない、と我々は主張する。
論文 参考訳(メタデータ) (2023-01-23T21:21:39Z) - How Much Coffee Was Consumed During EMNLP 2019? Fermi Problems: A New
Reasoning Challenge for AI [32.54495599722743]
我々は新たな推論問題、すなわちフェルミ問題(Fermi Problems, FPs)を提案する。
FPは、その正確な計算が非現実的であるか不可能であるため、答えをおよそ見積もることができる質問である。
1) クイズとオリンピアドから得られた1k個の実世界のFPの収集,2) より難しい実世界の挑戦のためのサンドボックスとして機能する10k個の合成FPのバンク。
論文 参考訳(メタデータ) (2021-10-27T06:39:33Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - OpenHoldem: An Open Toolkit for Large-Scale Imperfect-Information Game
Research [82.09426894653237]
OpenHoldemは、NLTHを用いた大規模不完全情報ゲーム研究のための統合ツールキットです。
1)異なるNLTH AIを徹底的に評価するための標準化された評価プロトコル、2)NLTH AIのための3つの公的に利用可能な強力なベースライン、3)公開NLTH AI評価のための使いやすいAPIを備えたオンラインテストプラットフォーム。
論文 参考訳(メタデータ) (2020-12-11T07:24:08Z) - Exploring the Nuances of Designing (with/for) Artificial Intelligence [0.0]
我々は,AIの設計において,アルゴリズムと社会の問題に同時に対処する手段として,インフラストラクチャの構築について検討する。
アルゴリズム的なソリューションも、純粋にヒューマニズム的なソリューションも、AIの狭い状態において完全に望ましくない結果をもたらすには十分ではない。
論文 参考訳(メタデータ) (2020-10-22T20:34:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。