論文の概要: Abstractions of General Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2112.13404v1
- Date: Sun, 26 Dec 2021 15:50:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-29 03:44:39.075483
- Title: Abstractions of General Reinforcement Learning
- Title(参考訳): 総合強化学習の抽象化
- Authors: Sultan J. Majeed
- Abstract要約: この論文は、幅広い領域の効率的なプランニングを支援する抽象概念の存在を探求するものである。
従来のAIのエージェントとは異なり、人工知能(AGI)のエージェントは、ほぼすべての関心領域で人間の知性を複製する必要がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of artificial intelligence (AI) is devoted to the creation of
artificial decision-makers that can perform (at least) on par with the human
counterparts on a domain of interest. Unlike the agents in traditional AI, the
agents in artificial general intelligence (AGI) are required to replicate human
intelligence in almost every domain of interest. Moreover, an AGI agent should
be able to achieve this without (virtually any) further changes, retraining, or
fine-tuning of the parameters. The real world is non-stationary, non-ergodic,
and non-Markovian: we, humans, can neither revisit our past nor are the most
recent observations sufficient statistics. Yet, we excel at a variety of
complex tasks. Many of these tasks require longterm planning. We can associate
this success to our natural faculty to abstract away task-irrelevant
information from our overwhelming sensory experience. We make task-specific
mental models of the world without much effort. Due to this ability to
abstract, we can plan on a significantly compact representation of a task
without much loss of performance. Not only this, we also abstract our actions
to produce high-level plans: the level of action-abstraction can be anywhere
between small muscle movements to a mental notion of "doing an action". It is
natural to assume that any AGI agent competing with humans (at every plausible
domain) should also have these abilities to abstract its experiences and
actions. This thesis is an inquiry into the existence of such abstractions
which aid efficient planing for a wide range of domains, and most importantly,
these abstractions come with some optimality guarantees.
- Abstract(参考訳): 人工知能(AI)の分野は、関心のある分野の人間に匹敵する(少なくとも)人工的な意思決定者を作成することに集中している。
従来のAIのエージェントとは異なり、人工知能(AGI)のエージェントは、ほぼすべての関心領域で人間の知性を複製する必要がある。
さらに、AGIエージェントは、パラメータのさらなる変更、再トレーニング、あるいは微調整なしに、これを達成することができるべきである。
現実の世界は、非定常、非エルゴード、非マルコフ的であり、人類は、過去を振り返ることも、最新の統計学的観測もできない。
しかし、私たちは様々な複雑なタスクに優れています。
これらの課題の多くは長期計画を必要とする。
この成功を自然の教員と結びつけて、圧倒的な感覚経験からタスク非関連情報を抽象化することができる。
私たちは多くの努力なしに、世界のタスク固有のメンタルモデルを作ります。
この抽象化能力により、性能の低下を伴わずにタスクの非常にコンパクトな表現を計画できる。
アクション・アブストラクションのレベルは、小さな筋肉の動きから「アクションを行う」という精神的な概念の間にも存在します。
人間と競合する任意のAGIエージェント(すべての可愛らしいドメイン)も、その経験や行動を抽象化する能力を持つべきであると仮定するのは当然である。
この論文は、広範囲のドメインの効率的な計画を支援する抽象概念の存在を探求するものであり、最も重要なのは、これらの抽象化がいくつかの最適性保証を伴っていることである。
関連論文リスト
- Brain-inspired AI Agent: The Way Towards AGI [5.867107330135988]
脳にインスパイアされたAIの研究者たちは、人間の脳の動作メカニズムからインスピレーションを求め、その機能的ルールをインテリジェントなモデルに再現することを目指している。
そこで我々は,脳にインスパイアされたAIエージェントの概念を提案し,比較的実現可能でエージェント互換な皮質領域機能を抽出する方法を分析した。
これらの構造をエージェントに実装することで、人間の能力に似た基本的な認知知性を実現できる。
論文 参考訳(メタデータ) (2024-12-12T02:15:48Z) - VisualPredicator: Learning Abstract World Models with Neuro-Symbolic Predicates for Robot Planning [86.59849798539312]
本稿では,記号的・神経的知識表現の強みを組み合わせた一階抽象言語Neuro-Symbolic Predicatesを提案する。
提案手法は, サンプルの複雑さの向上, 分布外一般化の強化, 解釈可能性の向上を実現する。
論文 参考訳(メタデータ) (2024-10-30T16:11:05Z) - Aligning Cyber Space with Physical World: A Comprehensive Survey on Embodied AI [129.08019405056262]
人工知能(Embodied AI)は、人工知能(AGI)の実現に不可欠である
MLMとWMは、その顕著な知覚、相互作用、推論能力のために、大きな注目を集めている。
本調査では,Embodied AIの最近の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2024-07-09T14:14:47Z) - From Reals to Logic and Back: Inventing Symbolic Vocabularies, Actions,
and Models for Planning from Raw Data [20.01856556195228]
本稿では,抽象状態と行動に対する論理に基づく関係表現を自律的に学習する最初の手法を提案する。
学習された表現は自動発明されたPDDLのようなドメインモデルを構成する。
決定論的設定における実証的な結果は、少数のロボット軌道から強力な抽象表現を学ぶことができることを示している。
論文 参考訳(メタデータ) (2024-02-19T06:28:21Z) - On the Emergence of Symmetrical Reality [51.21203247240322]
物理仮想アマルガメーションの様々な形態を包含した統一表現を提供する対称現実感フレームワークを導入する。
我々は、対称現実の潜在的な応用を示すAI駆動型アクティブアシストサービスの例を提案する。
論文 参考訳(メタデータ) (2024-01-26T16:09:39Z) - Brain in a Vat: On Missing Pieces Towards Artificial General
Intelligence in Large Language Models [83.63242931107638]
本稿では,知的エージェントの4つの特徴について述べる。
実世界の物体との活発な関わりは、概念的表現を形成するためのより堅牢な信号をもたらすと我々は主張する。
我々は、人工知能分野における将来的な研究の方向性を概説して結論付ける。
論文 参考訳(メタデータ) (2023-07-07T13:58:16Z) - Disentangling Abstraction from Statistical Pattern Matching in Human and
Machine Learning [14.789708642768968]
メタ強化学習パラダイムにおける人間とエージェントのパフォーマンスを比較した。
人間はメタメトリタスクよりも抽象的なタスクが得意であることが分かりました。
この研究は、人間と機械学習の違いを特徴づける基盤を提供する。
論文 参考訳(メタデータ) (2022-04-04T12:42:36Z) - Creating Multimodal Interactive Agents with Imitation and
Self-Supervised Learning [20.02604302565522]
SFからの一般的なビジョンは、ロボットはいつか私たちの物理的空間に住み、世界は私たちのように感じ、肉体労働を補助し、自然言語を通して私たちとコミュニケーションする、ということだ。
本稿では,仮想環境の単純化により人間と自然に対話できる人工エージェントを設計する方法について検討する。
シミュレーションされた世界における人間と人間の相互作用の模倣学習は、自己指導型学習と合わせて、多モーダルな対話型エージェントを作るのに十分であることを示す。
論文 参考訳(メタデータ) (2021-12-07T15:17:27Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z) - Learning Generalizable Robotic Reward Functions from "In-The-Wild" Human
Videos [59.58105314783289]
ドメインに依存しないビデオ識別器(DVD)は、2つのビデオが同じタスクを実行しているかどうかを判断するために識別器を訓練することによりマルチタスク報酬関数を学習する。
DVDは、人間のビデオの広いデータセットで少量のロボットデータから学習することで、一般化することができる。
DVDと視覚モデル予測制御を組み合わせることで、実際のWidowX200ロボットのロボット操作タスクを単一の人間のデモから未知の環境で解決できます。
論文 参考訳(メタデータ) (2021-03-31T05:25:05Z) - Imitating Interactive Intelligence [24.95842455898523]
仮想環境の簡略化を用いて、人間と自然に相互作用できる人工エージェントの設計方法を検討する。
人間とロバストに相互作用できるエージェントを構築するには、人間と対話しながらトレーニングするのが理想的です。
我々は,人間とエージェントエージェントの対話行動の相違を低減するために,逆強化学習の考え方を用いる。
論文 参考訳(メタデータ) (2020-12-10T13:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。