論文の概要: Can an AI agent hit a moving target?
- arxiv url: http://arxiv.org/abs/2110.02474v1
- Date: Wed, 6 Oct 2021 03:16:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 14:13:31.444216
- Title: Can an AI agent hit a moving target?
- Title(参考訳): AIエージェントが動くターゲットにぶつかるのか?
- Authors: Rui (Aruhan) Shi
- Abstract要約: このエクササイズは、コンピュータ科学、心理学、神経科学研究に結びつく、もっともらしい予測形成モデルを提供する。
いくつかのシミュレーション実験を通して、エージェントはインフレ目標の増大に直面した主観的信念を調整することを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the economies we live in are evolving over time, it is imperative that
economic agents in models form expectations that can adjust to changes in the
environment. This exercise offers a plausible expectation formation model that
connects to computer science, psychology and neural science research on
learning and decision-making, and applies it to an economy with a policy regime
change. Employing the actor-critic model of reinforcement learning, the agent
born in a fresh environment learns through first interacting with the
environment. This involves taking exploratory actions and observing the
corresponding stimulus signals. This interactive experience is then used to
update its subjective belief about the world. I show, through several
simulation experiments, that the agent adjusts its subjective belief facing an
increase of inflation target. Moreover, the subjective belief evolves according
to the agent's experience in the world.
- Abstract(参考訳): 私たちが住んでいる経済は時間とともに進化しているため、モデル内の経済エージェントが環境の変化に適応できる期待を形成することが不可欠である。
このエクササイズは、学習と意思決定に関するコンピュータ科学、心理学、神経科学研究につながり、政策体制を変更した経済に適用する、もっともらしい予測形成モデルを提供する。
強化学習のアクター批判モデルを用いて、新鮮な環境で生まれたエージェントは、まず環境と対話することで学習する。
これには探索的行動と対応する刺激信号の観測が含まれる。
このインタラクティブな体験は、世界に対する主観的な信念を更新するために使われる。
いくつかのシミュレーション実験を通して、エージェントはインフレ目標の増大に直面した主観的信念を調整する。
さらに、主観的信念は、世界のエージェントの経験に応じて進化する。
関連論文リスト
- Agent AI: Surveying the Horizons of Multimodal Interaction [83.18367129924997]
エージェントAI(Agent AI)とは、視覚刺激や言語入力、その他の環境データを知覚できる対話型システムである。
我々は,バーチャルリアリティやシミュレートされたシーンを容易に作成し,仮想環境内に具体化されたエージェントと対話できる未来を構想する。
論文 参考訳(メタデータ) (2024-01-07T19:11:18Z) - Generative agents in the streets: Exploring the use of Large Language
Models (LLMs) in collecting urban perceptions [0.0]
本研究では,大規模言語モデル(LLM)を用いた生成エージェントの現況について検討する。
この実験では、都市環境と対話するための生成エージェントを用いて、ストリートビューイメージを使用して、特定の目標に向けて旅を計画する。
LLMにはエンボディメントがなく、視覚領域にもアクセスできず、動きや方向の感覚も欠如しているため、エージェントが周囲の全体的理解を得るのに役立つ動きと視覚モジュールを設計した。
論文 参考訳(メタデータ) (2023-12-20T15:45:54Z) - Learning Goal-based Movement via Motivational-based Models in Cognitive
Mobile Robots [58.720142291102135]
人間は、強さと文脈に応じて行動を促進する必要がある。
また、各行動の知覚的快楽に関連する嗜好も作り出します。
これにより、意思決定がより複雑になり、コンテキストに応じてニーズと嗜好のバランスを取ることが求められます。
論文 参考訳(メタデータ) (2023-02-20T04:52:24Z) - Information is Power: Intrinsic Control via Information Capture [110.3143711650806]
我々は,潜時状態空間モデルを用いて推定したエージェントの状態訪問のエントロピーを最小化する,コンパクトで汎用的な学習目的を論じる。
この目的は、不確実性の低減に対応する環境情報収集と、将来の世界状態の予測不可能性の低減に対応する環境制御の両方をエージェントに誘導する。
論文 参考訳(メタデータ) (2021-12-07T18:50:42Z) - Modelling Behaviour Change using Cognitive Agent Simulations [0.0]
本稿では, シミュレーションエージェントに選択された行動変化理論を適用するために, プログレッシブ・イン・プログレッシブ・リサーチを提案する。
この研究は、不適切な状況下での自己決定的目標達成に必要な複雑なエージェントアーキテクチャに焦点を当てている。
論文 参考訳(メタデータ) (2021-10-16T19:19:08Z) - OPEn: An Open-ended Physics Environment for Learning Without a Task [132.6062618135179]
オープンエンドな物理環境で学んだ世界のモデルが、特定のタスクを伴わずに、下流の物理推論タスクに再利用できるかどうかについて検討する。
我々は,OPEn(Open-ended Physics ENvironment)のベンチマークを構築し,この環境における学習表現をテストするためのいくつかのタスクを明示的に設計する。
その結果、教師なしのコントラスト学習を表現学習に用いたエージェントと、探索のためのインパクト駆動学習が最良の結果となった。
論文 参考訳(メタデータ) (2021-10-13T17:48:23Z) - AGENT: A Benchmark for Core Psychological Reasoning [60.35621718321559]
直観心理学は、観察可能な行動を駆動する隠された精神変数を推論する能力です。
他のエージェントを推論する機械エージェントに対する近年の関心にもかかわらず、そのようなエージェントが人間の推論を駆動するコア心理学の原則を学ぶか保持するかは明らかではない。
本稿では,プロシージャが生成する3dアニメーション,エージェントを4つのシナリオで構成したベンチマークを提案する。
論文 参考訳(メタデータ) (2021-02-24T14:58:23Z) - Causal World Models by Unsupervised Deconfounding of Physical Dynamics [20.447000858907646]
世界の精神モデルで内部を想像する能力は、人間の認知にとって極めて重要である。
本稿では,相互関係の教師なしモデリングを可能にするCausal World Models(CWMs)を提案する。
強化学習タスクの複雑性サンプルの削減と、反実物的推論の改善を示します。
論文 参考訳(メタデータ) (2020-12-28T13:44:36Z) - Imitating Interactive Intelligence [24.95842455898523]
仮想環境の簡略化を用いて、人間と自然に相互作用できる人工エージェントの設計方法を検討する。
人間とロバストに相互作用できるエージェントを構築するには、人間と対話しながらトレーニングするのが理想的です。
我々は,人間とエージェントエージェントの対話行動の相違を低減するために,逆強化学習の考え方を用いる。
論文 参考訳(メタデータ) (2020-12-10T13:55:47Z) - Learning Affordance Landscapes for Interaction Exploration in 3D
Environments [101.90004767771897]
エージェントは環境の仕組みを習得できなければならない。
相互作用探索のための強化学習手法を提案する。
AI2-iTHORで私たちのアイデアを実証します。
論文 参考訳(メタデータ) (2020-08-21T00:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。