論文の概要: GAN Based Top-Down View Synthesis in Reinforcement Learning Environments
- arxiv url: http://arxiv.org/abs/2410.12372v1
- Date: Wed, 16 Oct 2024 08:44:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-17 13:40:48.560388
- Title: GAN Based Top-Down View Synthesis in Reinforcement Learning Environments
- Title(参考訳): GANを用いた強化学習環境におけるトップダウンビュー合成
- Authors: Usama Younus, Vinoj Jayasundara, Shivam Mishra, Suleyman Aslan,
- Abstract要約: 本研究は, GAN(Generative Adversarial Network)を用いた, 人工エージェントの初対人視点観測に基づくRL環境のトップダウンビューの学習について検討する。
プロジェクトの焦点は、RL環境のトップダウンビューを学ぶことです。強化学習のタスクには対処しません。
- 参考スコア(独自算出の注目度): 0.36427222462368697
- License:
- Abstract: Human actions are based on the mental perception of the environment. Even when all the aspects of an environment are not visible, humans have an internal mental model that can generalize the partially visible scenes to fully constructed and connected views. This internal mental model uses learned abstract representations of spatial and temporal aspects of the environments encountered in the past. Artificial agents in reinforcement learning environments also benefit by learning a representation of the environment from experience. It provides the agent with viewpoints that are not directly visible to it, helping it make better policy decisions. It can also be used to predict the future state of the environment. This project explores learning the top-down view of an RL environment based on the artificial agent's first-person view observations with a generative adversarial network(GAN). The top-down view is useful as it provides a complete overview of the environment by building a map of the entire environment. It provides information about the objects' dimensions and shapes along with their relative positions with one another. Initially, when only a partial observation of the environment is visible to the agent, only a partial top-down view is generated. As the agent explores the environment through a set of actions, the generated top-down view becomes complete. This generated top-down view can assist the agent in deducing better policy decisions. The focus of the project is to learn the top-down view of an RL environment. It doesn't deal with any Reinforcement Learning task.
- Abstract(参考訳): 人間の行動は環境に対する精神的な認識に基づいている。
環境のすべての側面が見えない場合でも、人間は内部のメンタルモデルを持ち、部分的に見えるシーンを一般化して、完全に構築され、接続されたビューにすることができる。
この内的精神モデルは、過去に遭遇した環境の空間的側面と時間的側面の学習された抽象的表現を使用する。
強化学習環境における人工エージェントは、経験から環境の表現を学ぶことでも有益である。
エージェントに直接見えない視点を提供し、より良い政策決定を下すのに役立つ。
また、環境の将来の状態を予測するためにも使用できる。
本研究は, GAN(Generative Adversarial Network)を用いて, 人工エージェントの初対人視点観測に基づくRL環境のトップダウンビューの学習について検討する。
トップダウンのビューは、環境全体のマップを構築することで、環境の完全な概要を提供するので便利です。
物体の寸法や形状や相対的な位置に関する情報を提供する。
最初は、エージェントに環境の部分的な観察しか見えない場合、部分的なトップダウンビューのみを生成する。
エージェントが一連のアクションを通して環境を探索すると、生成されたトップダウンビューが完成する。
この生成されたトップダウンビューは、エージェントがより良いポリシー決定を導き出すのに役立つ。
プロジェクトの焦点は、RL環境のトップダウンビューを学ぶことです。
強化学習のタスクには対処しません。
関連論文リスト
- ReALFRED: An Embodied Instruction Following Benchmark in Photo-Realistic Environments [13.988804095409133]
本研究では,実世界のシーン,オブジェクト,部屋のレイアウトを取り入れたReALFREDベンチマークを提案する。
具体的には、視覚領域のギャップを小さくした環境空間を更新したALFREDベンチマークを拡張する。
ReALFREDでは、以前作られたALFREDベンチマークのメソッドを分析し、すべてのメトリクスで一貫して低いパフォーマンスが得られることを観察する。
論文 参考訳(メタデータ) (2024-07-26T07:00:27Z) - A Landmark-Aware Visual Navigation Dataset [6.564789361460195]
ランドマークを意識したビジュアルナビゲーションデータセットを提示し、人中心の探索ポリシーと地図構築の教師あり学習を可能にする。
我々は,仮想環境と実環境を探索するアノテータとして,RGB観測と人間のポイントクリックペアを収集する。
私たちのデータセットは、屋内環境の部屋や屋外の通路など、幅広い場面をカバーしています。
論文 参考訳(メタデータ) (2024-02-22T04:43:20Z) - OCAtari: Object-Centric Atari 2600 Reinforcement Learning Environments [20.034972354302788]
我々は,OCAtariの導入により,深層RLアプローチの最も有用な評価フレームワークであるAtari Learning Environmentsを拡張した。
我々のフレームワークは、オブジェクト発見、オブジェクト表現学習、およびオブジェクト中心のRLを可能にします。
論文 参考訳(メタデータ) (2023-06-14T17:28:46Z) - CLEAR: Improving Vision-Language Navigation with Cross-Lingual,
Environment-Agnostic Representations [98.30038910061894]
VLN(Vision-and-Language Navigation)タスクでは、エージェントが言語命令に基づいて環境をナビゲートする必要がある。
CLEAR: 言語横断表現と環境非依存表現を提案する。
我々の言語と視覚表現は、Room-to-Room and Cooperative Vision-and-Dialogue Navigationタスクにうまく転送できる。
論文 参考訳(メタデータ) (2022-07-05T17:38:59Z) - What do navigation agents learn about their environment? [39.74076893981299]
本稿では、ポイントゴールナビゲーションエージェントとオブジェクトゴールナビゲーションエージェントのための、エンボディード・アグエント(iSEE)の解釈可能性システムについて紹介する。
これらのエージェントが生成する動的表現をiSEEを用いて探索し,エージェントや環境に関する情報を提示する。
論文 参考訳(メタデータ) (2022-06-17T01:33:43Z) - Stochastic Coherence Over Attention Trajectory For Continuous Learning
In Video Streams [64.82800502603138]
本稿では,映像ストリーム中のピクセルワイズ表現を段階的かつ自律的に開発するための,ニューラルネットワークに基づく新しいアプローチを提案する。
提案手法は, 参加者の入場地を観察することで, エージェントが学習できる, 人間の様の注意機構に基づく。
実験では,3次元仮想環境を利用して,映像ストリームを観察することで,エージェントが物体の識別を学べることを示す。
論文 参考訳(メタデータ) (2022-04-26T09:52:31Z) - Information is Power: Intrinsic Control via Information Capture [110.3143711650806]
我々は,潜時状態空間モデルを用いて推定したエージェントの状態訪問のエントロピーを最小化する,コンパクトで汎用的な学習目的を論じる。
この目的は、不確実性の低減に対応する環境情報収集と、将来の世界状態の予測不可能性の低減に対応する環境制御の両方をエージェントに誘導する。
論文 参考訳(メタデータ) (2021-12-07T18:50:42Z) - Latent World Models For Intrinsically Motivated Exploration [140.21871701134626]
画像に基づく観察のための自己教師付き表現学習法を提案する。
我々は、部分的に観測可能な環境の探索を導くために、エピソードおよび寿命の不確実性を考慮する。
論文 参考訳(メタデータ) (2020-10-05T19:47:04Z) - Diagnosing the Environment Bias in Vision-and-Language Navigation [102.02103792590076]
VLN(Vision-and-Language Navigation)は、エージェントが自然言語の指示に従い、与えられた環境を探索し、所望の目標地点に到達する必要がある。
VLNを研究する最近の研究は、目に見えない環境でのテストでは、顕著なパフォーマンス低下を観察しており、ニューラルエージェントモデルがトレーニング環境に非常に偏っていることを示している。
本研究では, この環境バイアスの原因を探るため, 環境再分割と機能置換による新しい診断実験を設計する。
論文 参考訳(メタデータ) (2020-05-06T19:24:33Z) - Global-Local Bidirectional Reasoning for Unsupervised Representation
Learning of 3D Point Clouds [109.0016923028653]
局所構造とグローバル形状の双方向推論による点雲表現を人間の監督なしに学習する。
本研究では, 実世界の3次元オブジェクト分類データセットにおいて, 教師なしモデルが最先端の教師付き手法を超越していることを示す。
論文 参考訳(メタデータ) (2020-03-29T08:26:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。