論文の概要: Planning from Pixels in Atari with Learned Symbolic Representations
- arxiv url: http://arxiv.org/abs/2012.09126v2
- Date: Mon, 15 Mar 2021 17:20:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 03:10:14.076344
- Title: Planning from Pixels in Atari with Learned Symbolic Representations
- Title(参考訳): 記号表現を学習したアタリの画素からの計画
- Authors: Andrea Dittadi, Frederik K. Drachmann, Thomas Bolander
- Abstract要約: 幅ベースの計画手法は、アタリ 2600で最先端の性能を発揮することが示されている。
ひとつの成功したアプローチであるRolloutIWは、機能セットを使用してB-PROSTドメインで状態を表す。
RolloutIWの拡張バージョンである$pi$-IWは、学習した機能は幅ベースの検索のための手作りのものと競合できることを示しています。
- 参考スコア(独自算出の注目度): 3.980114611872348
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Width-based planning methods have been shown to yield state-of-the-art
performance in the Atari 2600 domain using pixel input. One successful
approach, RolloutIW, represents states with the B-PROST boolean feature set. An
augmented version of RolloutIW, $\pi$-IW, shows that learned features can be
competitive with handcrafted ones for width-based search. In this paper, we
leverage variational autoencoders (VAEs) to learn features directly from pixels
in a principled manner, and without supervision. The inference model of the
trained VAEs extracts boolean features from pixels, and RolloutIW plans with
these features. The resulting combination outperforms the original RolloutIW
and human professional play on Atari 2600 and drastically reduces the size of
the feature set.
- Abstract(参考訳): 幅ベース計画法は, 画素入力を用いたAtari 2600領域の最先端性能を示すことが示されている。
1つの成功したアプローチであるRolloutIWは、B-PROSTのブール関数セットで状態を表す。
RolloutIWの強化版である$\pi$-IWは、学習した機能が幅に基づく検索のために手作りのものと競合できることを示している。
本稿では,変分オートエンコーダ(VAE)を利用して,原理的に,かつ監督することなく,画素から直接特徴を学習する。
トレーニングされたVAEの推論モデルは、画素からブール特徴を抽出し、RolloutIWはこれらの特徴を計画している。
その結果、atari 2600のオリジナルのrolloutiwとヒューマン・プロフェッショナル・プレイを上回り、機能セットのサイズを大幅に削減した。
関連論文リスト
- Bayesian Active Learning for Semantic Segmentation [9.617769135242973]
スパースピクセルレベルのアノテーションに基づくベイズ能動的学習フレームワークを提案する。
BalEntは、予測された限界化確率分布とピクセルラベルの間の情報をキャプチャする。
私たちは、Cityscapes、Camvid、ADE20K、VOC2012ベンチマークデータセットのために提案したアクティブラーニングフレームワークをトレーニングします。
論文 参考訳(メタデータ) (2024-08-03T07:26:10Z) - Spatio-Temporal Side Tuning Pre-trained Foundation Models for Video-based Pedestrian Attribute Recognition [58.79807861739438]
既存の歩行者認識アルゴリズム(PAR)は主に静的画像に基づいて開発されている。
本稿では,時間的情報を完全に活用できるビデオフレームを用いて,人間の属性を理解することを提案する。
論文 参考訳(メタデータ) (2024-04-27T14:43:32Z) - Pedestrian Attribute Recognition via CLIP based Prompt Vision-Language Fusion [23.62010759076202]
我々は、PARを視覚言語融合問題として定式化し、歩行者画像と属性ラベルの関係を完全に活用する。
提案するPARアルゴリズムは, 微調整手法と比較して0.75%しか学習可能なパラメータを調整できない。
論文 参考訳(メタデータ) (2023-12-17T11:59:14Z) - Differentiable Registration of Images and LiDAR Point Clouds with
VoxelPoint-to-Pixel Matching [58.10418136917358]
カメラからの2D画像とLiDARからの3Dポイントクラウドの間のクロスモダリティ登録は、コンピュータビジョンとロボットトレーニングにおいて重要な課題である。
ニューラルネットワークで学習した点パターンと画素パターンのマッチングによる2次元3次元対応の推定
我々は、異なる潜在画素空間を介して3次元特徴を表現するために、構造化されたモダリティマッチングソルバを学習する。
論文 参考訳(メタデータ) (2023-12-07T05:46:10Z) - Towards Effective Visual Representations for Partial-Label Learning [49.91355691337053]
部分ラベル学習(PLL)では、トレーニングインスタンス毎に、未知の真のラベルを含むあいまいなラベルのセットのみがアクセス可能である。
真のラベルがなければ、正の点は本質的にノイズの多い擬似ラベルで予測され、負の点は大きなバッチや運動量エンコーダを必要とすることが多い。
本稿では,表現学習の改善のための重要なスコープを示す,最先端のコントラスト手法PiCO[PiPi24]を再考する。
論文 参考訳(メタデータ) (2023-05-10T12:01:11Z) - ViCE: Self-Supervised Visual Concept Embeddings as Contextual and Pixel
Appearance Invariant Semantic Representations [77.3590853897664]
本研究は,NLPにおける単語埋め込みの学習方法に着想を得た画像に対して,意味論的にリッチな視覚埋め込みを学習するための自己指導的手法を提案する。
論文 参考訳(メタデータ) (2021-11-24T12:27:30Z) - Width-Based Planning and Active Learning for Atari [7.995360025953929]
ビットベースの計画では、Atari 2600のゲームにピクセル入力による有望な結果が示されている。
近年,ゲーム画面上で訓練された手書き機能セットや変分オートエンコーダを用いて,各画面の特徴ベクトルを計算している。
私たちの主な貢献は、計画中に観察される画面の有用性を最大化するアクティブラーニングの導入である。
論文 参考訳(メタデータ) (2021-09-30T17:52:00Z) - Width-based Lookaheads with Learnt Base Policies and Heuristics Over the
Atari-2600 Benchmark [4.559353193715442]
RIW$_C$+CPV は $pi$-IW, $pi$-IW(1)+ および $pi$-HIW(n, 1) より優れていることを示す。
また,Atari-2600のゲーム群を,その定義特性に応じて分類する。
論文 参考訳(メタデータ) (2021-06-23T04:27:55Z) - Visual Transformers: Token-based Image Representation and Processing for
Computer Vision [67.55770209540306]
Visual Transformer (VT) はセマンティックトークン空間で動作し、コンテキストに基づいて異なる画像部品に任意に参加する。
高度なトレーニングレシピを使うことで、私たちのVTは畳み込みよりも大幅に優れています。
LIPとCOCO-stuffのセマンティックセグメンテーションでは、VTベースの特徴ピラミッドネットワーク(FPN)は、FPNモジュールのFLOPを6.5倍減らしながら、mIoUの0.35ポイントを達成している。
論文 参考訳(メタデータ) (2020-06-05T20:49:49Z) - CURL: Contrastive Unsupervised Representations for Reinforcement
Learning [93.57637441080603]
CURLは、コントラスト学習を用いて、生の画素から高レベルの特徴を抽出する。
DeepMind Control Suiteでは、CURLが、状態ベースの機能を使用するメソッドのサンプル効率とほぼ一致した、最初のイメージベースのアルゴリズムである。
論文 参考訳(メタデータ) (2020-04-08T17:40:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。