論文の概要: The Atari Data Scraper
- arxiv url: http://arxiv.org/abs/2104.04893v1
- Date: Sun, 11 Apr 2021 01:39:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 06:33:24.699715
- Title: The Atari Data Scraper
- Title(参考訳): Atari Data Scraper
- Authors: Brittany Davis Pierson, Justine Ventura, Matthew E. Taylor
- Abstract要約: 本稿では,深層強化学習エージェントに"データスクレイパ"を付加するライブラリを提案する。
Atari Data Scraperが収集するデータは、強化学習エージェントの理解と解釈にどのように使用できるかを示します。
- 参考スコア(独自算出の注目度): 16.814435237303076
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reinforcement learning has made great strides in recent years due to the
success of methods using deep neural networks. However, such neural networks
act as a black box, obscuring the inner workings. While reinforcement learning
has the potential to solve unique problems, a lack of trust and understanding
of reinforcement learning algorithms could prevent their widespread adoption.
Here, we present a library that attaches a "data scraper" to deep reinforcement
learning agents, acting as an observer, and then show how the data collected by
the Atari Data Scraper can be used to understand and interpret deep
reinforcement learning agents. The code for the Atari Data Scraper can be found
here: https://github.com/IRLL/Atari-Data-Scraper
- Abstract(参考訳): 深層ニューラルネットワークを用いた手法の成功により、強化学習は近年大きな進歩を遂げている。
しかし、このようなニューラルネットワークはブラックボックスとして機能し、内部動作を阻害する。
強化学習はユニークな問題を解決する可能性があるが、信頼の欠如と強化学習アルゴリズムの理解が普及を妨げる可能性がある。
本稿では, 深層強化学習エージェントに「データスクレイパー」を付加し, オブザーバとして機能し, 深層強化学習エージェントの理解と解釈にAtari Data Scraperが収集したデータをどのように利用できるかを示す。
Atari Data Scraperのコードは以下の通りである。
関連論文リスト
- Look At Me, No Replay! SurpriseNet: Anomaly Detection Inspired Class
Incremental Learning [14.529164755845688]
継続的学習は、一連のタスクに関するインクリメンタルトレーニングを通じて、知識とスキルを蓄積可能な、人工知能ニューラルネットワークを作成することを目的としている。
継続的な学習の主な課題は破滅的な干渉であり、そこでは新たな知識が過去の知識を覆い、あるいは干渉し、忘れてしまう。
提案手法であるSurpriseNetは,パラメータ分離法と,異常検出にインスパイアされたオートエンコーダを用いたクロスタスク知識の学習により,破滅的な干渉に対処する。
論文 参考訳(メタデータ) (2023-10-30T22:16:26Z) - Learning to Identify Critical States for Reinforcement Learning from
Videos [55.75825780842156]
優れたポリシに関するアルゴリズム情報は、実行されたアクションに関する明示的な情報を持たないオフラインデータから抽出することができる。
例えば、人間やロボットのビデオは、アクションシーケンスに対する報酬に関する暗黙の情報を多く伝達することができる。
このようなビデオを見て利益を得たいDRLマシンは、まず、関連する状態/アクション/リワードを識別し、認識するために、自分で学習する必要がある。
論文 参考訳(メタデータ) (2023-08-15T14:21:24Z) - What Can We Learn from Unlearnable Datasets? [107.12337511216228]
学習不可能なデータセットは、ディープニューラルネットワークの一般化を防ぐことによって、データのプライバシを保護する可能性がある。
学習不可能なデータセットでトレーニングされたニューラルネットワークは、一般化には役に立たない単純なルールであるショートカットのみを学ぶと広く信じられている。
これとは対照的に,ネットワークは高いテスト性能を期待できる有用な特徴を実際に学習することができ,画像保護が保証されていないことを示唆している。
論文 参考訳(メタデータ) (2023-05-30T17:41:35Z) - How Efficient Are Today's Continual Learning Algorithms? [31.120016345185217]
監視された継続学習では、ラベル付きデータのストリームからディープニューラルネットワーク(DNN)を更新する。
継続的学習の背景にある大きな動機の1つは、時間とともに成長するにつれてトレーニングデータセットをスクラッチからリトレーニングするのではなく、ネットワークを新しい情報で効率的に更新できることだ。
本稿では,近年のインクリメンタルなクラス学習手法について検討し,計算,メモリ,記憶の面では非常に非効率であることを示す。
論文 参考訳(メタデータ) (2023-03-29T18:52:10Z) - Continual Learning with Deep Learning Methods in an Application-Oriented
Context [0.0]
人工知能(AI)の重要な研究領域は、データから知識を自動的に導出することである。
ディープニューラルネットワーク(Deep Neural Networks, DNN)と呼ばれる、"ディープラーニング"モデルに分類される機械学習アルゴリズムの一種。
DNNは、新しい知識が既存のベースに追加されるのを防ぐ問題の影響を受けます。
論文 参考訳(メタデータ) (2022-07-12T10:13:33Z) - Understanding the World Through Action [91.3755431537592]
ラベルのないデータを利用するための汎用的で原則的で強力なフレームワークは、強化学習から導き出すことができると私は主張する。
このような手順が、下流の潜在的なタスクとどのように密接に一致しているかについて論じます。
論文 参考訳(メタデータ) (2021-10-24T22:33:52Z) - Reasoning-Modulated Representations [85.08205744191078]
タスクが純粋に不透明でないような共通的な環境について研究する。
我々のアプローチは、新しいデータ効率表現学習の道を開く。
論文 参考訳(メタデータ) (2021-07-19T13:57:13Z) - Intrusion detection in computer systems by using artificial neural
networks with Deep Learning approaches [0.0]
コンピュータネットワークへの侵入検知は、サイバーセキュリティにおける最も重要な問題の1つとなっている。
本稿では,ディープラーニングアーキテクチャに基づく侵入検知システムの設計と実装に焦点を当てる。
論文 参考訳(メタデータ) (2020-12-15T19:12:23Z) - Offline Reinforcement Learning: Tutorial, Review, and Perspectives on
Open Problems [108.81683598693539]
オフラインの強化学習アルゴリズムは、巨大なデータセットを強力な意思決定エンジンにできるという、大きな約束を持っています。
我々は,これらの課題,特に近代的な深層強化学習手法の文脈において,読者にこれらの課題を理解することを目的としている。
論文 参考訳(メタデータ) (2020-05-04T17:00:15Z) - Laplacian Denoising Autoencoder [114.21219514831343]
本稿では,新しいタイプの自動符号化器を用いてデータ表現を学習することを提案する。
勾配領域における潜伏クリーンデータを破損させて雑音入力データを生成する。
いくつかのビジュアルベンチマークの実験では、提案されたアプローチでより良い表現が学べることが示されている。
論文 参考訳(メタデータ) (2020-03-30T16:52:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。