論文の概要: Reinforcement Learning in an Adaptable Chess Environment for Detecting
Human-understandable Concepts
- arxiv url: http://arxiv.org/abs/2211.05500v1
- Date: Thu, 10 Nov 2022 11:48:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 14:28:29.282828
- Title: Reinforcement Learning in an Adaptable Chess Environment for Detecting
Human-understandable Concepts
- Title(参考訳): 適応型チェス環境における人間理解可能な概念検出のための強化学習
- Authors: Patrik Hammersborg and Inga Str\"umke
- Abstract要約: 本研究では,自己学習エージェントが学習の過程で内在する概念を探索する手法を示す。
実演では,研究グループに適した高速で軽量な環境において,チェス演奏エージェントを使用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-trained autonomous agents developed using machine learning are showing
great promise in a variety of control settings, perhaps most remarkably in
applications involving autonomous vehicles. The main challenge associated with
self-learned agents in the form of deep neural networks, is their black-box
nature: it is impossible for humans to interpret deep neural networks.
Therefore, humans cannot directly interpret the actions of deep neural network
based agents, or foresee their robustness in different scenarios. In this work,
we demonstrate a method for probing which concepts self-learning agents
internalise in the course of their training. For demonstration, we use a chess
playing agent in a fast and light environment developed specifically to be
suitable for research groups without access to enormous computational resources
or machine learning models.
- Abstract(参考訳): 機械学習を使って開発された自律エージェントは、さまざまな制御設定において大きな可能性を秘めている。
ディープニューラルネットワークの形で、自己学習されたエージェントに関連する主な課題は、そのブラックボックスの性質である:人間がディープニューラルネットワークを解釈することは不可能である。
したがって、人間はディープニューラルネットワークベースのエージェントの動作を直接解釈したり、異なるシナリオで頑健さを予測できない。
本研究では,自己学習エージェントが学習の過程で内在する概念を探索する手法を示す。
デモでは,膨大な計算資源や機械学習モデルにアクセスできない研究グループに適した,高速で軽量な環境下でチェスをプレイするエージェントを使用する。
関連論文リスト
- Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - Probe-Based Interventions for Modifying Agent Behavior [4.324022085722613]
本研究では,事前学習したニューラルネットの表現を,外的特性に応じて更新する手法を開発した。
実験では,多種多様なニューラルネットワークに対するヒトエージェントチームのパフォーマンス向上のために,我々の手法がどのように用いられるかを示す。
論文 参考訳(メタデータ) (2022-01-26T19:14:00Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - Brain-Inspired Deep Imitation Learning for Autonomous Driving Systems [0.38673630752805443]
ヒトは、脳の両側の構造的および機能的非対称性から恩恵を受ける強力な一般化能力を持つ。
そこで我々は,人間のニューラルネットワークの非対称性に基づいて,ディープニューラルネットワークにおけるデュアルニューラルネットワークポリシー(NCP)アーキテクチャを設計する。
実験の結果,脳にインスパイアされた手法は,見えないデータを扱う場合の一般化に関する既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-30T14:21:46Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - Sparse Training Theory for Scalable and Efficient Agents [5.71531053864579]
ディープニューラルネットワークは、すべての学習パラダイム、すなわち、完璧に対処できることが証明されている。
教師なし、監督なし、強化学習。
従来のディープラーニングアプローチは、クラウドコンピューティング施設を利用しており、計算リソースの少ない自律エージェントにうまくスケールしない。
本稿では,新しい理論研究の方向性を紹介するとともに,その課題と限界について概説する。
論文 参考訳(メタデータ) (2021-03-02T10:48:29Z) - Self-explaining AI as an alternative to interpretable AI [0.0]
二重降下は、深層ニューラルネットワークがデータポイント間のスムーズな補間によって動作することを示している。
複雑な現実世界のデータに基づいてトレーニングされたニューラルネットワークは、本質的に解釈が困難で、外挿を求めると失敗する傾向がある。
自己説明型AIは、決定と説明の両方の信頼性レベルとともに、人間に理解可能な説明を提供することができる。
論文 参考訳(メタデータ) (2020-02-12T18:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。