論文の概要: Q-learning with online random forests
- arxiv url: http://arxiv.org/abs/2204.03771v1
- Date: Thu, 7 Apr 2022 23:00:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-11 12:15:44.389481
- Title: Q-learning with online random forests
- Title(参考訳): オンラインランダム森林を用いたQ学習
- Authors: Joosung Min and Lloyd T. Elliott
- Abstract要約: オンラインランダム・フォレストを$Q$関数近似器として提供し、学習が進むにつれてランダム・フォレストが成長する新しい手法を提案する。
本研究は, 森林の拡大が性能を向上させることを示し, 森林の拡大が, 強化学習環境を超えたオンラインランダム林の他の応用に有効であることを示唆している。
- 参考スコア(独自算出の注目度): 0.913755431537592
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: $Q$-learning is the most fundamental model-free reinforcement learning
algorithm. Deployment of $Q$-learning requires approximation of the
state-action value function (also known as the $Q$-function). In this work, we
provide online random forests as $Q$-function approximators and propose a novel
method wherein the random forest is grown as learning proceeds (through
expanding forests). We demonstrate improved performance of our methods over
state-of-the-art Deep $Q$-Networks in two OpenAI gyms (`blackjack' and
`inverted pendulum') but not in the `lunar lander' gym. We suspect that the
resilience to overfitting enjoyed by random forests recommends our method for
common tasks that do not require a strong representation of the problem domain.
We show that expanding forests (in which the number of trees increases as data
comes in) improve performance, suggesting that expanding forests are viable for
other applications of online random forests beyond the reinforcement learning
setting.
- Abstract(参考訳): Q$-learningは最も基本的なモデルなし強化学習アルゴリズムである。
Q$-learningのデプロイには状態アクション値関数($Q$-functionとも呼ばれる)の近似が必要である。
本研究では,オンラインランダム林を$q$関数近似として提供し,ランダム林を(森林拡大を通じて)学習の過程として成長させる新しい手法を提案する。
我々は,2つのOpenAI体育館('blackjack'と'inverted pendulum')において,最先端のDeep $Q$-Networksに対する手法の性能向上を実証した。
ランダムフォレストが享受する過剰フィットに対するレジリエンスは,問題領域の強い表現を必要としない共通タスクに対して,この手法を推奨していると考えられる。
森林の拡大(データの増加に伴って木の数が増える)がパフォーマンスを向上させることを示し、強化学習環境を超えたオンラインランダム森林の他の応用に森林の拡大が有効であることを示す。
関連論文リスト
- DynFrs: An Efficient Framework for Machine Unlearning in Random Forest [2.315324942451179]
DynFrsはランダムフォレストにおける効率的な機械学習を可能にするために設計されたフレームワークである。
実験では、DynfrsをExtremely Treesに適用すると、大幅に改善される。
論文 参考訳(メタデータ) (2024-10-02T14:20:30Z) - LiteSearch: Efficacious Tree Search for LLM [70.29796112457662]
本研究では,動的ノード選択とノードレベルの探索予算を備えた新しいガイド付き木探索アルゴリズムを提案する。
GSM8KおよびTabMWPデータセットを用いて行った実験により,本手法はベースライン法に比べて計算コストが大幅に低いことを示した。
論文 参考訳(メタデータ) (2024-06-29T05:14:04Z) - Adaptive Split Balancing for Optimal Random Forest [8.916614661563893]
そこで本研究では,新しい適応型分割バランス法を用いて木を構築するランダムフォレストアルゴリズムを提案する。
本手法は,データから木構造を適応的に学習しながら,シンプルでスムーズなシナリオで最適性を実現する。
論文 参考訳(メタデータ) (2024-02-17T09:10:40Z) - ForensicsForest Family: A Series of Multi-scale Hierarchical Cascade Forests for Detecting GAN-generated Faces [53.739014757621376]
我々は,GAN生成顔を検出するために,EmforensicsForest Familyと呼ばれる簡易かつ効果的な森林法について述べる。
ForenscisForestは、新しく提案された多層階層のカスケード林である。
Hybrid ForensicsForestはCNNレイヤをモデルに統合する。
Divide-and-Conquer ForensicsForestは、トレーニングサンプリングの一部のみを使用して、森林モデルを構築することができる。
論文 参考訳(メタデータ) (2023-08-02T06:41:19Z) - Neuroevolution-based Classifiers for Deforestation Detection in Tropical
Forests [62.997667081978825]
森林破壊や荒廃により、毎年何百万ヘクタールもの熱帯林が失われる。
監視・森林破壊検知プログラムは、犯罪者の予防・処罰のための公共政策に加えて、使用されている。
本稿では,熱帯林の森林破壊検出作業におけるニューロ進化技術(NEAT)に基づくパターン分類器の利用を提案する。
論文 参考訳(メタデータ) (2022-08-23T16:04:12Z) - Explaining random forest prediction through diverse rulesets [0.0]
Local Tree eXtractor (LTreeX)は、与えられたテストインスタンスのフォレスト予測を、いくつかの異なるルールで説明することができる。
提案手法は予測性能の点で他の説明可能な手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2022-03-29T12:54:57Z) - Anti-Concentrated Confidence Bonuses for Scalable Exploration [57.91943847134011]
固有の報酬は、探検と探検のトレードオフを扱う上で中心的な役割を果たす。
楕円ボーナスを効率的に近似するためのエンファンティ集中型信頼境界を導入する。
我々は,Atariベンチマーク上での現代固有の報酬と競合する,深層強化学習のための実用的な変種を開発する。
論文 参考訳(メタデータ) (2021-10-21T15:25:15Z) - EE-Net: Exploitation-Exploration Neural Networks in Contextual Bandits [52.98326168071513]
EE-Netは、新しい探索戦略を持つニューラルネットワークベースのバンドイットアプローチである。
EE-Net が $mathcalO(sqrtTlog T)$ regret を達成することを示す。
論文 参考訳(メタデータ) (2021-10-07T04:12:36Z) - Minimax Rates for High-Dimensional Random Tessellation Forests [0.0]
モンドリアン林は、任意の次元でミニマックスレートが得られた最初のランダム林である。
概略分割方向を持つ多種多様なランダム林は任意の次元における最小収束率も達成できることを示す。
論文 参考訳(メタデータ) (2021-09-22T06:47:38Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - Learning Representations for Axis-Aligned Decision Forests through Input
Perturbation [2.755007887718791]
軸に整合した意思決定の森は、長い間機械学習アルゴリズムの主要なクラスでした。
広く使われていることと豊富な歴史にもかかわらず、現在の決定林は生の構造化データを消費することができない。
本稿では,意思決定林の表現学習を実現するための新しい,直感的な提案を提案する。
論文 参考訳(メタデータ) (2020-07-29T11:56:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。