論文の概要: Building Decision Forest via Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2204.00306v1
- Date: Fri, 1 Apr 2022 09:37:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-04-04 14:37:37.565628
- Title: Building Decision Forest via Deep Reinforcement Learning
- Title(参考訳): 深層強化学習による意思決定林の構築
- Authors: Guixuan Wen and Kaigui Wu
- Abstract要約: 本稿では,MA-H-SAC-DFと呼ばれる森林決定手法を提案する。
ハイブリッドSACはCTDEアーキテクチャのマルチエージェントシステムに拡張され,最適な森林建設方針が決定される。
実験の結果、MA-H-SAC-DFは、バランスのとれたデータセット上でランダムフォレスト、Adaboost、GBDTと同等のパフォーマンスを示し、バランスのとれたデータセットではパフォーマンスが向上している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensemble learning methods whose base classifier is a decision tree usually
belong to the bagging or boosting. However, no previous work has ever built the
ensemble classifier by maximizing long-term returns to the best of our
knowledge. This paper proposes a decision forest building method called
MA-H-SAC-DF for binary classification via deep reinforcement learning. First,
the building process is modeled as a decentralized partial observable Markov
decision process, and a set of cooperative agents jointly constructs all base
classifiers. Second, the global state and local observations are defined based
on informations of the parent node and the current location. Last, the
state-of-the-art deep reinforcement method Hybrid SAC is extended to a
multi-agent system under the CTDE architecture to find an optimal decision
forest building policy. The experiments indicate that MA-H-SAC-DF has the same
performance as random forest, Adaboost, and GBDT on balanced datasets and
outperforms them on imbalanced datasets.
- Abstract(参考訳): 基本分類器が決定木であるアンサンブル学習方法は、通常、袋詰めまたはブースティングに属する。
しかし、我々の知識の最良のところへの長期的な回帰を最大化することによってアンサンブル分類器を構築した以前の研究はない。
本稿では,MA-H-SAC-DFと呼ばれる森林決定手法を提案する。
まず、構築プロセスは分散部分可観測マルコフ決定プロセスとしてモデル化され、協調エージェントのセットは、すべてのベース分類器を共同で構築する。
第2に、親ノードの情報と現在の位置に基づいて、グローバル状態と局所観測が定義される。
最後に、最先端の深層補強法であるハイブリッドSACをCTDEアーキテクチャの下でマルチエージェントシステムに拡張し、最適な森林建設方針を求める。
実験によれば、ma-h-sac-dfは、バランスの取れたデータセット上でランダムフォレスト、adaboost、gbdtと同等の性能を持ち、不バランスなデータセットでそれを上回る。
関連論文リスト
- Learning Order Forest for Qualitative-Attribute Data Clustering [52.612779710298526]
本稿では,属性内定性値間の局所的な順序関係を柔軟に表現する木のような距離構造を探索する。
より適切な木構造とクラスタを反復的に獲得するために,共同学習機構を提案する。
実験により、共同学習は森林をクラスタリングタスクに適応させ、正確な結果を得ることを示した。
論文 参考訳(メタデータ) (2026-03-03T07:49:50Z) - Expert Knowledge-Guided Decision Calibration for Accurate Fine-Grained Tree Species Classification [14.123072349997743]
本稿では,これらの課題を克服するためのエキスパート知識指導型分類決定ネットワーク(EKDC-Net)を提案する。
私たちのフレームワークは、専門家の知識抽出と利用の2つの問題に対処しています。
軽量なプラグアンドプレイモジュールとして、EKDC-Netは0.08M追加の学習可能なパラメータを使用してバックボーンの精度を11.46%改善した。
論文 参考訳(メタデータ) (2026-01-23T07:02:13Z) - TreePS-RAG: Tree-based Process Supervision for Reinforcement Learning in Agentic RAG [71.06073770344732]
エージェント検索強化生成(RAG)は、推論と情報検索の多段階的な相互作用として質問応答を定式化する。
エージェントRAGのためのオンラインツリーベースRLフレームワークであるTreePS-RAGについて述べる。
論文 参考訳(メタデータ) (2026-01-11T14:07:30Z) - Decision Tree Embedding by Leaf-Means [11.318593165494724]
決定木埋め込み(Decision Tree Embedding, DTE)は、訓練された分類木の葉の分割を利用して解釈可能な特徴表現を構築する、迅速かつ効果的な方法である。
各葉領域内のサンプル手段をアンカーポイントとして使用することにより、DTEは木の分割構造によって定義された埋め込み空間に入力をマップする。
軽度条件下での条件密度の保存を含む,DTEの個体群レベルの理論的特性を確立した。
論文 参考訳(メタデータ) (2025-12-01T15:57:33Z) - Tree Search for LLM Agent Reinforcement Learning [23.7084695563981]
Tree-based Group Relative Policy Optimization (Tree-GRPO) は、木探索に基づくグループ化エージェントRL法である。
共通のプレフィックスを共有することで、ツリー検索サンプリングは、達成可能なロールアウトの数を増やす。
木レベルでの相対的政策最適化の目的は、ステップレベルの直接選好学習と同等であることを示す。
論文 参考訳(メタデータ) (2025-09-25T14:37:09Z) - Centroid Decision Forest [1.1470070927586018]
本稿では,高次元分類のための通常の決定木における分割戦略と木構築を再定義する,新しいアンサンブル学習フレームワークであるCentroid decision forest (CDF)を紹介する。
CDFの分割アプローチは、分割(娘ノード)のセントロイドを構成するために各ノードで最も識別性の高い特徴の選択を決定するために、クラス分離性スコア(CSS)をテートする伝統的な決定木とは異なる。
実験の結果,CDFは高次元分類問題に対する有効性と柔軟性を確立する従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2025-03-25T03:12:52Z) - Learning Decision Trees as Amortized Structure Inference [59.65621207449269]
本稿では,予測決定木アンサンブルを学習するためのハイブリッドアモータイズされた構造推論手法を提案する。
提案手法であるDT-GFNは,標準分類ベンチマークにおける最先端決定木やディープラーニング手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-03-10T07:05:07Z) - Zero-Shot Decision Tree Construction via Large Language Models [2.005837558796176]
本稿では,大言語モデル(LLM)を用いた決定木構築アルゴリズムについて,分類・回帰木(CART)の原理に基づくゼロショット方式で紹介する。
提案手法では, 属性の離散化, 確率計算, Giniインデックス計算など, 決定木構築に必要な演算を行う。
論文 参考訳(メタデータ) (2025-01-27T17:48:48Z) - ODTE -- An ensemble of multi-class SVM-based oblique decision trees [0.7182449176083623]
ODTEは、斜め決定木をベース分類子として使用する新しいアンサンブルである。
斜め決定木を育成するための基本アルゴリズムSTreeを紹介する。
ODTEは一貫してライバルより上位に位置する。
論文 参考訳(メタデータ) (2024-11-20T14:58:32Z) - Learning Deep Tree-based Retriever for Efficient Recommendation: Theory and Method [76.31185707649227]
効率的なレコメンデーションのために,Deep Tree-based Retriever (DTR)を提案する。
DTRは、トレーニングタスクを、同じレベルでツリーノード上のソフトマックスベースのマルチクラス分類としてフレーム化している。
非リーフノードのラベル付けによって引き起こされる準最適性を緩和するため、損失関数の補正法を提案する。
論文 参考訳(メタデータ) (2024-08-21T05:09:53Z) - An Interpretable Client Decision Tree Aggregation process for Federated Learning [7.8973037023478785]
本稿では,フェデレート学習シナリオを対象とした解釈可能なクライアント決定木集約プロセスを提案する。
このモデルは、決定ツリーの複数の決定パスの集約に基づいており、ID3やCARTなど、さまざまな決定ツリータイプで使用することができる。
4つのデータセットで実験を行い、分析により、モデルで構築された木が局所モデルを改善し、最先端のモデルより優れていることが示された。
論文 参考訳(メタデータ) (2024-04-03T06:53:56Z) - Learning a Decision Tree Algorithm with Transformers [75.96920867382859]
メタ学習によってトレーニングされたトランスフォーマーベースのモデルであるMetaTreeを導入し、強力な決定木を直接生成する。
我々は、多くのデータセットに欲求決定木とグローバルに最適化された決定木の両方を適合させ、MetaTreeを訓練して、強力な一般化性能を実現する木のみを生成する。
論文 参考訳(メタデータ) (2024-02-06T07:40:53Z) - RJHMC-Tree for Exploration of the Bayesian Decision Tree Posterior [1.3351610617039973]
本論文はベイジアンアプローチを用いてデータから決定木を学習することを目的としている。
ハミルトンモンテカルロ (HMC) アプローチを用いてベイズ決定木の後方をより効率的に探索する。
論文 参考訳(メタデータ) (2023-12-04T02:23:32Z) - Contextual Decision Trees [62.997667081978825]
学習アンサンブルの1つの浅い木を特徴量ベースで選択するための,マルチアームのコンテキスト付きバンドレコメンデーションフレームワークを提案する。
トレーニングされたシステムはランダムフォレスト上で動作し、最終的な出力を提供するためのベース予測器を動的に識別する。
論文 参考訳(メタデータ) (2022-07-13T17:05:08Z) - Deep Neural Decision Forest for Acoustic Scene Classification [45.886356124352226]
音響シーン分類(ASC)は、録音環境の特性に基づいて音声クリップを分類することを目的としている。
深層神経決定林(DNDF)を用いたASCの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-07T14:39:42Z) - Open-Set Recognition: A Good Closed-Set Classifier is All You Need [146.6814176602689]
分類器が「ゼロ・オブ・ア・ア・ア・ベ」決定を行う能力は、閉集合クラスにおける精度と高い相関関係があることが示される。
この相関を利用して、閉セット精度を向上させることにより、クロスエントロピーOSR'ベースライン'の性能を向上させる。
また、セマンティックノベルティを検出するタスクをより尊重する新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2021-10-12T17:58:59Z) - Making CNNs Interpretable by Building Dynamic Sequential Decision
Forests with Top-down Hierarchy Learning [62.82046926149371]
本稿では,CNN(Convlutional Neural Networks)を解釈可能なモデル転送方式を提案する。
我々は、CNNの上に微分可能な意思決定林を構築することで、これを実現する。
DDSDF(Dep Dynamic Sequential Decision Forest)と命名する。
論文 参考訳(メタデータ) (2021-06-05T07:41:18Z) - Unveiling the Potential of Structure-Preserving for Weakly Supervised
Object Localization [71.79436685992128]
本稿では,WSOLの畳み込み機能に組み込まれた構造情報を完全に活用するための2段階構造保存アクティベーション(SPA)を提案する。
第1段階では、分類ネットワークによって引き起こされる構造ミス問題を軽減するために制限アクティベーションモジュール(ram)が設計されている。
第2段階では, 自己相関マップ生成(SCG)モジュールと呼ばれるプロセス後アプローチを提案し, 構造保存ローカライゼーションマップを得る。
論文 参考訳(メタデータ) (2021-03-08T03:04:14Z) - The Max-Cut Decision Tree: Improving on the Accuracy and Running Time of
Decision Trees [0.0]
Max-Cut決定木は、分類決定木構築の標準的なベースラインモデル(正確にはCART Gini)に新しい修正を加えている。
実験の結果,このノードベースの局所化PCAは分類を劇的に改善すると同時に,ベースライン決定木に比べて計算時間を著しく短縮できることがわかった。
CIFAR-100の例では、CPU時間を94%削減しつつ、49%の精度向上を実現している。
論文 参考訳(メタデータ) (2020-06-25T00:47:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。