論文の概要: Automation and Feature Selection Enhancement with Reinforcement Learning (RL)
- arxiv url: http://arxiv.org/abs/2503.11991v1
- Date: Sat, 15 Mar 2025 04:30:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 15:59:33.514571
- Title: Automation and Feature Selection Enhancement with Reinforcement Learning (RL)
- Title(参考訳): 強化学習(RL)による自動化と特徴選択の促進
- Authors: Sumana Sanyasipura Nagaraju,
- Abstract要約: 決定木と統合された強化学習は、特徴知識、状態表現、選択効率を向上させる。
モンテカルロをベースとした単エージェント特徴選択法である強化特徴選択(MCRFS)は計算負担を軽減する。
機能とインスタンスをまとめて選択し、それら間のインタラクションをキャプチャする、デュアルエージェントのRLフレームワークも導入された。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Effective feature selection, representation and transformation are principal steps in machine learning to improve prediction accuracy, model generalization and computational efficiency. Reinforcement learning provides a new perspective towards balanced exploration of optimal feature subset using multi-agent and single-agent models. Interactive reinforcement learning integrated with decision tree improves feature knowledge, state representation and selection efficiency, while diversified teaching strategies improve both selection quality and efficiency. The state representation can further be enhanced by scanning features sequentially along with the usage of convolutional auto-encoder. Monte Carlo-based reinforced feature selection(MCRFS), a single-agent feature selection method reduces computational burden by incorporating early-stopping and reward-level interactive strategies. A dual-agent RL framework is also introduced that collectively selects features and instances, capturing the interactions between them. This enables the agents to navigate through complex data spaces. To outperform the traditional feature engineering, cascading reinforced agents are used to iteratively improve the feature space, which is a self-optimizing framework. The blend of reinforcement learning, multi-agent systems, and bandit-based approaches offers exciting paths for studying scalable and interpretable machine learning solutions to handle high-dimensional data and challenging predictive tasks.
- Abstract(参考訳): 効果的な特徴選択、表現、変換は、予測精度、モデルの一般化、計算効率を改善する機械学習の主要なステップである。
強化学習は、マルチエージェントモデルと単一エージェントモデルを用いた最適な特徴部分集合のバランスよく探索する新しい視点を提供する。
決定木と統合された相互強化学習は、特徴知識、状態表現、選択効率を向上させる一方、多角化教育戦略は選択品質と効率の両方を改善する。
状態表現は、畳み込みオートエンコーダの使用とともに、順次機能をスキャンすることでさらに拡張することができる。
モンテカルロをベースとした単エージェント特徴選択法である強化特徴選択(MCRFS)は,早期のストッピングと報酬レベルの対話戦略を取り入れることで,計算負担を軽減する。
機能とインスタンスをまとめて選択し、それら間のインタラクションをキャプチャする、デュアルエージェントのRLフレームワークも導入された。
これによりエージェントは複雑なデータ空間をナビゲートできる。
従来の機能エンジニアリングを上回り、自己最適化フレームワークである機能空間を反復的に改善するために、カスケード強化エージェントが使用される。
強化学習、マルチエージェントシステム、およびバンディットベースのアプローチを組み合わせることで、スケーラブルで解釈可能な機械学習ソリューションを研究して、高次元データと挑戦的な予測タスクを処理するためのエキサイティングなパスを提供する。
関連論文リスト
- "FRAME: Forward Recursive Adaptive Model Extraction-A Technique for Advance Feature Selection" [0.0]
本研究では,新しいハイブリッド手法であるフォワード再帰適応モデル抽出手法(FRAME)を提案する。
FRAMEは、フォワード選択と再帰的特徴除去を組み合わせて、さまざまなデータセットにおける機能選択を強化する。
その結果、FRAMEは下流の機械学習評価指標に基づいて、常に優れた予測性能を提供することが示された。
論文 参考訳(メタデータ) (2025-01-21T08:34:10Z) - From Novice to Expert: LLM Agent Policy Optimization via Step-wise Reinforcement Learning [62.54484062185869]
本稿では,エージェントの強化学習プロセスの最適化にステップワイド報酬を利用するStepAgentを紹介する。
エージェント反射とポリシー調整を容易にする暗黙の逆・逆の強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T10:35:11Z) - Decentralized and Lifelong-Adaptive Multi-Agent Collaborative Learning [57.652899266553035]
分散型および生涯適応型多エージェント協調学習は、中央サーバを使わずに複数のエージェント間のコラボレーションを強化することを目的としている。
動的協調グラフを用いた分散マルチエージェント生涯協調学習アルゴリズムであるDeLAMAを提案する。
論文 参考訳(メタデータ) (2024-03-11T09:21:11Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Traceable Group-Wise Self-Optimizing Feature Transformation Learning: A
Dual Optimization Perspective [33.45878576396101]
特徴変換は、既存の特徴を数学的に洗練することにより、効果的な表現空間を再構築することを目的としている。
既存の研究は主にドメイン知識に基づく特徴工学や学習潜在表現に重点を置いている。
最初の作業は、新しい自己最適化フレームワークを導入することで、この課題への先駆的な一歩を踏み出したのです。
論文 参考訳(メタデータ) (2023-06-29T12:29:21Z) - Self-Optimizing Feature Transformation [33.458785763961004]
特徴変換は、既存の特徴を数学的に変換することで、優れた表現(特徴)空間を抽出することを目的としている。
現在の研究は、ドメイン知識に基づく特徴工学や学習潜在表現に焦点を当てている。
特徴変換のための自己最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-16T16:50:41Z) - Meta-Wrapper: Differentiable Wrapping Operator for User Interest
Selection in CTR Prediction [97.99938802797377]
クリックスルー率(CTR)予測は、ユーザーが商品をクリックする確率を予測することを目的としており、リコメンデーションシステムにおいてますます重要になっている。
近年,ユーザの行動からユーザの興味を自動的に抽出する深層学習モデルが大きな成功を収めている。
そこで我々は,メタラッパー(Meta-Wrapper)と呼ばれるラッパー手法の枠組みに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2022-06-28T03:28:15Z) - Pessimism meets VCG: Learning Dynamic Mechanism Design via Offline
Reinforcement Learning [114.36124979578896]
オフライン強化学習アルゴリズムを用いて動的メカニズムを設計する。
我々のアルゴリズムは悲観主義の原理に基づいており、オフラインデータセットのカバレッジについて軽度な仮定しか必要としない。
論文 参考訳(メタデータ) (2022-05-05T05:44:26Z) - Generative Adversarial Reward Learning for Generalized Behavior Tendency
Inference [71.11416263370823]
ユーザの行動嗜好モデルのための生成的逆強化学習を提案する。
我々のモデルは,差別的アクター批判ネットワークとWasserstein GANに基づいて,ユーザの行動から報酬を自動的に学習することができる。
論文 参考訳(メタデータ) (2021-05-03T13:14:25Z) - Simplifying Reinforced Feature Selection via Restructured Choice
Strategy of Single Agent [32.483981722074574]
再構成選択戦略と統合した単一エージェント強化特徴選択手法を開発した。
複数のエージェントを使わずに、複数の機能の選択タスクを処理するために、1つのエージェントしか利用しません。
状態表現を改善するために,特徴の符号化インデックス情報と統合された畳み込み自動エンコーダアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-19T13:41:39Z) - AutoFS: Automated Feature Selection via Diversity-aware Interactive
Reinforcement Learning [34.33231470225591]
自動特徴選択における効率と効率のバランスの問題について検討する。
このような計算ジレンマに動機づけられた本研究は,新しい特徴空間ナビゲーション手法を開発することを目的とする。
論文 参考訳(メタデータ) (2020-08-27T09:11:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。