論文の概要: AutoFS: Automated Feature Selection via Diversity-aware Interactive
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2008.12001v3
- Date: Wed, 16 Sep 2020 08:12:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 07:00:38.318039
- Title: AutoFS: Automated Feature Selection via Diversity-aware Interactive
Reinforcement Learning
- Title(参考訳): autofs: 多様性を意識したインタラクティブ強化学習による自動機能選択
- Authors: Wei Fan, Kunpeng Liu, Hao Liu, Pengyang Wang, Yong Ge and Yanjie Fu
- Abstract要約: 自動特徴選択における効率と効率のバランスの問題について検討する。
このような計算ジレンマに動機づけられた本研究は,新しい特徴空間ナビゲーション手法を開発することを目的とする。
- 参考スコア(独自算出の注目度): 34.33231470225591
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study the problem of balancing effectiveness and efficiency
in automated feature selection. Feature selection is a fundamental intelligence
for machine learning and predictive analysis. After exploring many feature
selection methods, we observe a computational dilemma: 1) traditional feature
selection methods (e.g., mRMR) are mostly efficient, but difficult to identify
the best subset; 2) the emerging reinforced feature selection methods
automatically navigate feature space to explore the best subset, but are
usually inefficient. Are automation and efficiency always apart from each
other? Can we bridge the gap between effectiveness and efficiency under
automation? Motivated by such a computational dilemma, this study is to develop
a novel feature space navigation method. To that end, we propose an Interactive
Reinforced Feature Selection (IRFS) framework that guides agents by not just
self-exploration experience, but also diverse external skilled trainers to
accelerate learning for feature exploration. Specifically, we formulate the
feature selection problem into an interactive reinforcement learning framework.
In this framework, we first model two trainers skilled at different searching
strategies: (1) KBest based trainer; (2) Decision Tree based trainer. We then
develop two strategies: (1) to identify assertive and hesitant agents to
diversify agent training, and (2) to enable the two trainers to take the
teaching role in different stages to fuse the experiences of the trainers and
diversify teaching process. Such a hybrid teaching strategy can help agents to
learn broader knowledge, and, thereafter, be more effective. Finally, we
present extensive experiments on real-world datasets to demonstrate the
improved performances of our method: more efficient than existing reinforced
selection and more effective than classic selection.
- Abstract(参考訳): 本稿では,自動特徴選択における効率と効率のバランスの問題について検討する。
特徴選択は、機械学習と予測分析の基本的なインテリジェンスである。
多くの特徴選択法を探索した後、計算ジレンマを観測する。
1) 従来の特徴選択法(例:mRMR)は主に効率的であるが、最適な部分集合を特定することは困難である。
2) 強化特徴選択法は, 最良部分集合を探索するために自動的に特徴空間をナビゲートするが, 通常は非効率である。
自動化と効率は常に異なるのか?
自動化によって有効性と効率のギャップを埋めることができるか?
このような計算ジレンマに動機づけられた本研究は,新しい特徴空間ナビゲーション手法の開発である。
そこで本研究では,エージェントの自己探索経験だけでなく,多様な外部スキルトレーナーによる特徴探索学習を高速化する,インタラクティブ強化機能選択(IRFS)フレームワークを提案する。
具体的には,特徴選択問題を対話型強化学習フレームワークに定式化する。
本フレームワークでは,まず,(1) KBest 型トレーナー,(2) 決定木型トレーナーという,異なる探索法に熟練した2人のトレーナーをモデル化する。
次に,(1)エージェントの訓練を多角化し,(2)異なる段階における指導の役割を担い,トレーナーの経験を融合させ,指導過程を多様化させる,という2つの戦略を考案する。
このようなハイブリッドな教育戦略は、エージェントがより広い知識を学ぶのに役立ち、その後より効果的になる。
最後に,本手法の性能向上を実証するために,実世界のデータセットに関する広範な実験を行った。
関連論文リスト
- Multi-Type Preference Learning: Empowering Preference-Based Reinforcement Learning with Equal Preferences [12.775486996512434]
嗜好に基づく強化学習は、エージェント行動に関する人間教師の嗜好から直接学習する。
既存のPBRL法はしばしば明示的な選好から学習し、教師が平等な選好を選択する可能性を無視している。
そこで本稿では,PBRL手法であるMulti-Type Preference Learning (MTPL)を提案する。
論文 参考訳(メタデータ) (2024-09-11T13:43:49Z) - Is Interpretable Machine Learning Effective at Feature Selection for Neural Learning-to-Rank? [15.757181795925336]
ニューラルネットワークのランキングモデルは、現実世界の検索とレコメンデーションシステムでますます人気が高まっている。
ツリーベースのモデルとは異なり、ニューラルモデルは解釈がはるかに少ない。
これは、現実世界のシステムにとって解釈可能性が非常に重要であるため、特に不利である。
論文 参考訳(メタデータ) (2024-05-13T14:26:29Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [56.997263135104504]
我々は,対話型模倣学習と類似するが,さらに実践的な仮定の下で,非政治強化学習によってパフォーマンスが向上できることを実証する。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - The Paradox of Choice: Using Attention in Hierarchical Reinforcement
Learning [59.777127897688594]
サブゴールオプションのさらなる学習に使用できる、オンラインでモデルフリーなアルゴリズムを提案する。
訓練データ収集におけるハード・ソフト・アテンションの役割,長期的タスクにおける抽象的価値学習,および多数の選択肢に対する対処について検討する。
論文 参考訳(メタデータ) (2022-01-24T13:18:02Z) - Efficient Reinforced Feature Selection via Early Stopping Traverse
Strategy [36.890295071860166]
単エージェントモンテカルロ型強化特徴選択法(MCRFS)を提案する。
また,早期停止(ES)戦略と報酬レベルインタラクティブ(RI)戦略の2つの効率改善戦略を提案する。
論文 参考訳(メタデータ) (2021-09-29T03:51:13Z) - PEBBLE: Feedback-Efficient Interactive Reinforcement Learning via
Relabeling Experience and Unsupervised Pre-training [94.87393610927812]
我々は、フィードバックと非政治学習の両方の長所を生かした、非政治的、インタラクティブな強化学習アルゴリズムを提案する。
提案手法は,従来ヒト・イン・ザ・ループ法で検討されていたよりも複雑度の高いタスクを学習可能であることを実証する。
論文 参考訳(メタデータ) (2021-06-09T14:10:50Z) - Training ELECTRA Augmented with Multi-word Selection [53.77046731238381]
本稿では,マルチタスク学習に基づくELECTRAの改良を目的としたテキストエンコーダ事前学習手法を提案する。
具体的には、識別器を訓練し、置換トークンを同時に検出し、候補集合から元のトークンを選択する。
論文 参考訳(メタデータ) (2021-05-31T23:19:00Z) - Interactive Reinforcement Learning for Feature Selection with Decision
Tree in the Loop [41.66297299506421]
自動特徴選択における効率と効率のバランスの問題について検討する。
対話型強化学習(IRL)と決定木フィードバック(DTF)を同時にモデル化する対話型閉ループアーキテクチャを提案する。
実世界のデータセットに関する広範な実験を行い,その性能改善について述べる。
論文 参考訳(メタデータ) (2020-10-02T18:09:57Z) - Towards Efficient Processing and Learning with Spikes: New Approaches
for Multi-Spike Learning [59.249322621035056]
各種タスクにおける他のベースラインよりも優れた性能を示すための2つの新しいマルチスパイク学習ルールを提案する。
特徴検出タスクでは、教師なしSTDPの能力と、その制限を提示する能力を再検討する。
提案した学習ルールは,特定の制約を適用せずに,幅広い条件で確実にタスクを解くことができる。
論文 参考訳(メタデータ) (2020-05-02T06:41:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。