論文の概要: Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2208.12433v1
- Date: Fri, 26 Aug 2022 04:28:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-29 13:11:53.376970
- Title: Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning
- Title(参考訳): 階層型強化学習による自動不均衡学習
- Authors: Daochen Zha, Kwei-Herng Lai, Qiaoyu Tan, Sirui Ding, Na Zou, Xia Hu
- Abstract要約: 不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
- 参考スコア(独自算出の注目度): 57.163525407022966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Imbalanced learning is a fundamental challenge in data mining, where there is
a disproportionate ratio of training samples in each class. Over-sampling is an
effective technique to tackle imbalanced learning through generating synthetic
samples for the minority class. While numerous over-sampling algorithms have
been proposed, they heavily rely on heuristics, which could be sub-optimal
since we may need different sampling strategies for different datasets and base
classifiers, and they cannot directly optimize the performance metric.
Motivated by this, we investigate developing a learning-based over-sampling
algorithm to optimize the classification performance, which is a challenging
task because of the huge and hierarchical decision space. At the high level, we
need to decide how many synthetic samples to generate. At the low level, we
need to determine where the synthetic samples should be located, which depends
on the high-level decision since the optimal locations of the samples may
differ for different numbers of samples. To address the challenges, we propose
AutoSMOTE, an automated over-sampling algorithm that can jointly optimize
different levels of decisions. Motivated by the success of
SMOTE~\cite{chawla2002smote} and its extensions, we formulate the generation
process as a Markov decision process (MDP) consisting of three levels of
policies to generate synthetic samples within the SMOTE search space. Then we
leverage deep hierarchical reinforcement learning to optimize the performance
metric on the validation data. Extensive experiments on six real-world datasets
demonstrate that AutoSMOTE significantly outperforms the state-of-the-art
resampling algorithms. The code is at https://github.com/daochenzha/autosmote
- Abstract(参考訳): 不均衡な学習はデータマイニングにおいて基本的な課題であり、各クラスでトレーニングサンプルの比率が不釣り合いである。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
多くのオーバーサンプリングアルゴリズムが提案されているが、それらはヒューリスティックに大きく依存しており、異なるデータセットとベース分類器の異なるサンプリング戦略を必要とする可能性があるため、性能指標を直接最適化することはできない。
そこで本研究では,大規模かつ階層的な決定空間のため,分類性能を最適化する学習に基づくオーバーサンプリングアルゴリズムの開発について検討する。
高いレベルでは、生成する合成サンプルの数を決定する必要があります。
低レベルでは、合成試料の位置を決定する必要があるが、サンプルの最適な位置はサンプルの数によって異なる可能性があるため、高レベルな決定に依存する。
これらの課題に対処するために、さまざまなレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
SMOTE~\cite{chawla2002smote}とその拡張の成功により、我々は、SMOTE検索空間内で合成サンプルを生成するための3段階のポリシーからなるマルコフ決定プロセス(MDP)として生成プロセスを定式化する。
次に、階層的強化学習を活用し、検証データの性能指標を最適化する。
6つの実世界のデータセットに対する大規模な実験は、AutoSMOTEが最先端のリサンプリングアルゴリズムを大幅に上回っていることを示している。
コードはhttps://github.com/daochenzha/autosmoteにある。
関連論文リスト
- AEMLO: AutoEncoder-Guided Multi-Label Oversampling [6.255095509216069]
AEMLOは、不均衡なマルチラベルデータに対するAutoEncoder-guided Oversampling技術である。
AEMLOは、既存の最先端手法よりも優れた性能を示し、広範な実証研究を行った。
論文 参考訳(メタデータ) (2024-08-23T14:01:33Z) - Dataset Quantization with Active Learning based Adaptive Sampling [11.157462442942775]
また, 不均一なサンプル分布であっても, 性能維持が可能であることを示す。
サンプル選択を最適化するために,新しい能動的学習に基づく適応型サンプリング手法を提案する。
提案手法は,最先端のデータセット圧縮手法よりも優れている。
論文 参考訳(メタデータ) (2024-07-09T23:09:18Z) - Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Adaptive Client Sampling in Federated Learning via Online Learning with
Bandit Feedback [36.05851452151107]
統合学習(FL)システムは、トレーニングの各ラウンドに関与するクライアントのサブセットをサンプリングする必要があります。
その重要性にもかかわらず、クライアントを効果的にサンプリングする方法には制限がある。
提案手法は,最適化アルゴリズムの収束速度をいかに向上させるかを示す。
論文 参考訳(メタデータ) (2021-12-28T23:50:52Z) - Local policy search with Bayesian optimization [73.0364959221845]
強化学習は、環境との相互作用によって最適な政策を見つけることを目的としている。
局所探索のための政策勾配は、しばしばランダムな摂動から得られる。
目的関数の確率モデルとその勾配を用いたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-06-22T16:07:02Z) - Adaptive Sampling for Best Policy Identification in Markov Decision
Processes [79.4957965474334]
本稿では,学習者が生成モデルにアクセスできる場合の,割引マルコフ決定(MDP)における最良の政治的識別の問題について検討する。
最先端アルゴリズムの利点を論じ、解説する。
論文 参考訳(メタデータ) (2020-09-28T15:22:24Z) - Ensemble Wrapper Subsampling for Deep Modulation Classification [70.91089216571035]
受信した無線信号のサブサンプリングは、ハードウェア要件と信号処理アルゴリズムの計算コストを緩和するために重要である。
本稿では,無線通信システムにおけるディープラーニングを用いた自動変調分類のためのサブサンプリング手法を提案する。
論文 参考訳(メタデータ) (2020-05-10T06:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。