論文の概要: Automating DBSCAN via Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2208.04537v1
- Date: Tue, 9 Aug 2022 04:40:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-10 13:14:38.331322
- Title: Automating DBSCAN via Deep Reinforcement Learning
- Title(参考訳): 深層強化学習によるDBSCANの自動化
- Authors: Ruitong Zhang, Hao Peng, Yingtong Dou, Jia Wu, Qingyun Sun, Jingyi
Zhang, Philip S. Yu
- Abstract要約: 本稿では,DBSCANの自動パラメータ検索フレームワークであるDRL-DBSCANを提案する。
このフレームワークは、クラスタリング環境をマルコフ決定プロセスとして知覚することで、パラメータ探索方向を調整する過程をモデル化する。
このフレームワークはDBSCANクラスタリングの精度を最大で26%、25%改善している。
- 参考スコア(独自算出の注目度): 73.82740568765279
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: DBSCAN is widely used in many scientific and engineering fields because of
its simplicity and practicality. However, due to its high sensitivity
parameters, the accuracy of the clustering result depends heavily on practical
experience. In this paper, we first propose a novel Deep Reinforcement Learning
guided automatic DBSCAN parameters search framework, namely DRL-DBSCAN. The
framework models the process of adjusting the parameter search direction by
perceiving the clustering environment as a Markov decision process, which aims
to find the best clustering parameters without manual assistance. DRL-DBSCAN
learns the optimal clustering parameter search policy for different feature
distributions via interacting with the clusters, using a weakly-supervised
reward training policy network. In addition, we also present a recursive search
mechanism driven by the scale of the data to efficiently and controllably
process large parameter spaces. Extensive experiments are conducted on five
artificial and real-world datasets based on the proposed four working modes.
The results of offline and online tasks show that the DRL-DBSCAN not only
consistently improves DBSCAN clustering accuracy by up to 26% and 25%
respectively, but also can stably find the dominant parameters with high
computational efficiency. The code is available at
https://github.com/RingBDStack/DRL-DBSCAN.
- Abstract(参考訳): DBSCANは、その単純さと実用性から、多くの科学と工学の分野で広く使われている。
しかし,高感度パラメータのため,クラスタ化結果の精度は実用的経験に大きく依存する。
本稿では,新しいDBSCANパラメータの自動探索フレームワークであるDRL-DBSCANを提案する。
このフレームワークは、マルコフ決定プロセスとしてクラスタリング環境を知覚することでパラメータ探索方向を調整するプロセスをモデル化する。
DRL-DBSCANは、クラスタとの相互作用を通じて異なる特徴分布に対する最適なクラスタリングパラメータ探索ポリシーを、弱教師付き報酬訓練ネットワークを用いて学習する。
また,データ規模によって駆動される再帰的な探索機構を,大規模パラメータ空間を効率的にかつ制御的に処理する。
提案する4つの作業モードに基づく5つの人工および実世界のデータセットについて,広範な実験を行った。
オフラインタスクとオンラインタスクの結果、DRL-DBSCANはDBSCANクラスタリングの精度を最大26%、25%改善するだけでなく、高い計算効率で支配的なパラメータを安定して見つけることができる。
コードはhttps://github.com/RingBDStack/DRL-DBSCANで公開されている。
関連論文リスト
- ARLBench: Flexible and Efficient Benchmarking for Hyperparameter Optimization in Reinforcement Learning [42.33815055388433]
ARLBenchは強化学習(RL)におけるハイパーパラメータ最適化(HPO)のベンチマークである
様々なHPOアプローチの比較が可能であり、高い効率で評価できる。
ARLBenchはAutoRLの研究のための効率的で柔軟性があり、未来志向の基盤である。
論文 参考訳(メタデータ) (2024-09-27T15:22:28Z) - D5RL: Diverse Datasets for Data-Driven Deep Reinforcement Learning [99.33607114541861]
ロボット操作と移動環境の現実的なシミュレーションに焦点を当てたオフラインRLのための新しいベンチマークを提案する。
提案するベンチマークでは、状態ベースドメインと画像ベースドメインを対象とし、オフラインRLとオンライン微調整評価の両方をサポートしている。
論文 参考訳(メタデータ) (2024-08-15T22:27:00Z) - Low-Rank Representations Meets Deep Unfolding: A Generalized and
Interpretable Network for Hyperspectral Anomaly Detection [41.50904949744355]
現在のハイパースペクトル異常検出(HAD)ベンチマークデータセットは、低解像度、単純なバックグラウンド、検出データの小さなサイズに悩まされている。
これらの要因は、ロバスト性の観点からよく知られた低ランク表現(LRR)モデルの性能も制限する。
我々は、複雑なシナリオにおけるHADアルゴリズムの堅牢性を改善するために、新しいHADベンチマークデータセットであるAIR-HADを構築した。
論文 参考訳(メタデータ) (2024-02-23T14:15:58Z) - Efficient Architecture Search via Bi-level Data Pruning [70.29970746807882]
この研究は、DARTSの双方向最適化におけるデータセット特性の重要な役割を探求する先駆者となった。
我々は、スーパーネット予測力学を計量として活用する新しいプログレッシブデータプルーニング戦略を導入する。
NAS-Bench-201サーチスペース、DARTSサーチスペース、MobileNetのようなサーチスペースに関する総合的な評価は、BDPがサーチコストを50%以上削減することを検証する。
論文 参考訳(メタデータ) (2023-12-21T02:48:44Z) - Learning Regions of Interest for Bayesian Optimization with Adaptive
Level-Set Estimation [84.0621253654014]
本稿では,高信頼領域を適応的にフィルタするBALLETというフレームワークを提案する。
理論的には、BALLETは探索空間を効率的に縮小することができ、標準BOよりも厳密な後悔を示すことができる。
論文 参考訳(メタデータ) (2023-07-25T09:45:47Z) - Data-Efficient Pipeline for Offline Reinforcement Learning with Limited
Data [28.846826115837825]
オフライン強化学習は、過去のデータを活用することで、将来のパフォーマンスを改善するために使用できる。
最適なポリシを自動トレーニングし、比較し、選択し、デプロイするためのタスクとメソッドに依存しないパイプラインを導入します。
データセットが小さい場合には、大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2022-10-16T21:24:53Z) - No More Pesky Hyperparameters: Offline Hyperparameter Tuning for RL [28.31529154045046]
オフラインデータのログからハイパーパラメータをチューニングするための新しい手法を提案する。
まず, キャリブレーションモデルと呼ばれるオフラインデータから環境モデルを学び, キャリブレーションモデルにおける学習をシミュレートする。
我々は,その方法が有効でいつ失敗するかを,様々な設定で実証的に調べる。
論文 参考訳(メタデータ) (2022-05-18T04:26:23Z) - AUTOMATA: Gradient Based Data Subset Selection for Compute-Efficient
Hyper-parameter Tuning [72.54359545547904]
ハイパーパラメータチューニングのための勾配に基づくサブセット選択フレームワークを提案する。
ハイパーパラメータチューニングに勾配ベースのデータサブセットを用いることで、3$times$-30$times$のターンアラウンド時間とスピードアップが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-03-15T19:25:01Z) - Hyperparameter Tuning for Deep Reinforcement Learning Applications [0.3553493344868413]
本稿では,分散可変長遺伝的アルゴリズムを用いて,様々なRLアプリケーションに対してハイパーパラメータをチューニングする手法を提案する。
以上の結果から, より世代を要し, トレーニングエピソードが少なく, 計算コストも安価で, デプロイの堅牢性も高い最適解が得られた。
論文 参考訳(メタデータ) (2022-01-26T20:43:13Z) - AutoHAS: Efficient Hyperparameter and Architecture Search [104.29883101871083]
AutoHASは、共有ネットワークウェイトと強化学習コントローラを交互に更新することを学ぶ。
選択したHPから更新された重量を格納するために一時的な重量を導入する。
実験では、AutoHASは様々な検索空間、ベースライン、データセットに対して効率的かつ一般化可能であることを示す。
論文 参考訳(メタデータ) (2020-06-05T19:57:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。