論文の概要: An enhanced Teaching-Learning-Based Optimization (TLBO) with Grey Wolf
Optimizer (GWO) for text feature selection and clustering
- arxiv url: http://arxiv.org/abs/2402.11839v1
- Date: Mon, 19 Feb 2024 05:06:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 18:15:13.271646
- Title: An enhanced Teaching-Learning-Based Optimization (TLBO) with Grey Wolf
Optimizer (GWO) for text feature selection and clustering
- Title(参考訳): テキスト特徴選択とクラスタリングのためのgrey wolf optimizer(gwo)を用いた強化学習ベース最適化(tlbo)
- Authors: Mahsa Azarshab, Mohammad Fathian, Babak Amiri
- Abstract要約: 授業学習ベース最適化(TLBO)は,低数のパラメータと高速収束の恩恵を受ける新しいメタヒューリスティックアルゴリズムである。
ハイブリッド手法はTLBOの利点を同時に生かし、包み込み局所最適化に取り組むことができる。
6つのデータセットが選択され、TLBO-GWOは、最近提案された3つのFSアルゴリズムと比較される。
- 参考スコア(独自算出の注目度): 2.8775022881551666
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Text document clustering can play a vital role in organizing and handling the
everincreasing number of text documents. Uninformative and redundant features
included in large text documents reduce the effectiveness of the clustering
algorithm. Feature selection (FS) is a well-known technique for removing these
features. Since FS can be formulated as an optimization problem, various
meta-heuristic algorithms have been employed to solve it.
Teaching-Learning-Based Optimization (TLBO) is a novel meta-heuristic algorithm
that benefits from the low number of parameters and fast convergence. A hybrid
method can simultaneously benefit from the advantages of TLBO and tackle the
possible entrapment in the local optimum. By proposing a hybrid of TLBO, Grey
Wolf Optimizer (GWO), and Genetic Algorithm (GA) operators, this paper suggests
a filter-based FS algorithm (TLBO-GWO). Six benchmark datasets are selected,
and TLBO-GWO is compared with three recently proposed FS algorithms with
similar approaches, the main TLBO and GWO. The comparison is conducted based on
clustering evaluation measures, convergence behavior, and dimension reduction,
and is validated using statistical tests. The results reveal that TLBO-GWO can
significantly enhance the effectiveness of the text clustering technique
(K-means).
- Abstract(参考訳): テキスト文書のクラスタリングは,テキスト文書の整理と処理において重要な役割を果たす。
大規模文書に含まれる非形式的かつ冗長な機能はクラスタリングアルゴリズムの有効性を低下させる。
特徴選択(FS)は、これらの特徴を取り除くためのよく知られたテクニックである。
FSは最適化問題として定式化できるため、様々なメタヒューリスティックアルゴリズムが用いられている。
授業学習ベース最適化(TLBO)は,低数のパラメータと高速収束の恩恵を受ける新しいメタヒューリスティックアルゴリズムである。
ハイブリッド手法はTLBOの利点を同時に生かすことができ、局所的な最適解法に対処することができる。
本稿では,TLBO,Grey Wolf Optimizer (GWO),およびGA演算子のハイブリッドを提案することにより,フィルタベースFSアルゴリズム(TLBO-GWO)を提案する。
6つのベンチマークデータセットが選択され、TLBO-GWOは、最近提案された3つのFSアルゴリズムと比較される。
比較は, クラスタリング評価尺度, 収束挙動, 次元低減法に基づいて実施し, 統計的テストを用いて検証した。
その結果,tlbo-gwoはテキストクラスタリング (k-means) の有効性を著しく向上できることがわかった。
関連論文リスト
- Faster WIND: Accelerating Iterative Best-of-$N$ Distillation for LLM Alignment [81.84950252537618]
本稿では,反復的BONDと自己プレイアライメントの統一的なゲーム理論接続を明らかにする。
WINレート支配(WIN rate Dominance, WIND)という新しいフレームワークを構築し, 正規化利率支配最適化のためのアルゴリズムを多数提案する。
論文 参考訳(メタデータ) (2024-10-28T04:47:39Z) - Reinforced In-Context Black-Box Optimization [64.25546325063272]
RIBBOは、オフラインデータからエンドツーエンドでBBOアルゴリズムを強化学習する手法である。
RIBBOは、複数の動作アルゴリズムとタスクによって生成される最適化履歴を学習するために、表現的なシーケンスモデルを使用している。
提案手法の中心となるのは,テキストレグレット・ツー・ゴートークンによる最適化履歴の増大である。
論文 参考訳(メタデータ) (2024-02-27T11:32:14Z) - Poisson Process for Bayesian Optimization [126.51200593377739]
本稿では、Poissonプロセスに基づくランキングベースの代理モデルを提案し、Poisson Process Bayesian Optimization(PoPBO)と呼ばれる効率的なBOフレームワークを提案する。
従来のGP-BO法と比較すると,PoPBOはコストが低く,騒音に対する堅牢性も良好であり,十分な実験により検証できる。
論文 参考訳(メタデータ) (2024-02-05T02:54:50Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Self-adjusting optimization algorithm for solving the setunion knapsack
problem [0.3128201162068913]
set-union knapsack problem (SUKP) は制約付き合成最適化問題である。
アイテムと要素の観点からSUKPを近似する2つの自己調整最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-01-23T14:15:49Z) - OptABC: an Optimal Hyperparameter Tuning Approach for Machine Learning
Algorithms [1.6114012813668934]
OptABCは、ABCアルゴリズムがほぼ最適解へのより高速な収束を支援するために提案されている。
OptABCは、人工蜂コロニーアルゴリズム、K-Meansクラスタリング、greedyアルゴリズム、および反対ベースの学習戦略を統合している。
実験結果から,OptABCの有効性が文献の既存手法と比較された。
論文 参考訳(メタデータ) (2021-12-15T22:33:39Z) - Divide-and-conquer based Large-Scale Spectral Clustering [8.545202841051582]
そこで本研究では,分散・分散型大規模スペクトルクラスタリング手法を提案し,効率と効率のバランスを良くする。
提案手法は,既存の大規模スペクトルクラスタリングよりも計算量が少ない。
論文 参考訳(メタデータ) (2021-04-30T15:09:45Z) - Bayesian Algorithm Execution: Estimating Computable Properties of
Black-box Functions Using Mutual Information [78.78486761923855]
多くの現実世界では、T関数の評価の予算を考えると、高価なブラックボックス関数 f の性質を推測したい。
本稿では,アルゴリズムの出力に対して相互情報を最大化するクエリを逐次選択する手法InfoBAXを提案する。
これらの問題に対してInfoBAXは、元のアルゴリズムで要求されるより500倍少ないクエリをfに使用する。
論文 参考訳(メタデータ) (2021-04-19T17:22:11Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z) - Color Image Segmentation using Adaptive Particle Swarm Optimization and
Fuzzy C-means [0.30458514384586394]
本稿では,Adaptive Particle Swarm Optimization and Fuzzy C-means Clustering Algorithm (APSOF) という画像分割アルゴリズムを提案する。
Adaptive Particle Swarm Optimization (APSO)とFuzzy C-meansクラスタリングに基づいている。
実験により、APSOFアルゴリズムは最適なクラスタセンターを正しく同定する際、FCMよりもエッジを持つことが示された。
論文 参考訳(メタデータ) (2020-04-18T08:11:33Z) - IVFS: Simple and Efficient Feature Selection for High Dimensional
Topology Preservation [33.424663018395684]
本稿では,サンプル類似性保存を向上する簡易かつ効果的な特徴選択アルゴリズムを提案する。
提案アルゴリズムは、全データの対距離と位相パターンを適切に保存することができる。
論文 参考訳(メタデータ) (2020-04-02T23:05:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。