論文の概要: Boosting Classifier Performance with Opposition-Based Data Transformation
- arxiv url: http://arxiv.org/abs/2504.16268v1
- Date: Tue, 22 Apr 2025 21:03:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.929283
- Title: Boosting Classifier Performance with Opposition-Based Data Transformation
- Title(参考訳): 対位法に基づくデータ変換による分類器の性能向上
- Authors: Abdesslem Layeb,
- Abstract要約: 従来の分類アルゴリズムの性能を高めるために,OBL(Opposition-Based Learning)に基づく新しいデータ変換フレームワークを提案する。
ここではOBLを利用して、急激なトレーニングデータを置き換える合成反対サンプルを生成し、意思決定境界形成を改善する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we introduce a novel data transformation framework based on Opposition-Based Learning (OBL) to boost the performance of traditional classification algorithms. Originally developed to accelerate convergence in optimization tasks, OBL is leveraged here to generate synthetic opposite samples that replace the acutely training data and improve decision boundary formation. We explore three OBL variants; Global OBL, Class-Wise OBL, and Localized Class-Wise OBL; and integrate them with several widely used classifiers, including K-Nearest Neighbors (KNN), Support Vector Machines (SVM), Logistic Regression (LR), and Decision Tree (DT). Extensive experiments conducted on 26 heterogeneous and high-dimensional datasets demonstrate that OBL-enhanced classifiers consistently outperform their standard counterparts in terms of accuracy and F1-score, frequently achieving near-perfect or perfect classification. Furthermore, OBL contributes to improved computational efficiency, particularly in SVM and LR. These findings underscore the potential of OBL as a lightweight yet powerful data transformation strategy for enhancing classification performance, especially in complex or sparse learning environments.
- Abstract(参考訳): 本稿では,従来の分類アルゴリズムの性能を高めるために,OBL(Opposition-Based Learning)に基づく新しいデータ変換フレームワークを提案する。
もともと最適化タスクの収束を加速するために開発されたOBLは、急激なトレーニングデータを置き換える合成反対サンプルを生成し、決定境界の形成を改善するためにここで利用される。
我々は3つのOBL変種、Global OBL、Class-Wise OBL、Localized Class-Wise OBLを探索し、それらをK-Nearest Neighbors (KNN)、Support Vector Machines (SVM)、Logistic Regression (LR)、Decision Tree (DT)といった広く使われている分類器と統合する。
26の異種および高次元のデータセットで実施された大規模な実験により、OBLで強化された分類器は精度とF1スコアの点で標準の分類器を一貫して上回り、ほぼ完璧または完璧に分類されることが示されている。
さらにOBLは、特にSVMやLRにおいて、計算効率の向上に貢献している。
これらの知見は、特に複雑な学習環境やスパース学習環境において、分類性能を高めるための軽量で強力なデータ変換戦略としてのOBLの可能性を示している。
関連論文リスト
- Double-Stage Feature-Level Clustering-Based Mixture of Experts Framework [0.0]
本稿では,DFCP-MoE(Mixture of Experts)フレームワークについて述べる。
入力特徴抽出、特徴レベルのクラスタリング、計算効率の良い擬似ラベル戦略で構成されている。
そこで本研究では,MoEモデルを用いたクラスタリング入力の訓練により,専門家の専門性を向上する条件付きエンドツーエンド共同訓練手法を提案する。
論文 参考訳(メタデータ) (2025-03-12T16:13:50Z) - Revisiting Self-Supervised Heterogeneous Graph Learning from Spectral Clustering Perspective [52.662463893268225]
自己教師付きヘテロジニアスグラフ学習(SHGL)は様々なシナリオにおいて有望な可能性を示している。
既存のSHGLメソッドには2つの大きな制限がある。
ランクと二重整合性制約によって強化された新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2024-12-01T09:33:20Z) - A3S: A General Active Clustering Method with Pairwise Constraints [66.74627463101837]
A3Sは、適応クラスタリングアルゴリズムによって得られる初期クラスタ結果に対して、戦略的にアクティブクラスタリングを調整する。
さまざまな実世界のデータセットにわたる広範な実験において、A3Sは、人間のクエリを著しく少なくして、望ましい結果を達成する。
論文 参考訳(メタデータ) (2024-07-14T13:37:03Z) - GCC: Generative Calibration Clustering [55.44944397168619]
本稿では,特徴学習と拡張をクラスタリングに組み込む新しいGCC法を提案する。
まず,実検体と実検体間の固有関係を識別する識別的特徴アライメント機構を開発する。
第二に、より信頼性の高いクラスタ割り当てを生成するための自己教師付きメトリック学習を設計する。
論文 参考訳(メタデータ) (2024-04-14T01:51:11Z) - Tighter Bounds on the Information Bottleneck with Application to Deep
Learning [6.206127662604578]
Deep Neural Nets (DNN)は、下流タスク、目的関数、その他のパラメータによって誘導される潜在表現を学習する。
Information Bottleneck (IB)は、データモデリングのための仮説上最適なフレームワークを提供するが、しばしば難解である。
近年のDNNとIBの連携により,VAEにインスパイアされた変分法を相互情報のバウンダリ近似に適用し,敵攻撃に対するロバスト性の向上を実現している。
論文 参考訳(メタデータ) (2024-02-12T13:24:32Z) - Joint Unsupervised and Supervised Training for Automatic Speech
Recognition via Bilevel Optimization [73.98386682604122]
両レベル共同教師なし・教師付き訓練(BL-JUST)と呼ばれる自動音声認識(ASR)タスクのための音響モデルのトレーニングのための,バイレベル最適化に基づく新たなトレーニング手法を提案する。
BL-JUSTは、教師なしの損失と教師なしの損失で下層と上層を最適化し、最近のペナルティベースの二レベル最適化の進歩を利用して、安価で複雑なASR問題と厳密な収束を保証する。
論文 参考訳(メタデータ) (2024-01-13T05:01:47Z) - Intuitionistic Fuzzy Broad Learning System: Enhancing Robustness Against Noise and Outliers [0.0]
本稿では,ファジィ広範学習システム (F-BLS) と直観的ファジィ広範学習システム (IF-BLS) モデルを提案する。
アルツハイマー病(AD)の診断のためのF-BLSモデルとIF-BLSモデルを実装した。
論文 参考訳(メタデータ) (2023-07-15T21:40:36Z) - GraphLearner: Graph Node Clustering with Fully Learnable Augmentation [76.63963385662426]
Contrastive Deep Graph Clustering (CDGC)は、異なるクラスタにノードをグループ化するために、コントラスト学習のパワーを活用する。
我々は、GraphLearnerと呼ばれる、完全学習可能な拡張を備えたグラフノードクラスタリングを提案する。
学習可能な拡張器を導入し、CDGCのための高品質でタスク固有の拡張サンプルを生成する。
論文 参考訳(メタデータ) (2022-12-07T10:19:39Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Mitigating shortage of labeled data using clustering-based active
learning with diversity exploration [3.312798619476657]
本稿ではクラスタリングに基づくアクティブラーニングフレームワーク,すなわちクラスタリングに基づくサンプリングを用いたアクティブラーニングを提案する。
重なり合うクラスを分類する学習性能を向上させるために、クラスタ境界に基づくサンプルクエリ手順が導入された。
論文 参考訳(メタデータ) (2022-07-06T20:53:28Z) - Ensemble Classifier Design Tuned to Dataset Characteristics for Network
Intrusion Detection [0.0]
データセットのクラスオーバーラップ問題に対処する2つの新しいアルゴリズムが提案されている。
提案手法は二進分類と多進分類の両方で評価される。
論文 参考訳(メタデータ) (2022-05-08T21:06:42Z) - A Generic Descent Aggregation Framework for Gradient-based Bi-level
Optimization [41.894281911990554]
両レベル学習タスクのための新しいBDA(Bi-level Descent Aggregation)フレームワークを開発した。
BDAは上層と下層の両方の階層的目的を集約する。
従来の勾配に基づくbiレベル法の収束結果を改善するための新しい証明法を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:58:12Z) - A Generic First-Order Algorithmic Framework for Bi-Level Programming
Beyond Lower-Level Singleton [49.23948907229656]
Bi-level Descent Aggregationは、汎用的な双方向最適化のためのフレキシブルでモジュール化されたアルゴリズムフレームワークである。
LLS条件なしでBDAの収束を証明する新しい手法を導出する。
我々の研究は、BDAが特定の一階計算モジュールの検証と互換性があることも示している。
論文 参考訳(メタデータ) (2020-06-07T05:18:50Z) - Generalized Zero-Shot Learning Via Over-Complete Distribution [79.5140590952889]
そこで本稿では,CVAE (Conditional Variational Autoencoder) を用いたOCD(Over-Complete Distribution) の生成を提案する。
フレームワークの有効性は,Zero-Shot LearningプロトコルとGeneralized Zero-Shot Learningプロトコルの両方を用いて評価する。
論文 参考訳(メタデータ) (2020-04-01T19:05:28Z) - Adaptive Name Entity Recognition under Highly Unbalanced Data [5.575448433529451]
我々は,2方向LSTM (BI-LSTM) 上に積み重ねた条件付きランダムフィールド (CRF) 層からなるニューラルアーキテクチャについて実験を行った。
WeakクラスとStrongクラスを2つの異なるセットに分割し、各セットのパフォーマンスを最適化するために2つのBi-LSTM-CRFモデルを適切に設計するアドオン分類モデルを提案する。
論文 参考訳(メタデータ) (2020-03-10T06:56:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。