論文の概要: AxelSMOTE: An Agent-Based Oversampling Algorithm for Imbalanced Classification
- arxiv url: http://arxiv.org/abs/2509.06875v1
- Date: Mon, 08 Sep 2025 16:47:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:04.26848
- Title: AxelSMOTE: An Agent-Based Oversampling Algorithm for Imbalanced Classification
- Title(参考訳): AxelSMOTE:不均衡分類のためのエージェントベースオーバーサンプリングアルゴリズム
- Authors: Sukumar Kishanthan, Asela Hevapathige,
- Abstract要約: AxelSMOTEは、データインスタンスを複雑なインタラクションに関わる自律的なエージェントとみなすエージェントベースのアプローチである。
Axelrodの文化的普及モデルに基づいて、AxelSMOTEは4つの重要なイノベーションを実装している。
8つの不均衡データセットの実験は、AxelSMOTEが最先端のサンプリング手法より優れていることを示した。
- 参考スコア(独自算出の注目度): 1.2891210250935148
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Class imbalance in machine learning poses a significant challenge, as skewed datasets often hinder performance on minority classes. Traditional oversampling techniques, which are commonly used to alleviate class imbalance, have several drawbacks: they treat features independently, lack similarity-based controls, limit sample diversity, and fail to manage synthetic variety effectively. To overcome these issues, we introduce AxelSMOTE, an innovative agent-based approach that views data instances as autonomous agents engaging in complex interactions. Based on Axelrod's cultural dissemination model, AxelSMOTE implements four key innovations: (1) trait-based feature grouping to preserve correlations; (2) a similarity-based probabilistic exchange mechanism for meaningful interactions; (3) Beta distribution blending for realistic interpolation; and (4) controlled diversity injection to avoid overfitting. Experiments on eight imbalanced datasets demonstrate that AxelSMOTE outperforms state-of-the-art sampling methods while maintaining computational efficiency.
- Abstract(参考訳): 機械学習におけるクラス不均衡は、スキューデータセットが少数クラスのパフォーマンスを妨げているため、大きな課題となる。
クラス不均衡を緩和するために一般的に使用される伝統的なオーバーサンプリング技術には、特徴を独立して扱うこと、類似性に基づく制御の欠如、サンプルの多様性の制限、合成品種を効果的に管理できないこと、いくつかの欠点がある。
AxelSMOTEは、データインスタンスを複雑なインタラクションに関わる自律的なエージェントとみなす革新的なエージェントベースのアプローチである。
AxelSMOTEは,Axelrodの文化的普及モデルに基づいて,(1)相関性を維持するための特性的特徴グループ化,(2)相似性に基づく意味的相互作用のための確率的交換機構,(3)現実的な補間のためのベータ分布ブレンディング,(4)過剰適合を避けるための多様性注入の4つの重要なイノベーションを実践している。
8つの不均衡データセットの実験により、AxelSMOTEは計算効率を保ちながら最先端のサンプリング手法より優れていることが示された。
関連論文リスト
- U-aggregation: Unsupervised Aggregation of Multiple Learning Algorithms [4.871473117968554]
新人口の強化とロバスト化のための教師なしモデルアグリゲーション手法U-アグリゲーションを提案する。
既存の教師付きモデルアグリゲーションや超学習者アプローチとは異なり、U-アグリゲーションは対象人口の観測されたラベルや成果を仮定しない。
複雑な形質の遺伝的リスク予測を高めるために,U凝集を用いた実世界の応用の可能性を示す。
論文 参考訳(メタデータ) (2025-01-30T01:42:51Z) - Regularized Neural Ensemblers [55.15643209328513]
本研究では,正規化ニューラルネットワークをアンサンブル手法として活用することを検討する。
低多様性のアンサンブルを学習するリスクを動機として,ランダムにベースモデル予測をドロップすることで,アンサンブルモデルの正規化を提案する。
このアプローチはアンサンブル内の多様性の低い境界を提供し、過度な適合を減らし、一般化能力を向上させる。
論文 参考訳(メタデータ) (2024-10-06T15:25:39Z) - Synthetic Tabular Data Generation for Class Imbalance and Fairness: A Comparative Study [4.420073761023326]
データ駆動性のため、機械学習(ML)モデルは、データから受け継がれたバイアスの影響を受けやすい。
クラス不均衡(分類対象)とグループ不均衡(性や人種のような保護された属性)はMLの有用性と公平性を損なう可能性がある。
本稿では、最先端モデルを用いて、クラスとグループの不均衡に対処する比較分析を行う。
論文 参考訳(メタデータ) (2024-09-08T20:08:09Z) - Counterfactual Fairness through Transforming Data Orthogonal to Bias [7.109458605736819]
我々は新しいデータ前処理アルゴリズムOrthogonal to Bias (OB)を提案する。
OBは、連続的な敏感な変数群の影響を排除し、機械学習アプリケーションにおける反ファクトフェアネスを促進するように設計されている。
OBはモデルに依存しないため、幅広い機械学習モデルやタスクに適用できる。
論文 参考訳(メタデータ) (2024-03-26T16:40:08Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - Causal Balancing for Domain Generalization [95.97046583437145]
そこで本研究では,観察されたトレーニング分布の領域特異的なスプリアス相関を低減するために,バランスの取れたミニバッチサンプリング戦略を提案する。
本研究では, 突発性源の同定可能性を保証するとともに, バランスの取れた, 突発性のない分布から, 提案手法が有効にサンプリング可能であることを示す。
論文 参考訳(メタデータ) (2022-06-10T17:59:11Z) - Dynamic Federated Learning [57.14673504239551]
フェデレートラーニング(Federated Learning)は、マルチエージェント環境における集中的なコーディネーション戦略の包括的用語として登場した。
我々は、各イテレーションにおいて、利用可能なエージェントのランダムなサブセットがそのデータに基づいてローカル更新を実行する、フェデレートされた学習モデルを考える。
集約最適化問題に対する真の最小化器上の非定常ランダムウォークモデルの下で、アーキテクチャの性能は、各エージェントにおけるデータ変動率、各エージェントにおけるモデル変動率、アルゴリズムの学習率に逆比例する追跡項の3つの要因によって決定されることを示す。
論文 参考訳(メタデータ) (2020-02-20T15:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。