論文の概要: Envelope imbalanced ensemble model with deep sample learning and
local-global structure consistency
- arxiv url: http://arxiv.org/abs/2206.13507v1
- Date: Sat, 25 Jun 2022 15:52:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-29 13:31:26.182564
- Title: Envelope imbalanced ensemble model with deep sample learning and
local-global structure consistency
- Title(参考訳): 深層サンプル学習と局所グローバル構造整合性を考慮したエンベロープ不均衡アンサンブルモデル
- Authors: Fan Li, Xiaoheng Zhang, Yongming Li, Pin Wang
- Abstract要約: そこで本研究では,深部サンプル包絡プレエンベロープネットワーク (DSEN) と局所グローバル構造整合機構 (LGSCM) を用いた不均衡アンサンブルアルゴリズムを提案する。
実験結果から,このアルゴリズムは他のアンサンブルアルゴリズムよりもはるかに優れていることがわかった。
- 参考スコア(独自算出の注目度): 19.397446797922594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The class imbalance problem is important and challenging. Ensemble approaches
are widely used to tackle this problem because of their effectiveness. However,
existing ensemble methods are always applied into original samples, while not
considering the structure information among original samples. The limitation
will prevent the imbalanced learning from being better. Besides, research shows
that the structure information among samples includes local and global
structure information. Based on the analysis above, an imbalanced ensemble
algorithm with the deep sample pre-envelope network (DSEN) and local-global
structure consistency mechanism (LGSCM) is proposed here to solve the
problem.This algorithm can guarantee high-quality deep envelope samples for
considering the local manifold and global structures information, which is
helpful for imbalance learning. First, the deep sample envelope pre-network
(DSEN) is designed to mine structure information among samples.Then, the local
manifold structure metric (LMSM) and global structure distribution metric
(GSDM) are designed to construct LGSCM to enhance distribution consistency of
interlayer samples. Next, the DSEN and LGSCM are put together to form the final
deep sample envelope network (DSEN-LG). After that, base classifiers are
applied on the layers of deep samples respectively.Finally, the predictive
results from base classifiers are fused through bagging ensemble learning
mechanism. To demonstrate the effectiveness of the proposed method, forty-four
public datasets and more than ten representative relevant algorithms are chosen
for verification. The experimental results show that the algorithm is
significantly better than other imbalanced ensemble algorithms.
- Abstract(参考訳): クラス不均衡問題は重要かつ困難である。
アンサンブルアプローチは、その有効性のためにこの問題に取り組むために広く利用されている。
しかし,既存のアンサンブル法は常に原サンプルに適用されるが,原サンプルの構造情報は考慮されていない。
この制限は、不均衡な学習がより良くなるのを防ぐ。
さらに, サンプル間の構造情報には, 局所構造情報とグローバル構造情報が含まれることを示す。
以上の分析に基づいて,深部サンプル前エンベロープネットワーク(DSEN)と局所グローバル構造整合機構(LGSCM)を用いた不均衡アンサンブルアルゴリズムを提案し,このアルゴリズムにより,局所多様体およびグローバル構造情報を考慮した高品質な深部サンプルを保証し,不均衡学習に役立つ。
まず、深部サンプル封筒プレネットワーク(DSEN)は、サンプル間の構造情報をマイニングするために設計され、次いで、局所多様体構造メートル法(LMSM)と大域構造分布メートル法(GSDM)は、層間サンプルの分布整合性を高めるためにLGSCMを構築するために設計されている。
次に、DSENとLGSCMをまとめて、最後の深層試料封筒ネットワーク(DSEN-LG)を形成する。
その後, 基本分類器を深層試料層にそれぞれ適用し, 基本分類器の予測結果を, アンサンブル学習機構を用いて融合させる。
提案手法の有効性を示すために,4つの公開データセットと10以上の代表的な関連するアルゴリズムが検証のために選択される。
実験の結果,このアルゴリズムは他の不均衡アンサンブルアルゴリズムよりも著しく優れていることがわかった。
関連論文リスト
- Structural-Entropy-Based Sample Selection for Efficient and Effective Learning [10.033306333542123]
本稿では,グローバルな情報とローカルな情報を統合し,情報と代表のサンプルを選択する手法を提案する。
SESは、重要バイアスの青いノイズサンプリングを適用し、多様なサンプルと代表的なサンプルのセットを選択する。
論文 参考訳(メタデータ) (2024-10-03T07:40:14Z) - TANGO: Clustering with Typicality-Aware Nonlocal Mode-Seeking and Graph-Cut Optimization [2.4783546111391215]
モード探索による密度に基づくクラスタリング手法は通常,局所密度推定を用いて構造情報のマイニングによってクラスタリングを実現する。
本稿では,グローバルな視点の特異性を利用して局所的依存関係を確立するアルゴリズム(TANGO)を提案する。
サブクラスタにグラフカットを使用することで、最終的なクラスタリングを実現しているため、クラスタセンターの選択が困難なことを回避することができる。
論文 参考訳(メタデータ) (2024-08-19T15:26:25Z) - Rethinking Clustered Federated Learning in NOMA Enhanced Wireless
Networks [60.09912912343705]
本研究では,新しいクラスタ化フェデレーション学習(CFL)アプローチと,非独立かつ同一に分散した(非IID)データセットを統合することのメリットについて検討する。
データ分布における非IIDの度合いを測定する一般化ギャップの詳細な理論的解析について述べる。
非IID条件によって引き起こされる課題に対処する解決策は、特性の分析によって提案される。
論文 参考訳(メタデータ) (2024-03-05T17:49:09Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Heterogeneous Federated Learning via Grouped Sequential-to-Parallel
Training [60.892342868936865]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のためのコラボレーション機械学習パラダイムである。
本稿では,この課題に対処するため,データヘテロジニアス・ロバストFLアプローチであるFedGSPを提案する。
その結果,FedGSPは7つの最先端アプローチと比較して平均3.7%の精度向上を実現していることがわかった。
論文 参考訳(メタデータ) (2022-01-31T03:15:28Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z) - DessiLBI: Exploring Structural Sparsity of Deep Networks via
Differential Inclusion Paths [45.947140164621096]
逆スケール空間の差分包摂に基づく新しい手法を提案する。
DessiLBIが早期に「優勝チケット」を発表することを示す。
論文 参考訳(メタデータ) (2020-07-04T04:40:16Z) - Anytime Inference with Distilled Hierarchical Neural Ensembles [32.003196185519]
深層ニューラルネットワークの推論は計算コストがかかり、計算量や入力データの量が時間とともに変化するマスケリオでは、任意の時間推論が可能なネットワークが重要である。
階層型木構造に複数のネットワークのアンサンブルを埋め込む新しいフレームワークである階層型ニューラルネットワークアンサンブル(HNE)を提案する。
実験の結果,従来の推定モデルと比較して,HNEはCIFAR-10/100データセットとImageNetデータセットに対して,最先端の精度計算トレードオフを提供することがわかった。
論文 参考訳(メタデータ) (2020-03-03T12:13:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。