論文の概要: Dynamic Ensemble Selection Using Fuzzy Hyperboxes
- arxiv url: http://arxiv.org/abs/2205.10438v1
- Date: Fri, 20 May 2022 21:06:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 15:05:12.278322
- Title: Dynamic Ensemble Selection Using Fuzzy Hyperboxes
- Title(参考訳): ファジィハイパーボックスを用いた動的アンサンブル選択
- Authors: Reza Davtalab, Rafael M.O. Cruz and Robert Sabourin
- Abstract要約: 本稿では,FH-DESと呼ばれるファジィハイパーボックスに基づく動的アンサンブル選択(DES)フレームワークを提案する。
各ハイパーボックスは、2つのデータポイント(MinとMaxのコーナー)のみを使用してサンプルのグループを表現することができる。
それまでの融合法では観測されていなかった分類器の能力を評価するために、初めて誤分類されたサンプルが使用される。
- 参考スコア(独自算出の注目度): 10.269997499911668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most dynamic ensemble selection (DES) methods utilize the K-Nearest Neighbors
(KNN) algorithm to estimate the competence of classifiers in a small region
surrounding the query sample. However, KNN is very sensitive to the local
distribution of the data. Moreover, it also has a high computational cost as it
requires storing the whole data in memory and performing multiple distance
calculations during inference. Hence, the dependency on the KNN algorithm ends
up limiting the use of DES techniques for large-scale problems. This paper
presents a new DES framework based on fuzzy hyperboxes called FH-DES. Each
hyperbox can represent a group of samples using only two data points (Min and
Max corners). Thus, the hyperbox-based system will have less computational
complexity than other dynamic selection methods. In addition, despite the
KNN-based approaches, the fuzzy hyperbox is not sensitive to the local data
distribution. Therefore, the local distribution of the samples does not affect
the system's performance. Furthermore, in this research, for the first time,
misclassified samples are used to estimate the competence of the classifiers,
which has not been observed in previous fusion approaches. Experimental results
demonstrate that the proposed method has high classification accuracy while
having a lower complexity when compared with the state-of-the-art dynamic
selection methods. The implemented code is available at
https://github.com/redavtalab/FH-DES_IJCNN.git.
- Abstract(参考訳): ほとんどの動的アンサンブル選択(DES)法は、K-Nearest Neighbors (KNN)アルゴリズムを用いて、クエリサンプルを囲む小さな領域における分類器の能力を評価する。
しかし、KNNはデータの局所分布に非常に敏感である。
さらに、メモリに全データを格納し、推論中に複数の距離計算を実行する必要があるため、計算コストも高い。
したがって、KNNアルゴリズムへの依存は、大規模問題に対するDES技術の使用を制限することになる。
本稿ではFH-DESと呼ばれるファジィハイパーボックスに基づく新しいDESフレームワークを提案する。
各ハイパーボックスは、2つのデータポイント(MinとMaxのコーナー)のみを使用してサンプルのグループを表現することができる。
したがって、ハイパーボックスベースのシステムは、他の動的選択法よりも計算量が少ない。
さらに、KNNベースのアプローチにもかかわらず、ファジィハイパーボックスはローカルデータ分布に敏感ではない。
したがって,サンプルの局所分布はシステムの性能に影響を与えない。
さらに本研究では, 従来の核融合法では観測されていない分類器の能力を評価するために, 初めて誤分類試料を用いた。
実験の結果,提案手法は最先端の動的選択法に比べて複雑度が低く,分類精度が高いことがわかった。
実装されたコードはhttps://github.com/redavtalab/fh-des_ijcnn.gitで入手できる。
関連論文リスト
- Adaptive $k$-nearest neighbor classifier based on the local estimation of the shape operator [49.87315310656657]
我々は, 局所曲率をサンプルで探索し, 周辺面積を適応的に定義する適応型$k$-nearest(kK$-NN)アルゴリズムを提案する。
多くの実世界のデータセットから、新しい$kK$-NNアルゴリズムは、確立された$k$-NN法と比較してバランスの取れた精度が優れていることが示されている。
論文 参考訳(メタデータ) (2024-09-08T13:08:45Z) - MOKD: Cross-domain Finetuning for Few-shot Classification via Maximizing Optimized Kernel Dependence [97.93517982908007]
NCCは、ドメイン間数ショットの分類において、少数ショットの分類が可能なメートル法空間を構築するために表現を学ぶことを目的としている。
本稿では,異なるクラスから得られた2つの標本の NCC 学習表現に高い類似性があることを見出した。
ラベル付きデータによって示されるクラスタ構造にマッチするクラス固有の表現の集合を学習するために、最適化されたカーネル依存(MOKD)を最大化する二段階最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T05:59:52Z) - GAN Based Boundary Aware Classifier for Detecting Out-of-distribution
Samples [24.572516991009323]
本稿では,ほとんどのIDデータのみを含む閉じたハイパースペースを生成するためのGANベースの境界認識分類器(GBAC)を提案する。
本手法は, 従来のニューラルネットが, 未閉鎖領域として特徴空間を分離し, オード検出に適さない。
GBACを補助モジュールとして、閉じたハイパースペースの外に分散されたoodデータは、より低いスコアで割り当てられ、より効果的なood検出が可能になる。
論文 参考訳(メタデータ) (2021-12-22T03:35:54Z) - Cluster Representatives Selection in Non-Metric Spaces for Nearest
Prototype Classification [4.176752121302988]
本稿では,オブジェクトの小さいが代表的なサブセットをクラスタのプロトタイプとして選択する新しい手法であるCRSを提案する。
NN-Descentアルゴリズムにより生成された各クラスタの類似度グラフ表現を活用することにより、代表者のメモリと計算効率のよい選択が可能となる。
CRSはグラフベースのアプローチのため、任意の計量空間や非計量空間で使用することができる。
論文 参考訳(メタデータ) (2021-07-03T04:51:07Z) - Hyperdimensional Computing for Efficient Distributed Classification with
Randomized Neural Networks [5.942847925681103]
本研究では,データを中央に保存することも共有することもできない状況下で利用できる分散分類について検討する。
ローカルな分類器を他のエージェントと共有する場合に、ロッキーな圧縮アプローチを適用することにより、分散分類のためのより効率的な解を提案する。
論文 参考訳(メタデータ) (2021-06-02T01:33:56Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z) - Distributionally Robust Weighted $k$-Nearest Neighbors [21.537952410507483]
少数のサンプルから堅牢な分類器を学ぶことは、マシンラーニングにおける重要な課題である。
本稿では, 重み付き$k$-アネレスト近傍のミニマックス分布に頑健な定式化について検討する。
我々は,この関数最適化問題を効率的に解くアルゴリズムである textttDr.k-NN を開発した。
論文 参考訳(メタデータ) (2020-06-07T00:34:33Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z) - Computationally efficient sparse clustering [67.95910835079825]
我々はPCAに基づく新しいクラスタリングアルゴリズムの有限サンプル解析を行う。
ここでは,ミニマックス最適誤クラスタ化率を,体制$|theta infty$で達成することを示す。
論文 参考訳(メタデータ) (2020-05-21T17:51:30Z) - OSLNet: Deep Small-Sample Classification with an Orthogonal Softmax
Layer [77.90012156266324]
本稿では,ニューラルネットワークのサブスペースを見つけることを目的としている。
そこで本研究では,Orthogonal Softmax Layer (OSL) を提案する。
実験結果から,提案OSLは4つの小サンプルベンチマークデータセットとの比較に用いた手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-04-20T02:41:01Z) - A new hashing based nearest neighbors selection technique for big
datasets [14.962398031252063]
本稿では, 観測対象の近傍に直接近接する近隣住民の選別を可能にする新しい手法を提案する。
提案手法は,データ空間上に構築された仮想グリッドのサブセルにデータ空間を分割する。
提案アルゴリズムは,元のKNNよりも時間効率が良く,予測品質もKNNと同等である。
論文 参考訳(メタデータ) (2020-04-05T19:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。