論文の概要: Deep N-ary Error Correcting Output Codes
- arxiv url: http://arxiv.org/abs/2009.10465v4
- Date: Tue, 15 Dec 2020 02:33:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 22:59:22.838109
- Title: Deep N-ary Error Correcting Output Codes
- Title(参考訳): 出力コードの深部N項誤り訂正
- Authors: Hao Zhang, Joey Tianyi Zhou, Tianying Wang, Ivor W. Tsang, Rick Siow
Mong Goh
- Abstract要約: Ecoror Correcting Output Codes (ECOC) のようなデータ非依存のアンサンブル手法が注目を集めている。
N-ary ECOCは、元の多クラス分類問題を、独立した単純な分類サブプロブレムのシリーズに分解する。
深部N-ary ECOCのためのパラメータ共有アーキテクチャの3つのバリエーションを提案する。
- 参考スコア(独自算出の注目度): 66.15481033522343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensemble learning consistently improves the performance of multi-class
classification through aggregating a series of base classifiers. To this end,
data-independent ensemble methods like Error Correcting Output Codes (ECOC)
attract increasing attention due to its easiness of implementation and
parallelization. Specifically, traditional ECOCs and its general extension
N-ary ECOC decompose the original multi-class classification problem into a
series of independent simpler classification subproblems. Unfortunately,
integrating ECOCs, especially N-ary ECOC with deep neural networks, termed as
deep N-ary ECOC, is not straightforward and yet fully exploited in the
literature, due to the high expense of training base learners. To facilitate
the training of N-ary ECOC with deep learning base learners, we further propose
three different variants of parameter sharing architectures for deep N-ary
ECOC. To verify the generalization ability of deep N-ary ECOC, we conduct
experiments by varying the backbone with different deep neural network
architectures for both image and text classification tasks. Furthermore,
extensive ablation studies on deep N-ary ECOC show its superior performance
over other deep data-independent ensemble methods.
- Abstract(参考訳): アンサンブル学習は、一連の基底分類器を集約することで、多クラス分類の性能を一貫して改善する。
この目的のために、Error Correcting Output Codes (ECOC) のようなデータ非依存のアンサンブル手法は、実装と並列化の容易さから注目を集めている。
具体的には、従来のECOCとその一般的な拡張 N-ary ECOC は、元の多重クラス分類問題を、一連の独立した単純分類サブプロブレムに分解する。
残念ながら、ECOC(特にN-ary ECOC)とディープニューラルネットワーク(Deep N-ary ECOC)を統合することは、トレーニングベースラーナーのコストが高いため、文学において簡単ではなく、完全に活用されているわけではない。
深層学習者によるN-ary ECOCの学習を容易にするために,N-ary ECOCのパラメータ共有アーキテクチャの3つのバリエーションを提案する。
深部N-ary ECOCの一般化能力を検証するため,画像とテキストの分類作業において,異なる深部ニューラルネットワークアーキテクチャでバックボーンを可変させて実験を行った。
さらに、深部N-ary ECOCに関する広範なアブレーション研究は、他の深部データ独立アンサンブル法よりも優れた性能を示している。
関連論文リスト
- Informed deep hierarchical classification: a non-standard analysis inspired approach [0.0]
出力層の前に配置された特定のプロジェクション演算子を備えた多出力ディープニューラルネットワークで構成されている。
このようなアーキテクチャの設計は、LH-DNN(Lexicographic Hybrid Deep Neural Network)と呼ばれ、異なる研究分野と非常に離れた研究分野のツールを組み合わせることで実現されている。
アプローチの有効性を評価するために、階層的な分類タスクに適した畳み込みニューラルネットワークであるB-CNNと比較する。
論文 参考訳(メタデータ) (2024-09-25T14:12:50Z) - Deep Negative Correlation Classification [82.45045814842595]
既存のディープアンサンブル手法は、多くの異なるモデルをナビゲートし、予測を集約する。
深部負相関分類(DNCC)を提案する。
DNCCは、個々の推定器が正確かつ負の相関を持つ深い分類アンサンブルを生成する。
論文 参考訳(メタデータ) (2022-12-14T07:35:20Z) - Deep Combinatorial Aggregation [58.78692706974121]
ディープアンサンブル(Deep ensemble)は、不確実性を考慮した学習タスクの最先端結果を実現する、シンプルで効果的な方法である。
本研究では,ディープアグリゲーション(DCA)と呼ばれるディープアンサンブルの一般化について検討する。
DCAはネットワークコンポーネントの複数のインスタンスを生成し、それらの組み合わせを集約して、多様化したモデルの提案と予測を生成する。
論文 参考訳(メタデータ) (2022-10-12T17:35:03Z) - Self-Supervised Deep Subspace Clustering with Entropy-norm [0.0]
エントロピーノルムを用いた自己監督深部サブスペースクラスタリング(S$3$CE)
S$3$CEは自己教師付きコントラストネットワークを利用して、より効率的な特徴ベクトルを得る。
データ拡張を伴う新しいモジュールは、S$3$CEがデータのキー情報に集中できるように設計されている。
論文 参考訳(メタデータ) (2022-06-10T09:15:33Z) - Nested Collaborative Learning for Long-Tailed Visual Recognition [71.6074806468641]
NCLはNested Individual Learning (NIL)とNested Balanced Online Distillation (NBOD)の2つのコアコンポーネントから構成される。
表現をより徹底的に学習するために、NILとNBODはネストされた方法で定式化され、学習は全視点からだけでなく、部分的な視点からいくつかのハードなカテゴリに対して行われる。
NCLでは、2つの視点から学ぶことはネストされ、非常に関連があり、補完的であり、ネットワークがグローバルでロバストな特徴だけでなく、注意深く区別する能力も捉えるのに役立つ。
論文 参考訳(メタデータ) (2022-03-29T08:55:39Z) - Deep clustering with fusion autoencoder [0.0]
ディープクラスタリング(DC)モデルは、オートエンコーダを利用して、結果としてクラスタリングプロセスを促進する固有の特徴を学ぶ。
本稿では、この問題に対処するための新しいDC法を提案し、特に、生成逆数ネットワークとVAEを融合オートエンコーダ(FAE)と呼ばれる新しいオートエンコーダに結合する。
論文 参考訳(メタデータ) (2022-01-11T07:38:03Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Bend-Net: Bending Loss Regularized Multitask Learning Network for Nuclei
Segmentation in Histopathology Images [65.47507533905188]
重なり合う核を正確に分離するために、曲げ損失正規化器を備えた新しいマルチタスク学習ネットワークを提案する。
新たに提案されたマルチタスク学習アーキテクチャは、3つのタスクから共有表現を学習することで一般化を促進する。
提案した曲げ損失は,輪郭点を大きな曲率で囲むために高いペナルティを定義し,小さな曲率で凸輪郭点に小さなペナルティを適用した。
論文 参考訳(メタデータ) (2021-09-30T17:29:44Z) - Pseudo-supervised Deep Subspace Clustering [27.139553299302754]
オートエンコーダ (AE) ベースのディープサブスペースクラスタリング (DSC) 手法は優れた性能を発揮している。
しかし、AEの自己再建損失は、豊富な有用な関係情報を無視する。
また、セマンティクスラベルを供給せずにハイレベルな類似性を学ぶことも困難である。
論文 参考訳(メタデータ) (2021-04-08T06:25:47Z) - Multi-level Feature Learning on Embedding Layer of Convolutional
Autoencoders and Deep Inverse Feature Learning for Image Clustering [6.5358895450258325]
我々は集合的クラスタリングを多段階の特徴学習として使用し、潜在的特徴空間の階層構造を提供する。
マルチレベル機能学習を適用することで、基本的な深層畳み込みクラスタリングが大幅に改善される。
CAE-MLEの深い逆特徴学習(Deep IFL)は、最先端の結果につながる新しいアプローチである。
論文 参考訳(メタデータ) (2020-10-05T21:24:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。