論文の概要: Exploring Synergistic Ensemble Learning: Uniting CNNs, MLP-Mixers, and Vision Transformers to Enhance Image Classification
- arxiv url: http://arxiv.org/abs/2504.09076v1
- Date: Sat, 12 Apr 2025 04:32:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:52:26.972259
- Title: Exploring Synergistic Ensemble Learning: Uniting CNNs, MLP-Mixers, and Vision Transformers to Enhance Image Classification
- Title(参考訳): シナジスティック・アンサンブル・ラーニングの探索:CNN、MLPミキサー、ヴィジュアル・トランスフォーマーを統合して画像分類を支援する
- Authors: Mk Bashar, Ocean Monjur, Samia Islam, Mohammad Galib Shams, Niamul Quader,
- Abstract要約: 私たちは、異なるアーキテクチャ間の相補性を探求する以前の作業を構築し、改善します。
それぞれのアーキテクチャの整合性を保ち、それらをアンサンブル技術を使って組み合わせます。
この研究の直接的な成果は、ImageNet上の以前の最先端の単一分類ネットワークの精度を上回る分類ネットワークのアンサンブルを作成することである。
- 参考スコア(独自算出の注目度): 2.907712261410302
- License:
- Abstract: In recent years, Convolutional Neural Networks (CNNs), MLP-mixers, and Vision Transformers have risen to prominence as leading neural architectures in image classification. Prior research has underscored the distinct advantages of each architecture, and there is growing evidence that combining modules from different architectures can boost performance. In this study, we build upon and improve previous work exploring the complementarity between different architectures. Instead of heuristically merging modules from various architectures through trial and error, we preserve the integrity of each architecture and combine them using ensemble techniques. By maintaining the distinctiveness of each architecture, we aim to explore their inherent complementarity more deeply and with implicit isolation. This approach provides a more systematic understanding of their individual strengths. In addition to uncovering insights into architectural complementarity, we showcase the effectiveness of even basic ensemble methods that combine models from diverse architectures. These methods outperform ensembles comprised of similar architectures. Our straightforward ensemble framework serves as a foundational strategy for blending complementary architectures, offering a solid starting point for further investigations into the unique strengths and synergies among different architectures and their ensembles in image classification. A direct outcome of this work is the creation of an ensemble of classification networks that surpasses the accuracy of the previous state-of-the-art single classification network on ImageNet, setting a new benchmark, all while requiring less overall latency.
- Abstract(参考訳): 近年、畳み込みニューラルネットワーク(CNN)、MLPミキサー、ビジョントランスフォーマーが、画像分類における主要なニューラルネットワークアーキテクチャとして注目されている。
以前の研究では、各アーキテクチャの明確な利点が強調されており、異なるアーキテクチャのモジュールを組み合わせることでパフォーマンスが向上する証拠が増えている。
本研究では,異なるアーキテクチャ間の相補性を探究し,これまでの研究を基礎として改善する。
さまざまなアーキテクチャから試行錯誤を通じてモジュールをヒューリスティックにマージする代わりに、各アーキテクチャの整合性を保ち、アンサンブル技術を使ってそれらを組み合わせます。
それぞれのアーキテクチャの独特さを維持することで、私たちは、その固有の相補性をより深く、暗黙の隔離で探求することを目指しています。
このアプローチは、個々の強みをより体系的に理解する。
アーキテクチャの相補性に関する洞察を明らかにすることに加えて、多様なアーキテクチャのモデルを組み合わせた基本的なアンサンブル手法の有効性も示す。
これらの手法は、類似のアーキテクチャで構成されたアンサンブルよりも優れていた。
我々の単純なアンサンブル・フレームワークは、補完的なアーキテクチャをブレンドするための基本的な戦略として機能し、異なるアーキテクチャ間の独自の強みとシナジーと、それらのアンサンブルのイメージ分類に関するさらなる研究の出発点となる。
この研究の直接的な成果は、ImageNet上の以前の最先端の単一分類ネットワークの精度を上回る分類ネットワークのアンサンブルを作成し、全体的なレイテンシを少なくしながら、新しいベンチマークを設定することである。
関連論文リスト
- Enhancing Representations through Heterogeneous Self-Supervised Learning [61.40674648939691]
本稿では,HSSL(Heterogeneous Self-Supervised Learning)を提案する。
HSSLは、構造的変化を伴わない表現学習方式で、ベースモデルに新しい特徴を付与する。
HSSLは、様々な自己教師型メソッドと互換性があり、様々な下流タスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-08T10:44:05Z) - Ultra Sharp : Study of Single Image Super Resolution using Residual
Dense Network [0.15229257192293202]
シングルイメージ・スーパーレゾリューション(SISR)はコンピュータビジョンにおいて興味深い問題であり、不適切な問題となっている。
従来の超高解像度イメージングアプローチには、再構築、学習に基づく方法が含まれる。
本稿では,Yhangらが開発したResidual Dense Networksアーキテクチャについて検討する。
論文 参考訳(メタデータ) (2023-04-21T10:32:24Z) - FedHeN: Federated Learning in Heterogeneous Networks [52.29110497518558]
ヘテロジニアスネットワークを用いたフェデレーション学習のための新しい学習レシピを提案する。
我々は,高次複雑度デバイスを対象とするトレーニングを導入し,連携した環境で異なるアーキテクチャを共同で訓練する。
論文 参考訳(メタデータ) (2022-07-07T01:08:35Z) - A Multisensory Learning Architecture for Rotation-invariant Object
Recognition [0.0]
本研究では,iCubロボットを用いて構築した新しいデータセットを用いて,物体認識のための多感覚機械学習アーキテクチャを提案する。
提案アーキテクチャでは、畳み込みニューラルネットワークを用いて、グレースケールカラー画像の表現(すなわち特徴)と深度データを処理するための多層パーセプトロンアルゴリズムを組み合わせる。
論文 参考訳(メタデータ) (2020-09-14T09:39:48Z) - NAS-DIP: Learning Deep Image Prior with Neural Architecture Search [65.79109790446257]
近年の研究では、深部畳み込みニューラルネットワークの構造が、以前に構造化された画像として利用できることが示されている。
我々は,より強い画像の先行を捉えるニューラルネットワークの探索を提案する。
既存のニューラルネットワーク探索アルゴリズムを利用して,改良されたネットワークを探索する。
論文 参考訳(メタデータ) (2020-08-26T17:59:36Z) - Neural Ensemble Search for Uncertainty Estimation and Dataset Shift [67.57720300323928]
ニューラルネットワークのアンサンブルは、データセットシフトに対する精度、不確実性キャリブレーション、堅牢性の観点から、スタンドアロンネットワークよりも優れたパフォーマンスを実現する。
本稿では,アンサンブルをアンサンブルで自動構築する2つの手法を提案する。
得られたアンサンブルは、精度だけでなく、不確実なキャリブレーションやデータセットシフトに対する堅牢性の観点からも、深いアンサンブルよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-15T17:38:15Z) - Does Unsupervised Architecture Representation Learning Help Neural
Architecture Search? [22.63641173256389]
既存のニューラルアーキテクチャサーチ(NAS)手法は、スケールが良くない離散符号化を用いてニューラルアーキテクチャをエンコードするか、アーキテクチャ表現を共同で学習し、探索バイアスを引き起こすような表現上でアーキテクチャ探索を最適化するための教師付き学習ベースの手法を採用する。
アーキテクチャ表現学習と探索が組み合わさっていれば,ニューラルネットワークの構造的特性を潜時空間に保持することは困難であり,その結果,探索性能は低下する。
論文 参考訳(メタデータ) (2020-06-12T04:15:34Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - Stage-Wise Neural Architecture Search [65.03109178056937]
ResNetやNASNetのような現代の畳み込みネットワークは、多くのコンピュータビジョンアプリケーションで最先端の結果を得た。
これらのネットワークは、同じ解像度で表現を操作するレイヤのセットであるステージで構成されている。
各ステージにおけるレイヤー数の増加はネットワークの予測能力を向上させることが示されている。
しかし、結果として得られるアーキテクチャは、浮動小数点演算、メモリ要求、推論時間の観点から計算的に高価になる。
論文 参考訳(メタデータ) (2020-04-23T14:16:39Z) - Residual Attention Net for Superior Cross-Domain Time Sequence Modeling [0.0]
本稿では新しいアーキテクチャのコンセプト実証として機能し、RANはモデルにシーケンスパターンのより高レベルな理解を提供することを目的としている。
その結果,35の最先端結果が得られたが,10の結果が現在の最先端結果と一致し,さらなるモデル微調整は行われなかった。
論文 参考訳(メタデータ) (2020-01-13T06:14:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。