論文の概要: SAE: Single Architecture Ensemble Neural Networks
- arxiv url: http://arxiv.org/abs/2402.06580v1
- Date: Fri, 9 Feb 2024 17:55:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 15:49:10.585822
- Title: SAE: Single Architecture Ensemble Neural Networks
- Title(参考訳): SAE: ニューラルネットワークを組み込んだ単一アーキテクチャ
- Authors: Martin Ferianc, Hongxiang Fan, Miguel Rodrigues
- Abstract要約: 異なるニューラルネットワーク(NN)のアンサンブルは、タスク間の単一NNよりも精度と信頼性のキャリブレーションが優れている。
近年の手法では、早期出口やマルチインプット・マルチアウトプット・フレームワークを通じて単一のネットワーク内でアンサンブルを圧縮している。
我々はこれらのアプローチを単一アーキテクチャアンサンブル(SAE)に統合する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 7.8805195998276165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensembles of separate neural networks (NNs) have shown superior accuracy and
confidence calibration over single NN across tasks. Recent methods compress
ensembles within a single network via early exits or multi-input multi-output
frameworks. However, the landscape of these methods is fragmented thus far,
making it difficult to choose the right approach for a given task. Furthermore,
the algorithmic performance of these methods is behind the ensemble of separate
NNs and requires extensive architecture tuning. We propose a novel methodology
unifying these approaches into a Single Architecture Ensemble (SAE). Our method
learns the optimal number and depth of exits per ensemble input in a single NN.
This enables the SAE framework to flexibly tailor its configuration for a given
architecture or application. We evaluate SAEs on image classification and
regression across various network architecture types and sizes. We demonstrate
competitive accuracy or confidence calibration to baselines while reducing the
compute operations or parameter count by up to $1.5{\sim}3.7\times$.
- Abstract(参考訳): 異なるニューラルネットワーク(NN)のアンサンブルは、タスク間の単一NNよりも精度と信頼性のキャリブレーションが優れている。
最近の手法では、初期エグジットやマルチ入力マルチアウトプットフレームワークを介して単一のネットワーク内でアンサンブルを圧縮している。
しかし、これらの手法の状況は断片化されており、与えられたタスクに対して適切なアプローチを選択することは困難である。
さらに、これらの手法のアルゴリズム性能は、異なるNNのアンサンブルの背後にあり、広範なアーキテクチャチューニングを必要とする。
本稿では,これらのアプローチを単一アーキテクチャアンサンブル(SAE)に統合する手法を提案する。
本手法は,単一NNにおいてアンサンブル入力毎に最適な出口数と深さを学習する。
これにより、saeフレームワークは、所定のアーキテクチャやアプリケーションの構成を柔軟に調整できる。
我々は,様々なネットワークアーキテクチャタイプとサイズにわたる画像分類と回帰に関するsaeを評価する。
計算演算やパラメータカウントを最大1.5{\sim}3.7\times$に削減しながら、ベースラインに対する競合精度や信頼性の校正を実証する。
関連論文リスト
- Network Fission Ensembles for Low-Cost Self-Ensembles [20.103367702014474]
NFE(Network Fission Ensembles)と呼ばれる低コストのアンサンブル学習と推論を提案する。
まず、トレーニングの負担を軽減するために、いくつかの重みを取り除きます。
次に、残りの重みを複数の集合に分けて、各集合を用いて複数の補助経路を作成し、複数の集合を構成する。
論文 参考訳(メタデータ) (2024-08-05T08:23:59Z) - Aux-NAS: Exploiting Auxiliary Labels with Negligibly Extra Inference Cost [73.28626942658022]
本研究の目的は,独立タスク(副次タスク)から追加の補助ラベルを活用することで,タスクのパフォーマンスを向上させることである。
本手法は,主タスクと補助タスクのための柔軟な非対称構造を持つアーキテクチャに基づく。
VGG、ResNet、ViTのバックボーンを使用して、NYU v2、CityScapes、Taskonomyデータセット上の6つのタスクで実験を行った。
論文 参考訳(メタデータ) (2024-05-09T11:50:19Z) - Multi-objective Differentiable Neural Architecture Search [58.67218773054753]
本研究では,パフォーマンスとハードウェアメトリクスのトレードオフのために,ユーザの好みを符号化するNASアルゴリズムを提案する。
提案手法は,既存のMOO NAS手法を,定性的に異なる検索空間やデータセットの広い範囲で性能良くする。
論文 参考訳(メタデータ) (2024-02-28T10:09:04Z) - OFA$^2$: A Multi-Objective Perspective for the Once-for-All Neural
Architecture Search [79.36688444492405]
once-for-All(OFA)は、異なるリソース制約を持つデバイスのための効率的なアーキテクチャを探索する問題に対処するために設計された、ニューラルネットワーク検索(NAS)フレームワークである。
我々は,探索段階を多目的最適化問題として明示的に考えることにより,効率の追求を一歩進めることを目指している。
論文 参考訳(メタデータ) (2023-03-23T21:30:29Z) - Multi-headed Neural Ensemble Search [68.10888689513583]
異なる種(ディープ・アンサンブルとしても知られる)で訓練されたCNNモデルのアンサンブルは、CNNの単一コピーよりも優れたパフォーマンスを達成することが知られている。
我々はNESをマルチヘッドアンサンブルに拡張し、複数の予測ヘッドにアタッチされた共有バックボーンで構成される。
論文 参考訳(メタデータ) (2021-07-09T11:20:48Z) - Embedded Self-Distillation in Compact Multi-Branch Ensemble Network for
Remote Sensing Scene Classification [17.321718779142817]
本稿では,特徴表現能力を向上させるマルチブランチアンサンブルネットワークを提案する。
自己蒸留法(SD)を組み込んで,アンサンブルネットワークからメインブランチへ知識を伝達する。
その結果,提案するESD-MBENetは,従来のSOTA(State-of-the-art)モデルよりも精度が高いことがわかった。
論文 参考訳(メタデータ) (2021-04-01T03:08:52Z) - Decoupled and Memory-Reinforced Networks: Towards Effective Feature
Learning for One-Step Person Search [65.51181219410763]
歩行者検出と識別サブタスクを1つのネットワークで処理するワンステップ方式を開発しました。
現在のワンステップアプローチには2つの大きな課題があります。
本稿では,これらの問題を解決するために,分離メモリ強化ネットワーク(DMRNet)を提案する。
論文 参考訳(メタデータ) (2021-02-22T06:19:45Z) - MTL-NAS: Task-Agnostic Neural Architecture Search towards
General-Purpose Multi-Task Learning [71.90902837008278]
汎用マルチタスク学習(GP-MTL)にニューラルアーキテクチャサーチ(NAS)を導入することを提案する。
異なるタスクの組み合わせに対応するため、GP-MTLネットワークを単一タスクのバックボーンに分割する。
また,探索されたアーキテクチャ間の性能ギャップを埋める単一ショット勾配に基づく探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-03-31T09:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。