論文の概要: Rethinking Pareto Frontier for Performance Evaluation of Deep Neural
Networks
- arxiv url: http://arxiv.org/abs/2202.09275v1
- Date: Fri, 18 Feb 2022 15:58:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-21 16:28:44.135099
- Title: Rethinking Pareto Frontier for Performance Evaluation of Deep Neural
Networks
- Title(参考訳): ディープニューラルネットワークの性能評価のためのparetoフロンティア再考
- Authors: Vahid Partovi Nia, Alireza Ghaffari, Mahdi Zolnouri and Yvon Savaria
- Abstract要約: 多目的最適化を用いて効率測定を再定義する。
競合変数と自然を同時に1つの相対効率尺度で組み合わせる。
これにより、異なるコンピューティングハードウェア上で効率的に動作するディープモデルをランク付けし、推論効率とトレーニング効率を客観的に組み合わせることができる。
- 参考スコア(独自算出の注目度): 2.167843405313757
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent efforts in deep learning show a considerable advancement in
redesigning deep learning models for low-resource and edge devices. The
performance optimization of deep learning models are conducted either manually
or through automatic architecture search, or a combination of both. The
throughput and power consumption of deep learning models strongly depend on the
target hardware. We propose to use a \emph{multi-dimensional} Pareto frontier
to re-define the efficiency measure using a multi-objective optimization, where
other variables such as power consumption, latency, and accuracy play a
relative role in defining a dominant model. Furthermore, a random version of
the multi-dimensional Pareto frontier is introduced to mitigate the uncertainty
of accuracy, latency, and throughput variations of deep learning models in
different experimental setups. These two breakthroughs provide an objective
benchmarking method for a wide range of deep learning models. We run our novel
multi-dimensional stochastic relative efficiency on a wide range of deep image
classification models trained ImageNet data. Thank to this new approach we
combine competing variables with stochastic nature simultaneously in a single
relative efficiency measure. This allows to rank deep models that run
efficiently on different computing hardware, and combines inference efficiency
with training efficiency objectively.
- Abstract(参考訳): 最近のディープラーニングの取り組みは、低リソースとエッジデバイス向けのディープラーニングモデルの再設計において、かなりの進歩を示している。
ディープラーニングモデルのパフォーマンス最適化は、手動または自動アーキテクチャ検索または両方の組み合わせによって行われる。
ディープラーニングモデルのスループットと消費電力は、ターゲットハードウェアに強く依存する。
本稿では,電力消費,レイテンシ,正確性といった他の変数が支配的モデルを定義する上で相対的な役割を果たす多目的最適化を用いて効率尺度を再定義する手法を提案する。
さらに,多次元パレートフロンティアのランダムバージョンを導入し,異なる実験環境におけるディープラーニングモデルの精度,レイテンシ,スループット変動の不確実性を軽減する。
これら2つのブレークスルーは、幅広いディープラーニングモデルに対する客観的なベンチマーク手法を提供する。
我々は,新しい多次元確率的相対効率を,画像ネットデータを訓練した深部画像分類モデル上で実行した。
この新しいアプローチのおかげで、競合変数と確率的性質を同時に1つの相対効率尺度に組み合わせます。
これにより、異なるコンピューティングハードウェア上で効率的に動作するディープモデルをランク付けし、推論効率とトレーニング効率を客観的に組み合わせることができる。
関連論文リスト
- Towards Efficient Pareto Set Approximation via Mixture of Experts Based Model Fusion [53.33473557562837]
大規模深層ニューラルネットワークに対する多目的最適化問題を解くことは、損失ランドスケープの複雑さと高価な計算コストのために難しい課題である。
本稿では,専門家(MoE)をベースとしたモデル融合を用いて,この問題を実用的でスケーラブルに解決する手法を提案する。
特殊な単一タスクモデルの重みをまとめることで、MoEモジュールは複数の目的間のトレードオフを効果的に捉えることができる。
論文 参考訳(メタデータ) (2024-06-14T07:16:18Z) - Do deep neural networks utilize the weight space efficiently? [2.9914612342004503]
TransformersやConvolutional Neural Networks(CNN)といったディープラーニングモデルは、さまざまなドメインに革命をもたらしたが、パラメータ集約的な自然ハマーをリソース制約された設定に配置する。
重み行列の列空間と行空間を利用する新しい概念を導入し、性能を損なうことなくモデルパラメータを大幅に削減する。
私たちのアプローチはBottleneck層とAttention層の両方に適用され、パラメータを効果的に半分にします。
論文 参考訳(メタデータ) (2024-01-26T21:51:49Z) - Optimizing Dense Feed-Forward Neural Networks [0.0]
本稿では,プルーニングと移動学習に基づくフィードフォワードニューラルネットワークの構築手法を提案する。
提案手法では,パラメータ数を70%以上圧縮できる。
また、ニューラルネットワークをスクラッチからトレーニングしたモデルと元のモデルを比較し、トランスファー学習レベルを評価した。
論文 参考訳(メタデータ) (2023-12-16T23:23:16Z) - When Parameter-efficient Tuning Meets General-purpose Vision-language
Models [65.19127815275307]
PETALは、一意のモード近似技術によって達成される全パラメータの0.5%しか必要とせず、トレーニングプロセスに革命をもたらす。
実験の結果,PETALは現状の手法をほとんどのシナリオで上回るだけでなく,完全な微調整モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-12-16T17:13:08Z) - HCE: Improving Performance and Efficiency with Heterogeneously
Compressed Neural Network Ensemble [22.065904428696353]
最近のアンサンブルトレーニング手法では,同じモデルアーキテクチャを持つ複数のサブモデルの異なるトレーニングアルゴリズムや設定を探索している。
我々は、事前訓練されたDNNモデルから、切断された量子化された変種と効率的なアンサンブルを構築するヘテロジェネリー圧縮アンサンブル(HCE)を提案する。
論文 参考訳(メタデータ) (2023-01-18T21:47:05Z) - DST: Dynamic Substitute Training for Data-free Black-box Attack [79.61601742693713]
そこで本研究では,対象モデルからより高速に学習するための代用モデルの促進を目的とした,新しい動的代用トレーニング攻撃手法を提案する。
タスク駆動型グラフに基づく構造情報学習の制約を導入し、生成したトレーニングデータの質を向上させる。
論文 参考訳(メタデータ) (2022-04-03T02:29:11Z) - Consistency Training of Multi-exit Architectures for Sensor Data [0.07614628596146598]
本稿では,一貫した出口訓練(Continuous exit training)と呼ばれるマルチエクイットアーキテクチャの堅牢なトレーニングのための,新規かつアーキテクチャに依存しないアプローチを提案する。
弱監督を利用して、モデルの出力を整合性トレーニングと整合させ、ネットワーク内の出口に対してマルチタスク学習方式で二重空間を協調的に最適化する。
論文 参考訳(メタデータ) (2021-09-27T17:11:25Z) - Multi-Scale Aligned Distillation for Low-Resolution Detection [68.96325141432078]
本稿では,高分解能モデルや多分解能モデルから知識を抽出することで,低分解能モデルの性能を向上させることに焦点を当てる。
いくつかのインスタンスレベルの検出タスクとデータセットにおいて,本手法を用いて訓練された低解像度モデルと,従来のマルチスケールトレーニングによる訓練された高解像度モデルとを競合的に処理する。
論文 参考訳(メタデータ) (2021-09-14T12:53:35Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Triple Wins: Boosting Accuracy, Robustness and Efficiency Together by
Enabling Input-Adaptive Inference [119.19779637025444]
深層ネットワークは、(クリーンな自然画像の場合)正確さと(敵対的な摂動画像の場合)頑健さの相違に直面することを最近提案された。
本稿では,入力適応推論に関連するマルチエグジットネットワークについて検討し,モデル精度,ロバスト性,効率の最適化において「スイートポイント」を達成する上での強い期待を示す。
論文 参考訳(メタデータ) (2020-02-24T00:40:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。