論文の概要: Deep Model Reassembly
- arxiv url: http://arxiv.org/abs/2210.17409v2
- Date: Wed, 2 Nov 2022 16:16:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 14:38:35.588068
- Title: Deep Model Reassembly
- Title(参考訳): 深部モデル再組み立て
- Authors: Xingyi Yang, Daquan Zhou, Songhua Liu, Jingwen Ye, Xinchao Wang
- Abstract要約: 我々はDeep Model Reassembly(DeRy)と呼ばれる新しい知識伝達タスクを探索する。
DeRyの目標は、まず各モデルを固有のビルディングブロックに分割し、それから派生したブロックを選択的に再組み立てて、カスタマイズされたネットワークを生成することである。
ImageNetでは、最高の再組み立てモデルは微調整なしで78.6%のトップ1の精度を実現している。
- 参考スコア(独自算出の注目度): 60.6531819328247
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we explore a novel knowledge-transfer task, termed as Deep
Model Reassembly (DeRy), for general-purpose model reuse. Given a collection of
heterogeneous models pre-trained from distinct sources and with diverse
architectures, the goal of DeRy, as its name implies, is to first dissect each
model into distinctive building blocks, and then selectively reassemble the
derived blocks to produce customized networks under both the hardware resource
and performance constraints. Such ambitious nature of DeRy inevitably imposes
significant challenges, including, in the first place, the feasibility of its
solution. We strive to showcase that, through a dedicated paradigm proposed in
this paper, DeRy can be made not only possibly but practically efficiently.
Specifically, we conduct the partitions of all pre-trained networks jointly via
a cover set optimization, and derive a number of equivalence set, within each
of which the network blocks are treated as functionally equivalent and hence
interchangeable. The equivalence sets learned in this way, in turn, enable
picking and assembling blocks to customize networks subject to certain
constraints, which is achieved via solving an integer program backed up with a
training-free proxy to estimate the task performance. The reassembled models,
give rise to gratifying performances with the user-specified constraints
satisfied. We demonstrate that on ImageNet, the best reassemble model achieves
78.6% top-1 accuracy without fine-tuning, which could be further elevated to
83.2% with end-to-end training. Our code is available at
https://github.com/Adamdad/DeRy
- Abstract(参考訳): 本稿では,Deep Model Reassembly (DeRy) と呼ばれる,汎用モデル再利用のための新しい知識伝達タスクについて検討する。
異なるソースと多様なアーキテクチャで事前訓練された異種モデルの集合を考えると、DeRyのゴールは、まず各モデルを固有のビルディングブロックに分解し、次に派生ブロックを選択的に再組み立てて、ハードウェアリソースと性能制約の両方の下でカスタマイズされたネットワークを生成することである。
ディーリーのこのような野心的な性質は必然的に重要な課題を課し、そもそもその解決策の実現可能性を含める。
我々は,本論文で提案する専門パラダイムを通じて,デリーが可能なだけでなく,効果的に行うことができることを示すことに努める。
具体的には,すべての事前学習済みネットワークの分割をカバーセット最適化により共同で行い,ネットワークブロックを機能的に等価かつ交換可能なものとして扱う同値集合を導出する。
このように学習された等価性セットは、特定の制約を満たしたネットワークをカスタマイズするためにブロックの選択と組み立てを可能にし、トレーニングフリーのプロキシでバックアップされた整数プログラムを解いてタスクパフォーマンスを推定することで実現される。
再組み立てされたモデルは、ユーザが指定した制約を満たすことで満足なパフォーマンスをもたらす。
ImageNetでは、最高の再組み立てモデルが微調整なしで78.6%の精度を実現し、エンドツーエンドのトレーニングで83.2%に向上することを示した。
私たちのコードはhttps://github.com/Adamdad/DeRyで利用可能です。
関連論文リスト
- Any Image Restoration with Efficient Automatic Degradation Adaptation [132.81912195537433]
本研究は, 各種劣化の相似性を有効かつ包括的修復に活用し, 共同埋設を実現する統一的な方法を提案する。
我々のネットワークは、モデルの複雑さをトレーニング可能なパラメータで約82%、FLOPで約85%削減しつつ、新しいSOTAレコードを設定している。
論文 参考訳(メタデータ) (2024-07-18T10:26:53Z) - Dynamic Pre-training: Towards Efficient and Scalable All-in-One Image Restoration [100.54419875604721]
オールインワン画像復元は、各分解に対してタスク固有の非ジェネリックモデルを持たずに、統一されたモデルで異なるタイプの劣化に対処する。
我々は、オールインワン画像復元タスクのためのエンコーダデコーダ方式で設計されたネットワークの動的ファミリであるDyNetを提案する。
我々のDyNetは、よりバルク化と軽量化をシームレスに切り替えることができるので、効率的なモデルデプロイメントのための柔軟性を提供します。
論文 参考訳(メタデータ) (2024-04-02T17:58:49Z) - Building a Winning Team: Selecting Source Model Ensembles using a
Submodular Transferability Estimation Approach [20.86345962679122]
公開されている事前訓練されたモデルの目標タスクへの転送可能性の推定は、伝達学習タスクにとって重要な場所となっている。
本稿では, モデルアンサンブルの下流タスクへの転送可能性を評価するために, 最適なtranSportベースのsuBmOdular tRaNsferability Metrics(OSBORN)を提案する。
論文 参考訳(メタデータ) (2023-09-05T17:57:31Z) - SortedNet: A Scalable and Generalized Framework for Training Modular Deep Neural Networks [30.069353400127046]
我々は、ディープニューラルネットワーク(DNN)の固有のモジュラリティを活用するためにSortedNetを提案する。
SortedNetは、メインモデルのトレーニングと同時にサブモデルのトレーニングを可能にする。
一度に160台のサブモデルを訓練でき、オリジナルのモデルの性能の少なくとも96%を達成できる。
論文 参考訳(メタデータ) (2023-09-01T05:12:25Z) - Generative Model for Models: Rapid DNN Customization for Diverse Tasks
and Resource Constraints [28.983470365172057]
NN-Factoryは、さまざまなエッジシナリオ用にカスタマイズされた軽量モデルを生成する、オールツーオールのフレームワークである。
NN-Factoryの主なコンポーネントは、異なるタスクを達成するために条件付きアクティベート可能な、事前訓練されたモジュールを備えたモジュラースーパーネットである。
NN-Factoryは、従来のモデルのカスタマイズアプローチよりも桁違いに高速で、数秒で高品質なタスクやリソース固有のモデルを生成することができる。
論文 参考訳(メタデータ) (2023-08-29T03:28:14Z) - Chain-of-Skills: A Configurable Model for Open-domain Question Answering [79.8644260578301]
検索モデルは、現実世界の知識集約的なタスクに欠かせない要素である。
最近の研究はカスタマイズされたメソッドに焦点を合わせ、モデルの転送可能性とスケーラビリティを制限している。
本稿では,各モジュールがデータセット間で再利用可能なキースキルに対応するモジュールレトリバーを提案する。
論文 参考訳(メタデータ) (2023-05-04T20:19:39Z) - Retrieve-and-Fill for Scenario-based Task-Oriented Semantic Parsing [110.4684789199555]
シナリオベースのセマンティックパーシングを導入し、最初に発話の「scenario」を曖昧にする必要がある元のタスクの変種を紹介します。
この定式化により、タスクの粗くきめ細かな側面を分離することが可能となり、それぞれがオフザシェルフニューラルネットワークモジュールで解決される。
私たちのモデルはモジュール化され、差別化可能で、解釈可能で、シナリオから余分な監督を得られるようになります。
論文 参考訳(メタデータ) (2022-02-02T08:00:21Z) - Data Summarization via Bilevel Optimization [48.89977988203108]
シンプルだが強力なアプローチは、小さなサブセットのデータを操作することだ。
本研究では,コアセット選択を基数制約付き双レベル最適化問題として定式化する汎用コアセットフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-26T09:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。