論文の概要: PRANC: Pseudo RAndom Networks for Compacting deep models
- arxiv url: http://arxiv.org/abs/2206.08464v2
- Date: Mon, 28 Aug 2023 22:09:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 19:17:57.562123
- Title: PRANC: Pseudo RAndom Networks for Compacting deep models
- Title(参考訳): pranc: 深層モデル圧縮のための擬似ランダムネットワーク
- Authors: Parsa Nooralinejad, Ali Abbasi, Soroush Abbasi Koohpayegani, Kossar
Pourahmadi Meibodi, Rana Muhammad Shahroz Khan, Soheil Kolouri, Hamed
Pirsiavash
- Abstract要約: PRANCはディープモデルの大幅なコンパクト化を可能にする。
本研究では,PRANCを用いて画像分類モデルを構築し,関連する暗黙的ニューラルネットワークをコンパクト化することで画像の圧縮を行う。
- 参考スコア(独自算出の注目度): 22.793523211040682
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We demonstrate that a deep model can be reparametrized as a linear
combination of several randomly initialized and frozen deep models in the
weight space. During training, we seek local minima that reside within the
subspace spanned by these random models (i.e., `basis' networks). Our
framework, PRANC, enables significant compaction of a deep model. The model can
be reconstructed using a single scalar `seed,' employed to generate the
pseudo-random `basis' networks, together with the learned linear mixture
coefficients.
In practical applications, PRANC addresses the challenge of efficiently
storing and communicating deep models, a common bottleneck in several
scenarios, including multi-agent learning, continual learners, federated
systems, and edge devices, among others. In this study, we employ PRANC to
condense image classification models and compress images by compacting their
associated implicit neural networks. PRANC outperforms baselines with a large
margin on image classification when compressing a deep model almost $100$
times. Moreover, we show that PRANC enables memory-efficient inference by
generating layer-wise weights on the fly. The source code of PRANC is here:
\url{https://github.com/UCDvision/PRANC}
- Abstract(参考訳): 重み空間における複数のランダム初期化および凍結した深層モデルの線形結合として、深層モデルを再パラメータ化できることを実証する。
トレーニング中、これらのランダムなモデル(すなわち‘basis’ネットワーク)にまたがる部分空間内に存在するローカルなミニマを探索する。
私たちのフレームワークであるprancは、深層モデルの大幅なコンパクト化を可能にします。
モデルは、学習された線形混合係数とともに擬似ランダムな「基底」ネットワークを生成するために使用される単一のスカラー「シード」を用いて再構成することができる。
PRANCは、マルチエージェント学習、連続学習者、フェデレーションシステム、エッジデバイスなど、いくつかのシナリオにおいて一般的なボトルネックであるディープモデルの効率的な保存と通信という課題に対処する。
本研究では,PRANCを用いて画像分類モデルを構築し,関連する暗黙的ニューラルネットワークをコンパクト化することで画像の圧縮を行う。
PRANCは、ディープモデルを100ドル近い価格で圧縮する場合、画像分類に大きな差でベースラインを上回ります。
さらに,PRANCは,ハエの重みを階層的に生成することで,メモリ効率のよい推論を可能にすることを示す。
prancのソースコードは以下である。 \url{https://github.com/ucdvision/pranc}
関連論文リスト
- FreeSeg-Diff: Training-Free Open-Vocabulary Segmentation with Diffusion Models [56.71672127740099]
我々は,閉鎖語彙データセットのトレーニングモデルによって伝統的に解決されるイメージセグメンテーションの課題に焦点をあてる。
我々は、ゼロショットのオープン語彙セグメンテーションのために、異なる、比較的小さなオープンソース基盤モデルを活用している。
当社のアプローチ(別名FreeSeg-Diff)は、トレーニングに依存しないもので、Pascal VOCとCOCOデータセットの両方で多くのトレーニングベースのアプローチより優れています。
論文 参考訳(メタデータ) (2024-03-29T10:38:25Z) - Learning multi-scale local conditional probability models of images [7.07848787073901]
ディープニューラルネットワークは、最近のスコアベース拡散法で得られた高品質な世代によって証明されたように、画像の強力な事前確率モデルを学ぶことができる。
しかし、これらのネットワークが複雑なグローバルな統計構造をとらえる手段は、明らかに次元の呪いに苦しむことなく、謎のままだ。
我々は拡散法を多スケール分解に取り入れ、粗大係数に条件付きウェーブレット係数の定常局所マルコフモデルを仮定することにより次元性を減少させる。
論文 参考訳(メタデータ) (2023-03-06T09:23:14Z) - Parameter-Efficient Masking Networks [61.43995077575439]
先進的なネットワーク設計は、しばしば多数の繰り返し構造を含む(例: Transformer)。
本研究では,マスクの学習により,一意値に制限された固定ランダムウェイトの代表的ポテンシャルについて検討する。
これはモデル圧縮のための新しいパラダイムをもたらし、モデルサイズを減少させます。
論文 参考訳(メタデータ) (2022-10-13T03:39:03Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Fully differentiable model discovery [0.0]
ニューラルネットワークに基づくサロゲートとスパースベイズ学習を組み合わせたアプローチを提案する。
我々の研究は、PINNを様々なタイプのニューラルネットワークアーキテクチャに拡張し、ニューラルネットワークベースのサロゲートをベイズパラメータ推論のリッチフィールドに接続する。
論文 参考訳(メタデータ) (2021-06-09T08:11:23Z) - Mixture-based Feature Space Learning for Few-shot Image Classification [6.574517227976925]
特徴抽出器を同時に訓練し,混合モデルパラメータをオンラインで学習することで,混合モデルを用いたベースクラスをモデル化することを提案する。
非常に少数のサンプルから新しい例を分類するために使用できる、よりリッチでより差別的な特徴空間における結果。
論文 参考訳(メタデータ) (2020-11-24T03:16:27Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。