論文の概要: Reconstruction Task Finds Universal Winning Tickets
- arxiv url: http://arxiv.org/abs/2202.11484v1
- Date: Wed, 23 Feb 2022 13:04:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-24 15:50:45.617417
- Title: Reconstruction Task Finds Universal Winning Tickets
- Title(参考訳): レコンストラクションタスクがユニバーサル勝利チケットを見つける
- Authors: Ruichen Li, Binghui Li, Qi Qian, Liwei Wang
- Abstract要約: 十分に訓練されたニューラルネットワークは、コンピュータビジョンシステムにおいて有望な精度と効率のトレードオフを実現するのに有効である。
既存のプルーニングアルゴリズムのほとんどは、ソースドメインで定義された分類タスクのみに焦点を当てている。
本稿では,画像レベルのプレトレインタスクは,下流の様々なタスクに対して,モデルを刈り取ることができないことを示す。
- 参考スコア(独自算出の注目度): 24.52604301906691
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pruning well-trained neural networks is effective to achieve a promising
accuracy-efficiency trade-off in computer vision regimes. However, most of
existing pruning algorithms only focus on the classification task defined on
the source domain. Different from the strong transferability of the original
model, a pruned network is hard to transfer to complicated downstream tasks
such as object detection arXiv:arch-ive/2012.04643. In this paper, we show that
the image-level pretrain task is not capable of pruning models for diverse
downstream tasks. To mitigate this problem, we introduce image reconstruction,
a pixel-level task, into the traditional pruning framework. Concretely, an
autoencoder is trained based on the original model, and then the pruning
process is optimized with both autoencoder and classification losses. The
empirical study on benchmark downstream tasks shows that the proposed method
can outperform state-of-the-art results explicitly.
- Abstract(参考訳): 十分に訓練されたニューラルネットワークは、コンピュータビジョンシステムにおいて有望な精度と効率のトレードオフを実現するために有効である。
しかし、既存のプルーニングアルゴリズムのほとんどは、ソースドメインで定義された分類タスクのみに焦点を当てている。
元のモデルの強い転送性とは異なり、プルーニングされたネットワークは、オブジェクト検出のような複雑な下流タスクに転送するのは困難である。
本稿では,画像レベルのプレトレインタスクは,下流の様々なタスクに対して,モデルを刈り取ることができないことを示す。
この問題を軽減するため,従来のプルーニングフレームワークに画素レベルのタスクである画像再構成を導入する。
具体的には、オートエンコーダを元のモデルに基づいてトレーニングした後、オートエンコーダと分類損失の両方でプルーニングプロセスを最適化する。
ベンチマークダウンストリームタスクに関する実証研究は、提案手法が最先端の結果を明示的に上回ることを示す。
関連論文リスト
- One-Shot Pruning for Fast-adapting Pre-trained Models on Devices [28.696989086706186]
大規模な事前訓練モデルが下流タスクの解決に成功している。
これらのモデルを低機能デバイスにデプロイするには、モデルプルーニングのような効果的なアプローチが必要である。
そこで本研究では,類似タスクの抽出知識を活用して,事前学習したモデルからサブネットワークを抽出する,スケーラブルなワンショットプルーニング手法を提案する。
論文 参考訳(メタデータ) (2023-07-10T06:44:47Z) - Task-Robust Pre-Training for Worst-Case Downstream Adaptation [62.05108162160981]
プレトレーニングは下流のタスクに移行することで大きな成功を収めた。
本稿では,下流タスクに対する一様性能を保証するモデルについて,事前学習について考察する。
論文 参考訳(メタデータ) (2023-06-21T07:43:23Z) - GRIG: Few-Shot Generative Residual Image Inpainting [27.252855062283825]
そこで本研究では,高画質な残像塗装法を新たに提案する。
中心となる考え方は、特徴抽出のために畳み込みニューラルネットワーク(CNN)を組み込んだ反復的残留推論手法を提案することである。
また, 忠実なテクスチャと詳細な外観を創出するための, フォージェリーパッチ対逆訓練戦略を提案する。
論文 参考訳(メタデータ) (2023-04-24T12:19:06Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Attentive Fine-Grained Structured Sparsity for Image Restoration [63.35887911506264]
N:M 構造化プルーニングは,モデルの精度制約を効率的にするための効果的かつ実用的なプルーニング手法の1つである。
そこで本稿では, 各層におけるN:M構造化空間の刈り取り比を決定する新しい刈り取り法を提案する。
論文 参考訳(メタデータ) (2022-04-26T12:44:55Z) - Joint Learning of Neural Transfer and Architecture Adaptation for Image
Recognition [77.95361323613147]
現在の最先端の視覚認識システムは、大規模データセット上でニューラルネットワークを事前トレーニングし、より小さなデータセットでネットワーク重みを微調整することに依存している。
本稿では,各ドメインタスクに適応したネットワークアーキテクチャの動的適応と,効率と効率の両面で重みの微調整の利点を実証する。
本手法は,ソースドメインタスクでスーパーネットトレーニングを自己教師付き学習に置き換え,下流タスクで線形評価を行うことにより,教師なしパラダイムに容易に一般化することができる。
論文 参考訳(メタデータ) (2021-03-31T08:15:17Z) - Cross-modal Adversarial Reprogramming [12.467311480726702]
近年の逆転プログラミングの研究では、ネットワークアーキテクチャやパラメータを変更することなく、代替タスクのためにニューラルネットワークを再利用できることが示されている。
自然言語処理(NLP)やその他のシーケンス分類タスクのための画像分類ニューラルネットワークを逆転的に再検討する可能性を分析します。
論文 参考訳(メタデータ) (2021-02-15T03:46:16Z) - Counterfactual Generative Networks [59.080843365828756]
画像生成過程を直接監督せずに訓練する独立した因果機構に分解することを提案する。
適切な誘導バイアスを活用することによって、これらのメカニズムは物体の形状、物体の質感、背景を解き放つ。
その結果, 偽画像は, 元の分類タスクにおける性能の低下を伴い, 分散性が向上することが示された。
論文 参考訳(メタデータ) (2021-01-15T10:23:12Z) - Mixed-Privacy Forgetting in Deep Networks [114.3840147070712]
大規模画像分類タスクにおいてトレーニングされたネットワークの重みからトレーニングサンプルのサブセットの影響を除去できることを示す。
そこで本研究では,混合プライバシー設定における「忘れ」という新しい概念を導入する。
提案手法は,モデル精度のトレードオフを伴わずに忘れることができることを示す。
論文 参考訳(メタデータ) (2020-12-24T19:34:56Z) - Principled network extraction from images [0.0]
本稿では,スケーラブルで効率的な画像からネットワークトポロジを抽出する原理モデルを提案する。
我々は,網膜血管系,スライムカビ,河川網の実際の画像を用いて本モデルを検証した。
論文 参考訳(メタデータ) (2020-12-23T15:56:09Z) - Multi-task pre-training of deep neural networks for digital pathology [8.74883469030132]
私たちはまず、多くのデジタル病理データセットを22の分類タスクと約900kの画像のプールに組み立て、変換しました。
特徴抽出器として使用されるモデルは、ImageNet事前訓練されたモデルよりも大幅に改善されるか、同等のパフォーマンスを提供するかを示す。
論文 参考訳(メタデータ) (2020-05-05T08:50:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。