論文の概要: Efficient Scale-Permuted Backbone with Learned Resource Distribution
- arxiv url: http://arxiv.org/abs/2010.11426v1
- Date: Thu, 22 Oct 2020 03:59:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 05:11:30.345712
- Title: Efficient Scale-Permuted Backbone with Learned Resource Distribution
- Title(参考訳): 学習資源分布を考慮した高効率スケール置換バックボーン
- Authors: Xianzhi Du, Tsung-Yi Lin, Pengchong Jin, Yin Cui, Mingxing Tan, Quoc
Le, and Xiaodan Song
- Abstract要約: SpineNetはResNetモデルによるオブジェクト検出と画像分類に関する有望な結果を実証している。
本稿では,効率的な演算と複合スケーリングを以前に学習したスケールパーミュートアーキテクチャと組み合わせる手法を提案する。
その結果、オブジェクト検出における最先端のEfficientNetベースモデルより効率の良いスケール置換モデルを実現し、画像分類とセマンティックセグメンテーションにおける競合性能を実現する。
- 参考スコア(独自算出の注目度): 41.45085444609275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, SpineNet has demonstrated promising results on object detection and
image classification over ResNet model. However, it is unclear if the
improvement adds up when combining scale-permuted backbone with advanced
efficient operations and compound scaling. Furthermore, SpineNet is built with
a uniform resource distribution over operations. While this strategy seems to
be prevalent for scale-decreased models, it may not be an optimal design for
scale-permuted models. In this work, we propose a simple technique to combine
efficient operations and compound scaling with a previously learned
scale-permuted architecture. We demonstrate the efficiency of scale-permuted
model can be further improved by learning a resource distribution over the
entire network. The resulting efficient scale-permuted models outperform
state-of-the-art EfficientNet-based models on object detection and achieve
competitive performance on image classification and semantic segmentation. Code
and models will be open-sourced soon.
- Abstract(参考訳): 最近、SpineNetはResNetモデルによるオブジェクト検出と画像分類の有望な結果を実証している。
しかし、拡張性のあるバックボーンと高度な効率的な操作と複合スケーリングを組み合わせた場合、改善が増すかどうかは不明である。
さらに、spinernetは操作上の均一なリソース分散で構築されている。
この戦略は、スケール劣化モデルでは一般的と思われるが、スケール変動モデルでは最適設計ではないかもしれない。
本研究では,従来学習したスケールアミュートアーキテクチャと効率的な操作と複合スケーリングを組み合わせるための簡易な手法を提案する。
ネットワーク全体のリソース分布を学習することで,スケール置換モデルの効率をさらに向上できることを実証する。
その結果、オブジェクト検出における最先端のEfficientNetベースモデルより効率の良いスケール置換モデルを実現し、画像分類とセマンティックセグメンテーションにおける競合性能を実現する。
コードとモデルは近くオープンソース化される。
関連論文リスト
- Self-Supervised Learning in Deep Networks: A Pathway to Robust Few-Shot Classification [0.0]
まず、ラベルのない大量のデータから共通特徴表現を学習できるように、自己スーパービジョンでモデルを事前訓練する。
その後、数ショットのデータセットMini-ImageNetで微調整を行い、限られたデータの下でモデルの精度と一般化能力を改善する。
論文 参考訳(メタデータ) (2024-11-19T01:01:56Z) - A-SDM: Accelerating Stable Diffusion through Redundancy Removal and
Performance Optimization [54.113083217869516]
本研究ではまず,ネットワークの計算冗長性について検討する。
次に、モデルの冗長性ブロックをプルークし、ネットワーク性能を維持する。
第3に,計算集約型注意部を高速化するグローバル地域対話型注意(GRI)を提案する。
論文 参考訳(メタデータ) (2023-12-24T15:37:47Z) - A Simple and Efficient Baseline for Data Attribution on Images [107.12337511216228]
現在の最先端のアプローチでは、モデル予測を正確に評価するために、最大30万のモデルの大規模なアンサンブルが必要となる。
本研究では、自己教師付き学習によって事前訓練されたバックボーンの特徴空間を利用して、データ帰属を行うミニマリストベースラインに焦点を当てる。
提案手法はモデルに依存しず,大規模データセットに容易にスケールできる。
論文 参考訳(メタデータ) (2023-11-03T17:29:46Z) - Efficiently Robustify Pre-trained Models [18.392732966487582]
大規模モデルの現実的な設定に対する堅牢性は、いまだ探索されていないトピックである。
まず、異なる摂動とデータセットの下でこれらのモデルのパフォーマンスをベンチマークします。
続いて、大規模ネットワークにおいて、モデルファインチューニングに基づく既存のロバスト化スキームが拡張性に欠ける可能性について論じる。
論文 参考訳(メタデータ) (2023-09-14T08:07:49Z) - Effective Invertible Arbitrary Image Rescaling [77.46732646918936]
Invertible Neural Networks (INN)は、ダウンスケーリングとアップスケーリングのサイクルを共同で最適化することにより、アップスケーリングの精度を大幅に向上させることができる。
本研究の1つのモデルのみをトレーニングすることにより、任意の画像再スケーリングを実現するために、単純で効果的な非可逆的再スケーリングネットワーク(IARN)を提案する。
LR出力の知覚品質を損なうことなく、双方向任意再スケーリングにおいて最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-09-26T22:22:30Z) - Part-Based Models Improve Adversarial Robustness [57.699029966800644]
人間の事前知識とエンドツーエンドの学習を組み合わせることで、ディープニューラルネットワークの堅牢性を向上させることができることを示す。
我々のモデルは、部分分割モデルと小さな分類器を組み合わせて、オブジェクトを同時に部品に分割するようにエンドツーエンドに訓練されている。
実験の結果,これらのモデルによりテクスチャバイアスが低減され,一般的な汚職に対する堅牢性が向上し,相関が急上昇することが示唆された。
論文 参考訳(メタデータ) (2022-09-15T15:41:47Z) - ScaleNet: Searching for the Model to Scale [44.05380012545087]
ベースモデルとスケーリング戦略を共同で検索するために,ScaleNetを提案する。
我々は,大規模ネットワークが様々なFLOPに対して大きな性能上の優位性を持っていることを示す。
論文 参考訳(メタデータ) (2022-07-15T03:16:43Z) - Top-KAST: Top-K Always Sparse Training [50.05611544535801]
トレーニングを通して一定間隔を保存するTop-KASTを提案する。
確立したImageNetベンチマークのトレーニングモデルでは,従来の作業と同等かそれ以上に動作可能であることを示す。
ImageNetの結果に加えて、言語モデリングの分野においても、我々のアプローチを実証しています。
論文 参考訳(メタデータ) (2021-06-07T11:13:05Z) - Multi-task pre-training of deep neural networks for digital pathology [8.74883469030132]
私たちはまず、多くのデジタル病理データセットを22の分類タスクと約900kの画像のプールに組み立て、変換しました。
特徴抽出器として使用されるモデルは、ImageNet事前訓練されたモデルよりも大幅に改善されるか、同等のパフォーマンスを提供するかを示す。
論文 参考訳(メタデータ) (2020-05-05T08:50:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。