論文の概要: Learning to Learn Parameterized Classification Networks for Scalable
Input Images
- arxiv url: http://arxiv.org/abs/2007.06181v1
- Date: Mon, 13 Jul 2020 04:27:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 00:08:38.307873
- Title: Learning to Learn Parameterized Classification Networks for Scalable
Input Images
- Title(参考訳): スケーラブルな入力画像のためのパラメータ分類ネットワークの学習
- Authors: Duo Li, Anbang Yao and Qifeng Chen
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、入力解像度の変化に関して予測可能な認識動作を持たない。
我々はメタラーナーを用いて、様々な入力スケールのメインネットワークの畳み込み重みを生成する。
さらに、異なる入力解像度に基づいて、モデル予測よりもフライでの知識蒸留を利用する。
- 参考スコア(独自算出の注目度): 76.44375136492827
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional Neural Networks (CNNs) do not have a predictable recognition
behavior with respect to the input resolution change. This prevents the
feasibility of deployment on different input image resolutions for a specific
model. To achieve efficient and flexible image classification at runtime, we
employ meta learners to generate convolutional weights of main networks for
various input scales and maintain privatized Batch Normalization layers per
scale. For improved training performance, we further utilize knowledge
distillation on the fly over model predictions based on different input
resolutions. The learned meta network could dynamically parameterize main
networks to act on input images of arbitrary size with consistently better
accuracy compared to individually trained models. Extensive experiments on the
ImageNet demonstrate that our method achieves an improved accuracy-efficiency
trade-off during the adaptive inference process. By switching executable input
resolutions, our method could satisfy the requirement of fast adaption in
different resource-constrained environments. Code and models are available at
https://github.com/d-li14/SAN.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、入力解像度の変化に関して予測可能な認識動作を持たない。
これにより、特定のモデルに対する異なる入力画像解像度へのデプロイが実現可能になる。
実行時に効率よくフレキシブルな画像分類を実現するため,各種入力スケールのメインネットワークの畳み込み重みを生成するメタラーナを用い,各スケールごとのプライベートなバッチ正規化層を維持する。
学習性能を向上させるために,入力解像度の異なるモデル予測よりもフライでの知識蒸留を利用する。
学習されたメタネットワークは、メインネットワークを動的にパラメータ化して任意のサイズの入力画像に対して、個別に訓練されたモデルと比較して一貫して精度良く動作させることができる。
ImageNetの大規模な実験により,適応推論過程における精度・効率トレードオフの改善が示された。
実行可能入力解像度を切り替えることで、資源制約の異なる環境において高速適応の要求を満たすことができる。
コードとモデルはhttps://github.com/d-li14/sanで入手できる。
関連論文リスト
- Scale Attention for Learning Deep Face Representation: A Study Against
Visual Scale Variation [69.45176408639483]
我々はスケール空間理論に頼って凸層を再構築する。
我々はSCale AttentioN Conv Neural Network(textbfSCAN-CNN)という新しいスタイルを構築した。
単発方式として、推論はマルチショット融合よりも効率的である。
論文 参考訳(メタデータ) (2022-09-19T06:35:04Z) - Neural Data-Dependent Transform for Learned Image Compression [72.86505042102155]
ニューラルデータに依存した変換を構築し,各画像の符号化効率を最適化する連続オンラインモード決定機構を導入する。
実験の結果,提案したニューラルシンタクス設計と連続オンラインモード決定機構の有効性が示された。
論文 参考訳(メタデータ) (2022-03-09T14:56:48Z) - Correlation between image quality metrics of magnetic resonance images
and the neural network segmentation accuracy [0.0]
本研究では,MR画像の画質指標とニューラルネットワークのセグメンテーション精度の相関について検討した。
IQMに基づくトレーニング入力を用いたランダムなトレーニング入力に基づくモデル間のセグメンテーション精度の違いは、セグメンテーション精度における画像品質指標の役割に光を当てた。
論文 参考訳(メタデータ) (2021-11-01T17:02:34Z) - Differentiable Patch Selection for Image Recognition [37.11810982945019]
そこで我々は,高解像度画像を処理するために,入力の最も関連性の高い部分を選択可能なTop-K演算子を提案する。
オブジェクト/部分境界ボックスアノテーションを使わずに,トラフィックサイン認識,パッチ間関係推論,微粒化認識の結果を示す。
論文 参考訳(メタデータ) (2021-04-07T11:15:51Z) - Retrieval Augmentation to Improve Robustness and Interpretability of
Deep Neural Networks [3.0410237490041805]
本研究では,深層ニューラルネットワークの堅牢性と解釈性を改善するために,トレーニングデータを積極的に活用する。
具体的には、LSTMモデルのメモリ状態を初期化したり、注意機構を誘導するために、最も近い入力例のターゲットを用いる。
その結果,Flickr8 と IMDB の2つのタスクに対して提案したモデルの有効性が示された。
論文 参考訳(メタデータ) (2021-02-25T17:38:31Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z) - Resolution Switchable Networks for Runtime Efficient Image Recognition [46.09537029831355]
本稿では,推論時に画像解像度を切り替えることのできる,単一の畳み込みニューラルネットワークを訓練する一般的な手法を提案する。
提案手法でトレーニングしたネットワークは、Resolvation Switchable Networks (RS-Nets) と呼ばれる。
論文 参考訳(メタデータ) (2020-07-19T02:12:59Z) - ResNeSt: Split-Attention Networks [86.25490825631763]
このアーキテクチャは、異なるネットワークブランチにチャンネルワイズを応用し、機能間相互作用のキャプチャと多様な表現の学習の成功を活用する。
我々のモデルはResNeStと呼ばれ、画像分類の精度と遅延トレードオフにおいてEfficientNetより優れています。
論文 参考訳(メタデータ) (2020-04-19T20:40:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。