論文の概要: Shape Adaptor: A Learnable Resizing Module
- arxiv url: http://arxiv.org/abs/2008.00892v2
- Date: Mon, 10 Aug 2020 13:10:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 05:38:47.456124
- Title: Shape Adaptor: A Learnable Resizing Module
- Title(参考訳): Shape Adaptor: 学習可能なリサイズモジュール
- Authors: Shikun Liu, Zhe Lin, Yilin Wang, Jianming Zhang, Federico Perazzi,
Edward Johns
- Abstract要約: ニューラルネットワークのための新しいリサイズモジュール: 従来のリサイズ層上に構築されたドロップインエンハンスメントであるシェイプアダプタを提案する。
我々の実装では、追加の監督なしに形状適応器をエンドツーエンドで訓練することが可能です。
ネットワーク圧縮と伝達学習の2つの応用における形状適応器の有効性を示す。
- 参考スコア(独自算出の注目度): 59.940372879848624
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present a novel resizing module for neural networks: shape adaptor, a
drop-in enhancement built on top of traditional resizing layers, such as
pooling, bilinear sampling, and strided convolution. Whilst traditional
resizing layers have fixed and deterministic reshaping factors, our module
allows for a learnable reshaping factor. Our implementation enables shape
adaptors to be trained end-to-end without any additional supervision, through
which network architectures can be optimised for each individual task, in a
fully automated way. We performed experiments across seven image classification
datasets, and results show that by simply using a set of our shape adaptors
instead of the original resizing layers, performance increases consistently
over human-designed networks, across all datasets. Additionally, we show the
effectiveness of shape adaptors on two other applications: network compression
and transfer learning. The source code is available at:
https://github.com/lorenmt/shape-adaptor.
- Abstract(参考訳): 本稿では,ニューラルネットワークのための新しいリサイズモジュールについて述べる。形状適応モジュール,プール,バイリニアサンプリング,ストレート畳み込みなど,従来のリサイズ層の上に構築されたドロップイン拡張モジュールである。
従来のリサイズ層は固定的かつ決定論的リシェーピング因子を持っているが、モジュールは学習可能なリシェーピング因子を可能にする。
我々の実装では、ネットワークアーキテクチャを各タスクに対して完全に自動化された方法で最適化できるため、追加の監督なしに形状適応器をエンドツーエンドで訓練することが可能です。
7つの画像分類データセットで実験を行い、その結果、元のリサイズ層ではなく形状適応器のセットを単に使用することで、すべてのデータセットにわたって、人間の設計したネットワーク上で一貫して性能が向上することを示しました。
さらに,ネットワーク圧縮と伝達学習の2つの応用における形状適応器の有効性を示す。
ソースコードはhttps://github.com/lorenmt/shape-adaptor.com/で入手できる。
関連論文リスト
- Sample-based Dynamic Hierarchical Transformer with Layer and Head
Flexibility via Contextual Bandit [24.78757412559944]
トランスフォーマーは一定の数のレイヤーとヘッドを必要とし、個々のサンプルの複雑さに屈曲する。
本稿では,レイヤとヘッドを単一のデータサンプルで動的に設定できる動的階層変換モデルを提案する。
トレーニングと推論の両方で最大74%の計算節約を達成でき、精度は最小限です。
論文 参考訳(メタデータ) (2023-12-05T15:04:11Z) - Efficient Implementation of a Multi-Layer Gradient-Free Online-Trainable
Spiking Neural Network on FPGA [0.31498833540989407]
ODESAは、グラデーションを使わずに、エンド・ツー・エンドの多層オンラインローカル教師ありトレーニングを行う最初のネットワークである。
本研究は,ネットワークアーキテクチャと重みとしきい値のオンライントレーニングを,大規模ハードウェア上で効率的に実施可能であることを示す。
論文 参考訳(メタデータ) (2023-05-31T00:34:15Z) - Augmenting Convolutional networks with attention-based aggregation [55.97184767391253]
我々は,非局所的推論を実現するために,注目に基づくグローバルマップを用いた畳み込みネットワークの強化方法を示す。
この学習集約層を2つのパラメータ(幅と深さ)でパラメータ化した単純パッチベースの畳み込みネットワークで接続する。
これは、特にメモリ消費の点で、精度と複雑さの間の驚くほど競争力のあるトレードオフをもたらす。
論文 参考訳(メタデータ) (2021-12-27T14:05:41Z) - Domain Adaptor Networks for Hyperspectral Image Recognition [35.95313368586933]
本稿では,3チャンネルカラー画像に基づいてトレーニングしたネットワークを,多数のチャネルを持つハイパースペクトル領域に適応させる問題について考察する。
画像ネットのような大規模カラー画像データセットでトレーニングされたネットワークと互換性のある入力をマップするドメインアダプタネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-03T15:06:39Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Joint Self-Attention and Scale-Aggregation for Self-Calibrated Deraining
Network [13.628218953897946]
本稿では,JDNetとよばれる有効アルゴリズムを提案する。
自己校正畳み込みを用いたスケール・アグリゲーション・セルフアグリゲーション・モジュールを巧みに設計することにより,提案モデルはより優れたデコレーション結果が得られる。
論文 参考訳(メタデータ) (2020-08-06T17:04:34Z) - Learning to Learn Parameterized Classification Networks for Scalable
Input Images [76.44375136492827]
畳み込みニューラルネットワーク(CNN)は、入力解像度の変化に関して予測可能な認識動作を持たない。
我々はメタラーナーを用いて、様々な入力スケールのメインネットワークの畳み込み重みを生成する。
さらに、異なる入力解像度に基づいて、モデル予測よりもフライでの知識蒸留を利用する。
論文 参考訳(メタデータ) (2020-07-13T04:27:25Z) - Continual Adaptation for Deep Stereo [52.181067640300014]
本稿では,難易度と変化の激しい環境に対処するために,深層ステレオネットワークの継続的適応パラダイムを提案する。
我々のパラダイムでは、オンラインモデルに継続的に適応するために必要な学習信号は、右から左への画像ワープや従来のステレオアルゴリズムによって自己監督から得られる。
我々のネットワークアーキテクチャと適応アルゴリズムは、初めてのリアルタイム自己適応型ディープステレオシステムを実現する。
論文 参考訳(メタデータ) (2020-07-10T08:15:58Z) - Neural Subdivision [58.97214948753937]
本稿では,データ駆動型粗粒度モデリングの新しいフレームワークであるNeural Subdivisionを紹介する。
すべてのローカルメッシュパッチで同じネットワーク重みのセットを最適化するため、特定の入力メッシュや固定属、カテゴリに制約されないアーキテクチャを提供します。
単一の高分解能メッシュでトレーニングしても,本手法は新規な形状に対して合理的な区分を生成する。
論文 参考訳(メタデータ) (2020-05-04T20:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。