論文の概要: Learnable Polyphase Sampling for Shift Invariant and Equivariant
Convolutional Networks
- arxiv url: http://arxiv.org/abs/2210.08001v1
- Date: Fri, 14 Oct 2022 17:59:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 14:56:46.819329
- Title: Learnable Polyphase Sampling for Shift Invariant and Equivariant
Convolutional Networks
- Title(参考訳): シフト不変および等変畳み込みネットワークのための学習可能な多相サンプリング
- Authors: Renan A. Rojas-Gomez, Teck-Yian Lim, Alexander G. Schwing, Minh N. Do,
Raymond A. Yeh
- Abstract要約: LPSは、データからエンドツーエンドにトレーニングし、既存の手作りのダウンサンプリングレイヤを一般化することができる。
画像分類とセマンティックセグメンテーションにおけるLPSの評価を行った。
- 参考スコア(独自算出の注目度): 120.78155051439076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose learnable polyphase sampling (LPS), a pair of learnable
down/upsampling layers that enable truly shift-invariant and equivariant
convolutional networks. LPS can be trained end-to-end from data and generalizes
existing handcrafted downsampling layers. It is widely applicable as it can be
integrated into any convolutional network by replacing down/upsampling layers.
We evaluate LPS on image classification and semantic segmentation. Experiments
show that LPS is on-par with or outperforms existing methods in both
performance and shift consistency. For the first time, we achieve true
shift-equivariance on semantic segmentation (PASCAL VOC), i.e., 100% shift
consistency, outperforming baselines by an absolute 3.3%.
- Abstract(参考訳): 本稿では,真のシフト不変および同変畳み込みネットワークを実現する学習可能なダウン/アップサンプリング層である,学習可能な多相サンプリング(LPS)を提案する。
lpsはデータからエンドツーエンドでトレーニングでき、既存の手作りのダウンサンプリング層を一般化できる。
ダウン/アップサンプリング層を置き換えることで、あらゆる畳み込みネットワークに統合できるため、広く適用できる。
画像分類とセマンティックセグメンテーションにおけるLPSの評価を行った。
実験によると、LPSはパフォーマンスとシフトの整合性の両方において、既存のメソッドと同等か劣っている。
意味セグメンテーション(pascal voc)の真のシフト等価性(100%シフト一貫性)を初めて達成し、ベースラインを絶対3.3%上回った。
関連論文リスト
- Improving Shift Invariance in Convolutional Neural Networks with Translation Invariant Polyphase Sampling [14.731788603429774]
ダウンサンプリング演算子は畳み込みニューラルネットワーク(CNN)のシフト不変性を破る
翻訳不変多相サンプリング(TIPS)と呼ばれる学習可能なプーリング演算子を提案する。
TIPSは精度、シフト一貫性、シフト忠実度で一貫したパフォーマンス向上をもたらす。
論文 参考訳(メタデータ) (2024-04-11T00:49:38Z) - LRP-QViT: Mixed-Precision Vision Transformer Quantization via Layer-wise
Relevance Propagation [0.0]
LRP-QViTは、異なる層に混合精度のビット割り当てを割り当てる説明可能性に基づく手法である。
実験結果から,固定ビット・混合ビット後量子化法が既存の4ビット・6ビット量子化法を超越していることが判明した。
論文 参考訳(メタデータ) (2024-01-20T14:53:19Z) - Surgical Fine-Tuning Improves Adaptation to Distribution Shifts [114.17184775397067]
分散シフト下での伝達学習の一般的なアプローチは、事前訓練されたモデルの最後の数層を微調整することである。
本稿は, 階層のサブセットを選択的に微調整する手法が, 一般的に用いられている微調整手法と一致し, 性能が良くないことを示す。
論文 参考訳(メタデータ) (2022-10-20T17:59:15Z) - GSMFlow: Generation Shifts Mitigating Flow for Generalized Zero-Shot
Learning [55.79997930181418]
Generalized Zero-Shot Learningは、目に見えないクラスから見えないクラスに意味的な知識を移すことで、目に見えないクラスと見えないクラスの両方から画像を認識することを目的としている。
生成モデルの利点を生かして、見学したクラスから学んだ知識に基づいて、現実的な見知らぬサンプルを幻覚させることは、有望な解決策である。
本研究では,複数の条件付きアフィン結合層からなるフローベース生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-05T04:04:37Z) - Mitigating Generation Shifts for Generalized Zero-Shot Learning [52.98182124310114]
一般化ゼロショット学習(英: Generalized Zero-Shot Learning、GZSL)は、学習中に見知らぬクラスが観察できない、見つからないサンプルを認識するために意味情報(属性など)を活用するタスクである。
本稿では,未知のデータ合成を効率よく,効率的に学習するための新しい生成シフト緩和フローフレームワークを提案する。
実験結果から,GSMFlowは従来のゼロショット設定と一般化されたゼロショット設定の両方において,最先端の認識性能を実現することが示された。
論文 参考訳(メタデータ) (2021-07-07T11:43:59Z) - Layer Reduction: Accelerating Conformer-Based Self-Supervised Model via
Layer Consistency [31.572652956170252]
トランスフォーマーをベースとした自己教師型モデルは特徴抽出器として訓練され、多くの下流音声タスクで最先端のパフォーマンスを実現している。
従来のBERT法と同等の性能を維持しつつ、7.8Xパラメータの削減、41.9%のトレーニングスピードアップ、37.7%の推論スピードアップを実験的に達成した。
論文 参考訳(メタデータ) (2021-04-08T08:21:59Z) - Truly shift-invariant convolutional neural networks [0.0]
近年の研究では、CNNの出力は入力の小さなシフトで大きく変化することが示されている。
本稿では,適応型多相サンプリング(APS)を提案する。これは,畳み込みニューラルネットワークが,シフト下での分類性能において100%整合性を実現するための,単純なサブサンプリング手法である。
論文 参考訳(メタデータ) (2020-11-28T20:57:35Z) - Embedding Propagation: Smoother Manifold for Few-Shot Classification [131.81692677836202]
本稿では, 組込み伝搬を非教師なし非パラメトリック正規化器として, 数ショット分類における多様体平滑化に用いることを提案する。
埋め込み伝播がより滑らかな埋め込み多様体を生み出すことを実証的に示す。
複数の半教師付き学習シナリオにおいて,埋め込み伝搬によりモデルの精度が最大16%向上することを示す。
論文 参考訳(メタデータ) (2020-03-09T13:51:09Z) - Fractional Skipping: Towards Finer-Grained Dynamic CNN Inference [82.96877371742532]
本研究では,ディープネットワークのための動的フラクタル・スキッピング(DFS)フレームワークを提案する。
DFSは層ワイド量子化(ビット幅の異なるもの)を、層を完全に活用してスキップする中間的な「ソフト」な選択として仮定する。
入力適応推論中の層の表現力を利用して、よりきめ細かい精度計算コストのトレードオフを可能にする。
論文 参考訳(メタデータ) (2020-01-03T03:12:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。