論文の概要: Funnel Activation for Visual Recognition
- arxiv url: http://arxiv.org/abs/2007.11824v2
- Date: Fri, 24 Jul 2020 11:45:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 12:40:48.228975
- Title: Funnel Activation for Visual Recognition
- Title(参考訳): 視覚認識のためのファンネルアクティベーション
- Authors: Ningning Ma, Xiangyu Zhang, Jian Sun
- Abstract要約: ファンネルアクティベーション(FRELU)という,概念的にシンプルだが効果的なファンネルアクティベーションを画像認識タスクに提示する。
FRELUは空間条件の無視可能なオーバーヘッドを追加することにより、ReLUとPRELUを2Dアクティベーションに拡張する。
我々は、画像ネット、COCO検出、セマンティックセグメンテーションの実験を行い、視覚認識タスクにおけるFRELUの大幅な改善と堅牢性を示す。
- 参考スコア(独自算出の注目度): 92.18474421444377
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a conceptually simple but effective funnel activation for image
recognition tasks, called Funnel activation (FReLU), that extends ReLU and
PReLU to a 2D activation by adding a negligible overhead of spatial condition.
The forms of ReLU and PReLU are y = max(x, 0) and y = max(x, px), respectively,
while FReLU is in the form of y = max(x,T(x)), where T(x) is the 2D spatial
condition. Moreover, the spatial condition achieves a pixel-wise modeling
capacity in a simple way, capturing complicated visual layouts with regular
convolutions. We conduct experiments on ImageNet, COCO detection, and semantic
segmentation tasks, showing great improvements and robustness of FReLU in the
visual recognition tasks. Code is available at
https://github.com/megvii-model/FunnelAct.
- Abstract(参考訳): 本稿では,Funnel activation (FRELU) と呼ばれる画像認識タスクに対して,空間条件の無視的オーバーヘッドを加えることで,ReLUとPRELUを2次元アクティベーションに拡張する,概念的にシンプルだが効果的なファンネルアクティベーションを提案する。
ReLU と PReLU の形式はそれぞれ y = max(x, 0) と y = max(x, px) であり、FReLU は y = max(x,T(x)) の形で、T(x) は 2次元空間条件である。
さらに、空間条件はピクセルワイドなモデリング能力を簡単な方法で実現し、通常の畳み込みを伴う複雑な視覚的レイアウトをキャプチャする。
画像ネット,coco検出,セマンティックセグメンテーションタスクの実験を行い,視覚認識タスクにおけるfrelの大幅な改善と堅牢性を示した。
コードはhttps://github.com/megvii-model/funnelactで入手できる。
関連論文リスト
- Low-Resolution Self-Attention for Semantic Segmentation [96.81482872022237]
我々は,グローバルコンテキストを計算コストの大幅な削減で捉えるために,低解像度自己認識(LRSA)機構を導入する。
我々のアプローチは、入力画像の解像度に関わらず、固定された低解像度空間における自己注意を計算することである。
本稿では,エンコーダ・デコーダ構造を持つビジョントランスであるLRFormerを構築することで,LRSA手法の有効性を示す。
論文 参考訳(メタデータ) (2023-10-08T06:10:09Z) - Dynamic Implicit Image Function for Efficient Arbitrary-Scale Image
Representation [24.429100808481394]
任意の解像度の画像を高速かつ効率的に表現できる動的インプリシット画像関数(DIIF)を提案する。
本稿では,座標スライスから画素値スライスへのデコードを可能にする座標グルーピングとスライス戦略を提案する。
動的座標スライシングにより、DIIFは任意のスケールのSRに遭遇する際の計算コストを大幅に削減する。
論文 参考訳(メタデータ) (2023-06-21T15:04:34Z) - Learning to Zoom and Unzoom [49.587516562644836]
入力画像にズームインし、空間的特徴を計算し、次に「アンゾム」して任意の変形を反転させる。
さまざまなタスクやデータセットを評価することで、この汎用性を実証する。
論文 参考訳(メタデータ) (2023-03-27T17:03:30Z) - Adaptive Local Implicit Image Function for Arbitrary-scale
Super-resolution [61.95533972380704]
局所暗黙画像関数(LIIF)は、対応する座標を入力として、画素値が拡張される連続関数として画像を表す。
LIIFは任意のスケールの超解像タスクに適用でき、その結果、様々なアップスケーリング要因に対して単一の効率的かつ効率的なモデルが得られる。
この問題を軽減するために,新しい適応型局所像関数(A-LIIF)を提案する。
論文 参考訳(メタデータ) (2022-08-07T11:23:23Z) - SimIPU: Simple 2D Image and 3D Point Cloud Unsupervised Pre-Training for
Spatial-Aware Visual Representations [85.38562724999898]
我々はSimIPUと呼ばれる2Dイメージと3Dポイントクラウドの教師なし事前学習戦略を提案する。
具体的には、モーダル内空間認識モジュールとモーダル間特徴相互作用モジュールからなるマルチモーダルコントラスト学習フレームワークを開発する。
我々の知る限りでは、屋外マルチモーダルデータセットに対する対照的な学習事前学習戦略を探求する最初の研究である。
論文 参考訳(メタデータ) (2021-12-09T03:27:00Z) - Local Texture Estimator for Implicit Representation Function [10.165529175855712]
局所テクスチャ推定器(LTE)は自然画像の主周波数推定器である。
LTEは2Dフーリエ空間で画像テクスチャを特徴付けることができる。
LTEベースのニューラル関数は、任意のスケールで既存のディープSR法より優れていることを示す。
論文 参考訳(メタデータ) (2021-11-17T06:01:17Z) - UltraSR: Spatial Encoding is a Missing Key for Implicit Image
Function-based Arbitrary-Scale Super-Resolution [74.82282301089994]
本研究では,暗黙的イメージ関数に基づく,シンプルで効果的な新しいネットワーク設計であるUltraSRを提案する。
空間符号化は,次の段階の高精度暗黙的画像機能に対する欠落鍵であることを示す。
UltraSRは、すべての超解像スケールでDIV2Kベンチマークに最新のパフォーマンスを設定します。
論文 参考訳(メタデータ) (2021-03-23T17:36:42Z) - Learning Continuous Image Representation with Local Implicit Image
Function [21.27344998709831]
画像座標と座標周辺の2次元深部特徴を入力として捉えたLIIF表現を、所定の座標におけるRGB値を出力として予測する。
画像の連続表現を生成するために、LIIF表現のエンコーダをスーパーレゾリューションの自己監視タスクを介してトレーニングします。
学習された連続表現は任意の解像度で x30 の高分解能まで外挿することができる。
論文 参考訳(メタデータ) (2020-12-16T18:56:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。