論文の概要: Rethinking Implicit Neural Representations for vision Learners
- arxiv url: http://arxiv.org/abs/2211.12040v1
- Date: Tue, 22 Nov 2022 06:23:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 18:02:09.817420
- Title: Rethinking Implicit Neural Representations for vision Learners
- Title(参考訳): 視覚学習者のための暗黙的神経表現の再考
- Authors: Yiran Song, Qianyu Zhou, Lizhuang Ma
- Abstract要約: 入射神経表現はコンピュータビジョンにおける連続信号のパラメータ化に強力である。
既存のINRの手法は、1)INRの狭い理論的定義が高レベルなタスクには適用できないこと、2)ディープネットワークへの表現能力の欠如、の2つの問題に悩まされている。
Inlicit Neural Representation Network (INRN) を提案する。INRNは低レベルタスクと高レベルタスクの両方に取り組むINRの最初の研究である。
- 参考スコア(独自算出の注目度): 27.888990902915626
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit Neural Representations (INRs) are powerful to parameterize
continuous signals in computer vision. However, almost all INRs methods are
limited to low-level tasks, e.g., image/video compression, super-resolution,
and image generation. The questions on how to explore INRs to high-level tasks
and deep networks are still under-explored. Existing INRs methods suffer from
two problems: 1) narrow theoretical definitions of INRs are inapplicable to
high-level tasks; 2) lack of representation capabilities to deep networks.
Motivated by the above facts, we reformulate the definitions of INRs from a
novel perspective and propose an innovative Implicit Neural Representation
Network (INRN), which is the first study of INRs to tackle both low-level and
high-level tasks. Specifically, we present three key designs for basic blocks
in INRN along with two different stacking ways and corresponding loss
functions. Extensive experiments with analysis on both low-level tasks (image
fitting) and high-level vision tasks (image classification, object detection,
instance segmentation) demonstrate the effectiveness of the proposed method.
- Abstract(参考訳): Inlicit Neural Representation (INR) はコンピュータビジョンにおける連続信号のパラメータ化に有効である。
しかし、ほとんどのINRメソッドは、画像/ビデオ圧縮、超解像度、画像生成などの低レベルなタスクに限定されている。
ハイレベルなタスクやディープネットワークへのINRの探索方法に関する質問はまだ未調査である。
既存のINRメソッドには2つの問題がある。
1)INRの狭い理論的定義は、ハイレベルなタスクには適用できない。
2)ディープネットワークにおける表現能力の欠如。
以上の事実に動機づけられたinrsの定義を,新しい視点から再構成し,低レベルと高レベルの両方の課題に取り組むinrsの最初の研究である革新的暗黙的ニューラルネットワーク(inrn)を提案する。
具体的には、2つの異なる積み重ね方と対応する損失関数とともに、inrnにおける基本ブロックの3つの重要な設計を示す。
低レベルタスク (画像適合) と高レベル視覚タスク (画像分類, オブジェクト検出, インスタンスセグメント化) の両方について解析を行い, 提案手法の有効性を実証した。
関連論文リスト
- Single-Layer Learnable Activation for Implicit Neural Representation (SL$^{2}$A-INR) [6.572456394600755]
ニューラルネットワークを利用して、座標入力を対応する属性に変換するインプシット表現(INR)は、視覚関連領域において大きな進歩をもたらした。
SL$2$A-INR を単層学習可能なアクティベーション関数として提案し,従来の ReLU ベースの有効性を推し進める。
提案手法は,画像表現,3次元形状再構成,単一画像超解像,CT再構成,新しいビューなど,多様なタスクに優れる。
論文 参考訳(メタデータ) (2024-09-17T02:02:15Z) - Joint Admission Control and Resource Allocation of Virtual Network Embedding via Hierarchical Deep Reinforcement Learning [69.00997996453842]
本稿では,仮想ネットワークの埋め込みにおいて,入出力制御と資源配分を併用して学習する深層強化学習手法を提案する。
HRL-ACRAは,受入率と長期平均収益の両面で,最先端のベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2024-06-25T07:42:30Z) - One-stage Low-resolution Text Recognition with High-resolution Knowledge
Transfer [53.02254290682613]
現在の低解像度テキスト認識のソリューションは、通常2段階のパイプラインに依存している。
本稿では,多段階の知識伝達を実現するための効率的かつ効果的な知識蒸留フレームワークを提案する。
実験の結果、提案されたワンステージパイプラインは、超高解像度ベースの2ステージフレームワークよりも大幅に優れていた。
論文 参考訳(メタデータ) (2023-08-05T02:33:45Z) - Revisiting Implicit Neural Representations in Low-Level Vision [20.3578908524788]
近年,コンピュータビジョンにおいてインプシットニューラル表現(INR)が出現している。
我々は、画像復元などの低レベル視力問題において、その有効性に興味を持っている。
本研究では,INRを再検討し,低レベル画像復元タスクへの応用について検討する。
論文 参考訳(メタデータ) (2023-04-20T12:19:27Z) - Deep Learning on Implicit Neural Representations of Shapes [14.596732196310978]
Inlicit Neural Representations (INR) は、様々な信号を継続的にエンコードする強力なツールとして登場した。
本稿では,入力INRに対して,単一の推論パスでコンパクトな潜在表現を計算可能なフレームワークであるinr2vecを提案する。
Inr2vecは入力INRによって表現される3次元形状を効果的に埋め込み、どのようにして生成された埋め込みをディープラーニングパイプラインに供給できるかを示す。
論文 参考訳(メタデータ) (2023-02-10T18:55:49Z) - RDRN: Recursively Defined Residual Network for Image Super-Resolution [58.64907136562178]
深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像において顕著な性能を得た。
本稿では,注目ブロックを効率的に活用する新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-17T11:06:29Z) - Signal Processing for Implicit Neural Representations [80.38097216996164]
Inlicit Neural Representation (INR)は、マルチ層パーセプトロンを介して連続したマルチメディアデータを符号化する。
既存の作業は、その離散化されたインスタンスの処理を通じて、そのような連続的な表現を操作する。
本稿では,INSP-Netと呼ばれる暗黙的ニューラル信号処理ネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-17T06:29:07Z) - Disentangled High Quality Salient Object Detection [8.416690566816305]
本稿では,SOD(High- resolution Salient Object Detection)のための新しいディープラーニングフレームワークを提案する。
タスクを低分解能唾液度分類ネットワーク(LRSCN)と高分解能精製ネットワーク(HRRN)に切り離す。
論文 参考訳(メタデータ) (2021-08-08T02:14:15Z) - Hierarchical Deep CNN Feature Set-Based Representation Learning for
Robust Cross-Resolution Face Recognition [59.29808528182607]
クロスリゾリューション顔認識(CRFR)は、インテリジェントな監視およびバイオメトリックフォレンジックにおいて重要である。
既存の浅層学習と深層学習に基づく手法は、HR-LR対を共同特徴空間にマッピングすることに焦点を当てている。
本研究では,多レベル深層畳み込みニューラルネットワーク(CNN)の機能を完全に活用し,堅牢なCRFRを実現することを目的とする。
論文 参考訳(メタデータ) (2021-03-25T14:03:42Z) - Iterative Network for Image Super-Resolution [69.07361550998318]
単一画像超解像(SISR)は、最近の畳み込みニューラルネットワーク(CNN)の発展により、大幅に活性化されている。
本稿では、従来のSISRアルゴリズムに関する新たな知見を提供し、反復最適化に依存するアプローチを提案する。
反復最適化の上に,新しい反復型超解像ネットワーク (ISRN) を提案する。
論文 参考訳(メタデータ) (2020-05-20T11:11:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。