論文の概要: Partition Speeds Up Learning Implicit Neural Representations Based on
Exponential-Increase Hypothesis
- arxiv url: http://arxiv.org/abs/2310.14184v1
- Date: Sun, 22 Oct 2023 05:15:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 01:23:54.734291
- Title: Partition Speeds Up Learning Implicit Neural Representations Based on
Exponential-Increase Hypothesis
- Title(参考訳): 指数的増加仮説に基づく学習意図的ニューラル表現の高速化
- Authors: Ke Liu, Feng Liu, Haishuai Wang, Ning Ma, Jiajun Bu, Bo Han
- Abstract要約: Inlicit Neural representations (INR)は、画像を表現するために$textitcontinuous function$(ニューラルネットワーク)を学ぶことを目的としている。
画像は、色が完全に一致していない多くのオブジェクトから構成される傾向がある。
画像再構成のための2つのINR法の性能向上のための単純な分割機構を提案する。
- 参考スコア(独自算出の注目度): 30.335535132234938
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: $\textit{Implicit neural representations}$ (INRs) aim to learn a
$\textit{continuous function}$ (i.e., a neural network) to represent an image,
where the input and output of the function are pixel coordinates and RGB/Gray
values, respectively. However, images tend to consist of many objects whose
colors are not perfectly consistent, resulting in the challenge that image is
actually a $\textit{discontinuous piecewise function}$ and cannot be well
estimated by a continuous function. In this paper, we empirically investigate
that if a neural network is enforced to fit a discontinuous piecewise function
to reach a fixed small error, the time costs will increase exponentially with
respect to the boundaries in the spatial domain of the target signal. We name
this phenomenon the $\textit{exponential-increase}$ hypothesis. Under the
$\textit{exponential-increase}$ hypothesis, learning INRs for images with many
objects will converge very slowly. To address this issue, we first prove that
partitioning a complex signal into several sub-regions and utilizing piecewise
INRs to fit that signal can significantly speed up the convergence. Based on
this fact, we introduce a simple partition mechanism to boost the performance
of two INR methods for image reconstruction: one for learning INRs, and the
other for learning-to-learn INRs. In both cases, we partition an image into
different sub-regions and dedicate smaller networks for each part. In addition,
we further propose two partition rules based on regular grids and semantic
segmentation maps, respectively. Extensive experiments validate the
effectiveness of the proposed partitioning methods in terms of learning INR for
a single image (ordinary learning framework) and the learning-to-learn
framework.
- Abstract(参考訳): $\textit{Implicit neural representations}$ (INRs)は、画像を表すために$\textit{Continuous function}$ (つまり、ニューラルネットワーク)を学ぶことを目的としており、関数の入力と出力はそれぞれピクセル座標とRGB/Gray値である。
しかし、画像は色が完全に一貫していない多くのオブジェクトで構成される傾向があるため、画像は実際には$\textit{discontinuous piecewise function}$であり、連続関数によってうまく推定できないという課題が生じる。
本稿では,ニューラルネットワークが不連続なピースワイズ関数に適合するように強制された場合,目標信号の空間領域の境界に関して,時間コストが指数関数的に増加することを実証的に検討する。
この現象を $\textit{exponential-increase}$ hypothesis と呼ぶ。
textit{exponential-increase}$仮説では、多数のオブジェクトを持つ画像のインサーの学習は非常にゆっくりと収束する。
この問題に対処するために、まず、複雑な信号を複数のサブリージョンに分割し、その信号に適合する部分的なインサーを利用することで、収束を著しく高速化できることを証明します。
この事実に基づいて、画像再構成のための2つのINR法の性能を高めるための単純な分割機構を導入し、もう1つはINR法を学習し、もう1つは学習から学習までのINR法を学習する。
どちらの場合も、イメージを異なるサブリージョンに分割し、各部分に小さなネットワークを割り当てる。
さらに,正規格子とセマンティックセグメンテーションマップに基づく2つの分割ルールを提案する。
一つの画像(通常の学習フレームワーク)と学習から学習までのフレームワークにおけるINR学習の観点から,提案手法の有効性を検証した。
関連論文リスト
- LeRF: Learning Resampling Function for Adaptive and Efficient Image Interpolation [64.34935748707673]
最近のディープニューラルネットワーク(DNN)は、学習データ前処理を導入することで、パフォーマンスを著しく向上させた。
本稿では,DNNが学習した構造的前提と局所的連続仮定の両方を活かした学習再サンプリング(Learning Resampling, LeRF)を提案する。
LeRFは空間的に異なる再サンプリング関数を入力画像ピクセルに割り当て、ニューラルネットワークを用いてこれらの再サンプリング関数の形状を予測する。
論文 参考訳(メタデータ) (2024-07-13T16:09:45Z) - Rapid-INR: Storage Efficient CPU-free DNN Training Using Implicit Neural Representation [7.539498729072623]
Implicit Neural Representation (INR) は、複雑な形状や物体を、その形状や表面構造を明確に定義せずに表現するための革新的なアプローチである。
従来の研究では、画像圧縮のINRとしてニューラルネットワークを使用することの有効性が実証されており、JPEGのような従来の手法に匹敵する性能を示している。
本稿では、画像のエンコーディングと圧縮にINRを利用する新しいアプローチであるRapid-INRを紹介し、コンピュータビジョンタスクにおけるニューラルネットワークトレーニングを高速化する。
論文 参考訳(メタデータ) (2023-06-29T05:49:07Z) - Neural Implicit Dictionary via Mixture-of-Expert Training [111.08941206369508]
ニューラルインシシット辞書(NID)を学習することで、データとトレーニング効率の両方を達成する汎用INRフレームワークを提案する。
我々のNIDは、所望の関数空間にまたがるように調整された座標ベースのImpworksのグループを組み立てる。
実験の結果,NIDは最大98%の入力データで2次元画像や3次元シーンの再現を2桁高速化できることがわかった。
論文 参考訳(メタデータ) (2022-07-08T05:07:19Z) - Memory Efficient Patch-based Training for INR-based GANs [13.19626131847784]
既存のアプローチの訓練には、画像解像度に比例した計算コストが要求される。
我々は、INRベースのGANを柔軟な計算コストでトレーニングできる、新しいスケーラブルなアプローチであるマルチステージパッチベースのトレーニングを提案する。
具体的には、パッチを用いて画像の局所的な詳細を学習し、グローバルな構造情報を学習することを可能にする。
論文 参考訳(メタデータ) (2022-07-04T13:28:53Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Neural Knitworks: Patched Neural Implicit Representation Networks [1.0470286407954037]
画像合成を実現する自然画像の暗黙的表現学習のためのアーキテクチャであるKnitworkを提案する。
私たちの知る限りでは、画像のインペインティング、超解像化、デノイングといった合成作業に適した座標ベースのパッチの実装は、これが初めてである。
その結果, ピクセルではなくパッチを用いた自然な画像のモデリングにより, 忠実度が高い結果が得られた。
論文 参考訳(メタデータ) (2021-09-29T13:10:46Z) - Adversarial Generation of Continuous Images [31.92891885615843]
本稿では,INRに基づく画像デコーダ構築のための2つの新しいアーキテクチャ手法を提案する。
私たちは、最先端の連続画像GANを構築するためにそれらを使用します。
提案したINR-GANアーキテクチャは連続画像生成装置の性能を数倍改善する。
論文 参考訳(メタデータ) (2020-11-24T11:06:40Z) - Cross-Scale Internal Graph Neural Network for Image Super-Resolution [147.77050877373674]
自然画像における非局所的な自己相似性は、画像修復に有効な先行研究として、よく研究されている。
単一の画像超解像(SISR)の場合、既存のディープ非局所法のほとんどは、低解像度(LR)入力画像と同じ規模のパッチしか利用していない。
これは、新しいクロススケールな内部グラフニューラルネットワーク(IGNN)を用いて実現される。
論文 参考訳(メタデータ) (2020-06-30T10:48:40Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。