論文の概要: Towards Croppable Implicit Neural Representations
- arxiv url: http://arxiv.org/abs/2409.19472v1
- Date: Sat, 28 Sep 2024 22:41:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 22:06:14.831955
- Title: Towards Croppable Implicit Neural Representations
- Title(参考訳): 遺伝子組み換え型ニューラル表現を目指して
- Authors: Maor Ashkenazi, Eran Treister,
- Abstract要約: Inlicit Neural Representations(INR)は、ニューラルネットワークを使って自然信号をエンコードする能力により、近年注目されている。
本稿では、編集可能なINRのアイデアを探求し、特に広く使われている収穫作業に焦点を当てる。
デザインによる収穫を支援する新しいINRアーキテクチャであるLocal-Global SIRENsを紹介する。
- 参考スコア(独自算出の注目度): 9.372436024276828
- License:
- Abstract: Implicit Neural Representations (INRs) have peaked interest in recent years due to their ability to encode natural signals using neural networks. While INRs allow for useful applications such as interpolating new coordinates and signal compression, their black-box nature makes it difficult to modify them post-training. In this paper we explore the idea of editable INRs, and specifically focus on the widely used cropping operation. To this end, we present Local-Global SIRENs -- a novel INR architecture that supports cropping by design. Local-Global SIRENs are based on combining local and global feature extraction for signal encoding. What makes their design unique is the ability to effortlessly remove specific portions of an encoded signal, with a proportional weight decrease. This is achieved by eliminating the corresponding weights from the network, without the need for retraining. We further show how this architecture can be used to support the straightforward extension of previously encoded signals. Beyond signal editing, we examine how the Local-Global approach can accelerate training, enhance encoding of various signals, improve downstream performance, and be applied to modern INRs such as INCODE, highlighting its potential and flexibility. Code is available at https://github.com/maorash/Local-Global-INRs.
- Abstract(参考訳): Inlicit Neural Representations(INR)は、ニューラルネットワークを使って自然信号をエンコードする能力により、近年注目されている。
INRは、新しい座標の補間や信号圧縮などの有用な応用を可能にするが、そのブラックボックスの性質は、後処理の修正を困難にしている。
本稿では、編集可能なINRのアイデアを探求し、特に広く使われている収穫作業に焦点を当てる。
この目的のために、我々は、デザインによる収穫をサポートする新しいINRアーキテクチャであるLocal-Global SIRENsを紹介する。
局所グローバルSIRENは、信号符号化のための局所的特徴抽出とグローバル的特徴抽出を組み合わせたものである。
彼らの設計をユニークなものにしているのは、エンコードされた信号の特定の部分を取り除き、比例重量を減少させる能力である。
これは、ネットワークの再トレーニングを必要とせずに、対応する重みをネットワークから排除することで達成される。
さらに、このアーキテクチャは、以前符号化された信号の直接拡張をサポートするためにどのように使用できるかを示す。
信号編集以外にも、ローカル・グローバル・アプローチがトレーニングを加速し、様々な信号のエンコーディングを強化し、下流性能を改善し、INCODEなどの現代のINRに適用し、その可能性と柔軟性を強調している。
コードはhttps://github.com/maorash/Local-Global-INRsで入手できる。
関連論文リスト
- Encoding Semantic Priors into the Weights of Implicit Neural Representation [6.057991864861226]
Inlicit Neural representation (INR) は近年,信号表現の有望なパラダイムとして浮上している。
本稿では,INRの重みに先行する意味をエンコードするSPWと呼ばれるreパラメータ化手法を提案する。
実験の結果,SPWは様々なタスクにおいて,様々なINRモデルの性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2024-06-06T15:35:41Z) - On The Expressivity of Recurrent Neural Cascades [48.87943990557107]
リカレントニューラルカスケード(Recurrent Neural Cascades、RNC)は、リカレントニューラルネットワークであり、リカレントニューロン間で循環的依存を持たない。
RNCは、グループを実装可能なニューロンを導入することで、すべての正規言語を表現できることを示す。
論文 参考訳(メタデータ) (2023-12-14T15:47:26Z) - Locality-Aware Generalizable Implicit Neural Representation [54.93702310461174]
一般化可能な暗黙的ニューラル表現(INR)は、単一の連続関数が複数のデータインスタンスを表現することを可能にする。
本稿では、変換器エンコーダと局所性を考慮したINRデコーダを組み合わせた一般化可能なINRのための新しいフレームワークを提案する。
我々のフレームワークは、従来の一般化可能なINRよりも大幅に優れており、下流タスクにおける局所性を考慮した潜在能力の有効性を検証している。
論文 参考訳(メタデータ) (2023-10-09T11:26:58Z) - DINER: Disorder-Invariant Implicit Neural Representation [33.10256713209207]
入射神経表現(INR)は、信号の属性を対応する座標の関数として特徴づける。
本稿では、従来のINRバックボーンにハッシュテーブルを付加することにより、障害不変な暗黙的神経表現(DINER)を提案する。
論文 参考訳(メタデータ) (2022-11-15T03:34:24Z) - Signal Processing for Implicit Neural Representations [80.38097216996164]
Inlicit Neural Representation (INR)は、マルチ層パーセプトロンを介して連続したマルチメディアデータを符号化する。
既存の作業は、その離散化されたインスタンスの処理を通じて、そのような連続的な表現を操作する。
本稿では,INSP-Netと呼ばれる暗黙的ニューラル信号処理ネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-17T06:29:07Z) - Neural Implicit Dictionary via Mixture-of-Expert Training [111.08941206369508]
ニューラルインシシット辞書(NID)を学習することで、データとトレーニング効率の両方を達成する汎用INRフレームワークを提案する。
我々のNIDは、所望の関数空間にまたがるように調整された座標ベースのImpworksのグループを組み立てる。
実験の結果,NIDは最大98%の入力データで2次元画像や3次元シーンの再現を2桁高速化できることがわかった。
論文 参考訳(メタデータ) (2022-07-08T05:07:19Z) - SAR Despeckling Using Overcomplete Convolutional Networks [53.99620005035804]
スペックルはSAR画像を劣化させるため、リモートセンシングにおいて重要な問題である。
近年の研究では、畳み込みニューラルネットワーク(CNN)が古典的解法よりも優れていることが示されている。
本研究は、受容場を制限することで低レベルの特徴を学習することに集中するために、過剰なCNNアーキテクチャを用いる。
本稿では,合成および実SAR画像の非特定化手法と比較して,提案手法により非特定化性能が向上することを示す。
論文 参考訳(メタデータ) (2022-05-31T15:55:37Z) - Over-and-Under Complete Convolutional RNN for MRI Reconstruction [57.95363471940937]
MR画像再構成のための最近のディープラーニングに基づく手法は、通常、汎用的なオートエンコーダアーキテクチャを利用する。
OUCR(Over-and-Under Complete Convolu?tional Recurrent Neural Network)を提案する。
提案手法は, トレーニング可能なパラメータの少ない圧縮されたセンシングと, 一般的なディープラーニングに基づく手法に対して, 大幅な改善を実現する。
論文 参考訳(メタデータ) (2021-06-16T15:56:34Z) - Learning to Time-Decode in Spiking Neural Networks Through the
Information Bottleneck [37.376989855065545]
スパイキングニューラルネットワーク(SNN)をトレーニングする上で重要な課題の1つは、ターゲット出力が通常、自然な信号の形で現れることである。
これは、ターゲットのスパイク信号を手作りして、スパイクを自然な信号にデコードするメカニズムを暗黙的に修正する。
本研究では、符号化SNNと復号ニューラルネットワークからなるハイブリッド変分オートエンコーダアーキテクチャを導入する。
論文 参考訳(メタデータ) (2021-06-02T14:14:47Z) - Decoding 5G-NR Communications via Deep Learning [6.09170287691728]
本稿では,Deep Neural Network(DNN)と共同で自動符号化ニューラルネットワーク(ANN)を用いて,デマッピングとデコードのための自動符号化ディープニューラルネットワーク(ADNN)を構築することを提案する。
その結果、特定のBERターゲットに対して、AWGN(Additive White Gaussian Noise)チャネルにおいて、SNR(Signal to Noise Ratio)の$3$dBが要求されることが明らかになった。
論文 参考訳(メタデータ) (2020-07-15T12:00:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。