論文の概要: Predicting the Encoding Error of SIRENs
- arxiv url: http://arxiv.org/abs/2410.21645v1
- Date: Tue, 29 Oct 2024 01:19:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:40:39.451590
- Title: Predicting the Encoding Error of SIRENs
- Title(参考訳): サイレンの符号化エラーの予測
- Authors: Jeremy Vonderfecht, Feng Liu,
- Abstract要約: Inlicit Neural Representation (INR)は、ニューラルネットワークの重みにおける画像、ビデオ、三次元形状などの信号を符号化する。
本稿では、人気のあるINRネットワーク(SIREN)が到達する符号化エラーを予測する手法を提案する。
- 参考スコア(独自算出の注目度): 4.673285689826945
- License:
- Abstract: Implicit Neural Representations (INRs), which encode signals such as images, videos, and 3D shapes in the weights of neural networks, are becoming increasingly popular. Among their many applications is signal compression, for which there is great interest in achieving the highest possible fidelity to the original signal subject to constraints such as neural network size, training (encoding) and inference (decoding) time. But training INRs can be a computationally expensive process, making it challenging to determine the best possible tradeoff under such constraints. Towards this goal, we present a method which predicts the encoding error that a popular INR network (SIREN) will reach, given its network hyperparameters and the signal to encode. This method is trained on a unique dataset of 300,000 SIRENs, trained across a variety of images and hyperparameters. (Dataset available here: https://huggingface.co/datasets/predict-SIREN-PSNR/COIN-collection.) Our predictive method demonstrates the feasibility of this regression problem, and allows users to anticipate the encoding error that a SIREN network will reach in milliseconds instead of minutes or longer. We also provide insights into the behavior of SIREN networks, such as why narrow SIRENs can have very high random variation in encoding error, and how the performance of SIRENs relates to JPEG compression.
- Abstract(参考訳): 画像、ビデオ、ニューラルネットワークの重みの3次元形状などの信号を符号化するインプシットニューラルネットワーク表現(INR)は、ますます人気が高まっている。
信号圧縮は、ニューラルネットワークのサイズ、トレーニング(エンコーディング)、推論(復号)時間といった制約の下で、元の信号に対する可能な限りの忠実性を達成することに非常に関心がある。
しかし、INRのトレーニングは計算コストのかかるプロセスであり、そのような制約の下で最良のトレードオフを決定することは困難である。
この目的に向けて,ネットワークハイパーパラメータと符号化信号から,人気のあるINRネットワーク(SIREN)が到達する符号化誤差を予測する手法を提案する。
この方法は、さまざまな画像とハイパーパラメータでトレーニングされた300,000のSIRENのユニークなデータセットに基づいてトレーニングされる。
( https://huggingface.co/datasets/predict-SIREN-PSNR/COIN-collection)。
我々の予測手法は、この回帰問題の実現可能性を示し、ユーザがSIRENネットワークが数分以上で到達するエンコーディングエラーを予測できるようにする。
また,SIRENネットワークの動作に関する知見として,狭小SIRENが符号化エラーのランダムなばらつきが非常に大きい理由や,SIRENネットワークの性能がJPEG圧縮にどのように関係しているかについて述べる。
関連論文リスト
- Towards Croppable Implicit Neural Representations [9.372436024276828]
Inlicit Neural Representations(INR)は、ニューラルネットワークを使って自然信号をエンコードする能力により、近年注目されている。
本稿では、編集可能なINRのアイデアを探求し、特に広く使われている収穫作業に焦点を当てる。
デザインによる収穫を支援する新しいINRアーキテクチャであるLocal-Global SIRENsを紹介する。
論文 参考訳(メタデータ) (2024-09-28T22:41:49Z) - INCODE: Implicit Neural Conditioning with Prior Knowledge Embeddings [4.639495398851869]
Inlicit Neural Representation (INR)は、複雑なデータの連続的かつ滑らかな表現を提供するためにニューラルネットワークを活用することで、信号表現に革命をもたらした。
InCODEは、深い事前知識を用いて、INRにおける正弦波ベースの活性化関数の制御を強化する新しいアプローチである。
提案手法は表現力に優れるだけでなく,音声,画像,3次元形状復元などの複雑な課題に対処する能力も拡張している。
論文 参考訳(メタデータ) (2023-10-28T23:16:49Z) - DINER: Disorder-Invariant Implicit Neural Representation [33.10256713209207]
入射神経表現(INR)は、信号の属性を対応する座標の関数として特徴づける。
本稿では、従来のINRバックボーンにハッシュテーブルを付加することにより、障害不変な暗黙的神経表現(DINER)を提案する。
論文 参考訳(メタデータ) (2022-11-15T03:34:24Z) - Signal Processing for Implicit Neural Representations [80.38097216996164]
Inlicit Neural Representation (INR)は、マルチ層パーセプトロンを介して連続したマルチメディアデータを符号化する。
既存の作業は、その離散化されたインスタンスの処理を通じて、そのような連続的な表現を操作する。
本稿では,INSP-Netと呼ばれる暗黙的ニューラル信号処理ネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-17T06:29:07Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Sobolev Training for Implicit Neural Representations with Approximated
Image Derivatives [12.71676484494428]
ニューラルネットワークによってパラメータ化されたインプシットニューラルネットワーク表現(INR)は、さまざまな種類の信号を表現するための強力なツールとして登場した。
ニューラルネットワークにおける画像値に加えて、画像の微分を符号化するために、ターゲット出力が画像画素であるINRのトレーニングパラダイムを提案する。
トレーニングパラダイムをどのように活用して、典型的なINR(画像回帰と逆レンダリング)の問題を解決するかを示す。
論文 参考訳(メタデータ) (2022-07-21T10:12:41Z) - Neural Implicit Dictionary via Mixture-of-Expert Training [111.08941206369508]
ニューラルインシシット辞書(NID)を学習することで、データとトレーニング効率の両方を達成する汎用INRフレームワークを提案する。
我々のNIDは、所望の関数空間にまたがるように調整された座標ベースのImpworksのグループを組み立てる。
実験の結果,NIDは最大98%の入力データで2次元画像や3次元シーンの再現を2桁高速化できることがわかった。
論文 参考訳(メタデータ) (2022-07-08T05:07:19Z) - Reducing Redundancy in the Bottleneck Representation of the Autoencoders [98.78384185493624]
オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
論文 参考訳(メタデータ) (2022-02-09T18:48:02Z) - Meta-Learning Sparse Implicit Neural Representations [69.15490627853629]
入射神経表現は、一般的な信号を表す新しい道である。
現在のアプローチは、多数の信号やデータセットに対してスケールすることが難しい。
メタ学習型スパースニューラル表現は,高密度メタ学習モデルよりもはるかに少ない損失が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T18:02:53Z) - Learning to Time-Decode in Spiking Neural Networks Through the
Information Bottleneck [37.376989855065545]
スパイキングニューラルネットワーク(SNN)をトレーニングする上で重要な課題の1つは、ターゲット出力が通常、自然な信号の形で現れることである。
これは、ターゲットのスパイク信号を手作りして、スパイクを自然な信号にデコードするメカニズムを暗黙的に修正する。
本研究では、符号化SNNと復号ニューラルネットワークからなるハイブリッド変分オートエンコーダアーキテクチャを導入する。
論文 参考訳(メタデータ) (2021-06-02T14:14:47Z) - Deep Networks for Direction-of-Arrival Estimation in Low SNR [89.45026632977456]
我々は,真の配列多様体行列の変異チャネルデータから学習した畳み込みニューラルネットワーク(CNN)を導入する。
我々は低SNR体制でCNNを訓練し、すべてのSNRでDoAを予測する。
私たちの堅牢なソリューションは、ワイヤレスアレイセンサーから音響マイクロフォンやソナーまで、いくつかの分野に適用できます。
論文 参考訳(メタデータ) (2020-11-17T12:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。