論文の概要: Towards Lossless Implicit Neural Representation via Bit Plane Decomposition
- arxiv url: http://arxiv.org/abs/2502.21001v2
- Date: Thu, 20 Mar 2025 10:50:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 19:00:40.172036
- Title: Towards Lossless Implicit Neural Representation via Bit Plane Decomposition
- Title(参考訳): ビット平面分解によるロスレスインシシットニューラル表現に向けて
- Authors: Woo Kyoung Han, Byeonghun Lee, Hyunmin Cho, Sunghoon Im, Kyong Hwan Jin,
- Abstract要約: 暗黙的ニューラル表現(INR)モデルのサイズの上限をデジタル視点から定量化する。
本稿では,INRがビット平面を予測するビット平面分解法を提案する。
- 参考スコア(独自算出の注目度): 17.172812134832895
- License:
- Abstract: We quantify the upper bound on the size of the implicit neural representation (INR) model from a digital perspective. The upper bound of the model size increases exponentially as the required bit-precision increases. To this end, we present a bit-plane decomposition method that makes INR predict bit-planes, producing the same effect as reducing the upper bound of the model size. We validate our hypothesis that reducing the upper bound leads to faster convergence with constant model size. Our method achieves lossless representation in 2D image and audio fitting, even for high bit-depth signals, such as 16-bit, which was previously unachievable. We pioneered the presence of bit bias, which INR prioritizes as the most significant bit (MSB). We expand the application of the INR task to bit depth expansion, lossless image compression, and extreme network quantization. Our source code is available at https://github.com/WooKyoungHan/LosslessINR
- Abstract(参考訳): 暗黙的ニューラル表現(INR)モデルのサイズの上限をデジタル視点から定量化する。
モデルサイズの上限は、必要なビット精度が増加するにつれて指数関数的に増加する。
そこで本研究では,INRがビット平面を予測するビット平面分解法を提案する。
我々は,上界の減少がモデルサイズを一定にしてより高速な収束をもたらすという仮説を検証した。
従来実現不可能であった16ビットなどの高ビット深度信号に対しても,2次元画像とオーディオフィッティングにおけるロスレス表現を実現する。
我々は、最も重要なビット(MSB)としてINRが優先するビットバイアスの存在を開拓した。
我々はINRタスクのビット深さ拡大、ロスレス画像圧縮、極端ネットワーク量子化への応用を拡大する。
ソースコードはhttps://github.com/WooKyoungHan/LosslessINRで公開されています。
関連論文リスト
- bit2bit: 1-bit quanta video reconstruction via self-supervised photon prediction [57.199618102578576]
疎二分量時間画像データから高画質の画像スタックを元の解像度で再構成する新しい方法であるbit2bitを提案する。
Poisson denoisingの最近の研究に触発されて、スパースバイナリ光子データから高密度な画像列を生成するアルゴリズムを開発した。
本研究では,様々な課題の画像条件下でのSPADの高速映像を多種多種に含む新しいデータセットを提案する。
論文 参考訳(メタデータ) (2024-10-30T17:30:35Z) - 2DQuant: Low-bit Post-Training Quantization for Image Super-Resolution [83.09117439860607]
低ビット量子化は、エッジ展開のための画像超解像(SR)モデルを圧縮するために広く普及している。
低ビット量子化は、フル精度(FP)と比較してSRモデルの精度を低下させることが知られている。
本稿では2DQuantという画像超解像のための2段階の低ビット後量子化(PTQ)法を提案する。
論文 参考訳(メタデータ) (2024-06-10T06:06:11Z) - Rapid-INR: Storage Efficient CPU-free DNN Training Using Implicit Neural Representation [7.539498729072623]
Implicit Neural Representation (INR) は、複雑な形状や物体を、その形状や表面構造を明確に定義せずに表現するための革新的なアプローチである。
従来の研究では、画像圧縮のINRとしてニューラルネットワークを使用することの有効性が実証されており、JPEGのような従来の手法に匹敵する性能を示している。
本稿では、画像のエンコーディングと圧縮にINRを利用する新しいアプローチであるRapid-INRを紹介し、コンピュータビジョンタスクにおけるニューラルネットワークトレーニングを高速化する。
論文 参考訳(メタデータ) (2023-06-29T05:49:07Z) - Deep Graph Neural Networks via Posteriori-Sampling-based Node-Adaptive Residual Module [65.81781176362848]
グラフニューラルネットワーク(GNN)は、近隣情報収集を通じてグラフ構造化データから学習することができる。
レイヤーの数が増えるにつれて、ノード表現は区別不能になり、オーバー・スムーシング(over-smoothing)と呼ばれる。
我々は,textbfPosterior-Sampling-based, Node-distinguish Residual Module (PSNR)を提案する。
論文 参考訳(メタデータ) (2023-05-09T12:03:42Z) - Polynomial Implicit Neural Representations For Large Diverse Datasets [0.0]
Inlicit Neural representations (INR) は信号と画像の表現において大きな人気を得ている。
多くのINRアーキテクチャは正弦波位置符号化に依存しており、これはデータの高周波情報の原因となっている。
提案手法は,画像を関数で表現することでこのギャップに対処し,位置エンコーディングの必要性を解消する。
提案するPoly-INRモデルは, 畳み込み, 正規化, 自己アテンションを伴わずに, 最先端の生成モデルと同等に機能する。
論文 参考訳(メタデータ) (2023-03-20T20:09:46Z) - Compressible-composable NeRF via Rank-residual Decomposition [21.92736190195887]
ニューラル・ラジアンス・フィールド(NeRF)は、3Dオブジェクトやシーンをリアルにレンダリングするための魅力的な方法として登場した。
本稿では,モデルの効率的かつ便利な操作を可能にするニューラル表現を提案する。
提案手法は,圧縮と合成の余分な能力を実現しつつ,最先端の手法に匹敵するレンダリング品質を実現することができる。
論文 参考訳(メタデータ) (2022-05-30T06:18:59Z) - Learning Weighting Map for Bit-Depth Expansion within a Rational Range [64.15915577164894]
ビット深化(BDE)は、低ビット深化(LBD)ソースから高ビット深化(HBD)画像を表示する新興技術の1つである。
既存のBDEメソッドは、様々なBDE状況に対して統一的なソリューションを持っていない。
我々は,各画素の重みを求めるためにビット復元ネットワーク(BRNet)を設計し,補充値の比率を合理的範囲内で示す。
論文 参考訳(メタデータ) (2022-04-26T02:27:39Z) - Implicit Feature Decoupling with Depthwise Quantization [2.728575246952532]
ディープニューラルネットワーク(DNN)の複数の領域に量子化が適用されている。
我々は、$textitquantization$を、$textitfeature axis$の弱い統計的依存の分解されたサブテンソルに適用するDQ(Depthwise Quantization)を提案する。
この機能の分解により、$textitrepresentationキャパシティが指数関数的に増加し、メモリとパラメータのコストが線形的に増加する。
論文 参考訳(メタデータ) (2022-03-15T17:07:19Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Unsupervised Single Image Super-resolution Under Complex Noise [60.566471567837574]
本稿では,一般のSISRタスクを未知の劣化で扱うためのモデルベースunsupervised SISR法を提案する。
提案手法は, より小さなモデル (0.34M vs. 2.40M) だけでなく, より高速な技術 (SotA) 法 (約1dB PSNR) の現況を明らかに超えることができる。
論文 参考訳(メタデータ) (2021-07-02T11:55:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。