論文の概要: TINC: Tree-structured Implicit Neural Compression
- arxiv url: http://arxiv.org/abs/2211.06689v2
- Date: Wed, 16 Nov 2022 09:15:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 15:14:46.459524
- Title: TINC: Tree-structured Implicit Neural Compression
- Title(参考訳): TINC:木構造インプシットニューラル圧縮
- Authors: Runzhao Yang, Tingxiong Xiao, Yuxiao Cheng, Jinli Suo, Qionghai Dai
- Abstract要約: Inlicit Neural representation (INR)は、少数のパラメータを用いて高い忠実度でターゲットシーンを記述することができ、有望なデータ圧縮技術として登場している。
予備研究は、対象データにおける大域的あるいは局所的な相関のみを利用することができる。
本研究では,局所領域に対してコンパクトな表現を行うため,TINC(Tree-structured Implicit Compression)を提案する。
- 参考スコア(独自算出の注目度): 30.26398911800582
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit neural representation (INR) can describe the target scenes with high
fidelity using a small number of parameters, and is emerging as a promising
data compression technique. However, INR in intrinsically of limited spectrum
coverage, and it is non-trivial to remove redundancy in diverse complex data
effectively. Preliminary studies can only exploit either global or local
correlation in the target data and thus of limited performance. In this paper,
we propose a Tree-structured Implicit Neural Compression (TINC) to conduct
compact representation for local regions and extract the shared features of
these local representations in a hierarchical manner. Specifically, we use MLPs
to fit the partitioned local regions, and these MLPs are organized in tree
structure to share parameters according to the spatial distance. The parameter
sharing scheme not only ensures the continuity between adjacent regions, but
also jointly removes the local and non-local redundancy. Extensive experiments
show that TINC improves the compression fidelity of INR, and has shown
impressive compression capabilities over commercial tools and other deep
learning based methods. Besides, the approach is of high flexibility and can be
tailored for different data and parameter settings. All the reproducible codes
are going to be released on github.
- Abstract(参考訳): Inlicit Neural representation (INR)は、少数のパラメータを用いて高い忠実度でターゲットシーンを記述することができ、有望なデータ圧縮技術として登場している。
しかし、INRは本質的にスペクトル範囲が限られており、多様な複雑なデータの冗長性を効果的に除去することは自明ではない。
予備的な研究は、対象データにおける大域的または局所的な相関のみを活用できるため、性能が制限される。
本稿では,局所領域に対してコンパクトな表現を行い,これらの局所表現の共有特徴を階層的に抽出する木構造型インプリシトニューラルネットワーク圧縮(TINC)を提案する。
具体的には, mlpを分割した局所領域に適合させ, これらのmlpを木構造に整理し, 空間距離に応じてパラメータを共有する。
パラメータ共有方式は隣接領域間の連続性を保証するだけでなく、局所的および非局所的な冗長性も同時に除去する。
大規模な実験により、TINCはINRの圧縮精度を改善し、商用ツールや他のディープラーニングベースの手法よりも印象的な圧縮能力を示した。
さらに、このアプローチは柔軟性が高く、さまざまなデータやパラメータ設定に合わせて調整できる。
再現可能なすべてのコードはgithubでリリースされる予定だ。
関連論文リスト
- Attention Beats Linear for Fast Implicit Neural Representation Generation [13.203243059083533]
本稿では,局所的注意層(LAL)と大域的表現ベクトルからなる注意型局所INR(ANR)を提案する。
インスタンス固有の表現とインスタンスに依存しないANRパラメータにより、ターゲット信号は連続関数として十分に再構成される。
論文 参考訳(メタデータ) (2024-07-22T03:52:18Z) - MoEC: Mixture of Experts Implicit Neural Compression [25.455216041289432]
本稿では,専門家の混合理論に基づく新しい暗黙的ニューラル圧縮手法であるMoECを提案する。
具体的には、ゲーティングネットワークを使用して、シーン内の3Dポイントに特定のINRを自動的に割り当てる。
ブロックワイズやツリー構造化のパーティションと比較すると、学習可能なパーティションはエンドツーエンドで最適なパーティションを適応的に見つけることができます。
論文 参考訳(メタデータ) (2023-12-03T12:02:23Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - ECNR: Efficient Compressive Neural Representation of Time-Varying
Volumetric Datasets [6.3492793442257085]
圧縮型ニューラル表現は、大量のデータセットを管理する従来の圧縮方法に代わる有望な代替手段として登場した。
本稿では、時間変化データ圧縮のための効率的なニューラル表現(ECNR)ソリューションを提案する。
複数のデータセットでECNRの有効性を示し、それを最先端の圧縮手法と比較する。
論文 参考訳(メタデータ) (2023-10-02T06:06:32Z) - Modality-Agnostic Variational Compression of Implicit Neural
Representations [96.35492043867104]
Inlicit Neural Representation (INR) としてパラメータ化されたデータの関数的ビューに基づくモーダリティ非依存型ニューラル圧縮アルゴリズムを提案する。
潜時符号化と疎性の間のギャップを埋めて、ソフトゲーティング機構に非直線的にマッピングされたコンパクト潜時表現を得る。
このような潜在表現のデータセットを得た後、ニューラル圧縮を用いてモーダリティ非依存空間におけるレート/歪みトレードオフを直接最適化する。
論文 参考訳(メタデータ) (2023-01-23T15:22:42Z) - Sparse Tensor-based Multiscale Representation for Point Cloud Geometry
Compression [18.24902526033056]
Sparse Processing (STP) を用いたVoxelized PCGのマルチスケール表現による統合ポイントクラウド幾何 (PCG) 圧縮手法を開発した。
複雑性を適用することで複雑性を著しく減少させるのは、最も確率の高いVoxels(MP-POV)を中心とした畳み込みのみを実行するためである。
提案手法は,すべてのスケールでモデル共有を行うため,ポイントワイズによる軽量な複雑性と,小さなストレージ欲求を示す。
論文 参考訳(メタデータ) (2021-11-20T17:02:45Z) - Global Aggregation then Local Distribution for Scene Parsing [99.1095068574454]
提案手法は,エンドツーエンドのトレーニング可能なブロックとしてモジュール化され,既存のセマンティックセグメンテーションネットワークに容易に接続可能であることを示す。
私たちのアプローチでは、Cityscapes、ADE20K、Pascal Context、Camvid、COCO-stuffといった主要なセマンティックセグメンテーションベンチマークに基づいて、新しい最先端の技術を構築できます。
論文 参考訳(メタデータ) (2021-07-28T03:46:57Z) - Data-Driven Low-Rank Neural Network Compression [8.025818540338518]
我々は、事前訓練されたディープニューラルネットワーク(DNN)のパラメータ数を減少させるデータ駆動低ランク(DDLR)手法を提案する。
分類精度を小さく抑えるだけでパラメータ数を著しく削減できることを示す。
論文 参考訳(メタデータ) (2021-07-13T00:10:21Z) - Over-and-Under Complete Convolutional RNN for MRI Reconstruction [57.95363471940937]
MR画像再構成のための最近のディープラーニングに基づく手法は、通常、汎用的なオートエンコーダアーキテクチャを利用する。
OUCR(Over-and-Under Complete Convolu?tional Recurrent Neural Network)を提案する。
提案手法は, トレーニング可能なパラメータの少ない圧縮されたセンシングと, 一般的なディープラーニングに基づく手法に対して, 大幅な改善を実現する。
論文 参考訳(メタデータ) (2021-06-16T15:56:34Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z) - Dense Residual Network: Enhancing Global Dense Feature Flow for
Character Recognition [75.4027660840568]
本稿では,すべての畳み込み層から階層的特徴をフルに活用することにより,局所的・大域的特徴フローを改善する方法について検討する。
技術的には、テキスト認識のための効率的で効果的なCNNフレームワークであるFDRN(Fast Dense Residual Network)を提案する。
論文 参考訳(メタデータ) (2020-01-23T06:55:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。