論文の概要: $\mu$NCA: Texture Generation with Ultra-Compact Neural Cellular Automata
- arxiv url: http://arxiv.org/abs/2111.13545v1
- Date: Fri, 26 Nov 2021 15:26:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 15:36:33.550999
- Title: $\mu$NCA: Texture Generation with Ultra-Compact Neural Cellular Automata
- Title(参考訳): $\mu$nca:超コンパクト神経細胞オートマトンによるテクスチャ生成
- Authors: Alexander Mordvintsev and Eyvind Niklasson
- Abstract要約: 高コンパクトモデルを用いた実例に基づく手続き的テクスチャ合成の問題点について検討する。
我々は,NCA(Neural Cellular Automata)ルールによってパラメータ付けされた生成過程の学習に,微分可能プログラミングを用いる。
- 参考スコア(独自算出の注目度): 79.00163348781422
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We study the problem of example-based procedural texture synthesis using
highly compact models. Given a sample image, we use differentiable programming
to train a generative process, parameterised by a recurrent Neural Cellular
Automata (NCA) rule. Contrary to the common belief that neural networks should
be significantly over-parameterised, we demonstrate that our model architecture
and training procedure allows for representing complex texture patterns using
just a few hundred learned parameters, making their expressivity comparable to
hand-engineered procedural texture generating programs. The smallest models
from the proposed $\mu$NCA family scale down to 68 parameters. When using
quantisation to one byte per parameter, proposed models can be shrunk to a size
range between 588 and 68 bytes. Implementation of a texture generator that uses
these parameters to produce images is possible with just a few lines of GLSL or
C code.
- Abstract(参考訳): 高コンパクトモデルを用いた実例に基づく手続き的テクスチャ合成の問題点について検討する。
サンプル画像が与えられた場合、再帰的ニューラルセルオートマタ(NCA)ルールによってパラメータ化される生成過程の訓練に微分可能プログラミングを用いる。
ニューラルネットワークが大幅に過度にパラメータ化されるべきだという一般的な信念とは対照的に、我々のモデルアーキテクチャとトレーニング手順は、わずか数百の学習パラメータを使って複雑なテクスチャパターンを表現することができ、その表現性は手作業による手続き的テクスチャ生成プログラムに匹敵することを示した。
提案された$\mu$NCAファミリーの最小モデルは68パラメータまでスケールダウンする。
量子化をパラメータ毎に1バイトにする場合、提案するモデルは588バイトから68バイトの範囲に縮小することができる。
これらのパラメータを使って画像を生成するテクスチャジェネレータの実装は、わずか数行のGLSLまたはCコードで可能である。
関連論文リスト
- Computer Vision Model Compression Techniques for Embedded Systems: A Survey [75.38606213726906]
本稿では,コンピュータビジョンタスクに適用される主モデル圧縮技術について述べる。
本稿では,圧縮サブ領域の特性について述べるとともに,異なるアプローチを比較し,最適な手法を選択する方法について論じる。
初期の実装課題を克服する上で、研究者や新しい実践者を支援するためのコードも共有しています。
論文 参考訳(メタデータ) (2024-08-15T16:41:55Z) - ClusTR: Exploring Efficient Self-attention via Clustering for Vision
Transformers [70.76313507550684]
本稿では,密集自己注意の代替として,コンテンツに基づくスパースアテンション手法を提案する。
具体的には、合計トークン数を減少させるコンテンツベースの方法として、キーとバリュートークンをクラスタ化し、集約する。
結果として得られたクラスタ化されたTokenシーケンスは、元の信号のセマンティックな多様性を保持するが、より少ない計算コストで処理できる。
論文 参考訳(メタデータ) (2022-08-28T04:18:27Z) - Bessel Equivariant Networks for Inversion of Transmission Effects in
Multi-Mode Optical Fibres [3.2981146586835703]
我々は,多モード光ファイバーの伝送効果を反転させるタスクを解くための新しいタイプのモデルを開発した。
入力パターンとスペックルパターンの空間配置の違いを考慮し, ファイバースペックルパターンに存在することが知られているアジムタール相関を用いる。
このモデルは、マルチモード光ファイバーを用いて、これまで達成できなかった解像度の撮像にスケールでき、256倍256ドルピクセル画像で実証される。
論文 参考訳(メタデータ) (2022-07-26T12:29:12Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Recurrent Parameter Generators [42.159272098922685]
本稿では,多くの異なる畳み込み層に対して同じパラメータを反復的に使用してディープネットワークを構築するための汎用的手法を提案する。
我々は,従来のCNNモデルと同じような性能を実現するために,一層ニューラルネットワークを構築する方法を示す。
論文 参考訳(メタデータ) (2021-07-15T04:23:59Z) - Locally Masked Convolution for Autoregressive Models [107.4635841204146]
LMConvは標準的な2Dコンボリューションの簡単な修正であり、任意のマスクを画像の各位置の重みに適用することができる。
我々は,パラメータを共有するが生成順序が異なる分布推定器のアンサンブルを学習し,全画像密度推定の性能を向上させる。
論文 参考訳(メタデータ) (2020-06-22T17:59:07Z) - Segmentation and Recovery of Superquadric Models using Convolutional
Neural Networks [2.454342521577328]
畳み込みニューラルネットワーク(CNN)を中心に構築された(二段階)アプローチを提案する。
第1段階では,提案手法はMask RCNNモデルを用いて,深度シーンにおける超クワッドリックな構造を同定する。
我々は、少数の解釈可能なパラメータを持つ複雑な構造を記述することができる。
論文 参考訳(メタデータ) (2020-01-28T18:17:48Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。