論文の概要: NeurTV: Total Variation on the Neural Domain
- arxiv url: http://arxiv.org/abs/2405.17241v1
- Date: Mon, 27 May 2024 14:57:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-28 14:53:29.036211
- Title: NeurTV: Total Variation on the Neural Domain
- Title(参考訳): NeurTV: 神経領域の総変化
- Authors: Yisi Luo, Xile Zhao, Kai Ye, Deyu Meng,
- Abstract要約: ニューラルドメイン上に定義された新しいテレビレギュラー化を提案する。
ニューラルドメイン(NeurTVと呼ばれる)上の提案されたテレビには2つの利点がある。
NeurTVはメッシュグリッドに限らず、メッシュグリッドと非メシュグリッドの両方のデータに適している。
- 参考スコア(独自算出の注目度): 51.835931820386065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, we have witnessed the success of total variation (TV) for many imaging applications. However, traditional TV is defined on the original pixel domain, which limits its potential. In this work, we suggest a new TV regularization defined on the neural domain. Concretely, the discrete data is continuously and implicitly represented by a deep neural network (DNN), and we use the derivatives of DNN outputs w.r.t. input coordinates to capture local correlations of data. As compared with classical TV on the original domain, the proposed TV on the neural domain (termed NeurTV) enjoys two advantages. First, NeurTV is not limited to meshgrid but is suitable for both meshgrid and non-meshgrid data. Second, NeurTV can more exactly capture local correlations across data for any direction and any order of derivatives attributed to the implicit and continuous nature of neural domain. We theoretically reinterpret NeurTV under the variational approximation framework, which allows us to build the connection between classical TV and NeurTV and inspires us to develop variants (e.g., NeurTV with arbitrary resolution and space-variant NeurTV). Extensive numerical experiments with meshgrid data (e.g., color and hyperspectral images) and non-meshgrid data (e.g., point clouds and spatial transcriptomics) showcase the effectiveness of the proposed methods.
- Abstract(参考訳): 近年,多くの画像応用において,全変動(TV)が成功しているのを目撃している。
しかし、従来のテレビは元のピクセル領域で定義されており、その可能性を制限する。
本稿では,ニューラルドメイン上に定義された新しいテレビレギュラー化を提案する。
具体的には、離散データはディープニューラルネットワーク(DNN)によって連続的に暗黙的に表現され、DNN出力の導関数w.r.t.入力座標を用いてデータの局所的相関をキャプチャする。
オリジナルドメインのクラシックTVと比較して、NeurTVと呼ばれるニューラルドメインのテレビは2つの利点がある。
まず、NeurTVはメッシュグリッドに限らず、メッシュグリッドと非メシュグリッドの両方のデータに適している。
第二に、NeurTVは、任意の方向のデータと、ニューラルネットワークの暗黙的かつ連続的な性質に起因するあらゆるデリバティブの順序の局所的相関をより正確に捉えることができる。
我々はNeurTVを変分近似の枠組みで理論的に再解釈し、従来のテレビとNeurTVの接続を構築し、任意の解像度でNeurTVを開発できるようにする。
メッシュグリッドデータ(例えば、色とハイパースペクトルの画像)と非メシュグリッドデータ(例えば、点雲と空間転写学)による大規模な数値実験は、提案手法の有効性を示す。
関連論文リスト
- Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Neo-GNNs: Neighborhood Overlap-aware Graph Neural Networks for Link
Prediction [23.545059901853815]
グラフニューラルネットワーク(GNN)は,グラフ構造データの学習に広く応用されている。
リンク予測のために隣接重畳された近傍から有用な構造特徴を学習する近傍オーバーラップ対応グラフニューラルネットワーク(Neo-GNN)を提案する。
論文 参考訳(メタデータ) (2022-06-09T01:43:49Z) - Fully Spiking Variational Autoencoder [66.58310094608002]
スパイキングニューラルネットワーク(SNN)は、超高速で超低エネルギー消費のニューロモルフィックデバイス上で動作することができる。
本研究では,SNNを用いた可変オートエンコーダ(VAE)を構築し,画像生成を実現する。
論文 参考訳(メタデータ) (2021-09-26T06:10:14Z) - Quantized convolutional neural networks through the lens of partial
differential equations [6.88204255655161]
畳み込みニューラルネットワーク(CNN)の量子化は、CNNの展開に伴う計算負担を軽減するための一般的なアプローチである。
本研究では、PDEに基づく視点と分析を用いて、量子化されたCNNを改善する方法について検討する。
論文 参考訳(メタデータ) (2021-08-31T22:18:52Z) - Input Invex Neural Network [9.31522898261934]
本稿では,ニューラルネットワーク(NN)における不連続性を抑制する新しい手法を提案する。
凸函数は、すべての定常点が大域ミニマであることを保証する。
提案手法は,線形NNと入力凸ニューラルネット(ICNN)の性能を高いマージンで向上させる。
論文 参考訳(メタデータ) (2021-06-16T12:48:55Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - Efficient Integer-Arithmetic-Only Convolutional Neural Networks [87.01739569518513]
我々は従来のReLUを境界ReLUに置き換え、その減少は活性化量子化によるものであることを示す。
我々の整数ネットワークは、対応するFPNネットワークと同等の性能を発揮するが、メモリコストは1/4に過ぎず、最新のGPUでは2倍高速である。
論文 参考訳(メタデータ) (2020-06-21T08:23:03Z) - NENET: An Edge Learnable Network for Link Prediction in Scene Text [1.815512110340033]
ノードとエッジの両方を学習できる新しいグラフニューラルネットワーク(GNN)アーキテクチャを提案する。
我々は、よく知られたSynthTextデータセットに概念を示し、最先端の手法と比較してトップ結果を達成する。
論文 参考訳(メタデータ) (2020-05-25T14:47:16Z) - Analyzing Neural Networks Based on Random Graphs [77.34726150561087]
様々なタイプのランダムグラフに対応するアーキテクチャを用いて,ニューラルネットワークの大規模評価を行う。
古典的な数値グラフ不変量は、それ自体が最良のネットワークを選び出すことができない。
また、主に短距離接続を持つネットワークは、多くの長距離接続が可能なネットワークよりも性能が良いことも見出した。
論文 参考訳(メタデータ) (2020-02-19T11:04:49Z) - Generalization and Representational Limits of Graph Neural Networks [46.20253808402385]
ローカル情報に完全に依存するグラフニューラルネットワーク(GNN)では,いくつかの重要なグラフ特性を計算できないことを示す。
メッセージパッシングGNNに対する最初のデータ依存一般化境界を提供する。
私たちのバウンダリは、既存のVC次元ベースのGNN保証よりもはるかに厳格で、リカレントニューラルネットワークのRademacherバウンダリと同等です。
論文 参考訳(メタデータ) (2020-02-14T18:10:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。