論文の概要: Generalized Tensor Summation Compressive Sensing Network (GTSNET): An
Easy to Learn Compressive Sensing Operation
- arxiv url: http://arxiv.org/abs/2108.03167v1
- Date: Wed, 4 Aug 2021 13:13:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-09 14:20:58.971321
- Title: Generalized Tensor Summation Compressive Sensing Network (GTSNET): An
Easy to Learn Compressive Sensing Operation
- Title(参考訳): GTSNET(Generalized Tensor Summation Compressive Sensing Network) : 圧縮センシング操作の学習を容易にする
- Authors: Mehmet Yamac, Ugur Akpinar, Erdem Sahin, Serkan Kiranyaz, Moncef
Gabbouj
- Abstract要約: 任意のテンソル数の和として表現することで、CS行列の分離可能な多線形学習を導入する。
グレースケール画像とRGB画像の両方において、提案手法は、特に低い測定率において、最先端のソリューションの多くを超越する。
- 参考スコア(独自算出の注目度): 24.47984346693894
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In CS literature, the efforts can be divided into two groups: finding a
measurement matrix that preserves the compressed information at the maximum
level, and finding a reconstruction algorithm for the compressed information.
In the traditional CS setup, the measurement matrices are selected as random
matrices, and optimization-based iterative solutions are used to recover the
signals. However, when we handle large signals, using random matrices become
cumbersome especially when it comes to iterative optimization-based solutions.
Even though recent deep learning-based solutions boost the reconstruction
accuracy performance while speeding up the recovery, still jointly learning the
whole measurement matrix is a difficult process. In this work, we introduce a
separable multi-linear learning of the CS matrix by representing it as the
summation of arbitrary number of tensors. For a special case where the CS
operation is set as a single tensor multiplication, the model is reduced to the
learning-based separable CS; while a dense CS matrix can be approximated and
learned as the summation of multiple tensors. Both cases can be used in CS of
two or multi-dimensional signals e.g., images, multi-spectral images, videos,
etc. Structural CS matrices can also be easily approximated and learned in our
multi-linear separable learning setup with structural tensor sum
representation. Hence, our learnable generalized tensor summation CS operation
encapsulates most CS setups including separable CS, non-separable CS
(traditional vector-matrix multiplication), structural CS, and CS of the
multi-dimensional signals. For both gray-scale and RGB images, the proposed
scheme surpasses most state-of-the-art solutions, especially in lower
measurement rates. Although the performance gain remains limited from tensor to
the sum of tensor representation for gray-scale images, it becomes significant
in the RGB case.
- Abstract(参考訳): CS文献では、圧縮された情報を最大レベルで保存する測定行列の発見と、圧縮された情報の再構成アルゴリズムの発見の2つのグループに分けられる。
従来のCS設定では、測定行列をランダム行列として選択し、最適化に基づく反復解を用いて信号を復元する。
しかし、大きな信号を扱う場合、特に反復最適化に基づく解の場合、ランダム行列を使うことは困難である。
最近のディープラーニングベースのソリューションは、リカバリをスピードアップしながら、復元精度を向上しますが、それでも共同で測定マトリックス全体を学習することは難しいプロセスです。
本研究では,任意のテンソル数の和として表現することで,CS行列の可分多線形学習を導入する。
CS演算を1つのテンソル乗算として設定した場合、モデルは学習ベースで分離可能なCSに還元されるが、密度の高いCS行列は複数のテンソルの和として近似して学習することができる。
どちらのケースも、画像、マルチスペクトル画像、ビデオなど、2次元または多次元の信号のcsで使用できる。
構造的CS行列は、構造的テンソル和表現を伴う多線形可分学習セットで容易に近似および学習することができる。
したがって、学習可能な一般化テンソル和CS演算は、分離可能CS、非分離可能CS(従来のベクトル行列乗算)、構造CS、多次元信号のCSを含むほとんどのCSセットアップをカプセル化する。
グレースケール画像とrgb画像の両方において、提案されたスキームは最先端のソリューション、特に低い測定率を上回っている。
パフォーマンス向上は、テンソルからグレースケール画像のテンソル表現の和に制限されるが、rgbの場合では重要になる。
関連論文リスト
- Geometry is All You Need: A Unified Taxonomy of Matrix and Tensor Factorization for Compression of Generative Language Models [22.593517716611597]
言語モデルパラメトリゼーションのための行列とテンソル誘導パラメトリゼーションの間の内部リンクは、よく理解されていない。
既存の行列とテンソルの研究は数学が重く、機械学習(ML)やNLPの研究概念から遠く離れている。
本稿では,MLおよびNLP研究において,行列/テンソル圧縮アプローチとモデル圧縮概念を橋渡しする統一分類法を提案する。
論文 参考訳(メタデータ) (2024-10-03T23:12:20Z) - Optimal Matrix-Mimetic Tensor Algebras via Variable Projection [0.0]
行列緩和性(Matrix mimeticity)は、テンソルを、行列に類似した乗算、分解、解析が可能な作用素として解釈することから生じる。
我々は、データの事前の知識に頼ることなく、最適線形写像と対応するテンソル表現を学習する。
可変射影型アルゴリズムの変換と収束解析の独創性理論を提供する。
論文 参考訳(メタデータ) (2024-06-11T04:52:23Z) - Compute Better Spent: Replacing Dense Layers with Structured Matrices [77.61728033234233]
画像領域における畳み込みネットワークの成功が示すように、高密度行列に対するより効率的な代替手段を同定する。
異なる構造は、しばしばパフォーマンスに不可欠な、非常に異なる初期化尺度と学習率を必要とする。
本稿では,モナール行列を含む新しい行列族Block-Trainを提案する。
論文 参考訳(メタデータ) (2024-06-10T13:25:43Z) - An Efficient Algorithm for Clustered Multi-Task Compressive Sensing [60.70532293880842]
クラスタ化マルチタスク圧縮センシングは、複数の圧縮センシングタスクを解決する階層モデルである。
このモデルに対する既存の推論アルゴリズムは計算コストが高く、高次元ではうまくスケールしない。
本稿では,これらの共分散行列を明示的に計算する必要をなくし,モデル推論を大幅に高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-30T15:57:14Z) - CORE: Common Random Reconstruction for Distributed Optimization with
Provable Low Communication Complexity [110.50364486645852]
コミュニケーションの複雑さは、トレーニングをスピードアップし、マシン番号をスケールアップする上で、大きなボトルネックになっています。
本稿では,機械間で送信される情報を圧縮するための共通Om REOmを提案する。
論文 参考訳(メタデータ) (2023-09-23T08:45:27Z) - A Unifying Multi-sampling-ratio CS-MRI Framework With Two-grid-cycle
Correction and Geometric Prior Distillation [7.643154460109723]
本稿では,モデルベースと深層学習に基づく手法の利点を融合して,深層展開型マルチサンプリング比CS-MRIフレームワークを提案する。
マルチグリッドアルゴリズムにインスパイアされ、まずCS-MRIに基づく最適化アルゴリズムを補正蒸留方式に組み込む。
各段の圧縮サンプリング比から適応的なステップ長と雑音レベルを学習するために条件モジュールを用いる。
論文 参考訳(メタデータ) (2022-05-14T13:36:27Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Tensor Relational Algebra for Machine Learning System Design [7.764107702934616]
本稿では、リレーショナルテンソル代数(TRA)と呼ばれる別の実装抽象化を提案する。
TRA は、リレーショナル代数に基づく集合基底代数である。
我々の実証研究は、最適化されたTRAベースのバックエンドが、分散クラスタでMLを実行する際の選択肢を大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2020-09-01T15:51:24Z) - Spectral Learning on Matrices and Tensors [74.88243719463053]
テンソル分解は行列法で欠落する潜伏効果を拾うことができることを示す。
また,効率的なテンソル分解法を設計するための計算手法についても概説する。
論文 参考訳(メタデータ) (2020-04-16T22:53:00Z) - Multilinear Compressive Learning with Prior Knowledge [106.12874293597754]
マルチリニア圧縮学習(MCL)フレームワークは、マルチリニア圧縮センシングと機械学習をエンドツーエンドシステムに統合する。
MCLの背後にある主要なアイデアは、下流学習タスクの信号から重要な特徴を捉えることのできるテンソル部分空間の存在を仮定することである。
本稿では、上記の要件、すなわち、関心の信号が分離可能なテンソル部分空間をどうやって見つけるかという、2つの要件に対処する新しい解決策を提案する。
論文 参考訳(メタデータ) (2020-02-17T19:06:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。