論文の概要: Convolutional Sparse Coding Fast Approximation with Application to
Seismic Reflectivity Estimation
- arxiv url: http://arxiv.org/abs/2106.15296v1
- Date: Tue, 29 Jun 2021 12:19:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 15:32:20.788452
- Title: Convolutional Sparse Coding Fast Approximation with Application to
Seismic Reflectivity Estimation
- Title(参考訳): 畳み込みスパース符号化高速近似と反射率推定への応用
- Authors: Deborah Pereg, Israel Cohen, and Anthony A. Vassiliou
- Abstract要約: 2~5回の反復で畳み込みスパース符号の良好な近似を生成する古典的反復しきい値アルゴリズムの高速化版を提案する。
提案手法の性能は, 合成シナリオと実データシナリオの両方において, 地震インバージョン問題によって実証される。
- 参考スコア(独自算出の注目度): 9.005280130480308
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In sparse coding, we attempt to extract features of input vectors, assuming
that the data is inherently structured as a sparse superposition of basic
building blocks. Similarly, neural networks perform a given task by learning
features of the training data set. Recently both data-driven and model-driven
feature extracting methods have become extremely popular and have achieved
remarkable results. Nevertheless, practical implementations are often too slow
to be employed in real-life scenarios, especially for real-time applications.
We propose a speed-up upgraded version of the classic iterative thresholding
algorithm, that produces a good approximation of the convolutional sparse code
within 2-5 iterations. The speed advantage is gained mostly from the
observation that most solvers are slowed down by inefficient global
thresholding. The main idea is to normalize each data point by the local
receptive field energy, before applying a threshold. This way, the natural
inclination towards strong feature expressions is suppressed, so that one can
rely on a global threshold that can be easily approximated, or learned during
training. The proposed algorithm can be employed with a known predetermined
dictionary, or with a trained dictionary. The trained version is implemented as
a neural net designed as the unfolding of the proposed solver. The performance
of the proposed solution is demonstrated via the seismic inversion problem in
both synthetic and real data scenarios. We also provide theoretical guarantees
for a stable support recovery. Namely, we prove that under certain conditions
the true support is perfectly recovered within the first iteration.
- Abstract(参考訳): スパース符号化では、データは本質的に基本構成要素のスパース重ね合わせとして構成されていると仮定して、入力ベクトルの特徴を抽出する。
同様に、ニューラルネットワークはトレーニングデータセットの特徴を学習することで所定のタスクを実行する。
近年,データ駆動型とモデル駆動型の両方の機能抽出手法が広く普及し,目覚ましい成果を上げている。
しかし、現実的な実装は現実のシナリオ、特にリアルタイムアプリケーションで使われるには遅すぎる。
本研究では,畳み込みスパース符号を2~5回の反復で近似する,従来の反復しきい値アルゴリズムの高速化版を提案する。
速度の優位性は主に、ほとんどの解法が非効率なグローバルしきい値設定によって遅くなるという観察から得られる。
主なアイデアは、しきい値を適用する前に、各データポイントを局所受容場エネルギーで正規化することである。
これにより、強力な特徴表現に対する自然な傾向が抑制され、容易に近似したり、トレーニング中に学習したりできるグローバルしきい値に依存することができる。
提案アルゴリズムは、既知の所定の辞書や、訓練された辞書で使用することができる。
トレーニングされたバージョンは、提案したソルバの展開として設計されたニューラルネットとして実装される。
提案手法の性能は, 合成シナリオと実データシナリオの両方において, 地震インバージョン問題によって実証される。
また,安定した支援回復の理論的保証も提供する。
すなわち、ある条件下では、最初のイテレーションで真のサポートが完全に回復されることを証明します。
関連論文リスト
- A Stable, Fast, and Fully Automatic Learning Algorithm for Predictive
Coding Networks [65.34977803841007]
予測符号化ネットワークは、ベイズ統計学と神経科学の両方にルーツを持つ神経科学にインスパイアされたモデルである。
シナプス重みに対する更新規則の時間的スケジュールを変更するだけで、元の規則よりもずっと効率的で安定したアルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-16T00:11:04Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Refining neural network predictions using background knowledge [68.35246878394702]
学習システムにおける論理的背景知識を用いて,ラベル付きトレーニングデータの不足を補うことができることを示す。
そこで本研究では,修正された予測を元の予測に近い精度で検出する微分可能精細関数を提案する。
このアルゴリズムは、複雑なSATの公式に対して、非常に少ない繰り返しで最適に洗練され、勾配降下ができない解がしばしば見つかる。
論文 参考訳(メタデータ) (2022-06-10T10:17:59Z) - Learning Non-Vacuous Generalization Bounds from Optimization [8.294831479902658]
最適化の観点からは、単純だが空でない一般化を示す。
我々は、勾配アルゴリズムによってアクセスされた仮説セットが本質的にフラクタル的であることを利用して、この目標を達成する。
数値解析により,現代のニューラルネットワークにおいて,本手法が有意な一般化を保証することが実証された。
論文 参考訳(メタデータ) (2022-06-09T08:59:46Z) - Low-rank Tensor Learning with Nonconvex Overlapped Nuclear Norm
Regularization [44.54772242784423]
低ランク学習行列に対する効率的な非正規化アルゴリズムを開発した。
提案アルゴリズムは、高価な折り畳み/折り畳み問題を回避することができる。
実験の結果,提案アルゴリズムは既存の状態よりも効率的で空間が広いことがわかった。
論文 参考訳(メタデータ) (2022-05-06T07:47:10Z) - Data-driven Weight Initialization with Sylvester Solvers [72.11163104763071]
本稿では,ディープニューラルネットワークのパラメータを初期化するためのデータ駆動方式を提案する。
提案手法は,特にショットや微調整の設定において有効であることを示す。
論文 参考訳(メタデータ) (2021-05-02T07:33:16Z) - Efficient Sparse Coding using Hierarchical Riemannian Pursuit [2.4087148947930634]
スパース符号化は、辞書と符号の線形結合の形で入力データの表現を学ぶための監視されていない方法のクラスである。
完全辞書を用いたスパース符号化タスクのための効率的な合成状態スキームを提案する。
論文 参考訳(メタデータ) (2021-04-21T02:16:44Z) - Activation Relaxation: A Local Dynamical Approximation to
Backpropagation in the Brain [62.997667081978825]
活性化緩和(AR)は、バックプロパゲーション勾配を力学系の平衡点として構成することで動機付けられる。
我々のアルゴリズムは、正しいバックプロパゲーション勾配に迅速かつ堅牢に収束し、単一のタイプの計算単位しか必要とせず、任意の計算グラフで操作できる。
論文 参考訳(メタデータ) (2020-09-11T11:56:34Z) - A Partial Regularization Method for Network Compression [0.0]
本稿では, モデル圧縮を高速に行うために, 完全正則化と言われる全てのパラメータをペナライズする元の形式ではなく, 部分正則化のアプローチを提案する。
実験結果から, ほぼすべての状況において, 走行時間の減少を観測することにより, 計算複雑性を低減できることが示唆された。
驚くべきことに、複数のデータセットのトレーニングフェーズとテストフェーズの両方において、回帰フィッティング結果や分類精度などの重要な指標を改善するのに役立ちます。
論文 参考訳(メタデータ) (2020-09-03T00:38:27Z) - A Scalable, Adaptive and Sound Nonconvex Regularizer for Low-rank Matrix
Completion [60.52730146391456]
そこで我々は,適応的かつ音質の高い"核フロベニウスノルム"と呼ばれる新しい非スケーラブルな低ランク正規化器を提案する。
特異値の計算をバイパスし、アルゴリズムによる高速な最適化を可能にする。
既存の行列学習手法では最速でありながら、最先端の回復性能が得られる。
論文 参考訳(メタデータ) (2020-08-14T18:47:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。