論文の概要: Variational Learning ISTA
- arxiv url: http://arxiv.org/abs/2407.06646v1
- Date: Tue, 9 Jul 2024 08:17:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 18:46:17.686423
- Title: Variational Learning ISTA
- Title(参考訳): 変分学習ISTA
- Authors: Fabio Valerio Massoli, Christos Louizos, Arash Behboodi,
- Abstract要約: 本研究では,センサ行列条件の異なるスパース表現と再構成を学習するためのアーキテクチャを提案する。
変分学習ISTA(VLISTA)と呼ばれる変分アプローチを用いて辞書上の分布を学習する。
結果として、VLISTAは、辞書分布と再構成アルゴリズムを様々な知覚行列で共同で学習する確率的方法を提供する。
- 参考スコア(独自算出の注目度): 13.894911545678635
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Compressed sensing combines the power of convex optimization techniques with a sparsity-inducing prior on the signal space to solve an underdetermined system of equations. For many problems, the sparsifying dictionary is not directly given, nor its existence can be assumed. Besides, the sensing matrix can change across different scenarios. Addressing these issues requires solving a sparse representation learning problem, namely dictionary learning, taking into account the epistemic uncertainty of the learned dictionaries and, finally, jointly learning sparse representations and reconstructions under varying sensing matrix conditions. We address both concerns by proposing a variant of the LISTA architecture. First, we introduce Augmented Dictionary Learning ISTA (A-DLISTA), which incorporates an augmentation module to adapt parameters to the current measurement setup. Then, we propose to learn a distribution over dictionaries via a variational approach, dubbed Variational Learning ISTA (VLISTA). VLISTA exploits A-DLISTA as the likelihood model and approximates a posterior distribution over the dictionaries as part of an unfolded LISTA-based recovery algorithm. As a result, VLISTA provides a probabilistic way to jointly learn the dictionary distribution and the reconstruction algorithm with varying sensing matrices. We provide theoretical and experimental support for our architecture and show that our model learns calibrated uncertainties.
- Abstract(参考訳): 圧縮センシングは、凸最適化手法のパワーと信号空間上の疎性誘導前処理を組み合わせ、未決定方程式系を解く。
多くの問題において、スペーサー化辞書は直接与えられておらず、その存在も想定できない。
さらに、センサーマトリックスはさまざまなシナリオにまたがって変更できる。
これらの問題に対処するためには、学習辞書のエピステマティックな不確実性を考慮した辞書学習というスパース表現学習の課題を解決し、最後に、様々な感応行列条件の下でスパース表現と再構成を共同で学習する必要がある。
我々は、LISTAアーキテクチャのバリエーションを提案することによって、両方の懸念に対処する。
まず、拡張モジュールを組み込んだ拡張辞書学習ISTA(A-DLISTA)を導入し、パラメータを現在の測定設定に適応させる。
そこで我々は,変分学習ISTA (VLISTA) と呼ばれる変分学習手法を用いて辞書上の分布を学習することを提案する。
VLISTAは、A-DLISTAを可能性モデルとして利用し、拡張LISTAベースのリカバリアルゴリズムの一部として辞書上の後方分布を近似する。
結果として、VLISTAは、辞書分布と再構成アルゴリズムを様々な知覚行列で共同で学習する確率的方法を提供する。
アーキテクチャの理論的および実験的サポートを提供し、我々のモデルが校正された不確実性を学ぶことを示す。
関連論文リスト
- Unified Lexical Representation for Interpretable Visual-Language Alignment [52.059812317944434]
複雑な設計をせずに両方のモダリティを統一した語彙表現を学習するためのフレームワークであるLexVLAを紹介する。
我々はDINOv2をローカル言語の特徴の視覚モデルとして使用し、生成言語モデルであるLlamaをテキスト内語彙予測能力の活用に利用した。
これら2つの事前学習されたユニモーダルモデルが、控えめなマルチモーダルデータセットを微調整することで、適切に整列できることを実証する。
論文 参考訳(メタデータ) (2024-07-25T07:35:27Z) - Image2Sentence based Asymmetrical Zero-shot Composed Image Retrieval [92.13664084464514]
合成画像検索(CIR)の課題は,検索画像とユーザの意図を記述したテキストに基づいて画像を取得することである。
既存の手法は、CIRタスクにおける高度な大規模視覚言語(VL)モデルにおいて大きな進歩を遂げているが、それらは一般的に、モデルトレーニングのためのラベル付き三重項の欠如とリソース制限された環境への展開の困難という2つの大きな問題に悩まされている。
本稿では、VLモデルを利用して合成学習のためのラベルなし画像のみに依存する画像2Sentenceに基づく非対称ゼロショット合成画像検索(ISA)を提案する。
論文 参考訳(メタデータ) (2024-03-03T07:58:03Z) - Symmetric Equilibrium Learning of VAEs [56.56929742714685]
可変オートエンコーダ(VAE)をデコーダ-エンコーダペアとみなし,データ空間内の分布を潜在空間内の分布にマッピングする。
本研究では,エンコーダとデコーダに対して対称なナッシュ均衡学習手法を提案し,データと潜伏分布の両方がサンプリングによってのみアクセス可能な状況下でのVAEの学習を可能にする。
論文 参考訳(メタデータ) (2023-07-19T10:27:34Z) - Dictionary Learning under Symmetries via Group Representations [1.304892050913381]
あらかじめ特定された変換群の下で不変な辞書を学習する問題について検討する。
本稿では,SO(2)群とSO(3)群の辞書学習問題を調査するために,本パラダイムを適用した。
論文 参考訳(メタデータ) (2023-05-31T04:54:06Z) - Learning Invariant Subspaces of Koopman Operators--Part 2: Heterogeneous
Dictionary Mixing to Approximate Subspace Invariance [0.0]
この研究は、データからクープマン作用素の近似辞書表現を学ぶために、パート1で提示されたモデルと概念に基づいている。
ヘテロジニアス辞書関数の構造化混合はディープラーニングに基づくディープDMDアルゴリズムと同じ精度と次元のスケーリングを実現する。
論文 参考訳(メタデータ) (2022-12-14T17:40:00Z) - Learning Invariant Subspaces of Koopman Operators--Part 1: A Methodology
for Demonstrating a Dictionary's Approximate Subspace Invariance [0.0]
拡張動的モード分解アルゴリズムでは、辞書関数は固定クラスの関数から引き出される。
深層動的モード分解(deepDMD)と呼ばれるアルゴリズムにおいて、深層学習とEDMDを組み合わせた新しい辞書関数の学習に使われている。
本稿では,DeepDMDから学習辞書を解析し,その性能に関する理論的基礎を探る。
論文 参考訳(メタデータ) (2022-12-14T17:33:52Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Statistical limits of dictionary learning: random matrix theory and the
spectral replica method [28.54289139061295]
ベイズ最適設定における行列記述と辞書学習の複雑なモデルについて考察する。
本稿では, 統計力学とランダム行列理論, スペクトル複製法を組み合わせた新しいレプリカ法を提案する。
論文 参考訳(メタデータ) (2021-09-14T12:02:32Z) - Learning Log-Determinant Divergences for Positive Definite Matrices [47.61701711840848]
本稿では,データ駆動方式で類似度を学習することを提案する。
スカラーアルファとベータによってパラメトリ化されたメタダイバージェンスであるalphabeta-log-detの発散を利用する。
私たちの重要なアイデアは、これらのパラメータを連続体にキャストし、データから学ぶことです。
論文 参考訳(メタデータ) (2021-04-13T19:09:43Z) - Anchor & Transform: Learning Sparse Embeddings for Large Vocabularies [60.285091454321055]
我々は,アンカー埋め込みとスパース変換行列の小さな組を学習する,単純で効率的な埋め込みアルゴリズムを設計する。
テキスト分類、言語モデリング、映画レコメンデーションのベンチマークでは、ANTは大きな語彙サイズに特に適していることが示されている。
論文 参考訳(メタデータ) (2020-03-18T13:07:51Z) - Ada-LISTA: Learned Solvers Adaptive to Varying Models [24.321416673430978]
この研究は、Ada-LISTAと呼ばれる適応型学習解法を導入し、ペアの信号とそれに対応する辞書を入力として受け取り、それらすべてを提供する普遍的なアーキテクチャを学ぶ。
このスキームは、辞書の摂動や置換を含む様々なモデルの線形レートでスパース符号化を解くことが保証されている。
また,Ada-LISTAを自然な画像塗布に展開し,パッチマスクの空間的変化を考慮に入れた。
論文 参考訳(メタデータ) (2020-01-23T11:34:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。