論文の概要: Sparse Coding Representation of 2-way Data
- arxiv url: http://arxiv.org/abs/2509.10033v1
- Date: Fri, 12 Sep 2025 07:53:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:08.009741
- Title: Sparse Coding Representation of 2-way Data
- Title(参考訳): 2方向データのスパース符号化表現
- Authors: Boya Ma, Abram Magner, Maxwell McNeil, Petko Bogdanov,
- Abstract要約: 2次元シナリオのための低ランク符号化モデルを提案し,そのデータについて検討する。
合成データセットと実世界のデータセットの両方において、データ再構成と値計算の欠如について、その品質を実証する。
- 参考スコア(独自算出の注目度): 7.849042669028769
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sparse dictionary coding represents signals as linear combinations of a few dictionary atoms. It has been applied to images, time series, graph signals and multi-way spatio-temporal data by jointly employing temporal and spatial dictionaries. Data-agnostic analytical dictionaries, such as the discrete Fourier transform, wavelets and graph Fourier, have seen wide adoption due to efficient implementations and good practical performance. On the other hand, dictionaries learned from data offer sparser and more accurate solutions but require learning of both the dictionaries and the coding coefficients. This becomes especially challenging for multi-dictionary scenarios since encoding coefficients correspond to all atom combinations from the dictionaries. To address this challenge, we propose a low-rank coding model for 2-dictionary scenarios and study its data complexity. Namely, we establish a bound on the number of samples needed to learn dictionaries that generalize to unseen samples from the same distribution. We propose a convex relaxation solution, called AODL, whose exact solution we show also solves the original problem. We then solve this relaxation via alternating optimization between the sparse coding matrices and the learned dictionaries, which we prove to be convergent. We demonstrate its quality for data reconstruction and missing value imputation in both synthetic and real-world datasets. For a fixed reconstruction quality, AODL learns up to 90\% sparser solutions compared to non-low-rank and analytical (fixed) dictionary baselines. In addition, the learned dictionaries reveal interpretable insights into patterns present within the samples used for training.
- Abstract(参考訳): スパース辞書符号化は、信号を数個の辞書原子の線形結合として表現する。
画像,時系列,グラフ信号,マルチウェイ時空間データに対して,時間辞書と空間辞書を併用して適用されてきた。
データに依存しない解析辞書、例えば離散フーリエ変換、ウェーブレット、グラフフーリエは、効率的な実装と実用的な性能のために広く採用されている。
一方、データから学習した辞書は、スペーサーとより正確な解を提供するが、辞書と符号化係数の両方を学ぶ必要がある。
これは、係数の符号化が辞書から得られる全ての原子の組み合わせに対応するため、多次元シナリオでは特に困難になる。
この課題に対処するために,2次元シナリオの低ランク符号化モデルを提案し,その複雑さについて検討する。
すなわち、同じ分布から見つからないサンプルに一般化する辞書を学習するのに必要なサンプル数に制限を課す。
我々はAODLと呼ばれる凸緩和解を提案する。
この緩和は、スパース符号行列と学習辞書の交互最適化によって解決され、収束することが証明される。
合成データセットと実世界のデータセットの両方において、データ再構成と値計算の欠如について、その品質を実証する。
AODLは、固定された再構築品質のために、非低ランクで解析的な(固定された)辞書ベースラインと比較して最大90%のスペーサーソリューションを学習する。
さらに、学習した辞書は、トレーニングに使用されるサンプルの中に存在するパターンに対する解釈可能な洞察を明らかにします。
関連論文リスト
- Graph-Dictionary Signal Model for Sparse Representations of Multivariate Data [49.77103348208835]
グラフの有限集合がラプラシアンの重み付き和を通してデータ分布の関係を特徴付けるグラフ辞書信号モデルを定義する。
本稿では,観測データからグラフ辞書表現を推論するフレームワークを提案する。
我々は,脳活動データに基づく運動画像復号作業におけるグラフ辞書表現を利用して,従来の手法よりも想像的な動きをよりよく分類する。
論文 参考訳(メタデータ) (2024-11-08T17:40:43Z) - Unified Lexical Representation for Interpretable Visual-Language Alignment [52.059812317944434]
複雑な設計をせずに両方のモダリティを統一した語彙表現を学習するためのフレームワークであるLexVLAを紹介する。
我々はDINOv2をローカル言語の特徴の視覚モデルとして使用し、生成言語モデルであるLlamaをテキスト内語彙予測能力の活用に利用した。
これら2つの事前学習されたユニモーダルモデルが、控えめなマルチモーダルデータセットを微調整することで、適切に整列できることを実証する。
論文 参考訳(メタデータ) (2024-07-25T07:35:27Z) - Low Rank Multi-Dictionary Selection at Scale [5.827700856320355]
LRMDSという低ランクスパース符号化のための多次元原子選択手法を提案する。
我々は,合成データセットと実世界のデータセットの両方において,LRMDSのスケーラビリティを実証する。
論文 参考訳(メタデータ) (2024-06-11T05:40:45Z) - Dictionary Learning Improves Patch-Free Circuit Discovery in Mechanistic
Interpretability: A Case Study on Othello-GPT [59.245414547751636]
本稿では,アクティベーションパッチに代わる回路発見フレームワークを提案する。
当社のフレームワークはアウト・オブ・ディストリビューション(out-of-distribution)に悩まされており、複雑さの観点からより効率的であることが証明されています。
我々はOthelloという名前の合成タスクで訓練された小さなトランスフォーマーを掘り下げ、その内部に人間に理解可能な微細な回路がいくつかある。
論文 参考訳(メタデータ) (2024-02-19T15:04:53Z) - Convergence of alternating minimisation algorithms for dictionary
learning [4.5687771576879594]
辞書学習のための2つの交互最小化アルゴリズムの収束に十分な条件を導出する。
我々は、生成辞書に少なくとも1/log(K)$の距離で、あるいは、初期化の各要素が1つの生成要素のみを指していることを保証する特別な構造を持つような、よく知られた初期化が与えられた場合、どちらのアルゴリズムも生成辞書への幾何収束率に収束することを示す。
論文 参考訳(メタデータ) (2023-04-04T12:58:47Z) - Neural Implicit Dictionary via Mixture-of-Expert Training [111.08941206369508]
ニューラルインシシット辞書(NID)を学習することで、データとトレーニング効率の両方を達成する汎用INRフレームワークを提案する。
我々のNIDは、所望の関数空間にまたがるように調整された座標ベースのImpworksのグループを組み立てる。
実験の結果,NIDは最大98%の入力データで2次元画像や3次元シーンの再現を2桁高速化できることがわかった。
論文 参考訳(メタデータ) (2022-07-08T05:07:19Z) - Discriminative Dictionary Learning based on Statistical Methods [0.0]
信号やデータのスパース表現(SR)は厳密な数学的誤り境界と証明を持つ十分に確立された理論を持つ。
最小損失の信号群を表現した辞書を辞書学習(DL)という。
MODとK-SVDは、画像「デノイング」や「インペインティング」といった画像処理における再構成ベースの応用に成功している。
論文 参考訳(メタデータ) (2021-11-17T10:45:10Z) - Dictionary Learning with Convex Update (ROMD) [6.367823813868024]
ROMDと呼ばれる新しいタイプの辞書学習アルゴリズムを提案する。
ROMDは凸行列を使って辞書全体を一度に更新する。
その結果、辞書更新の保証と辞書学習全体の高速化の両方が利点である。
論文 参考訳(メタデータ) (2021-10-13T11:14:38Z) - Parameter Space Factorization for Zero-Shot Learning across Tasks and
Languages [112.65994041398481]
本稿では,ニューラルパラメータの空間に対するベイズ生成モデルを提案する。
タスク言語の組み合わせから得られたデータに基づいて、そのような潜伏変数よりも後部を推測する。
我々のモデルは、最先端のゼロショットの言語間転送手法よりも、同等か良い結果が得られる。
論文 参考訳(メタデータ) (2020-01-30T16:58:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。