論文の概要: Bayesian sparsity and class sparsity priors for dictionary learning and
coding
- arxiv url: http://arxiv.org/abs/2309.00999v1
- Date: Sat, 2 Sep 2023 17:54:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 23:47:18.935571
- Title: Bayesian sparsity and class sparsity priors for dictionary learning and
coding
- Title(参考訳): 辞書学習と符号化のためのベイズ空間とクラス空間
- Authors: Alberto Bocchinfuso, Daniela Calvetti, Erkki Somersalo
- Abstract要約: 本稿では,辞書マッチングプロセスを容易にする作業フローを提案する。
本稿では,辞書マッチングに関係のない部分辞書の同定を支援するため,ベイズ型データ駆動型グループ空間符号化手法を提案する。
辞書圧縮誤差を補正し、新規なグループ間隔プロモーションを用いて元の辞書をデフレートする効果を図示する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dictionary learning methods continue to gain popularity for the solution of
challenging inverse problems. In the dictionary learning approach, the
computational forward model is replaced by a large dictionary of possible
outcomes, and the problem is to identify the dictionary entries that best match
the data, akin to traditional query matching in search engines. Sparse coding
techniques are used to guarantee that the dictionary matching identifies only
few of the dictionary entries, and dictionary compression methods are used to
reduce the complexity of the matching problem. In this article, we propose a
work flow to facilitate the dictionary matching process. First, the full
dictionary is divided into subdictionaries that are separately compressed. The
error introduced by the dictionary compression is handled in the Bayesian
framework as a modeling error. Furthermore, we propose a new Bayesian
data-driven group sparsity coding method to help identify subdictionaries that
are not relevant for the dictionary matching. After discarding irrelevant
subdictionaries, the dictionary matching is addressed as a deflated problem
using sparse coding. The compression and deflation steps can lead to
substantial decreases of the computational complexity. The effectiveness of
compensating for the dictionary compression error and using the novel group
sparsity promotion to deflate the original dictionary are illustrated by
applying the methodology to real world problems, the glitch detection in the
LIGO experiment and hyperspectral remote sensing.
- Abstract(参考訳): 辞書学習法は、逆問題の解法として人気を博し続けている。
辞書学習のアプローチでは、計算のフォワードモデルは、可能な結果の大きな辞書に置き換えられ、問題は、検索エンジンの従来のクエリマッチングに似た、データに最もよくマッチする辞書エントリを特定することである。
スパース符号化技術は、辞書マッチングが辞書エントリのごく一部を識別することを保証し、辞書圧縮法はマッチング問題の複雑さを軽減するために使用される。
本稿では,辞書マッチングプロセスを容易にするための作業フローを提案する。
まず、完全な辞書は別々に圧縮されたサブディクショナリーに分割される。
辞書圧縮によって引き起こされるエラーは、モデリングエラーとしてベイズフレームワークで処理される。
さらに,辞書マッチングに関係のないサブディクショナリを識別するために,ベイズ型データ駆動グループスパーシティ符号化手法を提案する。
無関係な辞書を捨てた後、辞書マッチングはスパース符号を用いてデフレーション問題として扱う。
圧縮とデフレのステップは計算の複雑さを大幅に減少させる可能性がある。
本手法を実世界問題に適用し,ligo実験における異常検出とハイパースペクトルリモートセンシングを応用し,辞書圧縮誤差の補償と新たなグループスパルシティ促進を用いた辞書の分解の有効性を示した。
関連論文リスト
- SparseCL: Sparse Contrastive Learning for Contradiction Retrieval [87.02936971689817]
コントラディション検索(Contradiction Search)とは、クエリの内容に明示的に異を唱える文書を識別し、抽出することである。
類似性探索やクロスエンコーダモデルといった既存の手法には、大きな制限がある。
文間の微妙で矛盾したニュアンスを保存するために特別に訓練された文埋め込みを利用するSparseCLを導入する。
論文 参考訳(メタデータ) (2024-06-15T21:57:03Z) - An Analysis of BPE Vocabulary Trimming in Neural Machine Translation [56.383793805299234]
語彙トリミング(vocabulary trimming)は、まれなサブワードをコンポーネントサブワードに置き換える後処理のステップである。
ボキャブラリトリミングは性能向上に失敗し,さらに大きな劣化を招きやすいことを示す。
論文 参考訳(メタデータ) (2024-03-30T15:29:49Z) - Dictionary Learning Improves Patch-Free Circuit Discovery in Mechanistic
Interpretability: A Case Study on Othello-GPT [59.245414547751636]
本稿では,アクティベーションパッチに代わる回路発見フレームワークを提案する。
当社のフレームワークはアウト・オブ・ディストリビューション(out-of-distribution)に悩まされており、複雑さの観点からより効率的であることが証明されています。
我々はOthelloという名前の合成タスクで訓練された小さなトランスフォーマーを掘り下げ、その内部に人間に理解可能な微細な回路がいくつかある。
論文 参考訳(メタデータ) (2024-02-19T15:04:53Z) - Biomedical Named Entity Recognition via Dictionary-based Synonym
Generalization [51.89486520806639]
本研究では,入力テキストに含まれる生物医学的概念をスパンベース予測を用いて認識する,新しいSynGenフレームワークを提案する。
提案手法を広範囲のベンチマークで広範囲に評価し,SynGenが従来の辞書ベースモデルよりも顕著なマージンで優れていることを確認した。
論文 参考訳(メタデータ) (2023-05-22T14:36:32Z) - Simple Alternating Minimization Provably Solves Complete Dictionary
Learning [13.056764072568749]
本稿では、与えられた信号の集合を学習辞書からの原子の線形結合として再パラメータ化することを目的とする完全な辞書問題に焦点を当てる。
理論的および実践的な辞書学習には、実用的なアルゴリズムに対する理論的保証の欠如と、大規模データセットを扱う際のスケーラビリティの低下という2つの大きな課題がある。
論文 参考訳(メタデータ) (2022-10-23T18:30:45Z) - Efficient CNN with uncorrelated Bag of Features pooling [98.78384185493624]
Bag of Features (BoF)は、畳み込み層の複雑さを軽減するために最近提案されている。
本稿では,BoFプーリング上に構築した手法を用いて,学習辞書の項目が非冗長であることを保証する。
提案した戦略は、BoFの効率的な変種を生成し、追加のパラメータを使わずにその性能をさらに向上させる。
論文 参考訳(メタデータ) (2022-09-22T09:00:30Z) - Discriminative Dictionary Learning based on Statistical Methods [0.0]
信号やデータのスパース表現(SR)は厳密な数学的誤り境界と証明を持つ十分に確立された理論を持つ。
最小損失の信号群を表現した辞書を辞書学習(DL)という。
MODとK-SVDは、画像「デノイング」や「インペインティング」といった画像処理における再構成ベースの応用に成功している。
論文 参考訳(メタデータ) (2021-11-17T10:45:10Z) - Dictionary Learning with Convex Update (ROMD) [6.367823813868024]
ROMDと呼ばれる新しいタイプの辞書学習アルゴリズムを提案する。
ROMDは凸行列を使って辞書全体を一度に更新する。
その結果、辞書更新の保証と辞書学習全体の高速化の両方が利点である。
論文 参考訳(メタデータ) (2021-10-13T11:14:38Z) - PUDLE: Implicit Acceleration of Dictionary Learning by Backpropagation [4.081440927534577]
本稿では,PUDLE(Provable Unfolded Dictionary LEarning)による実験結果に関する最初の理論的証明を提供する。
我々は、損失の最小化、展開、収束のバックプロパゲーションについて強調する。
合成および画像復号化実験により,本研究の成果を補完する。
論文 参考訳(メタデータ) (2021-05-31T18:49:58Z) - Exact Sparse Orthogonal Dictionary Learning [8.577876545575828]
提案手法は,過剰な辞書に基づく学習方法よりも,より難解な結果が得られることが判明した。
我々の方法には高効率の利点が加わった。
論文 参考訳(メタデータ) (2021-03-14T07:51:32Z) - Accelerating Text Mining Using Domain-Specific Stop Word Lists [57.76576681191192]
本稿では,超平面的アプローチと呼ばれるドメイン固有語の自動抽出手法を提案する。
ハイパープレーンベースのアプローチは、無関係な特徴を排除することによって、テキストの寸法を著しく削減することができる。
その結果,超平面型アプローチはコーパスの寸法を90%削減し,相互情報より優れることがわかった。
論文 参考訳(メタデータ) (2020-11-18T17:42:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。