論文の概要: Wasserstein Dictionaries of Persistence Diagrams
- arxiv url: http://arxiv.org/abs/2304.14852v2
- Date: Fri, 15 Sep 2023 13:31:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 18:27:42.415088
- Title: Wasserstein Dictionaries of Persistence Diagrams
- Title(参考訳): パーシステンス図のwasserstein辞書
- Authors: Keanu Sisouk, Julie Delon, Julien Tierny
- Abstract要約: 本稿では, 対応する最小化問題の効率的な解法として, マルチスケール勾配勾配降下法を提案する。
コントリビューションの効用を2つのアプリケーションで示します。
少数の原子で定義されたワッサーシュタイン辞書に基づく次元還元フレームワークを提案する。
- 参考スコア(独自算出の注目度): 7.320365821066744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a computational framework for the concise encoding of an
ensemble of persistence diagrams, in the form of weighted Wasserstein
barycenters [100], [102] of a dictionary of atom diagrams. We introduce a
multi-scale gradient descent approach for the efficient resolution of the
corresponding minimization problem, which interleaves the optimization of the
barycenter weights with the optimization of the atom diagrams. Our approach
leverages the analytic expressions for the gradient of both sub-problems to
ensure fast iterations and it additionally exploits shared-memory parallelism.
Extensive experiments on public ensembles demonstrate the efficiency of our
approach, with Wasserstein dictionary computations in the orders of minutes for
the largest examples. We show the utility of our contributions in two
applications. First, we apply Wassserstein dictionaries to data reduction and
reliably compress persistence diagrams by concisely representing them with
their weights in the dictionary. Second, we present a dimensionality reduction
framework based on a Wasserstein dictionary defined with a small number of
atoms (typically three) and encode the dictionary as a low dimensional simplex
embedded in a visual space (typically in 2D). In both applications,
quantitative experiments assess the relevance of our framework. Finally, we
provide a C++ implementation that can be used to reproduce our results.
- Abstract(参考訳): 本稿では,原子図辞書の重み付きwasserstein barycenters [100],[102]という形で,永続図のアンサンブルを簡潔に符号化するための計算枠組みを提案する。
本稿では,原子図の最適化と重心重みの最適化をインターリーブする,対応する最小化問題の効率的な解法として,多スケール勾配降下法を提案する。
提案手法は,両サブプロブレムの勾配解析式を活用し,高速なイテレーションを保証するとともに,共有メモリ並列性も活用する。
公的なアンサンブルに関する広範な実験は,wassersteinの辞書計算を最大例の1分単位で行うことで,このアプローチの効率性を示している。
2つのアプリケーションで貢献の効用を示します。
まず,wasserstein辞書をデータ削減に適用し,その重みを辞書で簡潔に表現することにより,永続化図を確実に圧縮する。
次に,少数の原子(典型的には3個)で定義されるワッサースタイン辞書に基づく次元減少フレームワークを示し,その辞書を視覚空間(典型的には2d)に埋め込まれた低次元のシンプレックスとして符号化する。
どちらのアプリケーションでも、定量的実験は我々のフレームワークの関連性を評価する。
最後に、結果の再現に使用できるC++の実装を提供します。
関連論文リスト
- Low Rank Multi-Dictionary Selection at Scale [5.827700856320355]
LRMDSという低ランクスパース符号化のための多次元原子選択手法を提案する。
我々は,合成データセットと実世界のデータセットの両方において,LRMDSのスケーラビリティを実証する。
論文 参考訳(メタデータ) (2024-06-11T05:40:45Z) - Quantization of Large Language Models with an Overdetermined Basis [73.79368761182998]
本稿では,嘉心表現の原理に基づくデータ量子化アルゴリズムを提案する。
以上の結果から, カシ量子化はモデル性能の競争力や優れた品質を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-04-15T12:38:46Z) - Dictionary Learning Improves Patch-Free Circuit Discovery in Mechanistic
Interpretability: A Case Study on Othello-GPT [59.245414547751636]
本稿では,アクティベーションパッチに代わる回路発見フレームワークを提案する。
当社のフレームワークはアウト・オブ・ディストリビューション(out-of-distribution)に悩まされており、複雑さの観点からより効率的であることが証明されています。
我々はOthelloという名前の合成タスクで訓練された小さなトランスフォーマーを掘り下げ、その内部に人間に理解可能な微細な回路がいくつかある。
論文 参考訳(メタデータ) (2024-02-19T15:04:53Z) - Convergence of alternating minimisation algorithms for dictionary
learning [4.5687771576879594]
辞書学習のための2つの交互最小化アルゴリズムの収束に十分な条件を導出する。
我々は、生成辞書に少なくとも1/log(K)$の距離で、あるいは、初期化の各要素が1つの生成要素のみを指していることを保証する特別な構造を持つような、よく知られた初期化が与えられた場合、どちらのアルゴリズムも生成辞書への幾何収束率に収束することを示す。
論文 参考訳(メタデータ) (2023-04-04T12:58:47Z) - Efficient Graph Field Integrators Meet Point Clouds [59.27295475120132]
点雲を符号化するグラフ上での効率的な場積分のためのアルゴリズムを2種類提案する。
第1のクラスであるSeparatorFactorization(SF)は、ポイントメッシュグラフの有界属を利用するが、第2のクラスであるRFDiffusion(RFD)は、ポイントクラウドの一般的なepsilon-nearest-neighborグラフ表現を使用する。
論文 参考訳(メタデータ) (2023-02-02T08:33:36Z) - Geometric Sparse Coding in Wasserstein Space [14.880505350054927]
ワッサーシュタイン辞書学習は、ワッサーシュタイン中心の組合せとして観測された分布を生成する確率分布の集合を学習するための教師なしのアプローチである。
本稿では、近傍の辞書要素のみを用いてデータポイントの表現を促進するWasserstein空間の幾何学的にスパースな正規化器を提案する。
論文 参考訳(メタデータ) (2022-10-21T17:46:31Z) - Condensing Graphs via One-Step Gradient Matching [50.07587238142548]
ネットワーク重みを訓練せずに1ステップのみの勾配マッチングを行う1ステップ勾配マッチング方式を提案する。
我々の理論的分析は、この戦略が実際のグラフの分類損失を減少させる合成グラフを生成することができることを示している。
特に、元のパフォーマンスの最大98%を近似しながら、データセットサイズを90%削減することが可能です。
論文 参考訳(メタデータ) (2022-06-15T18:20:01Z) - Efficient Sparse Coding using Hierarchical Riemannian Pursuit [2.4087148947930634]
スパース符号化は、辞書と符号の線形結合の形で入力データの表現を学ぶための監視されていない方法のクラスである。
完全辞書を用いたスパース符号化タスクのための効率的な合成状態スキームを提案する。
論文 参考訳(メタデータ) (2021-04-21T02:16:44Z) - Learning Optical Flow from a Few Matches [67.83633948984954]
密な相関体積表現は冗長であり、その中の要素のほんの一部で正確なフロー推定が達成できることを示した。
実験により,高い精度を維持しつつ計算コストとメモリ使用量を大幅に削減できることを示した。
論文 参考訳(メタデータ) (2021-04-05T21:44:00Z) - Text Information Aggregation with Centrality Attention [86.91922440508576]
本稿では, 固有中央集権自己注意という, 集権重み付けの新たな方法を提案する。
文中のすべての単語に対する完全連結グラフを構築し,各単語の注意点として固有中央性を計算する。
論文 参考訳(メタデータ) (2020-11-16T13:08:48Z) - Learning Deep Analysis Dictionaries for Image Super-Resolution [38.7315182732103]
ディープ分析辞書モデル(DeepAM)は、単一画像超解像と呼ばれる特定の回帰課題に対処するために最適化されている。
我々のアーキテクチャはL層の解析辞書とソフトスレッショルド演算子を含む。
DeepAMは、教師なしと教師なしの両方のセットアップを使用する。
論文 参考訳(メタデータ) (2020-01-31T18:59:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。