論文の概要: Learning Log-Determinant Divergences for Positive Definite Matrices
- arxiv url: http://arxiv.org/abs/2104.06461v1
- Date: Tue, 13 Apr 2021 19:09:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 13:32:14.748408
- Title: Learning Log-Determinant Divergences for Positive Definite Matrices
- Title(参考訳): 正定値行列に対する学習ログ決定型発散
- Authors: Anoop Cherian, Panagiotis Stanitsas, Jue Wang, Mehrtash Harandi,
Vassilios Morellas, Nikolaos Papanikolopoulos
- Abstract要約: 本稿では,データ駆動方式で類似度を学習することを提案する。
スカラーアルファとベータによってパラメトリ化されたメタダイバージェンスであるalphabeta-log-detの発散を利用する。
私たちの重要なアイデアは、これらのパラメータを連続体にキャストし、データから学ぶことです。
- 参考スコア(独自算出の注目度): 47.61701711840848
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Representations in the form of Symmetric Positive Definite (SPD) matrices
have been popularized in a variety of visual learning applications due to their
demonstrated ability to capture rich second-order statistics of visual data.
There exist several similarity measures for comparing SPD matrices with
documented benefits. However, selecting an appropriate measure for a given
problem remains a challenge and in most cases, is the result of a
trial-and-error process. In this paper, we propose to learn similarity measures
in a data-driven manner. To this end, we capitalize on the \alpha\beta-log-det
divergence, which is a meta-divergence parametrized by scalars \alpha and
\beta, subsuming a wide family of popular information divergences on SPD
matrices for distinct and discrete values of these parameters. Our key idea is
to cast these parameters in a continuum and learn them from data. We
systematically extend this idea to learn vector-valued parameters, thereby
increasing the expressiveness of the underlying non-linear measure. We conjoin
the divergence learning problem with several standard tasks in machine
learning, including supervised discriminative dictionary learning and
unsupervised SPD matrix clustering. We present Riemannian gradient descent
schemes for optimizing our formulations efficiently, and show the usefulness of
our method on eight standard computer vision tasks.
- Abstract(参考訳): 対称正定値行列(SPD)の形式による表現は、視覚データのリッチな2階統計をキャプチャする能力を示すため、様々な視覚学習アプリケーションで普及している。
SPD行列と文書化利益を比較するための類似性尺度はいくつか存在する。
しかしながら、与えられた問題に対する適切な尺度を選択することは依然として課題であり、多くの場合、試行錯誤のプロセスの結果である。
本稿では,データ駆動方式で類似度を学習することを提案する。
この目的のために我々は,これらのパラメータの独立値と離散値に対して,SPD行列上に広く普及した情報分散を仮定し,スカラとナベタによってパラメトリズドされるメタ分割である \alpha\beta-log-det divergence を利用する。
私たちのキーとなるアイデアは、これらのパラメータを連続体にキャストし、データからそれらを学ぶことです。
この概念を体系的に拡張してベクトル値パラメータを学習し、基礎となる非線形測度の表現性を高める。
我々は,教師付き判別辞書学習や教師なしspd行列クラスタリングなど,機械学習のいくつかの標準タスクで発散学習問題に結合する。
定式化を効率的に最適化するためのリーマン勾配降下スキームを提案し、8つの標準コンピュータビジョンタスクにおける本手法の有用性を示す。
関連論文リスト
- The Common Stability Mechanism behind most Self-Supervised Learning
Approaches [64.40701218561921]
自己指導型学習手法の安定性のメカニズムを説明するための枠組みを提供する。
我々は,BYOL,SWAV,SimSiam,Barlow Twins,DINOなどの非コントラスト技術であるSimCLRの動作メカニズムについて議論する。
私たちは異なる仮説を定式化し、Imagenet100データセットを使ってそれらをテストします。
論文 参考訳(メタデータ) (2024-02-22T20:36:24Z) - Synergistic eigenanalysis of covariance and Hessian matrices for enhanced binary classification [72.77513633290056]
本稿では, 学習モデルを用いて評価したヘッセン行列をトレーニングセットで評価した共分散行列の固有解析と, 深層学習モデルで評価したヘッセン行列を組み合わせた新しい手法を提案する。
本手法は複雑なパターンと関係を抽出し,分類性能を向上する。
論文 参考訳(メタデータ) (2024-02-14T16:10:42Z) - Identifying Systems with Symmetries using Equivariant Autoregressive
Reservoir Computers [0.0]
均質な自己回帰型貯水池コンピュータを用いた対称性を持つシステムの同定に焦点をあてる。
構造行列近似理論の一般的な結果が提示され、2倍のアプローチが探求される。
論文 参考訳(メタデータ) (2023-11-16T02:32:26Z) - Sliced-Wasserstein on Symmetric Positive Definite Matrices for M/EEG
Signals [24.798859309715667]
共分散行列の分布を扱うための新しい手法を提案する。
本稿では,脳コンピュータインタフェースの領域適応におけるワッサースタイン距離の効率的なサロゲートであることを示す。
論文 参考訳(メタデータ) (2023-03-10T09:08:46Z) - Classification of BCI-EEG based on augmented covariance matrix [0.0]
本稿では,運動画像分類の改善を目的とした自己回帰モデルから抽出した拡張共分散に基づく新しいフレームワークを提案する。
私たちはMOABBフレームワークを使って、いくつかのデータセットといくつかの主題でアプローチを検証します。
論文 参考訳(メタデータ) (2023-02-09T09:04:25Z) - High-Dimensional Sparse Bayesian Learning without Covariance Matrices [66.60078365202867]
共分散行列の明示的な構成を避ける新しい推論手法を提案する。
本手法では, 数値線形代数と共役勾配アルゴリズムの対角線推定結果とを結合する。
いくつかのシミュレーションにおいて,本手法は計算時間とメモリにおける既存手法よりも拡張性が高い。
論文 参考訳(メタデータ) (2022-02-25T16:35:26Z) - Accurate and fast matrix factorization for low-rank learning [4.435094091999926]
高精度な部分特異値分解(SVD)と巨大な行列の数値ランク推定に関する2つの重要な課題に取り組みます。
我々は、これらの目標を達成するために、Golub-Kahanの対角化プロセスやRitzベクトルなどのクリロフ部分空間の概念を使用します。
論文 参考訳(メタデータ) (2021-04-21T22:35:02Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z) - WISDoM: characterizing neurological timeseries with the Wishart
distribution [0.0]
WISDoMは、実験試料に関連する対称正定値行列の偏差の定量化のための新しい枠組みである。
本手法の適用例を2つの異なるシナリオで示す。
論文 参考訳(メタデータ) (2020-01-28T14:20:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。