論文の概要: Learning Log-Determinant Divergences for Positive Definite Matrices
- arxiv url: http://arxiv.org/abs/2104.06461v1
- Date: Tue, 13 Apr 2021 19:09:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 13:32:14.748408
- Title: Learning Log-Determinant Divergences for Positive Definite Matrices
- Title(参考訳): 正定値行列に対する学習ログ決定型発散
- Authors: Anoop Cherian, Panagiotis Stanitsas, Jue Wang, Mehrtash Harandi,
Vassilios Morellas, Nikolaos Papanikolopoulos
- Abstract要約: 本稿では,データ駆動方式で類似度を学習することを提案する。
スカラーアルファとベータによってパラメトリ化されたメタダイバージェンスであるalphabeta-log-detの発散を利用する。
私たちの重要なアイデアは、これらのパラメータを連続体にキャストし、データから学ぶことです。
- 参考スコア(独自算出の注目度): 47.61701711840848
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Representations in the form of Symmetric Positive Definite (SPD) matrices
have been popularized in a variety of visual learning applications due to their
demonstrated ability to capture rich second-order statistics of visual data.
There exist several similarity measures for comparing SPD matrices with
documented benefits. However, selecting an appropriate measure for a given
problem remains a challenge and in most cases, is the result of a
trial-and-error process. In this paper, we propose to learn similarity measures
in a data-driven manner. To this end, we capitalize on the \alpha\beta-log-det
divergence, which is a meta-divergence parametrized by scalars \alpha and
\beta, subsuming a wide family of popular information divergences on SPD
matrices for distinct and discrete values of these parameters. Our key idea is
to cast these parameters in a continuum and learn them from data. We
systematically extend this idea to learn vector-valued parameters, thereby
increasing the expressiveness of the underlying non-linear measure. We conjoin
the divergence learning problem with several standard tasks in machine
learning, including supervised discriminative dictionary learning and
unsupervised SPD matrix clustering. We present Riemannian gradient descent
schemes for optimizing our formulations efficiently, and show the usefulness of
our method on eight standard computer vision tasks.
- Abstract(参考訳): 対称正定値行列(SPD)の形式による表現は、視覚データのリッチな2階統計をキャプチャする能力を示すため、様々な視覚学習アプリケーションで普及している。
SPD行列と文書化利益を比較するための類似性尺度はいくつか存在する。
しかしながら、与えられた問題に対する適切な尺度を選択することは依然として課題であり、多くの場合、試行錯誤のプロセスの結果である。
本稿では,データ駆動方式で類似度を学習することを提案する。
この目的のために我々は,これらのパラメータの独立値と離散値に対して,SPD行列上に広く普及した情報分散を仮定し,スカラとナベタによってパラメトリズドされるメタ分割である \alpha\beta-log-det divergence を利用する。
私たちのキーとなるアイデアは、これらのパラメータを連続体にキャストし、データからそれらを学ぶことです。
この概念を体系的に拡張してベクトル値パラメータを学習し、基礎となる非線形測度の表現性を高める。
我々は,教師付き判別辞書学習や教師なしspd行列クラスタリングなど,機械学習のいくつかの標準タスクで発散学習問題に結合する。
定式化を効率的に最適化するためのリーマン勾配降下スキームを提案し、8つの標準コンピュータビジョンタスクにおける本手法の有用性を示す。
関連論文リスト
- Classification of BCI-EEG based on augmented covariance matrix [0.0]
本稿では,運動画像分類の改善を目的とした自己回帰モデルから抽出した拡張共分散に基づく新しいフレームワークを提案する。
私たちはMOABBフレームワークを使って、いくつかのデータセットといくつかの主題でアプローチを検証します。
論文 参考訳(メタデータ) (2023-02-09T09:04:25Z) - High-Dimensional Sparse Bayesian Learning without Covariance Matrices [66.60078365202867]
共分散行列の明示的な構成を避ける新しい推論手法を提案する。
本手法では, 数値線形代数と共役勾配アルゴリズムの対角線推定結果とを結合する。
いくつかのシミュレーションにおいて,本手法は計算時間とメモリにおける既存手法よりも拡張性が高い。
論文 参考訳(メタデータ) (2022-02-25T16:35:26Z) - Collaborative Representation for SPD Matrices with Application to
Image-Set Classification [12.447073442122468]
協調表現に基づく分類(CRC)はここ数年で顕著な進歩を遂げている。
既存のCRC法では非線形変動情報を直接処理することができない。
最近の進歩は、これらの非線形変動情報を効果的にモデル化し、不変表現を学習する方法がオープンな課題であることを示している。
論文 参考訳(メタデータ) (2022-01-22T04:56:53Z) - Nonparametric Trace Regression in High Dimensions via Sign Series
Representation [13.37650464374017]
高次元関数の構造的符号系列表現による非パラメトリックトレース回帰モデルのためのフレームワークを開発する。
行列完備化の文脈において、我々のフレームワークは、行列の「符号ランク」と呼ばれるものに基づいて、かなりリッチなモデルへと導かれる。
論文 参考訳(メタデータ) (2021-05-04T22:20:00Z) - Accurate and fast matrix factorization for low-rank learning [4.435094091999926]
高精度な部分特異値分解(SVD)と巨大な行列の数値ランク推定に関する2つの重要な課題に取り組みます。
我々は、これらの目標を達成するために、Golub-Kahanの対角化プロセスやRitzベクトルなどのクリロフ部分空間の概念を使用します。
論文 参考訳(メタデータ) (2021-04-21T22:35:02Z) - Learning with Density Matrices and Random Features [62.997667081978825]
密度行列は、量子系の統計状態を記述する。
本稿では,機械学習モデル構築のためのビルディングブロックとして,密度行列をどのように利用できるかを検討する。
論文 参考訳(メタデータ) (2021-02-08T17:54:59Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z) - Asymptotic Analysis of an Ensemble of Randomly Projected Linear
Discriminants [94.46276668068327]
[1]では、ランダムに投影された線形判別式のアンサンブルを用いてデータセットを分類する。
我々は,計算コストのかかるクロスバリデーション推定器の代替として,誤分類確率の一貫した推定器を開発する。
また、実データと合成データの両方で投影次元を調整するための推定器の使用を実証する。
論文 参考訳(メタデータ) (2020-04-17T12:47:04Z) - WISDoM: characterizing neurological timeseries with the Wishart
distribution [0.0]
WISDoMは、実験試料に関連する対称正定値行列の偏差の定量化のための新しい枠組みである。
本手法の適用例を2つの異なるシナリオで示す。
論文 参考訳(メタデータ) (2020-01-28T14:20:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。