論文の概要: Invariant Feature Coding using Tensor Product Representation
- arxiv url: http://arxiv.org/abs/1906.01857v3
- Date: Wed, 8 Mar 2023 07:57:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-25 04:32:11.996218
- Title: Invariant Feature Coding using Tensor Product Representation
- Title(参考訳): テンソル積表現を用いた不変特徴符号化
- Authors: Yusuke Mukuta and Tatsuya Harada
- Abstract要約: 我々は,群不変特徴ベクトルが線形分類器を学習する際に十分な識別情報を含んでいることを証明した。
主成分分析やk平均クラスタリングにおいて,グループアクションを明示的に考慮する新たな特徴モデルを提案する。
- 参考スコア(独自算出の注目度): 75.62232699377877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, a novel feature coding method that exploits invariance for
transformations represented by a finite group of orthogonal matrices is
proposed. We prove that the group-invariant feature vector contains sufficient
discriminative information when learning a linear classifier using convex loss
minimization. Based on this result, a novel feature model that explicitly
consider group action is proposed for principal component analysis and k-means
clustering, which are commonly used in most feature coding methods, and global
feature functions. Although the global feature functions are in general complex
nonlinear functions, the group action on this space can be easily calculated by
constructing these functions as tensor-product representations of basic
representations, resulting in an explicit form of invariant feature functions.
The effectiveness of our method is demonstrated on several image datasets.
- Abstract(参考訳): 本研究では,直交行列の有限群で表される変換の不変性を利用した特徴符号化手法を提案する。
凸損失最小化を用いた線形分類器の学習において,群不変特徴ベクトルが十分な識別情報を含むことを示す。
この結果に基づき、ほとんどの特徴符号化法や大域的特徴関数でよく用いられる主成分分析やk平均クラスタリングにおいて、グループアクションを明示的に考慮する新しい特徴モデルを提案する。
大域的特徴関数は一般に複素非線形関数であるが、この空間上の群作用は、基本表現のテンソル積表現としてこれらの関数を構成することで容易に計算でき、結果として明らかに不変な特徴関数となる。
本手法の有効性を複数の画像データセットで示す。
関連論文リスト
- Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Object Representations as Fixed Points: Training Iterative Refinement
Algorithms with Implicit Differentiation [88.14365009076907]
反復的洗練は表現学習に有用なパラダイムである。
トレーニングの安定性とトラクタビリティを向上させる暗黙の差別化アプローチを開発する。
論文 参考訳(メタデータ) (2022-07-02T10:00:35Z) - Functional Nonlinear Learning [0.0]
低次元特徴空間における多変量関数データを表現する機能非線形学習法(FunNoL)を提案する。
本研究では,FunNoLがデータ間隔によらず,良好な曲線分類と再構成を提供することを示す。
論文 参考訳(メタデータ) (2022-06-22T23:47:45Z) - NOMAD: Nonlinear Manifold Decoders for Operator Learning [17.812064311297117]
関数空間における教師付き学習は、機械学習研究の新たな領域である。
関数空間における非線形部分多様体の有限次元表現を学習できる非線形デコーダマップを備えた新しい演算子学習フレームワークであるNOMADについて述べる。
論文 参考訳(メタデータ) (2022-06-07T19:52:44Z) - Provable General Function Class Representation Learning in Multitask
Bandits and MDPs [58.624124220900306]
マルチタスク表現学習は、サンプル効率を高めるために強化学習において一般的なアプローチである。
本研究では,解析結果を一般関数クラス表現に拡張する。
バンディットと線形MDPの一般関数クラスにおけるマルチタスク表現学習の利点を理論的に検証する。
論文 参考訳(メタデータ) (2022-05-31T11:36:42Z) - Feature Weighted Non-negative Matrix Factorization [92.45013716097753]
本稿では,FNMF(Feature weighted Non- negative Matrix Factorization)を提案する。
FNMFはその重要性に応じて特徴の重みを適応的に学習する。
提案する最適化アルゴリズムを用いて効率的に解くことができる。
論文 参考訳(メタデータ) (2021-03-24T21:17:17Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z) - Fuzzy Integral = Contextual Linear Order Statistic [0.0]
ファジィ積分は、幅広い応用において有用である強力なパラメトリック非線形関数である。
文脈線形次数統計の集合で表すことができることを示す。
論文 参考訳(メタデータ) (2020-07-06T16:37:36Z) - BasisVAE: Translation-invariant feature-level clustering with
Variational Autoencoders [9.51828574518325]
変分オートエンコーダ(VAE)は、非線形次元削減のための柔軟でスケーラブルなフレームワークを提供する。
崩壊した変分推論スキームがBasisVAEのスケーラブルかつ効率的な推論にどのように寄与するかを示す。
論文 参考訳(メタデータ) (2020-03-06T23:10:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。