論文の概要: Partitioning signal classes using transport transforms for data analysis
and machine learning
- arxiv url: http://arxiv.org/abs/2008.03452v2
- Date: Wed, 24 Feb 2021 12:48:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 11:37:01.818582
- Title: Partitioning signal classes using transport transforms for data analysis
and machine learning
- Title(参考訳): データ解析と機械学習のためのトランスポート変換を用いた分割信号クラス
- Authors: Akram Aldroubi, Shiying Li, Gustavo K. Rohde
- Abstract要約: 新しいトランスポートベースの変換(CDT、R-CDT、LOT)は、様々な画像およびデータ処理タスクにおいて、その強度と大きなポテンシャルを示している。
この論文はこれらの変換の紹介として役立ち、数学者や他の研究者が理論的基盤とアルゴリズムツールをさらに探求することを奨励する。
- 参考スコア(独自算出の注目度): 8.111947517189641
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A relatively new set of transport-based transforms (CDT, R-CDT, LOT) have
shown their strength and great potential in various image and data processing
tasks such as parametric signal estimation, classification, cancer detection
among many others. It is hence worthwhile to elucidate some of the mathematical
properties that explain the successes of these transforms when they are used as
tools in data analysis, signal processing or data classification. In
particular, we give conditions under which classes of signals that are created
by algebraic generative models are transformed into convex sets by the
transport transforms. Such convexification of the classes simplify the
classification and other data analysis and processing problems when viewed in
the transform domain. More specifically, we study the extent and limitation of
the convexification ability of these transforms under an algebraic generative
modeling framework. We hope that this paper will serve as an introduction to
these transforms and will encourage mathematicians and other researchers to
further explore the theoretical underpinnings and algorithmic tools that will
help understand the successes of these transforms and lay the groundwork for
further successful applications.
- Abstract(参考訳): 比較的新しいトランスポートベース変換(CDT、R-CDT、LOT)は、パラメトリック信号推定、分類、がん検出など、様々な画像およびデータ処理タスクにおいて、その強度と大きなポテンシャルを示している。
したがって、これらの変換がデータ分析、信号処理、データ分類のツールとして使われるとき、これらの変換の成功を説明する数学的性質のいくつかを解明する価値がある。
特に、代数的生成モデルによって生成される信号のクラスがトランスポート変換によって凸集合に変換される条件を与える。
このようなクラスの凸化は、変換ドメインで見た場合の分類やその他のデータ解析や処理の問題を単純化する。
より具体的には、代数的生成モデリングフレームワークの下でこれらの変換の凸化能力の程度と限界について研究する。
この論文はこれらの変換の紹介として役立ち、数学者や他の研究者がこれらの変換の成功を理解するのに役立つ理論的基盤とアルゴリズム的ツールをさらに探求し、さらなる成功のための基礎を築いたいと願っている。
関連論文リスト
- Learning on Transformers is Provable Low-Rank and Sparse: A One-layer Analysis [63.66763657191476]
低ランク計算としての効率的な数値学習と推論アルゴリズムはトランスフォーマーに基づく適応学習に優れた性能を持つことを示す。
我々は、等級モデルが適応性を改善しながら一般化にどのように影響するかを分析する。
適切なマグニチュードベースのテストは,テストパフォーマンスに多少依存している,と結論付けています。
論文 参考訳(メタデータ) (2024-06-24T23:00:58Z) - Learning Explicitly Conditioned Sparsifying Transforms [7.335712499936904]
本研究では,データ表現の質と学習した変換の条件数を明確に制御するスペーサー変換モデルを提案する。
我々は,本モデルが最先端技術よりも優れた数値挙動を示すことを示す数値実験を通して確認する。
論文 参考訳(メタデータ) (2024-03-05T18:03:51Z) - Geometrically Aligned Transfer Encoder for Inductive Transfer in
Regression Tasks [5.038936775643437]
微分幾何学に基づく新しい移動法,すなわち幾何学的配向変換(GATE)を提案する。
すべての任意の点が重なり合う領域の局所平坦な座標に写像されることを保証するために、タスクのペア間の適切な微分同相性を見つけ、ソースからターゲットデータへの知識の伝達を可能にする。
GATEは従来の手法より優れ、様々な分子グラフデータセットの潜伏空間と外挿領域の両方で安定した振る舞いを示す。
論文 参考訳(メタデータ) (2023-10-10T07:11:25Z) - In-Context Convergence of Transformers [63.04956160537308]
勾配降下法により訓練したソフトマックスアテンションを有する一層変圧器の学習力学について検討した。
不均衡な特徴を持つデータに対しては、学習力学が段階的に収束する過程をとることを示す。
論文 参考訳(メタデータ) (2023-10-08T17:55:33Z) - Unsupervised Learning of Invariance Transformations [105.54048699217668]
近似グラフ自己同型を見つけるためのアルゴリズムフレームワークを開発する。
重み付きグラフにおける近似自己同型を見つけるために、このフレームワークをどのように利用できるかについて議論する。
論文 参考訳(メタデータ) (2023-07-24T17:03:28Z) - Learning Lie Group Symmetry Transformations with Neural Networks [17.49001206996365]
この研究は、データセットに存在する未知の対称性、すなわちリー群対称性変換の発見と特徴付けに焦点を当てている。
私たちのゴールは、変換グループとパラメータ値の分布を特徴づけることです。
その結果、どちらの設定でもアプローチの有効性が示された。
論文 参考訳(メタデータ) (2023-07-04T09:23:24Z) - Data augmentation with mixtures of max-entropy transformations for
filling-level classification [88.14088768857242]
本稿では,コンテンツレベルの分類作業のための基本データ拡張スキームを用いて,テスト時間データにおける分散シフトの問題に対処する。
このような原理的な拡張スキームは,伝達学習を利用した現在のアプローチを置き換えたり,伝達学習と組み合わせて性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-03-08T11:41:38Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - Disentangling images with Lie group transformations and sparse coding [3.3454373538792552]
空間パターンとその連続的な変換を、完全に教師なしの方法で区別することを学ぶモデルを訓練する。
特定のMNIST桁の制御された幾何変換からなるデータセット上でモデルをトレーニングすると、これらの変換を桁とともに復元できることが分かる。
論文 参考訳(メタデータ) (2020-12-11T19:11:32Z) - A Compact Spectral Descriptor for Shape Deformations [0.8268443804509721]
本研究では, 応力下での塑性変形挙動のパラメータ化手法を提案する。
既存のパラメータ化は計算解析を比較的単純な変形に制限する。
本稿では,スペクトルメッシュ処理に基づく変形挙動のコンパクト記述子を導出する手法を提案する。
論文 参考訳(メタデータ) (2020-03-10T10:34:30Z) - On Compositions of Transformations in Contrastive Self-Supervised
Learning [66.15514035861048]
本稿では,コントラスト学習をより広範な変換集合に一般化する。
特定の変換に不変であり、他の変換に特有であることは、効果的なビデオ表現の学習に不可欠である。
論文 参考訳(メタデータ) (2020-03-09T17:56:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。