論文の概要: Learning Without Augmenting: Unsupervised Time Series Representation Learning via Frame Projections
- arxiv url: http://arxiv.org/abs/2510.22655v1
- Date: Sun, 26 Oct 2025 12:36:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.314282
- Title: Learning Without Augmenting: Unsupervised Time Series Representation Learning via Frame Projections
- Title(参考訳): 拡張のない学習:フレーム投影による教師なし時系列表現学習
- Authors: Berken Utku Demirel, Christian Holz,
- Abstract要約: ラベル付きデータなしで表現を学習するための強力なパラダイムとして、自己教師型学習が登場した。
ほとんどのSSLアプローチは、表現学習のための多様なビューを生成するために、強力で確立された手作りのデータ拡張に依存している。
正規のベースとオーバーコンプリートフレームを用いてビューを生成することにより、拡張を置き換える教師なし表現学習手法を提案する。
- 参考スコア(独自算出の注目度): 35.715609556178165
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Self-supervised learning (SSL) has emerged as a powerful paradigm for learning representations without labeled data. Most SSL approaches rely on strong, well-established, handcrafted data augmentations to generate diverse views for representation learning. However, designing such augmentations requires domain-specific knowledge and implicitly imposes representational invariances on the model, which can limit generalization. In this work, we propose an unsupervised representation learning method that replaces augmentations by generating views using orthonormal bases and overcomplete frames. We show that embeddings learned from orthonormal and overcomplete spaces reside on distinct manifolds, shaped by the geometric biases introduced by representing samples in different spaces. By jointly leveraging the complementary geometry of these distinct manifolds, our approach achieves superior performance without artificially increasing data diversity through strong augmentations. We demonstrate the effectiveness of our method on nine datasets across five temporal sequence tasks, where signal-specific characteristics make data augmentations particularly challenging. Without relying on augmentation-induced diversity, our method achieves performance gains of up to 15--20\% over existing self-supervised approaches. Source code: https://github.com/eth-siplab/Learning-with-FrameProjections
- Abstract(参考訳): 自己教師付き学習(SSL)はラベル付きデータなしで表現を学習するための強力なパラダイムとして登場した。
ほとんどのSSLアプローチは、表現学習のための多様なビューを生成するために、強力でしっかりと確立された手作りのデータ拡張に依存している。
しかし、そのような拡張を設計するにはドメイン固有の知識が必要であり、一般化を制限することができるモデルに表現的不変性を暗黙的に課す。
本研究では,正規直交ベースとオーバーコンプリートフレームを用いたビューを生成することにより,拡張を代替する教師なし表現学習手法を提案する。
正規直交空間とオーバーコンプリート空間から得られた埋め込みは、異なる空間のサンプルを表現することによって導入された幾何学的バイアスによって形成される、異なる多様体上に存在することを示す。
これらの異なる多様体の相補的幾何を共同で活用することにより、強い拡張によってデータ多様性を人工的に増大させることなく、優れた性能を実現する。
本手法の有効性を5つの時間列タスクにまたがる9つのデータセットで示し,信号固有の特徴がデータ拡張を特に困難にすることを示した。
本手法は,増減に伴う多様性に頼らず,既存の自己監督手法に比べて最大15~20\%の性能向上を実現している。
ソースコード:https://github.com/eth-siplab/Learning-with-FrameProjections
関連論文リスト
- Can Generative Models Improve Self-Supervised Representation Learning? [0.7999703756441756]
生成モデルを利用して意味論的に一貫した画像拡張を生成することにより、自己教師付き学習(SSL)パラダイムを充実させるフレームワークを提案する。
その結果,下流タスクにおいて,学習した視覚表現の精度を最大10%向上させることができた。
論文 参考訳(メタデータ) (2024-03-09T17:17:07Z) - Parametric Augmentation for Time Series Contrastive Learning [33.47157775532995]
我々は、堅牢で差別的な表現を学習する上でモデルを支援するポジティブな例を作成します。
通常、プリセットされた人間の直観は、関連するデータ拡張の選択を指示する。
本稿では、時系列表現学習を支援するために適応的に使用できるパラメトリック拡張型学習フレームワークAutoTCLを提案する。
論文 参考訳(メタデータ) (2024-02-16T03:51:14Z) - Combating Representation Learning Disparity with Geometric Harmonization [50.29859682439571]
本稿では,表現学習におけるカテゴリレベルの均一性を促進するために,新しい幾何調和法を提案する。
我々の提案はSSLの設定を変更せず、低コストで既存のメソッドに容易に統合できる。
論文 参考訳(メタデータ) (2023-10-26T17:41:11Z) - Self-supervised Representation Learning From Random Data Projectors [13.764897214965766]
本稿では,任意のデータモダリティとネットワークアーキテクチャに適用可能なSSRL手法を提案する。
ランダムなデータプロジェクションを再構築することで,高品質なデータ表現が学習可能であることを示す。
論文 参考訳(メタデータ) (2023-10-11T18:00:01Z) - Deep invariant networks with differentiable augmentation layers [87.22033101185201]
データ拡張ポリシーの学習方法は、保持データを必要とし、二段階最適化の問題に基づいている。
我々のアプローチは、現代の自動データ拡張技術よりも訓練が簡単で高速であることを示す。
論文 参考訳(メタデータ) (2022-02-04T14:12:31Z) - Improving Transferability of Representations via Augmentation-Aware
Self-Supervision [117.15012005163322]
AugSelfは、ランダムに強化された2つのサンプル間の拡張パラメータの違いを学習する補助的な自己教師型損失である。
私たちの直感は、AugSelfが学習表現における拡張認識情報の保存を奨励していることです。
AugSelfは、最新の最先端の表現学習手法に、無視できる追加のトレーニングコストで簡単に組み込むことができる。
論文 参考訳(メタデータ) (2021-11-18T10:43:50Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。