論文の概要: Structured Contrastive Learning for Interpretable Latent Representations
- arxiv url: http://arxiv.org/abs/2511.14920v1
- Date: Tue, 18 Nov 2025 21:18:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.534534
- Title: Structured Contrastive Learning for Interpretable Latent Representations
- Title(参考訳): 解釈可能な潜在表現のための構造的コントラスト学習
- Authors: Zhengyang Shen, Hua Tu, Mayue Shi,
- Abstract要約: 本研究では,潜在空間表現を3つの意味群に分割するフレームワークであるStructured Contrastive Learning (SCL)を提案する。
ECG相の分散とIMU回転の実験は優れた性能を示した。
この研究は、リアクティブデータ拡張からプロアクティブな構造学習へのパラダイムシフトを表し、ニューラルネットワークにおける解釈可能な潜在表現を可能にする。
- 参考スコア(独自算出の注目度): 2.8870482999983094
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks exhibit severe brittleness to semantically irrelevant transformations. A mere 75ms electrocardiogram (ECG) phase shift degrades latent cosine similarity from 1.0 to 0.2, while sensor rotations collapse activity recognition performance with inertial measurement units (IMUs). We identify the root cause as "laissez-faire" representation learning, where latent spaces evolve unconstrained provided task performance is satisfied. We propose Structured Contrastive Learning (SCL), a framework that partitions latent space representations into three semantic groups: invariant features that remain consistent under given transformations (e.g., phase shifts or rotations), variant features that actively differentiate transformations via a novel variant mechanism, and free features that preserve task flexibility. This creates controllable push-pull dynamics where different latent dimensions serve distinct, interpretable purposes. The variant mechanism enhances contrastive learning by encouraging variant features to differentiate within positive pairs, enabling simultaneous robustness and interpretability. Our approach requires no architectural modifications and integrates seamlessly into existing training pipelines. Experiments on ECG phase invariance and IMU rotation robustness demonstrate superior performance: ECG similarity improves from 0.25 to 0.91 under phase shifts, while WISDM activity recognition achieves 86.65% accuracy with 95.38% rotation consistency, consistently outperforming traditional data augmentation. This work represents a paradigm shift from reactive data augmentation to proactive structural learning, enabling interpretable latent representations in neural networks.
- Abstract(参考訳): ニューラルネットワークは意味的に無関係な変換に対して深刻な脆さを示す。
単に75msの心電図(ECG)位相シフトは、潜時コサイン類似性を1.0から0.2に低下させ、センサ回転は慣性測定ユニット(IMU)を用いた崩壊活性認識性能を低下させる。
我々は根本原因を"laissez-faire"表現学習とみなし、そこでは潜在空間が無制約で進化し、タスク性能が満足する。
本研究では,遅延空間表現を3つの意味群に分割するフレームワークであるStructured Contrastive Learning (SCL)を提案する。
これにより、異なる潜在次元が異なる解釈可能な目的を果たす、制御可能なプッシュプルダイナミクスが生成される。
変分メカニズムは、変分特徴を正のペア内で区別するように促すことにより、対照的な学習を促進し、同時に堅牢性と解釈可能性を実現する。
私たちのアプローチでは、アーキテクチャの変更は不要で、既存のトレーニングパイプラインにシームレスに統合されます。
ECGの相違とIMU回転堅牢性の実験は優れた性能を示し、ECGの相似性は位相シフトにより0.25から0.91に改善され、WISDMのアクティビティ認識は86.65%の精度で95.38%回転整合性を達成し、従来のデータ拡張よりも一貫して向上した。
この研究は、リアクティブデータ拡張からプロアクティブな構造学習へのパラダイムシフトを表し、ニューラルネットワークにおける解釈可能な潜在表現を可能にする。
関連論文リスト
- Efficient Neural Networks with Discrete Cosine Transform Activations [0.6933076588916188]
Expressive Neural Network(ENN)は、離散コサイン変換(DCT)を用いた適応活性化関数を持つ多層パーセプトロンである。
ENNは,少ないパラメータ数を維持しつつ,最先端の精度を実現していることを示す。
論文 参考訳(メタデータ) (2025-11-05T15:02:58Z) - Learning with Category-Equivariant Representations for Human Activity Recognition [0.0]
本稿では,信号の時間,スケール,センサの階層的変化を捉えた分類的対称性認識学習フレームワークを提案する。
我々はこれらの要素を特徴表現の構造に組み込み、センサー間の関係を自動的に保存するモデルを生成する。
UCI Human Activity Recognitionベンチマークでは、このカテゴリーの対称性駆動設計により、約46ポイントの精度で分布外精度が向上する。
論文 参考訳(メタデータ) (2025-11-02T11:37:36Z) - Latent Diffusion Model without Variational Autoencoder [78.34722551463223]
SVGは視覚生成のための変分オートエンコーダを持たない新しい潜伏拡散モデルである。
凍結したDINO機能を利用して、明確な意味的識別性を持つ特徴空間を構築する。
迅速な拡散訓練を可能にし、数ステップのサンプリングをサポートし、生成品質を向上させる。
論文 参考訳(メタデータ) (2025-10-17T04:17:44Z) - Distribution Shift Aware Neural Tabular Learning [40.14597657016167]
タブラル学習は、生の機能を下流タスクのための最適化された空間に変換する。
しかし、その効果は、トレーニングとテストデータの分散シフトによって悪化する。
そこで我々は,それに対応する新しいシフト・アウェア・フィーチャー・トランスフォーメーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-27T00:14:08Z) - Adapting to Fragmented and Evolving Data: A Fisher Information Perspective [0.0]
FADEは動的環境下での堅牢な学習のための軽量フレームワークである。
フィッシャー情報幾何学に固定されたシフトアウェアの正規化機構を採用している。
FADEは固定メモリでオンラインで動作し、ターゲットラベルにアクセスできない。
論文 参考訳(メタデータ) (2025-07-25T06:50:09Z) - The Butterfly Effect: Neural Network Training Trajectories Are Highly Sensitive to Initial Conditions [51.68215326304272]
たとえ小さな摂動であっても、同じ訓練軌跡を確実に引き起こすことで、トレーニング時間とともに急速に減少する効果が発散することを示します。
この結果から,ニューラルネットワークのトレーニング安定性,微調整,モデルマージ,モデルアンサンブルの多様性の実践的意味が示唆された。
論文 参考訳(メタデータ) (2025-06-16T08:35:16Z) - PseudoNeg-MAE: Self-Supervised Point Cloud Learning using Conditional Pseudo-Negative Embeddings [55.55445978692678]
PseudoNeg-MAEは、ポイントクラウドマスマスキングオートエンコーダのグローバルな特徴表現を強化する。
本研究では,ネットワークが識別的表現を保ちながら,よりリッチな変換キューをキャプチャできる新たな損失を提案する。
論文 参考訳(メタデータ) (2024-09-24T07:57:21Z) - A Generic Shared Attention Mechanism for Various Backbone Neural Networks [53.36677373145012]
自己注意モジュール(SAM)は、異なる層にまたがる強い相関した注意マップを生成する。
Dense-and-Implicit Attention (DIA)はSAMをレイヤ間で共有し、長期間のメモリモジュールを使用する。
我々のシンプルで効果的なDIAは、様々なネットワークバックボーンを一貫して拡張できます。
論文 参考訳(メタデータ) (2022-10-27T13:24:08Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。