論文の概要: eMargin: Revisiting Contrastive Learning with Margin-Based Separation
- arxiv url: http://arxiv.org/abs/2507.14828v1
- Date: Sun, 20 Jul 2025 05:39:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.078696
- Title: eMargin: Revisiting Contrastive Learning with Margin-Based Separation
- Title(参考訳): eMargin: Marginベースの分離によるコントラスト学習の再考
- Authors: Abdul-Kazeem Shamba, Kerstin Bach, Gavin Taylor,
- Abstract要約: 時系列表現学習における比較損失関数に適応マージンを導入する効果について検討する。
本研究は,この修正が3つのベンチマークデータセットのクラスタリング性能と分類に与える影響を評価する。
- 参考スコア(独自算出の注目度): 6.086030037869592
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We revisit previous contrastive learning frameworks to investigate the effect of introducing an adaptive margin into the contrastive loss function for time series representation learning. Specifically, we explore whether an adaptive margin (eMargin), adjusted based on a predefined similarity threshold, can improve the separation between adjacent but dissimilar time steps and subsequently lead to better performance in downstream tasks. Our study evaluates the impact of this modification on clustering performance and classification in three benchmark datasets. Our findings, however, indicate that achieving high scores on unsupervised clustering metrics does not necessarily imply that the learned embeddings are meaningful or effective in downstream tasks. To be specific, eMargin added to InfoNCE consistently outperforms state-of-the-art baselines in unsupervised clustering metrics, but struggles to achieve competitive results in downstream classification with linear probing. The source code is publicly available at https://github.com/sfi-norwai/eMargin.
- Abstract(参考訳): 我々は、時系列表現学習における比較的損失関数に適応的マージンを導入する効果を検討するために、従来のコントラスト学習フレームワークを再考する。
具体的には、事前定義された類似度閾値に基づいて調整された適応マージン(eMargin)が、隣接時間ステップと相似時間ステップの分離を改善し、ダウンストリームタスクにおけるより良いパフォーマンスをもたらすかどうかを検討する。
本研究は,この修正が3つのベンチマークデータセットのクラスタリング性能と分類に与える影響を評価する。
しかし,この結果から,教師なしクラスタリング指標の高得点化は,学習した埋め込みが下流タスクにおいて有意義あるいは有効であることを示すものではないことが示唆された。
具体的に言うと、eMarginはInfoNCEに、教師なしクラスタリングメトリクスにおける最先端のベースラインを一貫して上回っているが、線形プローブによる下流分類における競合的な結果を達成するのに苦労している。
ソースコードはhttps://github.com/sfi-norwai/eMargin.comで公開されている。
関連論文リスト
- ScoreMix: Improving Face Recognition via Score Composition in Diffusion Generators [0.0]
ScoreMixは、識別器の性能を高めるための、非常に単純なデータ拡張戦略である。
我々は,すべてのベンチマークにおいて,識別能力を大幅に向上させる,挑戦的な合成サンプルを生成する。
論文 参考訳(メタデータ) (2025-06-11T23:06:44Z) - Benign Overfitting and the Geometry of the Ridge Regression Solution in Binary Classification [75.01389991485098]
リッジ回帰はクラスタ平均ベクトルのスケールによって定性的に異なる挙動を示す。
スケールが非常に大きいレジームでは、良心過剰を許容する条件は回帰タスクと同一であることが判明した。
論文 参考訳(メタデータ) (2025-03-11T01:45:42Z) - Navigating Semantic Drift in Task-Agnostic Class-Incremental Learning [51.177789437682954]
クラスインクリメンタルラーニング(Class-incremental Learning, CIL)は、モデルが学習したクラスの知識を維持しつつ、新しいクラスを逐次学習できるようにすることを目的とする。
柔軟性と安定性のバランスをとることは、特にタスクIDが不明な場合には、依然として大きな課題である。
本研究では,平均シフト補償と共分散校正を組み合わせたセマンティックドリフト校正法を提案する。
論文 参考訳(メタデータ) (2025-02-11T13:57:30Z) - Rank Supervised Contrastive Learning for Time Series Classification [17.302643963704643]
時系列分類を行うためにRankSCL(Rank Supervised Contrastive Learning)を提案する。
RankSCLは埋め込みスペースにおいて、ターゲットとする方法で生データを増強する。
異なるレベルの正のサンプルに対して異なる重みを割り当てるために、新しいランク損失が開発された。
論文 参考訳(メタデータ) (2024-01-31T18:29:10Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - JointMatch: A Unified Approach for Diverse and Collaborative
Pseudo-Labeling to Semi-Supervised Text Classification [65.268245109828]
半教師付きテキスト分類(SSTC)は、ラベルのないデータを活用する能力によって注目を集めている。
擬似ラベルに基づく既存のアプローチは、擬似ラベルバイアスと誤り蓄積の問題に悩まされる。
我々は、最近の半教師付き学習からアイデアを統一することでこれらの課題に対処する、SSTCの総合的なアプローチであるJointMatchを提案する。
論文 参考訳(メタデータ) (2023-10-23T05:43:35Z) - Bridging the Gap: Learning Pace Synchronization for Open-World Semi-Supervised Learning [44.91863420044712]
オープンワールドの半教師付き学習において、機械学習モデルはラベルなしのデータから新しいカテゴリを明らかにすることを任務とする。
本稿では,(1)モデル偏差を軽減するためにクラス固有の負のマージンを課するアダプティブ・コミュニケート・ラミナル・ロス,(2)モデルによって予測される擬似ラベルを利用した擬似ラベル・コントラッシブ・クラスタリングについて紹介する。
本手法は,授業の学習速度のバランスを保ち,画像Netデータセットの平均精度を3%向上させる。
論文 参考訳(メタデータ) (2023-09-21T09:44:39Z) - Center Contrastive Loss for Metric Learning [8.433000039153407]
本稿では,Central Contrastive Lossと呼ばれる新しいメトリック学習機能を提案する。
クラスワイド・センタ・バンクを維持し、コントラッシブ・ロスを用いてカテゴリセンターとクエリデータポイントを比較している。
提案した損失は、対比法と分類法の両方の利点を組み合わせたものである。
論文 参考訳(メタデータ) (2023-08-01T11:22:51Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Contrastive Test-Time Adaptation [83.73506803142693]
本稿では,自己指導型コントラスト学習を活用して特徴学習を支援する新しい手法を提案する。
擬似ラベルをオンラインで作成し、ターゲットのフィーチャースペースに最も近い隣人の間でソフト投票によってそれらを洗練します。
我々の手法であるAdaContrastは、主要なベンチマーク上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-04-21T19:17:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。