論文の概要: CoLES: Contrastive Learning for Event Sequences with Self-Supervision
- arxiv url: http://arxiv.org/abs/2002.08232v3
- Date: Fri, 22 Jul 2022 09:45:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 14:21:18.362931
- Title: CoLES: Contrastive Learning for Event Sequences with Self-Supervision
- Title(参考訳): CoLES: セルフスーパービジョンによるイベントシーケンスのコントラスト学習
- Authors: Dmitrii Babaev, Ivan Kireev, Nikita Ovsov, Mariya Ivanova, Gleb Gusev,
Ivan Nazarov, Alexander Tuzhilin
- Abstract要約: 本研究では,実世界のユーザが生成する個別イベントシーケンスにおける自己教師型学習の課題に対処する。
従来,音声やコンピュータビジョンの領域で使われていたコントラスト学習に適応する新しい手法"CoLES"を提案する。
- 参考スコア(独自算出の注目度): 63.3568071938238
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the problem of self-supervised learning on discrete event
sequences generated by real-world users. Self-supervised learning incorporates
complex information from the raw data in low-dimensional fixed-length vector
representations that could be easily applied in various downstream machine
learning tasks. In this paper, we propose a new method "CoLES", which adapts
contrastive learning, previously used for audio and computer vision domains, to
the discrete event sequences domain in a self-supervised setting. We deployed
CoLES embeddings based on sequences of transactions at the large European
financial services company. Usage of CoLES embeddings significantly improves
the performance of the pre-existing models on downstream tasks and produces
significant financial gains, measured in hundreds of millions of dollars
yearly. We also evaluated CoLES on several public event sequences datasets and
showed that CoLES representations consistently outperform other methods on
different downstream tasks.
- Abstract(参考訳): 本研究では,実世界のユーザが生成する個別イベントシーケンスにおける自己教師型学習の課題に対処する。
自己教師付き学習は、様々な下流機械学習タスクに容易に適用可能な、低次元の固定長ベクトル表現に生データからの複雑な情報を組み込む。
本稿では,従来音声やコンピュータビジョンの領域で使われていたコントラスト学習を,自己教師付き環境下での離散イベントシーケンス領域に適応させる新しい手法"CoLES"を提案する。
欧州の大手金融サービス会社でトランザクションのシーケンスに基づいて、CoLESの埋め込みをデプロイしました。
CoLES埋め込みの使用は、下流タスクにおける既存のモデルの性能を著しく改善し、年間数億ドルで測定された大きな財政的利益を生み出す。
また、いくつかの公開イベントシーケンスデータセット上でCLESを評価し、CLES表現がダウンストリームタスクにおける他のメソッドよりも一貫して優れていることを示した。
関連論文リスト
- Uniting contrastive and generative learning for event sequences models [51.547576949425604]
本研究では,2つの自己指導型学習手法 – 例えば,コントラスト学習と,潜在空間におけるマスクイベントの復元に基づく生成的アプローチ – の統合について検討する。
いくつかの公開データセットで行った実験は、シーケンス分類と次点型予測に焦点を合わせ、統合された手法が個々の手法と比較して優れた性能を達成することを示した。
論文 参考訳(メタデータ) (2024-08-19T13:47:17Z) - Data-CUBE: Data Curriculum for Instruction-based Sentence Representation
Learning [85.66907881270785]
本稿では,学習用マルチタスクデータの順序を列挙するデータカリキュラム,すなわちData-CUBEを提案する。
タスクレベルでは、タスク間の干渉リスクを最小化するために最適なタスクオーダーを見つけることを目的としている。
インスタンスレベルでは、タスク毎のすべてのインスタンスの難易度を測定し、トレーニングのためにそれらを簡単に微分できるミニバッチに分割します。
論文 参考訳(メタデータ) (2024-01-07T18:12:20Z) - In-Domain Self-Supervised Learning Improves Remote Sensing Image Scene
Classification [5.323049242720532]
リモートセンシング画像分類のための有望なアプローチとして,自己教師付き学習が登場している。
そこで本研究では,14の下流データセットにまたがる自己教師型事前学習戦略について検討し,その効果を評価する。
論文 参考訳(メタデータ) (2023-07-04T10:57:52Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Task Agnostic Representation Consolidation: a Self-supervised based
Continual Learning Approach [14.674494335647841]
本稿では,タスク非依存およびタスク特化学習に介入するCLのための2段階学習パラダイムを提案する。
我々のトレーニングパラダイムは、メモリや正規化に基づくアプローチに簡単に追加できることを示します。
論文 参考訳(メタデータ) (2022-07-13T15:16:51Z) - Beyond Transfer Learning: Co-finetuning for Action Localisation [64.07196901012153]
同時に、複数のアップストリームとダウンストリームのタスクで1つのモデルをトレーニングする。
共ファインタニングは、同じデータ量を使用する場合、従来のトランスファーラーニングよりも優れていることを示す。
さらに、複数のアップストリームデータセットへのアプローチを簡単に拡張して、パフォーマンスをさらに向上する方法も示しています。
論文 参考訳(メタデータ) (2022-07-08T10:25:47Z) - Multi-Augmentation for Efficient Visual Representation Learning for
Self-supervised Pre-training [1.3733988835863333]
本稿では、パイプライン全体を構築するための様々な拡張ポリシーを網羅的に検索する、自己改善学習のためのマルチ強化(MA-SSRL)を提案する。
MA-SSRLは不変の特徴表現をうまく学習し、自己教師付き事前学習のための効率的で効果的で適応可能なデータ拡張パイプラインを提供する。
論文 参考訳(メタデータ) (2022-05-24T04:18:39Z) - Few-Shot Unsupervised Continual Learning through Meta-Examples [21.954394608030388]
教師なしメタコンチネンタル学習とタスクのバランスが取れない新しい複雑な設定を導入する。
我々は、破滅的な忘れを同時に軽減し、新しいタスクへの一般化を優先するメタラーニング手法を利用する。
数ショットの学習ベンチマークによる実験結果から, 教師付きケースと比較して, 競争性能が向上した。
論文 参考訳(メタデータ) (2020-09-17T07:02:07Z) - Learning to Count in the Crowd from Limited Labeled Data [109.2954525909007]
我々は,限られた数のラベル付きサンプルから参加者を数えることを学ぶことで,アノテーションの努力を減らすことに重点を置いている。
具体的には,未ラベルデータに対する擬似地下真理推定を含むガウス過程に基づく反復学習機構を提案する。
論文 参考訳(メタデータ) (2020-07-07T04:17:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。