論文の概要: Pretext Training Algorithms for Event Sequence Data
- arxiv url: http://arxiv.org/abs/2402.10392v1
- Date: Fri, 16 Feb 2024 01:25:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 17:56:10.847071
- Title: Pretext Training Algorithms for Event Sequence Data
- Title(参考訳): イベントシーケンスデータのためのプリテキストトレーニングアルゴリズム
- Authors: Yimu Wang, He Zhao, Ruizhi Deng, Frederick Tung, Greg Mori
- Abstract要約: 本稿では,イベントシーケンスデータに適した自己教師付き事前テキスト学習フレームワークを提案する。
私たちのプレテキストタスクは、さまざまなダウンストリームタスクで一般化可能な基礎表現をアンロックします。
- 参考スコア(独自算出の注目度): 29.70078362944441
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Pretext training followed by task-specific fine-tuning has been a successful
approach in vision and language domains. This paper proposes a self-supervised
pretext training framework tailored to event sequence data. We introduce a
novel alignment verification task that is specialized to event sequences,
building on good practices in masked reconstruction and contrastive learning.
Our pretext tasks unlock foundational representations that are generalizable
across different down-stream tasks, including next-event prediction for
temporal point process models, event sequence classification, and missing event
interpolation. Experiments on popular public benchmarks demonstrate the
potential of the proposed method across different tasks and data domains.
- Abstract(参考訳): プレテキストトレーニングとタスク固有の微調整は、視覚と言語領域において成功したアプローチである。
本稿では,イベントシーケンスデータに合わせた自己教師付き前文学習フレームワークを提案する。
本稿では,イベントシーケンスに特化した新しいアライメント検証タスクを導入し,マスク付き再構築とコントラスト学習の実践に基づく。
我々のプレテキストタスクは、時間的ポイントプロセスモデルのための次のイベント予測、イベントシーケンス分類、欠落したイベント補間を含む、さまざまなダウンストリームタスクで一般化可能な基礎表現をアンロックします。
人気のある公開ベンチマークの実験では、さまざまなタスクやデータドメインにわたる提案手法の可能性を示している。
関連論文リスト
- Unified Pretraining for Recommendation via Task Hypergraphs [55.98773629788986]
本稿では,タスクハイパーグラフによる推薦のための統一事前学習という,新しいマルチタスク事前学習フレームワークを提案する。
多様なプレテキストタスクの要求やニュアンスを処理するための統一学習パターンとして,プレテキストタスクをハイパーエッジ予測に一般化するタスクハイパーグラフを設計する。
各プレテキストタスクとレコメンデーションの関連性を識別的に学習するために、新しいトランジショナルアテンション層が考案される。
論文 参考訳(メタデータ) (2023-10-20T05:33:21Z) - Event-Guided Procedure Planning from Instructional Videos with Text
Supervision [31.82121743586165]
本研究は,テキスト管理による指導ビデオからの手順計画の課題に焦点をあてる。
この課題の重要な課題は、観察された視覚状態と観測されていない中間動作の間の大きな意味的ギャップである。
本稿では,まず観測された状態から事象を推定し,その状態と予測された事象の両方に基づいて行動計画を行う,新しいイベント誘導パラダイムを提案する。
論文 参考訳(メタデータ) (2023-08-17T09:43:28Z) - Towards Out-of-Distribution Sequential Event Prediction: A Causal
Treatment [72.50906475214457]
シーケンシャルなイベント予測の目標は、一連の歴史的なイベントに基づいて次のイベントを見積もることである。
実際には、次のイベント予測モデルは、一度に収集されたシーケンシャルなデータで訓練される。
文脈固有の表現を学習するための階層的な分岐構造を持つフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-24T07:54:13Z) - Unifying Event Detection and Captioning as Sequence Generation via
Pre-Training [53.613265415703815]
本稿では,イベント検出とキャプションのタスク間関連性を高めるための,事前学習と微調整の統合フレームワークを提案する。
我々のモデルは最先端の手法よりも優れており、大規模ビデオテキストデータによる事前学習ではさらに向上できる。
論文 参考訳(メタデータ) (2022-07-18T14:18:13Z) - CLIP-Event: Connecting Text and Images with Event Structures [123.31452120399827]
視覚言語事前学習モデルを適用したコントラスト学習フレームワークを提案する。
我々は、イベント構造知識を得るために、テキスト情報抽出技術を利用する。
実験により、ゼロショットCLIP-Eventは引数抽出において最先端の教師付きモデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-01-13T17:03:57Z) - Learning Constraints and Descriptive Segmentation for Subevent Detection [74.48201657623218]
本稿では,サブイベント検出とEventSeg予測の依存関係をキャプチャする制約を学習し,強制するアプローチを提案する。
我々は制約学習にRectifier Networksを採用し、学習した制約をニューラルネットワークの損失関数の正規化項に変換する。
論文 参考訳(メタデータ) (2021-09-13T20:50:37Z) - Text2Event: Controllable Sequence-to-Structure Generation for End-to-end
Event Extraction [35.39643772926177]
イベントの抽出は、イベントレコードの複雑な構造と、テキストとイベント間のセマンティックなギャップのために難しい。
従来の方法では、複雑な構造予測タスクを複数のサブタスクに分解することでイベントレコードを抽出する。
エンドツーエンドでテキストからイベントを直接抽出できるシーケンス・ツー・構造生成パラダイムであるText2Eventを提案する。
論文 参考訳(メタデータ) (2021-06-17T04:00:18Z) - A Deep Adversarial Model for Suffix and Remaining Time Prediction of
Event Sequences [12.200302768200503]
イベント接尾辞と残時間予測はシーケンス学習タスクにシーケンスされる。
このような予測のための最近のディープラーニングベースの作業は、大きな予測エラーになりやすい。
本稿では、イベントシーケンスの接尾辞と残りの時間予測を促進するために、オープンループトレーニング用のエンコーダデコーダアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-02-15T02:01:24Z) - Team RUC_AIM3 Technical Report at Activitynet 2020 Task 2: Exploring
Sequential Events Detection for Dense Video Captioning [63.91369308085091]
本稿では、イベントシーケンス生成のための新規でシンプルなモデルを提案し、ビデオ中のイベントシーケンスの時間的関係を探索する。
提案モデルでは,非効率な2段階提案生成を省略し,双方向時間依存性を条件としたイベント境界を直接生成する。
総合システムは、チャレンジテストセットの9.894 METEORスコアで、ビデオタスクにおける密封イベントの最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-06-14T13:21:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。