論文の概要: Semi-Structured Object Sequence Encoders
- arxiv url: http://arxiv.org/abs/2301.01015v4
- Date: Tue, 23 May 2023 02:33:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 00:44:04.031117
- Title: Semi-Structured Object Sequence Encoders
- Title(参考訳): 半構造化オブジェクトシーケンスエンコーダ
- Authors: Rudra Murthy V and Riyaz Bhat and Chulaka Gunasekara and Siva Sankalp
Patel and Hui Wan and Tejas Indulal Dhamecha and Danish Contractor and Marina
Danilevsky
- Abstract要約: 本稿では,半構造化オブジェクト列に対する構造認識型入力表現の開発に焦点をあてる。
このタイプのデータは、時間とともにキーと値のペアの一連の配列として表されることが多い。
本稿では,まず各キーを独立に考慮し,時間とともに値の表現を符号化する2部手法を提案する。
- 参考スコア(独自算出の注目度): 9.257633944317735
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper we explore the task of modeling semi-structured object
sequences; in particular, we focus our attention on the problem of developing a
structure-aware input representation for such sequences. Examples of such data
include user activity on websites, machine logs, and many others. This type of
data is often represented as a sequence of sets of key-value pairs over time
and can present modeling challenges due to an ever-increasing sequence length.
We propose a two-part approach, which first considers each key independently
and encodes a representation of its values over time; we then self-attend over
these value-aware key representations to accomplish a downstream task. This
allows us to operate on longer object sequences than existing methods. We
introduce a novel shared-attention-head architecture between the two modules
and present an innovative training schedule that interleaves the training of
both modules with shared weights for some attention heads. Our experiments on
multiple prediction tasks using real-world data demonstrate that our approach
outperforms a unified network with hierarchical encoding, as well as other
methods including a record-centric representation and a flattened
representation of the sequence.
- Abstract(参考訳): 本稿では,半構造化オブジェクト列をモデル化する課題について考察する。
そのようなデータの例としては、Webサイト上のユーザアクティビティ、マシンログなどがある。
このタイプのデータは、時間とともにキーと値のペアの集合の列として表され、常に増加するシーケンス長によるモデリング上の課題を示すことがある。
本稿では,まず各キーを独立に考慮し,その値の表現を時間とともに符号化する2部手法を提案する。
これにより、既存のメソッドよりも長いオブジェクトシーケンスで操作できます。
本稿では,2つのモジュール間の新しい共有アテンション・ヘッド・アーキテクチャを導入し,両モジュールのトレーニングを共有ウェイトでインターリーブする,革新的なトレーニングスケジュールを提案する。
本研究では,実世界データを用いた複数の予測タスクに関する実験により,階層的符号化を伴う統一ネットワークや,レコード中心表現や配列のフラット化表現を含む他の手法よりも優れることを示す。
関連論文リスト
- Capturing Temporal Components for Time Series Classification [5.70772577110828]
本研究では,逐次データから抽出した統計的コヒーレントな成分に基づいて学習したテキスト合成表現学習手法を提案する。
マルチスケールな変更空間に基づいて、シーケンシャルデータを類似の統計特性を持つチャンクに分割する教師なしの手法を提案する。
シーケンスベースのエンコーダモデルをマルチタスク設定でトレーニングし、時系列分類のための時間成分から合成表現を学習する。
論文 参考訳(メタデータ) (2024-06-20T16:15:21Z) - Advancing Time Series Classification with Multimodal Language Modeling [6.624754582682479]
InstructTimeは、時系列分類を学習から生成までのパラダイムとして再形成するための新しい試みである。
中心となる考え方は、タスク固有の命令と生の時系列の両方をマルチモーダル入力として扱うマルチモーダル理解タスクとして時系列の分類を定式化することである。
ベンチマークデータセット上で大規模な実験が行われ、その結果、InstructTimeの優れたパフォーマンスが明らかになった。
論文 参考訳(メタデータ) (2024-03-19T02:32:24Z) - TimeMAE: Self-Supervised Representations of Time Series with Decoupled
Masked Autoencoders [55.00904795497786]
トランスフォーマネットワークに基づく転送可能な時系列表現を学習するための,新しい自己教師型パラダイムであるTimeMAEを提案する。
TimeMAEは双方向符号化方式を用いて時系列の豊富な文脈表現を学習する。
新たに挿入されたマスク埋め込みによって生じる不一致を解消するため、分離されたオートエンコーダアーキテクチャを設計する。
論文 参考訳(メタデータ) (2023-03-01T08:33:16Z) - Real-World Compositional Generalization with Disentangled
Sequence-to-Sequence Learning [81.24269148865555]
最近提案されたDunangled sequence-to-sequence model (Dangle)は、有望な一般化能力を示している。
このモデルに2つの重要な変更を加え、より不整合表現を奨励し、その計算とメモリ効率を改善する。
具体的には、各タイミングでソースキーと値を適応的に再エンコードするのではなく、表現をアンタングルし、キーを定期的に再エンコードする。
論文 参考訳(メタデータ) (2022-12-12T15:40:30Z) - Complex-Valued Autoencoders for Object Discovery [62.26260974933819]
本稿では,オブジェクト中心表現に対する分散アプローチとして,複合オートエンコーダを提案する。
このシンプルで効率的なアプローチは、単純なマルチオブジェクトデータセット上の等価な実数値オートエンコーダよりも、より良い再構成性能を実現することを示す。
また、2つのデータセット上のSlotAttentionモデルと競合しないオブジェクト発見性能を実現し、SlotAttentionが失敗する第3のデータセットでオブジェクトをアンタングルする。
論文 参考訳(メタデータ) (2022-04-05T09:25:28Z) - Self-Attention Neural Bag-of-Features [103.70855797025689]
我々は最近導入された2D-Attentionの上に構築し、注意学習方法論を再構築する。
本稿では,関連情報を強調した2次元目視マスクを学習する機能・時間的アテンション機構を提案する。
論文 参考訳(メタデータ) (2022-01-26T17:54:14Z) - ASFormer: Transformer for Action Segmentation [9.509416095106493]
本稿では,アクションセグメンテーションタスクのための効率的なトランスフォーマーベースモデルASFormerを提案する。
信頼された範囲内で仮説空間を制約し、アクションセグメンテーションタスクが小さなトレーニングセットで適切なターゲット関数を学習するのに有益である。
我々は、長い入力シーケンスを効率的に処理する事前定義された階層表現パターンを適用した。
論文 参考訳(メタデータ) (2021-10-16T13:07:20Z) - CoADNet: Collaborative Aggregation-and-Distribution Networks for
Co-Salient Object Detection [91.91911418421086]
Co-Salient Object Detection (CoSOD)は、2つ以上の関連する画像を含む所定のクエリグループに繰り返し現れる健全なオブジェクトを発見することを目的としている。
課題の1つは、画像間の関係をモデリングし、活用することによって、コ・サリヤ・キューを効果的にキャプチャする方法である。
我々は,複数画像から有能かつ反復的な視覚パターンを捉えるために,エンドツーエンドの協調集約配信ネットワーク(CoADNet)を提案する。
論文 参考訳(メタデータ) (2020-11-10T04:28:11Z) - Keyphrase Extraction with Dynamic Graph Convolutional Networks and
Diversified Inference [50.768682650658384]
キーワード抽出(KE)は、ある文書でカバーされている概念やトピックを正確に表現するフレーズの集合を要約することを目的としている。
最近のシークエンス・ツー・シークエンス(Seq2Seq)ベースの生成フレームワークはKEタスクで広く使われ、様々なベンチマークで競合性能を得た。
本稿では,この2つの問題を同時に解くために,動的グラフ畳み込みネットワーク(DGCN)を採用することを提案する。
論文 参考訳(メタデータ) (2020-10-24T08:11:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。