論文の概要: Cascaded Semantic and Positional Self-Attention Network for Document
Classification
- arxiv url: http://arxiv.org/abs/2009.07148v2
- Date: Sat, 19 Sep 2020 18:43:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 06:06:21.490555
- Title: Cascaded Semantic and Positional Self-Attention Network for Document
Classification
- Title(参考訳): 文書分類のためのケースドセマンティック・位置自己認識ネットワーク
- Authors: Juyong Jiang, Jie Zhang, Kai Zhang
- Abstract要約: ケースドセマンティクスと位置自己注意ネットワーク(CSPAN)を用いた2つの情報ソースを集約する新しいアーキテクチャを提案する。
CSPANは、Bi-LSTMにカスケードされたセマンティックセルフアテンション層を使用して、セマンティックおよび位置情報を逐次的に処理し、その後、残余接続を介してそれらを適応的に結合する。
CSPANモデルを用いて,文書分類用ベンチマークデータセットの評価を行い,その評価結果について検討した。
- 参考スコア(独自算出の注目度): 9.292885582770092
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformers have shown great success in learning representations for
language modelling. However, an open challenge still remains on how to
systematically aggregate semantic information (word embedding) with positional
(or temporal) information (word orders). In this work, we propose a new
architecture to aggregate the two sources of information using cascaded
semantic and positional self-attention network (CSPAN) in the context of
document classification. The CSPAN uses a semantic self-attention layer
cascaded with Bi-LSTM to process the semantic and positional information in a
sequential manner, and then adaptively combine them together through a residue
connection. Compared with commonly used positional encoding schemes, CSPAN can
exploit the interaction between semantics and word positions in a more
interpretable and adaptive manner, and the classification performance can be
notably improved while simultaneously preserving a compact model size and high
convergence rate. We evaluate the CSPAN model on several benchmark data sets
for document classification with careful ablation studies, and demonstrate the
encouraging results compared with state of the art.
- Abstract(参考訳): トランスフォーマーは言語モデリングのための学習表現において大きな成功を収めている。
しかし、意味情報(単語埋め込み)を位置(または時間的)情報(単語順)で体系的に集約する方法には、まだ課題が残されている。
本研究では、文書分類の文脈において、カスケード意味と位置自己注意ネットワーク(CSPAN)を用いて2つの情報ソースを集約する新しいアーキテクチャを提案する。
CSPANは、Bi-LSTMにカスケードされたセマンティック自己認識層を使用して、セマンティックおよび位置情報を逐次的に処理し、残余接続を介してそれらを適応的に結合する。
一般的な位置符号化方式と比較して、cspanは意味論と単語の位置の相互作用をより解釈可能かつ適応的に活用でき、コンパクトなモデルサイズと高い収束率を同時に保持しながら分類性能を著しく向上させることができる。
文書分類のためのベンチマークデータセットのcspanモデルについて, 注意深いアブレーション研究を用いて評価し, 研究結果と比較し, 奨励効果を示す。
関連論文リスト
- Exploiting Contextual Target Attributes for Target Sentiment
Classification [53.30511968323911]
TSCの既存のPTLMベースモデルは、1)PTLMをコンテキストエンコーダとして採用した微調整ベースモデル、2)テキスト/単語生成タスクに分類タスクを転送するプロンプトベースモデル、の2つのグループに分類される。
我々は,PTLM を TSC に活用する新たな視点として,言語モデリングと文脈的ターゲット属性による明示的ターゲットコンテキスト相互作用の利点を同時に活用する。
論文 参考訳(メタデータ) (2023-12-21T11:45:28Z) - FLIP: Fine-grained Alignment between ID-based Models and Pretrained Language Models for CTR Prediction [49.510163437116645]
クリックスルーレート(CTR)予測は、パーソナライズされたオンラインサービスにおいてコア機能モジュールとして機能する。
CTR予測のための従来のIDベースのモデルは、表形式の1ホットエンコードされたID特徴を入力として取る。
事前訓練された言語モデル(PLM)は、テキストのモダリティの文を入力として取る別のパラダイムを生み出した。
本稿では,CTR予測のためのIDベースモデルと事前学習言語モデル(FLIP)間の細粒度特徴レベルのアライメントを提案する。
論文 参考訳(メタデータ) (2023-10-30T11:25:03Z) - Contextual Dictionary Lookup for Knowledge Graph Completion [32.493168863565465]
知識グラフ補完(KGC)は、知識グラフの不完全性(KGs)を解決することを目的として、既知の三重項から欠落するリンクを予測する。
既存の埋め込みモデルは、それぞれの関係を一意なベクトルにマッピングし、異なる実体の下でそれらの特定の粒度のセマンティクスを見渡す。
本稿では,従来の埋め込みモデルを用いて,関係の微粒なセマンティクスをエンド・ツー・エンドで学習することのできる,文脈辞書検索を利用した新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-13T12:13:41Z) - Advancing Incremental Few-shot Semantic Segmentation via Semantic-guided
Relation Alignment and Adaptation [98.51938442785179]
増分的な数ショットセマンティックセマンティックセマンティクスは、セマンティクスセマンティクスモデルを新しいクラスに漸進的に拡張することを目的としている。
このタスクは、データ不均衡のため、ベースクラスと新しいクラスの間で深刻な意味認識の問題に直面します。
本稿では,従来の意味情報のガイダンスを完全に考慮した意味誘導型関係調整適応法を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:40:52Z) - Prototype-based Embedding Network for Scene Graph Generation [105.97836135784794]
現在のシーングラフ生成(SGG)手法は、コンテキスト情報を探索し、エンティティペア間の関係を予測する。
被写体と対象物の組み合わせが多様であるため、各述語カテゴリーには大きなクラス内変異が存在する。
プロトタイプベースのEmbedding Network (PE-Net) は、エンティティ/述語を、プロトタイプに準拠したコンパクトで独特な表現でモデル化する。
PLは、PE-Netがそのようなエンティティ述語マッチングを効率的に学習するのを助けるために導入され、不明瞭なエンティティ述語マッチングを緩和するためにプロトタイプ正規化(PR)が考案されている。
論文 参考訳(メタデータ) (2023-03-13T13:30:59Z) - Co-Driven Recognition of Semantic Consistency via the Fusion of
Transformer and HowNet Sememes Knowledge [6.184249194474601]
本稿では,Transformer と HowNet のセメム知識の融合に基づく協調型意味的一貫性認識手法を提案する。
BiLSTMは概念的意味情報をエンコードし、意味的一貫性を推測するために利用される。
論文 参考訳(メタデータ) (2023-02-21T09:53:19Z) - Word Sense Induction with Hierarchical Clustering and Mutual Information
Maximization [14.997937028599255]
単語知覚誘導は自然言語処理において難しい問題である。
階層的クラスタリングと不変情報クラスタリングに基づく新しい教師なし手法を提案する。
我々は、ある場合において、我々のアプローチが先行したWSIの最先端手法よりも優れていることを実証的に実証した。
論文 参考訳(メタデータ) (2022-10-11T13:04:06Z) - InfoCSE: Information-aggregated Contrastive Learning of Sentence
Embeddings [61.77760317554826]
本稿では,教師なし文の埋め込みを学習するための情報型コントラスト学習フレームワーク InfoCSE を提案する。
提案したInfoCSEを,セマンティックテキスト類似性(STS)タスクを用いて,いくつかのベンチマークデータセット上で評価する。
実験の結果, InfoCSE は BERT ベースでは2.60%, BERT 大規模では1.77% でSimCSE より優れていた。
論文 参考訳(メタデータ) (2022-10-08T15:53:19Z) - UnifieR: A Unified Retriever for Large-Scale Retrieval [84.61239936314597]
大規模な検索は、クエリを与えられた巨大なコレクションから関連ドキュメントをリコールすることである。
事前学習型言語モデル(PLM)に基づく最近の検索手法は,高密度ベクターあるいはレキシコンに基づくパラダイムに大別することができる。
本論文では,高密度ベクトルとレキシコンに基づく検索を2つの表現能力を持つ1つのモデルで統合する学習フレームワークUnifieRを提案する。
論文 参考訳(メタデータ) (2022-05-23T11:01:59Z) - Exploiting Global Contextual Information for Document-level Named Entity
Recognition [46.99922251839363]
我々は、GCDoc(Global Context enhanced Document-level NER)と呼ばれるモデルを提案する。
単語レベルでは、文書グラフは単語間のより広範な依存関係をモデル化するために構築される。
文レベルでは、単一文を超えてより広い文脈を適切にモデル化するために、横断文モジュールを用いる。
我々のモデルは、CoNLL 2003データセットで92.22(BERTで93.40)、Ontonotes 5.0データセットで88.32(BERTで90.49)のスコアに達した。
論文 参考訳(メタデータ) (2021-06-02T01:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。