論文の概要: Cross-Domain Aspect Extraction using Transformers Augmented with
Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2210.10144v1
- Date: Tue, 18 Oct 2022 20:18:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 12:40:23.140228
- Title: Cross-Domain Aspect Extraction using Transformers Augmented with
Knowledge Graphs
- Title(参考訳): 知識グラフを付加したトランスフォーマによるクロスドメインアスペクト抽出
- Authors: Phillip Howard, Arden Ma, Vasudev Lal, Ana Paula Simoes, Daniel Korat,
Oren Pereg, Moshe Wasserblat, Gadi Singer
- Abstract要約: 本稿では,アスペクト項の識別に関連する情報を含むドメイン固有知識グラフを自動構築する手法を提案する。
提案手法を用いたドメイン間アスペクト項抽出のためのベンチマークデータセットの最先端性能を実証し,Transformerで利用可能な外部知識の量がモデル性能に与える影響について検討する。
- 参考スコア(独自算出の注目度): 3.662157175955389
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The extraction of aspect terms is a critical step in fine-grained sentiment
analysis of text. Existing approaches for this task have yielded impressive
results when the training and testing data are from the same domain. However,
these methods show a drastic decrease in performance when applied to
cross-domain settings where the domain of the testing data differs from that of
the training data. To address this lack of extensibility and robustness, we
propose a novel approach for automatically constructing domain-specific
knowledge graphs that contain information relevant to the identification of
aspect terms. We introduce a methodology for injecting information from these
knowledge graphs into Transformer models, including two alternative mechanisms
for knowledge insertion: via query enrichment and via manipulation of attention
patterns. We demonstrate state-of-the-art performance on benchmark datasets for
cross-domain aspect term extraction using our approach and investigate how the
amount of external knowledge available to the Transformer impacts model
performance.
- Abstract(参考訳): アスペクト項の抽出は、テキストのきめ細かい感情分析における重要なステップである。
このタスクの既存のアプローチは、トレーニングとテストデータが同じドメインのものである場合、印象的な結果をもたらします。
しかし、これらの手法は、テストデータのドメインがトレーニングデータと異なるクロスドメイン設定に適用すると、パフォーマンスが大幅に低下することを示している。
この拡張性と堅牢性の欠如に対処するため,アスペクト項の識別に関連する情報を含むドメイン固有の知識グラフを自動構築する手法を提案する。
本稿では,これらの知識グラフから情報をトランスフォーマタモデルに注入する手法について紹介する。
本手法を用いて,クロスドメインアスペクト項抽出のためのベンチマークデータセットの最先端性能を実証し,トランスフォーマーに利用可能な外部知識の量がモデル性能に与える影響について検討する。
関連論文リスト
- Localized Gaussians as Self-Attention Weights for Point Clouds Correspondence [92.07601770031236]
本稿では,エンコーダのみのトランスフォーマーアーキテクチャのアテンションヘッドにおける意味的意味パターンについて検討する。
注意重みの修正はトレーニングプロセスの促進だけでなく,最適化の安定性の向上にも寄与する。
論文 参考訳(メタデータ) (2024-09-20T07:41:47Z) - Selective Domain-Invariant Feature for Generalizable Deepfake Detection [21.671221284842847]
本稿では,コンテンツの特徴やスタイルを融合させることにより,顔の偽造に対する感受性を低下させる新しいフレームワークを提案する。
既存のベンチマークと提案における質的および定量的な結果の両方が、我々のアプローチの有効性を示している。
論文 参考訳(メタデータ) (2024-03-19T13:09:19Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Mere Contrastive Learning for Cross-Domain Sentiment Analysis [23.350121129347556]
クロスドメイン感情分析は、ソースドメインでトレーニングされたモデルを使用して、ターゲットドメイン内のテキストの感情を予測することを目的としている。
従来の研究はほとんどがクロスエントロピーに基づく手法であり、不安定性や一般化の低さに悩まされていた。
我々は,同じクラスからの文表現を閉じるように,バッチ内の負のサンプルを付加した改良されたコントラスト目的を提案する。
論文 参考訳(メタデータ) (2022-08-18T07:25:55Z) - Disentanglement by Cyclic Reconstruction [0.0]
教師付き学習では、訓練に使用されるデータセットに固有の情報が、手元にあるタスクとは無関係に、抽出された表現に符号化され続けることができる。
本稿では,その情報をタスク関連表現とその補完的文脈表現に分割することを提案する。
次に、この手法を教師なし領域適応問題に適用し、ソースとターゲットドメインの両方で実行可能なモデルを訓練する。
論文 参考訳(メタデータ) (2021-12-24T07:47:59Z) - Attentive Prototypes for Source-free Unsupervised Domain Adaptive 3D
Object Detection [85.11649974840758]
3Dオブジェクト検出ネットワークは、トレーニングされたデータに対してバイアスを受ける傾向がある。
そこで本研究では,ライダーを用いた3次元物体検出器のソースレス・教師なし領域適応のための単一フレーム手法を提案する。
論文 参考訳(メタデータ) (2021-11-30T18:42:42Z) - Inserting Information Bottlenecks for Attribution in Transformers [46.77580577396633]
ブラックボックスモデルにおける各特徴のアトリビューションを分析するために,情報ボトルネックを適用した。
本手法の有効性を帰属性の観点から示し,情報がどのように層を流れるのかを考察する。
論文 参考訳(メタデータ) (2020-12-27T00:35:43Z) - Towards Domain-Agnostic Contrastive Learning [103.40783553846751]
そこで本研究では,DACLという対照的学習に対するドメインに依存しない新しいアプローチを提案する。
このアプローチの鍵となるのは、Mixupノイズを使用して、入力レベルと隠された状態レベルの両方で異なるデータサンプルを混合することで、類似した、異種なサンプルを作成することです。
以上の結果から,DACLはガウスノイズなどの他のドメインに依存しないノイズ発生手法よりも優れるだけでなく,SimCLRのようなドメイン固有の手法とうまく結合していることがわかった。
論文 参考訳(メタデータ) (2020-11-09T13:41:56Z) - Self-Supervised Domain Adaptation with Consistency Training [0.2462953128215087]
画像分類における教師なし領域適応の問題点を考察する。
ラベルのないデータをある種の変換で拡張することにより、自己教師付きプレテキストタスクを作成する。
我々は、拡張データの表現を元のデータと整合するように強制する。
論文 参考訳(メタデータ) (2020-10-15T06:03:47Z) - Adversarial Bipartite Graph Learning for Video Domain Adaptation [50.68420708387015]
ドメイン適応技術は,異なる領域間のモデルを適応させることに重点を置いているが,ビデオ認識領域ではめったに研究されていない。
近年,映像のソースと対象映像の表現を統一するために,対角学習を活用する視覚領域適応はビデオにはあまり効果がない。
本稿では,ソースとターゲットの相互作用を直接モデル化するAdversarial Bipartite Graph (ABG)学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-31T03:48:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。