論文の概要: Unsupervised Cross-Domain Rumor Detection with Contrastive Learning and
Cross-Attention
- arxiv url: http://arxiv.org/abs/2303.11945v1
- Date: Mon, 20 Mar 2023 06:19:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 14:21:12.475104
- Title: Unsupervised Cross-Domain Rumor Detection with Contrastive Learning and
Cross-Attention
- Title(参考訳): コントラスト学習とクロスアテンションを用いた教師なしクロスドメインうわさ検出
- Authors: Hongyan Ran and Caiyan Jia
- Abstract要約: 大量の噂は、ニュースやトレンドの話題と共に現れ、真相を著しく妨げている。
既存の噂検出手法は、ほとんど同じドメインに焦点を合わせているので、クロスドメインのシナリオでは性能が劣る。
本稿では,クロスドメインなうわさ検出のためのクロスアテンション機構を備えた,エンドツーエンドのインスタンス・ワイドおよびプロトタイプ・コントラスト学習モデルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Massive rumors usually appear along with breaking news or trending topics,
seriously hindering the truth. Existing rumor detection methods are mostly
focused on the same domain, and thus have poor performance in cross-domain
scenarios due to domain shift. In this work, we propose an end-to-end
instance-wise and prototype-wise contrastive learning model with a
cross-attention mechanism for cross-domain rumor detection. The model not only
performs cross-domain feature alignment but also enforces target samples to
align with the corresponding prototypes of a given source domain. Since target
labels in a target domain are unavailable, we use a clustering-based approach
with carefully initialized centers by a batch of source domain samples to
produce pseudo labels. Moreover, we use a cross-attention mechanism on a pair
of source data and target data with the same labels to learn domain-invariant
representations. Because the samples in a domain pair tend to express similar
semantic patterns, especially on the people's attitudes (e.g., supporting or
denying) towards the same category of rumors, the discrepancy between a pair of
the source domain and target domain will be decreased. We conduct experiments
on four groups of cross-domain datasets and show that our proposed model
achieves state-of-the-art performance.
- Abstract(参考訳): 大量の噂は、ニュースやトレンドの話題と共に現れ、真実を著しく妨げている。
既存の噂検出手法はたいてい同じドメインに焦点を合わせており、ドメインシフトによるクロスドメインシナリオの性能は低い。
本研究では,クロスドメインなうわさ検出のためのクロスアテンション機構を備えたエンドツーエンドのインスタンス・ワイド・プロトタイプ・コントラスト学習モデルを提案する。
モデルはクロスドメインの機能アライメントを実行するだけでなく、対象のサンプルを所定のソースドメインのプロトタイプと整合させる。
ターゲットドメイン内のターゲットラベルは使用できないため、ソースドメインサンプルのバッチによる注意深い初期化センタによるクラスタリングベースのアプローチを使用して、擬似ラベルを生成する。
さらに,一対のソースデータと同一ラベルのターゲットデータにクロスアテンション機構を適用し,ドメイン不変表現を学習する。
ドメインペア内のサンプルは、特に噂の同じカテゴリに対する人々の態度(例えば、サポートや否定)に類似したセマンティックパターンを表現する傾向があるため、ソースドメインとターゲットドメインとの相違は減少する。
クロスドメインデータセットの4つのグループで実験を行い、提案モデルが最先端の性能を達成することを示す。
関連論文リスト
- Multi-modal Instance Refinement for Cross-domain Action Recognition [25.734898762987083]
教師なしのクロスドメインアクション認識は、既存のラベル付きソースドメインでトレーニングされたモデルを新しいラベル付きターゲットドメインに適応させることを目的としている。
強化学習に基づく負の伝達を軽減するために,MMIR法を提案する。
提案手法は,EPIC-Kitchensベンチマークを用いたクロスドメイン動作認識において,他の最先端のベースラインよりも優れている。
論文 参考訳(メタデータ) (2023-11-24T05:06:28Z) - Low-confidence Samples Matter for Domain Adaptation [47.552605279925736]
ドメイン適応(DA)は、知識をラベルの豊富なソースドメインから関連するがラベルの少ないターゲットドメインに転送することを目的としている。
低信頼度サンプルの処理による新しいコントラスト学習法を提案する。
提案手法を教師なしと半教師付きの両方のDA設定で評価する。
論文 参考訳(メタデータ) (2022-02-06T15:45:45Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Cross-Domain Adaptive Clustering for Semi-Supervised Domain Adaptation [85.6961770631173]
半監視されたドメイン適応では、残りのターゲットサンプルのターゲットドメインガイド機能内のクラスごとのいくつかのラベル付きサンプルが、その周辺に集約される。
この問題に対処するために,クロスドメイン適応クラスタリングという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-04-19T16:07:32Z) - Prototypical Cross-domain Self-supervised Learning for Few-shot
Unsupervised Domain Adaptation [91.58443042554903]
FUDA(Unsupervised Domain Adaptation)のためのPCS(Prototypical Cross-Domain Self-Supervised Learning)フレームワークを提案する。
PCSは、クロスドメインのローレベルな機能アライメントを行うだけでなく、ドメイン間の共有埋め込み空間におけるセマンティック構造をエンコードおよびアライメントする。
最新の手法と比較して、pcsは、fuda上の異なるドメインペアの平均分類精度を10.5%、office、office-home、visda-2017、domainnetで3.5%、9.0%、13.2%改善している。
論文 参考訳(メタデータ) (2021-03-31T02:07:42Z) - Discriminative Cross-Domain Feature Learning for Partial Domain
Adaptation [70.45936509510528]
部分的なドメイン適応は、より大きく多様なソースドメインからの知識を、より少ないクラス数でより小さなターゲットドメインに適応させることを目的としています。
ドメイン適応の最近の実践は、ターゲットドメインの擬似ラベルを組み込むことで、効果的な特徴を抽出する。
ターゲットデータを少数のソースデータのみにアライメントすることが不可欠である。
論文 参考訳(メタデータ) (2020-08-26T03:18:53Z) - Cross-domain Self-supervised Learning for Domain Adaptation with Few
Source Labels [78.95901454696158]
ドメイン適応のためのクロスドメイン自己教師型学習手法を提案する。
本手法は,ソースラベルが少ない新しいターゲット領域において,ターゲット精度を著しく向上させる。
論文 参考訳(メタデータ) (2020-03-18T15:11:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。