論文の概要: Learning Domain-Invariant Features for Out-of-Context News Detection
- arxiv url: http://arxiv.org/abs/2406.07430v1
- Date: Tue, 11 Jun 2024 16:34:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-12 15:05:20.289314
- Title: Learning Domain-Invariant Features for Out-of-Context News Detection
- Title(参考訳): 文脈外ニュース検出のためのドメイン不変特徴の学習
- Authors: Yimeng Gu, Mengqi Zhang, Ignacio Castro, Shu Wu, Gareth Tyson,
- Abstract要約: マルチモーダル・アウト・オブ・コンテクストニュースは、オンラインメディアプラットフォームで一般的な誤報である。
本研究では,ドメイン適応型文脈外ニュース検出に焦点をあてる。
ドメイン不変の特徴を学習するために,コントラスト学習と最大平均誤差(MMD)を適用したConDA-TTAを提案する。
- 参考スコア(独自算出の注目度): 19.335065976085982
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multimodal out-of-context news is a common type of misinformation on online media platforms. This involves posting a caption, alongside an invalid out-of-context news image. Reflecting its importance, researchers have developed models to detect such misinformation. However, a common limitation of these models is that they only consider the scenario where pre-labeled data is available for each domain, failing to address the out-of-context news detection on unlabeled domains (e.g., unverified news on new topics or agencies). In this work, we therefore focus on domain adaptive out-of-context news detection. In order to effectively adapt the detection model to unlabeled news topics or agencies, we propose ConDA-TTA (Contrastive Domain Adaptation with Test-Time Adaptation) which applies contrastive learning and maximum mean discrepancy (MMD) to learn the domain-invariant feature. In addition, it leverages target domain statistics during test-time to further assist domain adaptation. Experimental results show that our approach outperforms baselines in 5 out of 7 domain adaptation settings on two public datasets, by as much as 2.93% in F1 and 2.08% in accuracy.
- Abstract(参考訳): マルチモーダル・アウト・オブ・コンテクストニュースは、オンラインメディアプラットフォームで一般的な誤報である。
これは、無効なアウト・オブ・コンテクストのニュース画像と共にキャプションを投稿することを含む。
その重要性を反映して、研究者はそのような誤報を検出するモデルを開発した。
しかし、これらのモデルの一般的な制限は、各ドメインで事前にラベル付けされたデータが利用可能であり、ラベル付けされていないドメイン(例えば、新しいトピックやエージェンシーに関する未検証ニュース)のコンテキスト外ニュース検出に対処できないシナリオのみを考慮することである。
そこで本研究では,ドメイン適応型文脈外ニュース検出に焦点をあてる。
未ラベルのニューストピックやエージェンシーに検出モデルを効果的に適用するため,コンダTTA(Contrastive Domain Adaptation with Test-Time Adaptation)を提案する。
さらに、テスト期間中のターゲットドメイン統計を活用して、さらなるドメイン適応を支援する。
実験の結果,F1では最大2.93%,精度では2.08%という,ドメイン適応設定の7つのうち5つがベースラインを上回っていることがわかった。
関連論文リスト
- DPOD: Domain-Specific Prompt Tuning for Multimodal Fake News Detection [15.599951180606947]
文脈外画像を用いたフェイクニュースが広まり、情報過負荷の時代における問題となっている。
ドメイン外データが、所望のドメインのコンテキスト外誤情報検出を改善するのに役立つかどうかを検討する。
DPOD (Domain-specific Prompt-tuning using Out-of-Domain data) と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-27T08:49:26Z) - Robust Domain Misinformation Detection via Multi-modal Feature Alignment [49.89164555394584]
マルチモーダルな誤情報検出のための頑健なドメインとクロスモーダルなアプローチを提案する。
テキストと視覚の共役分布を整列させることにより、ドメインシフトを低減する。
また,ドメイン一般化のアプリケーションシナリオを同時に検討するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-24T07:06:16Z) - A Two-Stage Framework with Self-Supervised Distillation For Cross-Domain Text Classification [46.47734465505251]
クロスドメインテキスト分類は、ラベル付きデータを持たないターゲットドメインにモデルを適応させることを目的としている。
クロスドメインテキスト分類のための2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-18T06:21:40Z) - Improving Fake News Detection of Influential Domain via Domain- and
Instance-Level Transfer [16.886024206337257]
フェイクニュース検出(DITFEND)のためのドメインレベルおよびインスタンスレベルの転送フレームワークを提案する。
DITFENDは特定のターゲットドメインの性能を向上させることができる。
オンライン実験は、現実世界のシナリオにおいて、ベースモデルにさらなる改善をもたらすことを示している。
論文 参考訳(メタデータ) (2022-09-19T10:21:13Z) - Deep Unsupervised Domain Adaptation: A Review of Recent Advances and
Perspectives [16.68091981866261]
対象領域のデータの性能低下に対応するために、教師なし領域適応(UDA)を提案する。
UDAは、自然言語処理、ビデオ解析、自然言語処理、時系列データ分析、医用画像解析など、有望な成果を上げている。
論文 参考訳(メタデータ) (2022-08-15T20:05:07Z) - Connect, Not Collapse: Explaining Contrastive Learning for Unsupervised
Domain Adaptation [88.5448806952394]
我々は、対象ドメインのラベル付きデータと対象ドメインのラベルなしデータを用いて、対象ドメインの分類器を学習する、教師なしドメイン適応(UDA)を考える。
ラベル付きソースとターゲットデータの特徴を学習し,ラベル付きソースデータに微調整を行うコントラスト事前学習は,強いUDA手法と競合することを示す。
論文 参考訳(メタデータ) (2022-04-01T16:56:26Z) - Robust wav2vec 2.0: Analyzing Domain Shift in Self-Supervised
Pre-Training [67.71228426496013]
事前トレーニング中にターゲットドメインデータを使用することで,さまざまなセットアップで大幅なパフォーマンス向上が期待できる。
複数のドメインで事前トレーニングを行うことで、トレーニング中に見られないドメインのパフォーマンスの一般化が向上します。
論文 参考訳(メタデータ) (2021-04-02T12:53:15Z) - Effective Label Propagation for Discriminative Semi-Supervised Domain
Adaptation [76.41664929948607]
半教師付き領域適応(SSDA)法は,大規模な画像分類タスクにおいて大きな可能性を示している。
本稿では、ドメイン間およびドメイン内セマンティック情報を効果的に伝達することにより、この問題に対処する新しい効果的な方法を提案する。
ソースコードと事前訓練されたモデルも間もなくリリースされる予定です。
論文 参考訳(メタデータ) (2020-12-04T14:28:19Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z) - Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation [65.38975706997088]
オープンセットドメイン適応(OSDA)は、ターゲットドメインに未知のクラスが存在することを前提としている。
既存の最先端手法は、より大きなドメインギャップが存在する場合、かなりの性能低下を被ることを示す。
我々は、より大きなドメインギャップに特に対処するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-08T14:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。