論文の概要: DPOD: Domain-Specific Prompt Tuning for Multimodal Fake News Detection
- arxiv url: http://arxiv.org/abs/2311.16496v3
- Date: Wed, 13 Mar 2024 02:32:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 17:58:26.193875
- Title: DPOD: Domain-Specific Prompt Tuning for Multimodal Fake News Detection
- Title(参考訳): DPOD:マルチモーダルフェイクニュース検出のためのドメイン特化プロンプトチューニング
- Authors: Debarshi Brahma, Amartya Bhattacharya, Suraj Nagaje Mahadev, Anmol
Asati, Vikas Verma, Soma Biswas
- Abstract要約: 文脈外画像を用いたフェイクニュースが広まり、情報過負荷の時代における問題となっている。
ドメイン外データが、所望のドメインのコンテキスト外誤情報検出を改善するのに役立つかどうかを検討する。
DPOD (Domain-specific Prompt-tuning using Out-of-Domain data) と呼ばれる新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 15.599951180606947
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The spread of fake news using out-of-context images has become widespread and
is a relevant problem in this era of information overload. Such out-of-context
fake news may arise across different domains like politics, sports,
entertainment, etc. In practical scenarios, an inherent problem of imbalance
exists among news articles from such widely varying domains, resulting in a few
domains with abundant data, while the rest containing very limited data. Under
such circumstances, it is imperative to develop methods which can work in such
varying amounts of data setting. In this work, we explore whether out-of-domain
data can help to improve out-of-context misinformation detection (termed here
as multi-modal fake news detection) of a desired domain, to address this
challenging problem. Towards this goal, we propose a novel framework termed
DPOD (Domain-specific Prompt-tuning using Out-of-Domain data). First, to
compute generalizable features, we modify the Vision-Language Model, CLIP to
extract features that helps to align the representations of the images and
corresponding text captions of both the in-domain and out-of-domain data in a
label-aware manner. Further, we propose a domain-specific prompt learning
technique which leverages the training samples of all the available domains
based on the extent they can be useful to the desired domain. Extensive
experiments on a large-scale benchmark dataset, namely NewsCLIPpings
demonstrate that the proposed framework achieves state of-the-art performance,
significantly surpassing the existing approaches for this challenging task.
Code will be released on acceptance.
- Abstract(参考訳): 文脈外画像を用いたフェイクニュースの普及は、情報過負荷の時代において問題となっている。
このような言葉から外れたフェイクニュースは、政治、スポーツ、エンターテイメントなど、さまざまな分野にまたがる可能性がある。
現実的なシナリオでは、このような広範囲にわたるドメインのニュース記事の間に固有の不均衡の問題は存在し、結果として、豊富なデータを持つドメインがいくつか存在する一方で、残りは極めて限られたデータを含んでいる。
このような状況下では、このような多様なデータ設定で機能する手法を開発することが不可欠である。
本研究では,この課題に対処するために,ドメイン外データが所望のドメインのコンテキスト外誤情報検出(ここではマルチモーダルフェイクニュース検出と定義する)の改善に役立つかどうかを検討する。
そこで本研究では,DPOD(Domain-specific Prompt-tuning using Out-of-Domain data)と呼ばれる新しいフレームワークを提案する。
まず、一般化可能な特徴を計算するために、視覚言語モデルであるCLIPを修正し、画像の表現と、ドメイン内およびドメイン外データの対応するテキストキャプションをラベル認識方式で整列させる特徴を抽出する。
さらに,各ドメインが望むドメインにどの程度役立つかに基づいて,利用可能なすべてのドメインのトレーニングサンプルを活用する,ドメイン固有のプロンプト学習手法を提案する。
大規模なベンチマークデータセット、すなわちNewsCLIPpingsでの大規模な実験により、提案したフレームワークが最先端のパフォーマンスを達成し、この課題に対する既存のアプローチを大幅に上回っていることが示された。
コードは受理時にリリースされる。
関連論文リスト
- A Unified Data Augmentation Framework for Low-Resource Multi-Domain Dialogue Generation [52.0964459842176]
現在の最先端の対話システムは、広範なトレーニングデータセットに大きく依存している。
我々はtextbfAMD$2$G と呼ばれる textbfMulti-textbfDomain textbfDialogue textbfGeneration のための新しいデータ textbfAugmentation フレームワークを提案する。
AMD$2$Gフレームワークは、データ拡張プロセスと、ドメインに依存しないトレーニングとドメイン適応トレーニングという2段階のトレーニングアプローチで構成されている。
論文 参考訳(メタデータ) (2024-06-14T09:52:27Z) - Prompt-based Visual Alignment for Zero-shot Policy Transfer [35.784936617675896]
強化学習におけるオーバーフィッティングは、強化学習への応用における主要な障害の1つとなっている。
ゼロショットポリシー転送のための画像における有害領域バイアスを軽減するために,プロンプトベースの視覚アライメント(PVA)を提案する。
CARLAシミュレータを用いて視覚に基づく自律運転タスクにおけるPVAの検証を行う。
論文 参考訳(メタデータ) (2024-06-05T13:26:30Z) - WIDIn: Wording Image for Domain-Invariant Representation in Single-Source Domain Generalization [63.98650220772378]
We present WIDIn, Wording Images for Domain-Invariant representation, to disentangleative discriminative visual representation。
まず、ドメイン固有の言語を適応的に識別し、削除するために使用可能な、きめ細かいアライメントを組み込んだ言語を推定する。
WIDInは、CLIPのような事前訓練された視覚言語モデルと、MoCoやBERTのような個別訓練されたユニモーダルモデルの両方に適用可能であることを示す。
論文 参考訳(メタデータ) (2024-05-28T17:46:27Z) - Phrase Grounding-based Style Transfer for Single-Domain Generalized
Object Detection [109.58348694132091]
単一ドメインの一般化オブジェクト検出は、複数の未確認対象ドメインに対するモデルの一般化性を高めることを目的としている。
これは、ターゲットのドメインデータをトレーニングに組み込むことなく、ドメインシフトに対処するモデルを必要とするため、実用的だが難しいタスクである。
そこで我々は,課題に対する新しい文節接頭辞に基づくスタイル伝達手法を提案する。
論文 参考訳(メタデータ) (2024-02-02T10:48:43Z) - Domain-Controlled Prompt Learning [49.45309818782329]
既存の素早い学習方法はドメイン認識やドメイン転送機構を欠いていることが多い。
特定のドメインに対するtextbfDomain-Controlled Prompt Learningを提案する。
本手法は,特定の領域画像認識データセットにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-09-30T02:59:49Z) - Using Language to Extend to Unseen Domains [81.37175826824625]
ビジョンモデルがデプロイ時に遭遇する可能性のあるすべてのドメインのトレーニングデータを集めることは、費用がかかる。
トレーニングドメインと拡張したいが、堅牢性を改善するためのデータを持っていないドメインを、いかに単純に言葉で表現するかを考えます。
共同画像と言語埋め込み空間を備えたマルチモーダルモデルを用いて、LADSはトレーニング領域から各未確認テスト領域への画像埋め込みの変換を学習する。
論文 参考訳(メタデータ) (2022-10-18T01:14:02Z) - Batch Normalization Embeddings for Deep Domain Generalization [50.51405390150066]
ドメインの一般化は、異なるドメインと見えないドメインで堅牢に実行されるように機械学習モデルをトレーニングすることを目的としている。
一般的な領域一般化ベンチマークにおいて,最先端技術よりも分類精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2020-11-25T12:02:57Z) - Domain Generalized Person Re-Identification via Cross-Domain Episodic
Learning [31.17248105464821]
本稿では、メタ学習戦略を進化させ、観測されたソースドメインラベル付きデータを活用するためのエピソード学習手法を提案する。
4つのベンチマークデータセットに対する実験により,最先端技術よりも提案手法の優位性が確認された。
論文 参考訳(メタデータ) (2020-10-19T14:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。