論文の概要: Robust Misinformation Detection by Visiting Potential Commonsense Conflict
- arxiv url: http://arxiv.org/abs/2504.21604v1
- Date: Wed, 30 Apr 2025 13:03:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 18:44:44.654596
- Title: Robust Misinformation Detection by Visiting Potential Commonsense Conflict
- Title(参考訳): 潜在的コモンセンス衝突によるロバスト誤情報検出
- Authors: Bing Wang, Ximing Li, Changchun Li, Bingrui Zhao, Bo Fu, Renchu Guan, Shengsheng Wang,
- Abstract要約: 誤情報検出(MD)は、オンライン誤情報を自動的に検出することを目的としている。
本稿では,MDタスクのための新しいプラグ・アンド・プレイ拡張手法を提案する。
我々は、偽記事が常識的な対立を巻き起こす可能性が高いことを示す以前の研究から着想を得た。
- 参考スコア(独自算出の注目度): 25.27903714824545
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of Internet technology has led to an increased prevalence of misinformation, causing severe negative effects across diverse domains. To mitigate this challenge, Misinformation Detection (MD), aiming to detect online misinformation automatically, emerges as a rapidly growing research topic in the community. In this paper, we propose a novel plug-and-play augmentation method for the MD task, namely Misinformation Detection with Potential Commonsense Conflict (MD-PCC). We take inspiration from the prior studies indicating that fake articles are more likely to involve commonsense conflict. Accordingly, we construct commonsense expressions for articles, serving to express potential commonsense conflicts inferred by the difference between extracted commonsense triplet and golden ones inferred by the well-established commonsense reasoning tool COMET. These expressions are then specified for each article as augmentation. Any specific MD methods can be then trained on those commonsense-augmented articles. Besides, we also collect a novel commonsense-oriented dataset named CoMis, whose all fake articles are caused by commonsense conflict. We integrate MD-PCC with various existing MD backbones and compare them across both 4 public benchmark datasets and CoMis. Empirical results demonstrate that MD-PCC can consistently outperform the existing MD baselines.
- Abstract(参考訳): インターネット技術の発展により、誤報の頻度が増加し、様々な領域で深刻なネガティブな影響が生じた。
この課題を緩和するために、オンライン誤情報を自動的に検出することを目的とした誤情報検出(MD)が、コミュニティ内で急速に増加している研究トピックとして登場した。
本稿では,MDタスクのための新しいプラグ・アンド・プレイ拡張手法,すなわちMD-PCCを用いた誤情報検出を提案する。
我々は、偽記事が常識的な対立を巻き起こす可能性が高いことを示す以前の研究から着想を得た。
そこで,本稿では,抽出したコモンセンス三重項と,確立したコモンセンス推論ツールCOMETによって推定される黄金のコモンセンス三重項との差から推定される潜在的なコモンセンス対立を表現するために,記事のコモンセンス表現を構築した。
これらの式は、拡張として各記事に指定される。
特定のMDメソッドは、これらのコモンセンス拡張された記事でトレーニングすることができる。
さらに,すべての偽記事がコモンセンスの対立によって引き起こされる,CoMisという新しいコモンセンス指向のデータセットも収集する。
MD-PCCを既存の様々なMDバックボーンと統合し、4つの公開ベンチマークデータセットとCoMiを比較します。
MD-PCCが既存のMDベースラインを一貫して上回ることを示す実験結果が得られた。
関連論文リスト
- Retrieval-Augmented Generation with Conflicting Evidence [57.66282463340297]
大規模言語モデル (LLM) エージェントは、応答の事実性を改善するために、検索強化世代 (RAG) をますます採用している。
実際には、これらのシステムは曖昧なユーザクエリを処理し、複数のソースからの情報に衝突する可能性がある。
RAMDocs(Retrieval with Ambiguity and Misinformation in Documents)は,ユーザクエリのエビデンスを矛盾させるような,複雑で現実的なシナリオをシミュレートする新しいデータセットである。
論文 参考訳(メタデータ) (2025-04-17T16:46:11Z) - Pub-Guard-LLM: Detecting Fraudulent Biomedical Articles with Reliable Explanations [11.082285990214595]
Pub-Guard-LLMは、バイオメディカルな論文の不正検出に適した、大規模な言語モデルベースのシステムである。
Pub-Guard-LLMは、様々なベースラインのパフォーマンスを一貫して上回る。
科学的不正検出における検出性能と説明可能性の両方を向上させることで、Pub-Guard-LLMは、新しい効果的なオープンソースツールによる研究完全性の保護に寄与する。
論文 参考訳(メタデータ) (2025-02-21T12:54:56Z) - What Really is Commonsense Knowledge? [58.5342212738895]
我々は、既存のコモンセンス知識の定義を調査し、概念を定義するための3つのフレームワークに基礎を置き、それらをコモンセンス知識の統一的な定義に統合する。
次に、アノテーションと実験のための統合された定義をCommonsenseQAとCommonsenseQA 2.0データセットで使用します。
本研究は,2つのデータセットには非常識知識のインスタンスが多数存在し,これら2つのサブセットに対して大きな性能差があることを示す。
論文 参考訳(メタデータ) (2024-11-06T14:54:19Z) - Why Misinformation is Created? Detecting them by Integrating Intent Features [25.20744191980224]
ソーシャルメディアのプラットフォームは、多くの情報をより効率的に便利に広めることを可能にする。
彼らは必然的に誤報に満ちており、私たちの日常生活の様々な側面にダメージを与えている。
誤情報検出(MD)は、広く注目を集めている研究トピックである。
論文 参考訳(メタデータ) (2024-07-27T07:30:47Z) - Harmfully Manipulated Images Matter in Multimodal Misinformation Detection [22.236455110413264]
MMD(Multimodal Misinformation Detection)は、学術・産業コミュニティから注目を集めている。
我々は,MDD(HAMI-M3D)における新たなHAMI-M3D法,すなわちハーモリー・マニピュレーション・イメージ・マターを提案する。
3つのベンチマークデータセットにわたる大規模な実験は、HAMI-M3Dが任意のMDDベースラインのパフォーマンスを一貫して改善できることを実証することができる。
論文 参考訳(メタデータ) (2024-07-27T07:16:07Z) - MMFakeBench: A Mixed-Source Multimodal Misinformation Detection Benchmark for LVLMs [47.353720361676004]
マルチモーダル誤報検出法は、しばしばサンプルごとに単一のソースと種類の偽造を仮定する。
混合ソースの誤情報に対するベンチマークが欠如していることは、この分野の進歩を妨げている。
MMFakeBenchは、ミックスソースMDDの最初の包括的なベンチマークである。
論文 参考訳(メタデータ) (2024-06-13T03:04:28Z) - Detecting and Grounding Multi-Modal Media Manipulation and Beyond [93.08116982163804]
マルチモーダルフェイクメディア(DGM4)の新たな研究課題について述べる。
DGM4は、マルチモーダルメディアの真正性を検出するだけでなく、操作されたコンテンツも検出することを目的としている。
本稿では,異なるモーダル間のきめ細かい相互作用を完全に捉えるために,新しい階層型マルチモーダルマニピュレーションrEasoning tRansformer(HAMMER)を提案する。
論文 参考訳(メタデータ) (2023-09-25T15:05:46Z) - DCID: Deep Canonical Information Decomposition [84.59396326810085]
本稿では,2つの1次元目標変数間で共有される信号の同定について考察する。
そこで本研究では,地中トラスラベルの存在下で使用可能な評価指標であるICMを提案する。
また、共有変数を学習するための単純かつ効果的なアプローチとして、Deep Canonical Information Decomposition (DCID)を提案する。
論文 参考訳(メタデータ) (2023-06-27T16:59:06Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Synthetic Misinformers: Generating and Combating Multimodal
Misinformation [11.696058634552147]
マルチモーダル誤情報検出(MMD)は、画像と付随するテキストの組み合わせが誤読や誤字を検知する。
提案したCLIPベースの名前付きエンティティスワッピングは,マルチモーダル精度で他のOOCやNEIミスコンバータを上回り,MDDモデルに繋がることを示す。
論文 参考訳(メタデータ) (2023-03-02T12:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。