論文の概要: MALicious INTent Dataset and Inoculating LLMs for Enhanced Disinformation Detection
- arxiv url: http://arxiv.org/abs/2603.14525v1
- Date: Sun, 15 Mar 2026 18:07:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.866799
- Title: MALicious INTent Dataset and Inoculating LLMs for Enhanced Disinformation Detection
- Title(参考訳): 偽情報検出のための多元的インテリジェントデータセットと接種LDM
- Authors: Arkadiusz Modzelewski, Witold Sosnowski, Eleni Papadopulos, Elisa Sartori, Tiziano Labruna, Giovanni Da San Martino, Adam Wierzbicki,
- Abstract要約: この研究は、偽情報とその悪質な意図を捉えるために専門家のファクトチェッカーと共同で開発された、人手による最初の英語コーパスであるMALINTを提示する。
心理学・コミュニケーション研究の接種理論に触発されて、悪意のある意図の知識を取り入れることで、偽情報の検出が向上するかどうかを検討する。
我々は,意図分析を統合し,情報伝達の持続的影響を緩和する意図的推論法であるインテントベース接種を提案する。
- 参考スコア(独自算出の注目度): 7.797793767806955
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The intentional creation and spread of disinformation poses a significant threat to public discourse. However, existing English datasets and research rarely address the intentionality behind the disinformation. This work presents MALINT, the first human-annotated English corpus developed in collaboration with expert fact-checkers to capture disinformation and its malicious intent. We utilize our novel corpus to benchmark 12 language models, including small language models (SLMs) such as BERT and large language models (LLMs) like Llama 3.3, on binary and multilabel intent classification tasks. Moreover, inspired by inoculation theory from psychology and communication studies, we investigate whether incorporating knowledge of malicious intent can improve disinformation detection. To this end, we propose intent-based inoculation, an intent-augmented reasoning for LLMs that integrates intent analysis to mitigate the persuasive impact of disinformation. Analysis on six disinformation datasets, five LLMs, and seven languages shows that intent-augmented reasoning improves zero-shot disinformation detection. To support research in intent-aware disinformation detection, we release the MALINT dataset with annotations from each annotation step.
- Abstract(参考訳): 意図的な偽情報の創造と拡散は、世論に重大な脅威をもたらす。
しかし、既存のイングランドのデータセットや研究は、偽情報の背後にある意図にほとんど対処しない。
この研究は、偽情報とその悪質な意図を捉えるために専門家のファクトチェッカーと共同で開発された、人手による最初の英語コーパスであるMALINTを提示する。
Llama 3.3 のような小言語モデル (SLM) や Llama 3.3 のような大規模言語モデル (LLM) を含む 12 の言語モデルをバイナリおよびマルチラベルの意図分類タスクでベンチマークするために,我々の新しいコーパスを利用する。
さらに、心理学・コミュニケーション研究からの接種理論に触発され、悪意のある意図の知識を取り入れることで、偽情報の検出が向上するかどうかを考察した。
そこで本研究では, インテント分析を統合し, 偽情報の説得的影響を緩和するインテントベース接種法を提案する。
6つの偽情報データセット、5つのLLM、および7つの言語の解析は、意図的に増強された推論がゼロショットの偽情報検出を改善することを示している。
意図認識型偽情報検出の研究を支援するため,各アノテーションステップからアノテーション付きMALINTデータセットをリリースする。
関連論文リスト
- Scale Can't Overcome Pragmatics: The Impact of Reporting Bias on Vision-Language Reasoning [79.95774256444956]
ビジョンランゲージモデルにおける推論能力の欠如は研究談話の最前線に留まっている。
実用理論のレンズを用いて, 一般的なVLMのOpenCLIP, LLaVA-1.5, Molmoの基盤となるデータについて検討した。
論文 参考訳(メタデータ) (2026-02-26T18:54:06Z) - A Multilingual, Large-Scale Study of the Interplay between LLM Safeguards, Personalisation, and Disinformation [12.577461004484604]
本研究では,Large Language Models (LLMs) によるペルソナ対象の偽情報生成の大規模多言語解析を行った。
我々は、AI-TRAITSにおいて、英語、ロシア語、ポルトガル語、ヒンディー語という4つの言語にまたがる324の虚偽の物語と150の人口的ペルソナを持つ8つの最先端のLLMを推進します。
結果は、たとえ単純なパーソナライゼーションでも、脱獄の可能性が著しく増加することを示している。
論文 参考訳(メタデータ) (2025-10-14T21:10:50Z) - LACA: Improving Cross-lingual Aspect-Based Sentiment Analysis with LLM Data Augmentation [0.8602553195689511]
言語横断的側面に基づく感情分析は、対象言語における詳細な感情分析を含む。
既存のほとんどのメソッドは言語ギャップを埋めるために、信頼できない翻訳ツールに大きく依存している。
対象言語における高品質な擬似ラベル付きデータを生成するために,大規模言語モデルを活用する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-08-13T05:55:48Z) - Seeing Through Deception: Uncovering Misleading Creator Intent in Multimodal News with Vision-Language Models [65.23999399834638]
DeceptionDecodedは,信頼に値する参照記事に基づく12,000のイメージキャプチャペアのベンチマークである。
データセットは、誤解を招くケースと、誤解を招くケースの両方をキャプチャし、視覚的およびテキスト的モダリティにわたって操作する。
インテント中心の3つのタスク – 意図の検出を誤解させる、ソースの属性を誤解させる、創造的欲求推論 – をサポートしている。
論文 参考訳(メタデータ) (2025-05-21T13:14:32Z) - Detect, Investigate, Judge and Determine: A Knowledge-guided Framework for Few-shot Fake News Detection [53.41813030290324]
Few-Shot Fake News Detection (FS-FND) は、極めて低リソースのシナリオにおいて、非正確なニュースを実際のニュースと区別することを目的としている。
ソーシャルメディア上でのフェイクニュースの拡散や有害な影響により、このタスクは注目を集めている。
本稿では,内外からLLMを増強するDual-perspective Knowledge-Guided Fake News Detection (DKFND)モデルを提案する。
論文 参考訳(メタデータ) (2024-07-12T03:15:01Z) - ThatiAR: Subjectivity Detection in Arabic News Sentences [10.334164786614696]
本研究では,アラビア語における主観性検出のための最初の大規模データセットを提案する。
3.6K の注釈付き文と GPT-4o に基づく説明で構成されている。
データセット、アノテーションプロセス、および広範なベンチマーク結果を詳細に分析する。
論文 参考訳(メタデータ) (2024-06-08T19:24:17Z) - Fighting Fire with Fire: Adversarial Prompting to Generate a
Misinformation Detection Dataset [10.860133543817659]
誤報を識別するために, LLM を用いた銀標準地下構造データセットの作成手法を提案する。
具体的には、信頼できるニュース記事を考えると、我々の提案するアプローチは、LLMが元の記事の要約されたバージョンを自動的に生成するように促すことである。
本データセットの有用性を検討するために,誤情報検出のタスクに対して,教師付きモデルの範囲をトレーニングする一連の実験を行った。
論文 参考訳(メタデータ) (2024-01-09T10:38:13Z) - The Perils & Promises of Fact-checking with Large Language Models [55.869584426820715]
大規模言語モデル(LLM)は、学術論文、訴訟、ニュース記事を書くことをますます信頼されている。
語句検索,文脈データ検索,意思決定などにより,実検におけるLLMエージェントの使用状況を評価する。
本研究は, 文脈情報を用いたLLMの高度化を示すものである。
LLMは事実チェックにおいて有望であるが、不整合の正確性のため注意が必要である。
論文 参考訳(メタデータ) (2023-10-20T14:49:47Z) - Can LMs Learn New Entities from Descriptions? Challenges in Propagating
Injected Knowledge [72.63368052592004]
我々は、注入された事実に基づいて推論を行う(またはそれらの事実を伝播する)LMの能力について研究する。
既存の知識更新手法では,注入知識の伝播がほとんどないことがわかった。
しかし、LMのコンテキストにおけるエンティティ定義の予測は、すべての設定におけるパフォーマンスを改善する。
論文 参考訳(メタデータ) (2023-05-02T17:59:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。