論文の概要: Reasoning About Persuasion: Can LLMs Enable Explainable Propaganda Detection?
- arxiv url: http://arxiv.org/abs/2502.16550v1
- Date: Sun, 23 Feb 2025 12:12:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:55:26.340300
- Title: Reasoning About Persuasion: Can LLMs Enable Explainable Propaganda Detection?
- Title(参考訳): LLMは説明可能なプロパガンダ検出を可能にするか?
- Authors: Maram Hasanain, Md Arid Hasan, Mohamed Bayan Kmainasi, Elisa Sartori, Ali Ezzat Shahroor, Giovanni Da San Martino, Firoj Alam,
- Abstract要約: 本稿では,多言語(アラビア語と英語)による説明強調データセットを提案する。
また,ラベル検出と合理化に基づく説明生成のための説明強調LLMも導入した。
本研究は,モデルが相補的に動作し,説明文も生成できることを示唆する。
- 参考スコア(独自算出の注目度): 14.218438904581935
- License:
- Abstract: There has been significant research on propagandistic content detection across different modalities and languages. However, most studies have primarily focused on detection, with little attention given to explanations justifying the predicted label. This is largely due to the lack of resources that provide explanations alongside annotated labels. To address this issue, we propose a multilingual (i.e., Arabic and English) explanation-enhanced dataset, the first of its kind. Additionally, we introduce an explanation-enhanced LLM for both label detection and rationale-based explanation generation. Our findings indicate that the model performs comparably while also generating explanations. We will make the dataset and experimental resources publicly available for the research community.
- Abstract(参考訳): 異なるモダリティや言語間でのプロパガンダ的コンテンツ検出について重要な研究がなされている。
しかし、ほとんどの研究は、主に検出に焦点を当てており、予測されたラベルを正当化する説明にはほとんど注意を払わなかった。
これは、アノテートされたラベルと共に説明を提供するリソースが不足しているためである。
この問題に対処するため、我々は多言語(アラビア語と英語)による説明強調データセットの提案を行った。
さらに,ラベル検出と合理化に基づく説明生成のための説明強調LLMを提案する。
本研究は,モデルが相補的に動作し,説明文も生成できることを示唆する。
研究コミュニティ向けにデータセットと実験リソースを公開します。
関連論文リスト
- Explingo: Explaining AI Predictions using Large Language Models [47.21393184176602]
LLM(Large Language Models)は、説明を自然なコミュニケーションと整合する人間可読な物語形式に変換することができる。
ナレーターはMLの説明を取り入れ、それらを自然言語の説明に変換する。
グレーダーはこれらの物語を、正確性、完全性、流用性、簡潔さを含む一連の指標で評価する。
この研究の結果はオープンソースツールに統合され、さらなるアプリケーションで物語の説明が利用できるようになった。
論文 参考訳(メタデータ) (2024-12-06T16:01:30Z) - ThatiAR: Subjectivity Detection in Arabic News Sentences [10.334164786614696]
本研究では,アラビア語における主観性検出のための最初の大規模データセットを提案する。
3.6K の注釈付き文と GPT-4o に基づく説明で構成されている。
データセット、アノテーションプロセス、および広範なベンチマーク結果を詳細に分析する。
論文 参考訳(メタデータ) (2024-06-08T19:24:17Z) - ExaRanker-Open: Synthetic Explanation for IR using Open-Source LLMs [60.81649785463651]
ExaRanker-Openを導入し、オープンソース言語モデルを適用して、説明を生成する。
以上の結果から,LLMのサイズが大きくなるにつれて,説明の組み込みが神経ランク付けを継続的に促進することが明らかとなった。
論文 参考訳(メタデータ) (2024-02-09T11:23:14Z) - XplainLLM: A QA Explanation Dataset for Understanding LLM
Decision-Making [13.928951741632815]
大規模言語モデル(LLM)は、最近、自然言語理解タスクにおいて顕著な進歩を遂げた。
本稿では、新しい説明データセットを導入することにより、このプロセスに透明性をもたらすことを検討する。
我々のデータセットには12,102のQAEトリプルが含まれている。
論文 参考訳(メタデータ) (2023-11-15T00:34:28Z) - ExplainCPE: A Free-text Explanation Benchmark of Chinese Pharmacist
Examination [26.878606171228448]
既存の説明データセットは主に英語の一般的な知識に関する質問である。
有理性QAデータセットの生成における言語バイアスと医療資源の欠如に対処するために, ExplainCPEを提案する。
論文 参考訳(メタデータ) (2023-05-22T11:45:42Z) - Are Hard Examples also Harder to Explain? A Study with Human and
Model-Generated Explanations [82.12092864529605]
説明可能性とサンプル硬度の関係について検討する。
我々は人による説明と GPT-3 による説明との比較を行った。
また、文脈内例の難易度が GPT-3 の説明の質に影響を及ぼすことも判明した。
論文 参考訳(メタデータ) (2022-11-14T16:46:14Z) - Rumor Detection with Self-supervised Learning on Texts and Social Graph [101.94546286960642]
異種情報ソース上での自己教師型学習を対照的に提案し,それらの関係を明らかにするとともに,噂をよりよく特徴付ける。
我々はこの枠組みをSRD(Self-supervised Rumor Detection)と呼ぶ。
3つの実世界のデータセットに対する大規模な実験により、ソーシャルメディア上での噂の自動検出におけるSRDの有効性が検証された。
論文 参考訳(メタデータ) (2022-04-19T12:10:03Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - On the Veracity of Local, Model-agnostic Explanations in Audio
Classification: Targeted Investigations with Adversarial Examples [5.744593856232663]
LIMEのようなローカルな説明手法がMIRで普及している。
本稿は、LIMEの説明の真正性についてより深い知見を得るための対象調査について報告する。
論文 参考訳(メタデータ) (2021-07-19T17:54:10Z) - Leveraging Declarative Knowledge in Text and First-Order Logic for
Fine-Grained Propaganda Detection [139.3415751957195]
本稿では,ニュース記事中のプロパガンダ的テキスト断片の検出について検討する。
本稿では,詳細なプロパガンダ手法の宣言的知識を注入する手法を提案する。
論文 参考訳(メタデータ) (2020-04-29T13:46:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。