論文の概要: On the Influence of Discourse Relations in Persuasive Texts
- arxiv url: http://arxiv.org/abs/2510.26124v1
- Date: Thu, 30 Oct 2025 04:10:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.655554
- Title: On the Influence of Discourse Relations in Persuasive Texts
- Title(参考訳): 説得文における談話関係の影響について
- Authors: Nawar Turk, Sevag Kaspar, Leila Kosseim,
- Abstract要約: 本稿では,Large Language Models (LLM) を利用して,PT(Persuasion Techniques) とDR(Discourse Relations) の関係について検討する。
説得技術とレベル2のPDTB感覚の両方でラベル付けされた5つの銀のインスタンスデータセットを作成しました。
これらの銀のデータセットの統計的分析は、6つの談話関係が説得的テキストにおいて重要な役割を担っていることを示している。
- 参考スコア(独自算出の注目度): 0.0509780930114934
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates the relationship between Persuasion Techniques (PTs) and Discourse Relations (DRs) by leveraging Large Language Models (LLMs) and prompt engineering. Since no dataset annotated with both PTs and DRs exists, we took the SemEval 2023 Task 3 dataset labelled with 19 PTs as a starting point and developed LLM-based classifiers to label each instance of the dataset with one of the 22 PDTB 3.0 level-2 DRs. In total, four LLMs were evaluated using 10 different prompts, resulting in 40 unique DR classifiers. Ensemble models using different majority-pooling strategies were used to create 5 silver datasets of instances labelled with both persuasion techniques and level-2 PDTB senses. The silver dataset sizes vary from 1,281 instances to 204 instances, depending on the majority pooling technique used. Statistical analysis of these silver datasets shows that six discourse relations (namely Cause, Purpose, Contrast, Cause+Belief, Concession, and Condition) play a crucial role in persuasive texts, especially in the use of Loaded Language, Exaggeration/Minimisation, Repetition and to cast Doubt. This insight can contribute to detecting online propaganda and misinformation, as well as to our general understanding of effective communication.
- Abstract(参考訳): 本稿では,Large Language Models (LLM) を利用して,PT(Persuasion Techniques) とDR(Discourse Relations) の関係について検討する。
PTとDRの両方にアノテートされたデータセットは存在しないため、19個のPTをラベル付けしたSemEval 2023 Task 3データセットを出発点として、LLMベースの分類器を開発し、データセットの各インスタンスを22個のPDTB 3.0レベル2DRにラベル付けした。
合計4個のLDMを10種類のプロンプトを用いて評価し,40個のDR分類器を作成した。
異なるマジョリティプール戦略を用いたアンサンブルモデルを用いて、説得法とレベル2PDTB感覚の両方でラベル付けされた5つの銀色のインスタンスデータセットを作成する。
銀のデータセットサイズは、1,281インスタンスから204インスタンスまで様々である。
これらの銀のデータセットの統計的分析は、6つの談話関係(原因、目的、コントラスト、原因+信条、譲歩、条件)が説得力のあるテキスト、特に負荷言語、誇張/最小化、反復、鋳造ダウトにおいて重要な役割を担っていることを示している。
この知見は、オンラインプロパガンダや誤情報の検出や、効果的なコミュニケーションの一般的な理解に寄与する。
関連論文リスト
- Vision Language Models: A Survey of 26K Papers [0.20305676256390928]
CVPR, ICLR, NeurIPSが2023~2025年に発行した論文26,104件を対象に, 透明かつ再現可能な研究動向の測定を行った。
タイトルと要約は正規化され、フレーズで保護され、手作りのレキシコンと一致し、最大35のトピックラベルが割り当てられる。
分析では,(1)指示と多段階推論として古典的認識を再構築する多モーダル視覚言語・LLM作品の急激な増加,(2)制御性,蒸留性,速度を中心とした拡散研究による生成手法の着実に拡張,(3)レジリエント3Dの3つのマクロシフトを定量化する。
論文 参考訳(メタデータ) (2025-10-10T17:43:17Z) - MAmmoTH-VL: Eliciting Multimodal Reasoning with Instruction Tuning at Scale [66.73529246309033]
MLLM(Multimodal large language model)は、多モーダルタスクにおいて大きな可能性を秘めている。
既存の命令チューニングデータセットは、中間的合理性のないフレーズレベルの答えのみを提供する。
そこで本研究では,大規模マルチモーダル・インストラクション・チューニング・データセットを構築するためのスケーラブルで費用対効果の高い手法を提案する。
論文 参考訳(メタデータ) (2024-12-06T18:14:24Z) - Text Summarization Using Large Language Models: A Comparative Study of
MPT-7b-instruct, Falcon-7b-instruct, and OpenAI Chat-GPT Models [0.0]
Leveraging Large Language Models (LLMs) は、要約技術の強化において、顕著な将来性を示している。
本稿では,MPT-7b-instruct,falcon-7b-instruct,OpenAI ChatGPT text-davinci-003 モデルなど,多種多様な LLM を用いたテキスト要約について検討する。
論文 参考訳(メタデータ) (2023-10-16T14:33:02Z) - LMSYS-Chat-1M: A Large-Scale Real-World LLM Conversation Dataset [75.9621305227523]
LMSYS-Chat-1M(LMSYS-Chat-1M)について紹介する。
このデータセットは、VicunaのデモとArenaのWebサイトで、210KのIPアドレスから収集されています。
GPT-4と同様の動作を行うコンテンツモデレーションモデルの開発、安全性ベンチマークの構築、Vicunaと同様の動作を行う命令追従モデルのトレーニング、挑戦的なベンチマーク問題の作成、という4つのユースケースを通じて、その汎用性を実証する。
論文 参考訳(メタデータ) (2023-09-21T12:13:55Z) - Text Classification via Large Language Models [63.1874290788797]
テキスト分類に関わる複雑な言語現象に対処するために、Clue And Reasoning Prompting (CARP)を導入する。
注目すべきは、CARPが5つの広く使用されているテキスト分類ベンチマークのうち4つで新しいSOTAパフォーマンスを得ることだ。
さらに重要なのは、CARPが低リソースとドメイン適応のセットアップで素晴らしい能力を提供します。
論文 参考訳(メタデータ) (2023-05-15T06:24:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。