論文の概要: On the Influence of Discourse Relations in Persuasive Texts
- arxiv url: http://arxiv.org/abs/2510.26124v1
- Date: Thu, 30 Oct 2025 04:10:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.655554
- Title: On the Influence of Discourse Relations in Persuasive Texts
- Title(参考訳): 説得文における談話関係の影響について
- Authors: Nawar Turk, Sevag Kaspar, Leila Kosseim,
- Abstract要約: 本稿では,Large Language Models (LLM) を利用して,PT(Persuasion Techniques) とDR(Discourse Relations) の関係について検討する。
説得技術とレベル2のPDTB感覚の両方でラベル付けされた5つの銀のインスタンスデータセットを作成しました。
これらの銀のデータセットの統計的分析は、6つの談話関係が説得的テキストにおいて重要な役割を担っていることを示している。
- 参考スコア(独自算出の注目度): 0.0509780930114934
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates the relationship between Persuasion Techniques (PTs) and Discourse Relations (DRs) by leveraging Large Language Models (LLMs) and prompt engineering. Since no dataset annotated with both PTs and DRs exists, we took the SemEval 2023 Task 3 dataset labelled with 19 PTs as a starting point and developed LLM-based classifiers to label each instance of the dataset with one of the 22 PDTB 3.0 level-2 DRs. In total, four LLMs were evaluated using 10 different prompts, resulting in 40 unique DR classifiers. Ensemble models using different majority-pooling strategies were used to create 5 silver datasets of instances labelled with both persuasion techniques and level-2 PDTB senses. The silver dataset sizes vary from 1,281 instances to 204 instances, depending on the majority pooling technique used. Statistical analysis of these silver datasets shows that six discourse relations (namely Cause, Purpose, Contrast, Cause+Belief, Concession, and Condition) play a crucial role in persuasive texts, especially in the use of Loaded Language, Exaggeration/Minimisation, Repetition and to cast Doubt. This insight can contribute to detecting online propaganda and misinformation, as well as to our general understanding of effective communication.
- Abstract(参考訳): 本稿では,Large Language Models (LLM) を利用して,PT(Persuasion Techniques) とDR(Discourse Relations) の関係について検討する。
PTとDRの両方にアノテートされたデータセットは存在しないため、19個のPTをラベル付けしたSemEval 2023 Task 3データセットを出発点として、LLMベースの分類器を開発し、データセットの各インスタンスを22個のPDTB 3.0レベル2DRにラベル付けした。
合計4個のLDMを10種類のプロンプトを用いて評価し,40個のDR分類器を作成した。
異なるマジョリティプール戦略を用いたアンサンブルモデルを用いて、説得法とレベル2PDTB感覚の両方でラベル付けされた5つの銀色のインスタンスデータセットを作成する。
銀のデータセットサイズは、1,281インスタンスから204インスタンスまで様々である。
これらの銀のデータセットの統計的分析は、6つの談話関係(原因、目的、コントラスト、原因+信条、譲歩、条件)が説得力のあるテキスト、特に負荷言語、誇張/最小化、反復、鋳造ダウトにおいて重要な役割を担っていることを示している。
この知見は、オンラインプロパガンダや誤情報の検出や、効果的なコミュニケーションの一般的な理解に寄与する。
関連論文リスト
- Reducing Labeling Effort in Architecture Technical Debt Detection through Active Learning and Explainable AI [4.357716629393195]
Self-Admitted Technical Debt (SATD)は、自然言語のアーティファクトで開発者が明示的に認める技術的妥協を指す。
本研究では,キーワードベースのフィルタリングとアクティブラーニング,説明可能なAIを組み合わせることで,ATD検出におけるラベリングの労力を削減することに焦点を当てた。
論文 参考訳(メタデータ) (2026-03-03T12:51:54Z) - FiNERweb: Datasets and Artifacts for Scalable Multilingual Named Entity Recognition [12.125413756152833]
教師/学生のパラダイムを91言語と25のスクリプトに拡張するデータセット生成パイプラインであるFiNERwebを紹介した。
FineWeb-Edu 上に構築した手法では,回帰モデルを用いて NER 関連パスを識別し,多言語 LLM でアノテートする。
実験の結果, 回帰モデルは84F1以上を達成でき, また, FiNERwebでトレーニングしたモデルでは, ゼロショット転送設定で同等あるいは改善された性能が得られることがわかった。
論文 参考訳(メタデータ) (2025-12-15T20:36:39Z) - Vision Language Models: A Survey of 26K Papers [0.20305676256390928]
CVPR, ICLR, NeurIPSが2023~2025年に発行した論文26,104件を対象に, 透明かつ再現可能な研究動向の測定を行った。
タイトルと要約は正規化され、フレーズで保護され、手作りのレキシコンと一致し、最大35のトピックラベルが割り当てられる。
分析では,(1)指示と多段階推論として古典的認識を再構築する多モーダル視覚言語・LLM作品の急激な増加,(2)制御性,蒸留性,速度を中心とした拡散研究による生成手法の着実に拡張,(3)レジリエント3Dの3つのマクロシフトを定量化する。
論文 参考訳(メタデータ) (2025-10-10T17:43:17Z) - Emo Pillars: Knowledge Distillation to Support Fine-Grained Context-Aware and Context-Less Emotion Classification [56.974545305472304]
感情分析のためのほとんどのデータセットは、意見が表現された文脈を欠き、感情理解に不可欠であり、主にいくつかの感情カテゴリーによって制限される。
我々はLLMベースのデータ合成パイプラインを設計し、よりアクセスしやすい軽量BERT型エンコーダモデルのトレーニング例を生成するために、大規模モデルMistral-7bを利用する。
Emo Pillarsモデルは、GoEmotions、ISEAR、IEMOCAP、EmoContextといった特定のタスクに調整された場合、新しいドメインに対して高い適応性を示し、最初の3つでSOTAのパフォーマンスに達した。
論文 参考訳(メタデータ) (2025-04-23T16:23:17Z) - MAmmoTH-VL: Eliciting Multimodal Reasoning with Instruction Tuning at Scale [66.73529246309033]
MLLM(Multimodal large language model)は、多モーダルタスクにおいて大きな可能性を秘めている。
既存の命令チューニングデータセットは、中間的合理性のないフレーズレベルの答えのみを提供する。
そこで本研究では,大規模マルチモーダル・インストラクション・チューニング・データセットを構築するためのスケーラブルで費用対効果の高い手法を提案する。
論文 参考訳(メタデータ) (2024-12-06T18:14:24Z) - Text Summarization Using Large Language Models: A Comparative Study of
MPT-7b-instruct, Falcon-7b-instruct, and OpenAI Chat-GPT Models [0.0]
Leveraging Large Language Models (LLMs) は、要約技術の強化において、顕著な将来性を示している。
本稿では,MPT-7b-instruct,falcon-7b-instruct,OpenAI ChatGPT text-davinci-003 モデルなど,多種多様な LLM を用いたテキスト要約について検討する。
論文 参考訳(メタデータ) (2023-10-16T14:33:02Z) - LMSYS-Chat-1M: A Large-Scale Real-World LLM Conversation Dataset [75.9621305227523]
LMSYS-Chat-1M(LMSYS-Chat-1M)について紹介する。
このデータセットは、VicunaのデモとArenaのWebサイトで、210KのIPアドレスから収集されています。
GPT-4と同様の動作を行うコンテンツモデレーションモデルの開発、安全性ベンチマークの構築、Vicunaと同様の動作を行う命令追従モデルのトレーニング、挑戦的なベンチマーク問題の作成、という4つのユースケースを通じて、その汎用性を実証する。
論文 参考訳(メタデータ) (2023-09-21T12:13:55Z) - Divide, Conquer, and Combine: Mixture of Semantic-Independent Experts
for Zero-Shot Dialogue State Tracking [83.40120598637665]
対話状態追跡(DST)のためのゼロショット転送学習は、ドメイン内のデータを収集するコストを伴わずに、様々なタスク指向の対話ドメインを扱うのに役立つ。
既存の研究は主に一般化を強化するために、一般的なデータまたはモデルレベルの拡張方法を研究する。
我々は、見られているデータのセマンティクスを明示的に切り離す、単純で効果的な「分割、征服、結合」ソリューションを提案する。
論文 参考訳(メタデータ) (2023-06-01T08:21:20Z) - Text Classification via Large Language Models [63.1874290788797]
テキスト分類に関わる複雑な言語現象に対処するために、Clue And Reasoning Prompting (CARP)を導入する。
注目すべきは、CARPが5つの広く使用されているテキスト分類ベンチマークのうち4つで新しいSOTAパフォーマンスを得ることだ。
さらに重要なのは、CARPが低リソースとドメイン適応のセットアップで素晴らしい能力を提供します。
論文 参考訳(メタデータ) (2023-05-15T06:24:45Z) - Improving Limited Labeled Dialogue State Tracking with Self-Supervision [91.68515201803986]
既存の対話状態追跡(DST)モデルには多くのラベル付きデータが必要である。
本稿では,潜在的一貫性の維持と対話行動のモデル化という,自己指導型の2つの目的について検討する。
提案する自己教師型信号は,1%のラベル付きデータのみを使用する場合,関節ゴール精度を8.95%向上させることができる。
論文 参考訳(メタデータ) (2020-10-26T21:57:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。