論文の概要: A Hybrid Theory and Data-driven Approach to Persuasion Detection with Large Language Models
- arxiv url: http://arxiv.org/abs/2511.22109v1
- Date: Thu, 27 Nov 2025 04:59:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.401598
- Title: A Hybrid Theory and Data-driven Approach to Persuasion Detection with Large Language Models
- Title(参考訳): 大規模言語モデルを用いたハイブリッド理論とデータ駆動型アプローチ
- Authors: Gia Bao Hoang, Keith J Ransom, Rachel Stephens, Carolyn Semmler, Nicolas Fay, Lewis Mitchell,
- Abstract要約: そこで我々は,心理学実験から得られた特徴を用いて,説得を成功させるモデルを構築した。
本研究は, 説得的メッセージの特徴について考察した。
この研究は、オンライン影響検出や誤情報緩和といった分野に広く応用されている。
- 参考スコア(独自算出の注目度): 0.9236074230806578
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional psychological models of belief revision focus on face-to-face interactions, but with the rise of social media, more effective models are needed to capture belief revision at scale, in this rich text-based online discourse. Here, we use a hybrid approach, utilizing large language models (LLMs) to develop a model that predicts successful persuasion using features derived from psychological experiments. Our approach leverages LLM generated ratings of features previously examined in the literature to build a random forest classification model that predicts whether a message will result in belief change. Of the eight features tested, \textit{epistemic emotion} and \textit{willingness to share} were the top-ranking predictors of belief change in the model. Our findings provide insights into the characteristics of persuasive messages and demonstrate how LLMs can enhance models of successful persuasion based on psychological theory. Given these insights, this work has broader applications in fields such as online influence detection and misinformation mitigation, as well as measuring the effectiveness of online narratives.
- Abstract(参考訳): 従来の信念リビジョンの心理学モデルは対面インタラクションに重点を置いているが、ソーシャルメディアの台頭に伴い、このリッチテキストベースのオンライン談話において、信念リビジョンを大規模に捉えるためにより効果的なモデルが必要である。
そこで我々は,大規模言語モデル(LLM)を用いたハイブリッド手法を用いて,心理学実験から得られた特徴を用いた説得を成功に導くモデルを開発した。
本稿では,従来文献で検討されてきた特徴のLCM生成評価を利用して,メッセージが信念の変化をもたらすかどうかを予測できるランダムな森林分類モデルを構築した。
テスト対象の8つの特徴のうち,モデルにおける信念変化の上位に,‘textit{epistemic emotion} と‘textit{willingness to Share’ がある。
本研究は, 説得的メッセージの特徴を考察し, 心理的理論に基づく説得モデルの改善効果を実証するものである。
これらの知見を踏まえ、この研究はオンライン影響の検出や誤情報緩和といった分野に広く応用されており、オンライン物語の有効性を測っている。
関連論文リスト
- Conceptual Contrastive Edits in Textual and Vision-Language Retrieval [1.8591405259852054]
我々は、検索モデルの表現に印字された注目すべきパターンやバイアスを明らかにするために、ポストホックな概念的コントラスト編集を用いる。
我々はこれらの編集をブラックボックス方式で言語的および言語学的事前学習モデルの両方を説明するために応用する。
また、モデル結果に対する対照的な介入による単語ごとの影響を評価するための新しい指標も導入する。
論文 参考訳(メタデータ) (2025-03-01T10:14:28Z) - Among Them: A game-based framework for assessing persuasion capabilities of LLMs [0.8763629723457529]
大規模言語モデル(LLM)と自律AIエージェントは、自動的な説得と社会的影響の可能性を懸念している。
制御環境におけるLLM偽装スキルを評価するためのUs-inspiredゲームフレームワークについて述べる。
論文 参考訳(メタデータ) (2025-02-27T12:26:21Z) - Synthetic Social Media Influence Experimentation via an Agentic Reinforcement Learning Large Language Model Bot [7.242974711907219]
本研究は,エージェント・インテリジェンスとLarge Language Models(LLM)を組み合わせることで,トピック固有の影響メカニズムをテストする新しいシミュレーション環境を提供する。
我々のフレームワークには、投稿を生成し、特定のトピックについて意見を形成し、議論の結果に基づいて相互にフォロー/アンフォローするエージェントが含まれています。
論文 参考訳(メタデータ) (2024-11-29T11:37:12Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - Interpretable Fake News Detection with Topic and Deep Variational Models [2.15242029196761]
我々は,解釈可能な特徴と手法を用いた偽ニュース検出に焦点をあてる。
我々は,テキストニュースの高密度表現を統合した深層確率モデルを開発した。
我々のモデルは最先端の競合モデルに匹敵する性能を達成する。
論文 参考訳(メタデータ) (2022-09-04T05:31:00Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。