論文の概要: Enhancing Debunking Effectiveness through LLM-based Personality Adaptation
- arxiv url: http://arxiv.org/abs/2603.09533v1
- Date: Tue, 10 Mar 2026 11:44:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.258949
- Title: Enhancing Debunking Effectiveness through LLM-based Personality Adaptation
- Title(参考訳): LLMに基づくパーソナリティ適応による分散効果の促進
- Authors: Pietro Dell'Oglio, Alessandro Bondielli, Francesco Marcelloni, Lucia C. Passaro,
- Abstract要約: 本研究では,個別に偽ニュースを拡散するメッセージを生成する新しい手法を提案する。
我々は,大言語モデル (LLMs) と,大五人格の特徴(外転,積極性,良心性,神経性,開放性)に合わせたペルソナに基づくインプットを併用する。
その結果,パーソナライズされたメッセージは一般的なメッセージよりも説得力が高いことがわかった。
- 参考スコア(独自算出の注目度): 41.32471203510647
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This study proposes a novel methodology for generating personalized fake news debunking messages by prompting Large Language Models (LLMs) with persona-based inputs aligned to the Big Five personality traits: Extraversion, Agreeableness, Conscientiousness, Neuroticism, and Openness. Our approach guides LLMs to transform generic debunking content into personalized versions tailored to specific personality profiles. To assess the effectiveness of these transformations, we employ a separate LLM as an automated evaluator simulating corresponding personality traits, thereby eliminating the need for costly human evaluation panels. Our results show that personalized messages are generally seen as more persuasive than generic ones. We also find that traits like Openness tend to increase persuadability, while Neuroticism can lower it. Differences between LLM evaluators suggest that using multiple models provides a clearer picture. Overall, this work demonstrates a practical way to create more targeted debunking messages exploiting LLMs, while also raising important ethical questions about how such technology might be used.
- Abstract(参考訳): 本研究では,大規模言語モデル (LLMs) に,人格特性(外転,欲求性,良心性,神経性,開放性)に整合したペルソナに基づくインプットを促すことによって,個人化された偽ニュースのデバッキングメッセージを生成する手法を提案する。
提案手法は,パーソナライズされたパーソナライズされたコンテンツを,特定のパーソナライズされたパーソナライズされたバージョンに変換することを目的としている。
これらの変換の有効性を評価するため、我々は、人格特性をシミュレートする自動評価器として、別個のLCMを用いて、コストのかかる人格評価パネルの必要性を排除した。
その結果,パーソナライズされたメッセージは一般的なメッセージよりも説得力が高いことがわかった。
また、オープンネスのような特徴は説得力を高める傾向があり、ニューロシズムはそれを低下させる可能性があることもわかりました。
LLM評価器の違いは、複数のモデルを使用することにより、より明確な画像が得られることを示唆している。
全体として、この研究は、LLMを悪用するよりターゲットを絞ったデバッキングメッセージを作成するための実践的な方法を示し、また、そのような技術がどのように使われるのかという重要な倫理的疑問を提起する。
関連論文リスト
- LLMvsSmall Model? Large Language Model Based Text Augmentation Enhanced
Personality Detection Model [58.887561071010985]
パーソナリティ検出は、ソーシャルメディア投稿に根ざした性格特性を検出することを目的としている。
既存のほとんどのメソッドは、事前訓練された言語モデルを微調整することで、ポスト機能を直接学習する。
本稿では,大規模言語モデル (LLM) に基づくテキスト拡張強化人格検出モデルを提案する。
論文 参考訳(メタデータ) (2024-03-12T12:10:18Z) - Eliciting Personality Traits in Large Language Models [0.0]
大規模言語モデル(LLM)は採用の文脈において、候補者と雇用主の両方が利用している。
本研究は,異なる入力プロンプトに基づいて,それらの出力変動を調べることによって,そのようなモデルをよりよく理解することを目的とする。
論文 参考訳(メタデータ) (2024-02-13T10:09:00Z) - Illuminating the Black Box: A Psychometric Investigation into the
Multifaceted Nature of Large Language Models [3.692410936160711]
本研究では,AIパーソナリティやAInalityの概念を探求し,Large Language Models(LLM)が人間のパーソナリティに似たパターンを示すことを示唆する。
プロジェクティブテストを用いて,直接質問を通じて容易にはアクセスできないLLM個性の隠れた側面を明らかにする。
機械学習解析の結果,LSMは異なるAinality特性を示し,多様な性格型を示し,外的指示に応答して動的に変化を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-12-21T04:57:21Z) - Do LLMs exhibit human-like response biases? A case study in survey
design [66.1850490474361]
大規模言語モデル(LLM)が人間の反応バイアスをどの程度反映しているかについて検討する。
アンケート調査では, LLMが人間のような応答バイアスを示すかどうかを評価するためのデータセットとフレームワークを設計した。
9つのモデルに対する総合的な評価は、一般のオープンかつ商用のLCMは、一般的に人間のような振る舞いを反映しないことを示している。
論文 参考訳(メタデータ) (2023-11-07T15:40:43Z) - UPLex: Fine-Grained Personality Control in Large Language Models via Unsupervised Lexical Modulation [52.043831554626685]
パーソナリティは人間のコミュニケーションパターンを形作る重要な要素であり、それによって大きな言語モデル(LLM)のパーソナリティを調節する。
LLMの性格特性を操作するために,Unsupervisedly-Built Personalal lexicon (UPL) を用いた UPLex を提案する。
UPLexは、教師なしの方法で新たに構築された状況判断テストデータセットから構築することができ、LLMの性格表現を変調するために使用される。
論文 参考訳(メタデータ) (2023-10-25T12:16:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。