論文の概要: How Persuasive Could LLMs Be? A First Study Combining Linguistic-Rhetorical Analysis and User Experiments
- arxiv url: http://arxiv.org/abs/2508.09614v1
- Date: Wed, 13 Aug 2025 08:45:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.816
- Title: How Persuasive Could LLMs Be? A First Study Combining Linguistic-Rhetorical Analysis and User Experiments
- Title(参考訳): LLMはどんなものか? 言語-修辞分析とユーザ実験を組み合わせた最初の研究
- Authors: Daniel Raffini, Agnese Macori, Lorenzo Porcaro, Tiziana Catarci, Marco Angelini,
- Abstract要約: 研究によると、参加者はChatGPTが強調する利点をしばしば認めるが、倫理的懸念はポスト・アクションを持続または強化する傾向にある。
これらの発見は、倫理的に敏感な領域におけるAIが生み出す説得に関する新たな洞察を浮き彫りにし、将来の研究の基盤となる。
- 参考スコア(独自算出の注目度): 1.1277995582894218
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This study examines the rhetorical and linguistic features of argumentative texts generated by ChatGPT on ethically nuanced topics and investigates their persuasive impact on human readers.Through a user study involving 62 participants and pre-post interaction surveys, the paper analyzes how exposure to AI-generated arguments affects opinion change and user perception. A linguistic and rhetorical analysis of the generated texts reveals a consistent argumentative macrostructure, reliance on formulaic expressions, and limited stylistic richness. While ChatGPT demonstrates proficiency in constructing coherent argumentative texts, its persuasive efficacy appears constrained, particularly on topics involving ethical issues.The study finds that while participants often acknowledge the benefits highlighted by ChatGPT, ethical concerns tend to persist or even intensify post-interaction. The results also demonstrate a variation depending on the topic. These findings highlight new insights on AI-generated persuasion in ethically sensitive domains and are a basis for future research.
- Abstract(参考訳): 本研究は,ChatGPTが倫理的に曖昧な話題で生み出した論証文の修辞的・言語的特徴を考察し,それらが人間の読者に与える影響について考察した。
生成されたテキストの言語的・修辞的分析により、一貫した論証的マクロ構造、公式表現への依存、限定的な様式的豊かさが明らかになる。
ChatGPTは、コヒーレントな論証テキスト構築の習熟度を示すが、その説得力のある効力は、特に倫理的問題に関連するトピックに制限されているように見える。
結果は、トピックによっても変化を示します。
これらの発見は、倫理的に敏感な領域におけるAIが生み出す説得に関する新たな洞察を浮き彫りにし、将来の研究の基盤となる。
関連論文リスト
- A Linguistic Comparison between Human and ChatGPT-Generated Conversations [9.022590646680095]
この研究は、ChatGPTが生成した会話と人間の会話を比較して、言語問合せと単語数分析を取り入れている。
結果は,人間の対話における多様性と信頼度は高いが,ChatGPTは社会的プロセス,分析的スタイル,認知,注意的焦点,ポジティブな感情的トーンといったカテゴリーに優れていた。
論文 参考訳(メタデータ) (2024-01-29T21:43:27Z) - Natural Language Decompositions of Implicit Content Enable Better Text Representations [52.992875653864076]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - Consistency Analysis of ChatGPT [65.268245109828]
本稿では,ChatGPTとGPT-4の論理的一貫した行動に対する信頼性について検討する。
その結果,両モデルとも言語理解能力と推論能力が向上しているように見えるが,論理的に一貫した予測が得られないことが示唆された。
論文 参考訳(メタデータ) (2023-03-11T01:19:01Z) - Persua: A Visual Interactive System to Enhance the Persuasiveness of
Arguments in Online Discussion [52.49981085431061]
説得力のある議論を書く能力を高めることは、オンラインコミュニケーションの有効性と文明性に寄与する。
オンライン議論における議論の説得力向上を支援するツールの設計目標を4つ導き出した。
Persuaは対話型ビジュアルシステムであり、議論の説得力を高めるための説得戦略の例に基づくガイダンスを提供する。
論文 参考訳(メタデータ) (2022-04-16T08:07:53Z) - Exploring Discourse Structures for Argument Impact Classification [48.909640432326654]
本稿では、文脈経路に沿った2つの議論間の談話関係が、議論の説得力を特定する上で不可欠な要素であることを実証的に示す。
本研究では,文レベルの構造情報を大規模言語モデルから派生した文脈的特徴に注入・融合するDisCOCを提案する。
論文 参考訳(メタデータ) (2021-06-02T06:49:19Z) - The Role of Pragmatic and Discourse Context in Determining Argument
Impact [39.70446357000737]
本稿では,議論のこの側面を研究するための新しいデータセットを提案する。
741件の議論の的となり、47,000件以上の主張がある。
議論的クレームの実践的・言論的文脈を取り入れた予測モデルを提案し,そのモデルが,特定の主張行内で個々のクレームが知覚する影響を予測するために,クレーム固有の言語的特徴に依存するモデルより優れていることを示す。
論文 参考訳(メタデータ) (2020-04-06T23:00:37Z) - What Changed Your Mind: The Roles of Dynamic Topics and Discourse in
Argumentation Process [78.4766663287415]
本稿では,議論の説得力において重要な要因を自動的に分析する研究について述べる。
議論的会話における潜在トピックや談話の変化を追跡できる新しいニューラルモデルを提案する。
論文 参考訳(メタデータ) (2020-02-10T04:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。