論文の概要: ChatGPT for President! Presupposed content in politicians versus GPT-generated texts
- arxiv url: http://arxiv.org/abs/2503.01269v1
- Date: Mon, 03 Mar 2025 07:48:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:26:16.860222
- Title: ChatGPT for President! Presupposed content in politicians versus GPT-generated texts
- Title(参考訳): 大統領のためのチャットGPT!政治家の前提コンテンツとGPT生成テキスト
- Authors: Davide Garassino, Nicola Brocca, Viviana Masia,
- Abstract要約: 本研究では,ChatGPT-4の政治談話における言語戦略を再現する能力について検討した。
コーパスに基づく実用分析を用いて、ChatGPTがこれらの説得的戦略をいかにうまく模倣できるかを評価する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This study examines ChatGPT-4's capability to replicate linguistic strategies used in political discourse, focusing on its potential for manipulative language generation. As large language models become increasingly popular for text generation, concerns have grown regarding their role in spreading fake news and propaganda. This research compares real political speeches with those generated by ChatGPT, emphasizing presuppositions (a rhetorical device that subtly influences audiences by packaging some content as already known at the moment of utterance, thus swaying opinions without explicit argumentation). Using a corpus-based pragmatic analysis, this study assesses how well ChatGPT can mimic these persuasive strategies. The findings reveal that although ChatGPT-generated texts contain many manipulative presuppositions, key differences emerge in their frequency, form, and function compared with those of politicians. For instance, ChatGPT often relies on change-of-state verbs used in fixed phrases, whereas politicians use presupposition triggers in more varied and creative ways. Such differences, however, are challenging to detect with the naked eye, underscoring the potential risks posed by large language models in political and public discourse.Using a corpus-based pragmatic analysis, this study assesses how well ChatGPT can mimic these persuasive strategies. The findings reveal that although ChatGPT-generated texts contain many manipulative presuppositions, key differences emerge in their frequency, form, and function compared with those of politicians. For instance, ChatGPT often relies on change-of-state verbs used in fixed phrases, whereas politicians use presupposition triggers in more varied and creative ways. Such differences, however, are challenging to detect with the naked eye, underscoring the potential risks posed by large language models in political and public discourse.
- Abstract(参考訳): 本研究では,ChatGPT-4が政治的言論で使用される言語戦略を再現する能力について検討し,操作型言語生成の可能性に着目した。
テキスト生成において大きな言語モデルが普及するにつれて、偽ニュースやプロパガンダを広める役割について懸念が高まっている。
本研究は、ChatGPTが生み出した実際の政治演説と、前置詞(発話の時点で既に知られているようなコンテンツをパッケージ化することで、聴衆に微妙に影響を及ぼす修辞的装置)を強調する。
コーパスに基づく実用分析を用いて、ChatGPTがこれらの説得的戦略をいかにうまく模倣できるかを評価する。
以上の結果から,ChatGPT生成したテキストには多くの操作的前提が組み込まれているが,その頻度,形態,機能に重要な違いが生じることが明らかとなった。
例えば、ChatGPTは固定句で使われる状態変化動詞に依存することが多いが、政治家はより多様で創造的な方法で前置詞を使用する。
しかし、このような違いは裸眼で検出することは困難であり、政治的・公共的な議論において大きな言語モデルによって引き起こされる潜在的なリスクを浮き彫りにしており、コーパスに基づく実用的な分析を用いて、ChatGPTがこれらの説得的戦略をいかにうまく模倣できるかを評価する。
以上の結果から,ChatGPT生成したテキストには多くの操作的前提が組み込まれているが,その頻度,形態,機能に重要な違いが生じることが明らかとなった。
例えば、ChatGPTは固定句で使われる状態変化動詞に依存することが多いが、政治家はより多様で創造的な方法で前置詞を使用する。
しかし、このような違いは裸眼で検出することは困難であり、政治的、公共の議論において大きな言語モデルによって引き起こされる潜在的なリスクを強調している。
関連論文リスト
- Politicians vs ChatGPT. A study of presuppositions in French and Italian political communication [0.0]
本研究は、暗黙のコミュニケーション、特に前置詞とその言論における機能に焦点を当てる。
本研究は,大規模言語モデルの実用的能力に関する新たな文献への貢献も目指している。
論文 参考訳(メタデータ) (2024-11-27T14:46:41Z) - GPT as ghostwriter at the White House [1.7948767405202701]
我々は、ChatGPT 3.5と呼ばれる一大言語モデルの書き方を分析し、その生成したメッセージを最近のアメリカ合衆国大統領とを比較した。
その結果,ChatGPTは名詞やコンマだけでなく,レムマ"We"を多用する傾向にあった。
我々は、GPTのスタイルが実際の大統領住所と異なる特徴を露呈していることを示す。
論文 参考訳(メタデータ) (2024-11-27T14:12:36Z) - Measuring Bullshit in the Language Games played by ChatGPT [41.94295877935867]
生成的大言語モデル(LLM)は真理値と直接対応しないテキストを生成する。
LLMはフランクフルトの有名なモノグラフOn Bullshitに記述されている言語に類似している。
ブルジットの言語統計モデルは、ブルジットの政治・職場機能とフランクフルト人の人工ブルジットを確実に関連付けることができることを示す。
論文 参考訳(メタデータ) (2024-11-22T18:55:21Z) - Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - Playing with Words: Comparing the Vocabulary and Lexical Richness of
ChatGPT and Humans [3.0059120458540383]
ChatGPTのような生成言語モデルは、テキストの生成方法を変える革命を引き起こした。
ChatGPTのようなツールの使用は、使用する語彙や語彙の豊かさを増減するか?
これは、AI生成コンテンツに含まれないコンテンツは、人気が減り、最終的には失われる傾向があるため、言葉に影響を及ぼす。
論文 参考訳(メタデータ) (2023-08-14T21:19:44Z) - Is ChatGPT Involved in Texts? Measure the Polish Ratio to Detect
ChatGPT-Generated Text [48.36706154871577]
我々はHPPT(ChatGPT-polished academic abstracts)と呼ばれる新しいデータセットを紹介する。
純粋なChatGPT生成テキストの代わりに、人書きとChatGPTポリケートされた抽象文のペアを構成することで、既存のコーパスから分岐する。
また,ChatGPTによる修正の度合いを,オリジナルの人文テキストと比較した革新的な尺度であるPolish Ratio法を提案する。
論文 参考訳(メタデータ) (2023-07-21T06:38:37Z) - ChatGPT vs Human-authored Text: Insights into Controllable Text Summarization and Sentence Style Transfer [13.83503100145004]
2つの制御可能な生成タスクにおいてChatGPTの性能を体系的に検査する。
生成したテキストの忠実度を評価し、そのモデルの性能を人間によるテキストと比較する。
テキストを特定のスタイルに適合させる際に、ChatGPTは時に事実的誤りや幻覚を取り入れている。
論文 参考訳(メタデータ) (2023-06-13T14:21:35Z) - Natural Language Decompositions of Implicit Content Enable Better Text Representations [52.992875653864076]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - Uncovering the Potential of ChatGPT for Discourse Analysis in Dialogue:
An Empirical Study [51.079100495163736]
本稿では、トピックセグメンテーションと談話解析という2つの談話分析タスクにおけるChatGPTの性能を体系的に検証する。
ChatGPTは、一般的なドメイン間会話においてトピック構造を特定する能力を示すが、特定のドメイン間会話ではかなり困難である。
我々のより深い調査は、ChatGPTは人間のアノテーションよりも合理的なトピック構造を提供するが、階層的なレトリック構造を線形に解析することしかできないことを示唆している。
論文 参考訳(メタデータ) (2023-05-15T07:14:41Z) - AI, write an essay for me: A large-scale comparison of human-written
versus ChatGPT-generated essays [66.36541161082856]
ChatGPTや同様の生成AIモデルは、何億人ものユーザーを惹きつけている。
本研究は,ChatGPTが生成した議論的学生エッセイと比較した。
論文 参考訳(メタデータ) (2023-04-24T12:58:28Z) - To ChatGPT, or not to ChatGPT: That is the question! [78.407861566006]
本研究は,ChatGPT検出における最新の手法を包括的かつ現代的に評価するものである。
我々は、ChatGPTと人間からのプロンプトからなるベンチマークデータセットをキュレートし、医療、オープンQ&A、ファイナンスドメインからの多様な質問を含む。
評価の結果,既存の手法ではChatGPT生成内容を効果的に検出できないことがわかった。
論文 参考訳(メタデータ) (2023-04-04T03:04:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。