論文の概要: How good is GPT at writing political speeches for the White House?
- arxiv url: http://arxiv.org/abs/2412.14617v1
- Date: Thu, 19 Dec 2024 08:06:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:33:20.658518
- Title: How good is GPT at writing political speeches for the White House?
- Title(参考訳): GPTはホワイトハウスのために政治演説を書くのにどれくらい優れているか。
- Authors: Jacques Savoy,
- Abstract要約: 大規模言語モデル(LLM)を使用することで、コンピュータは us er 要求に応じてテキストを生成することができる。
本研究は、GPTと呼ばれる1つのLPMの書き方について、その生成した音声と最近のアメリカ合衆国大統領との書き方を比較して分析する。
- 参考スコア(独自算出の注目度): 1.7948767405202701
- License:
- Abstract: Using large language models (LLMs), computers are able to generate a written text in response to a us er request. As this pervasive technology can be applied in numerous contexts, this study analyses the written style of one LLM called GPT by comparing its generated speeches with those of the recent US presidents. To achieve this objective, the State of the Union (SOTU) addresses written by Reagan to Biden are contrasted to those produced by both GPT-3.5 and GPT-4.o versions. Compared to US presidents, GPT tends to overuse the lemma "we" and produce shorter messages with, on average, longer sentences. Moreover, GPT opts for an optimistic tone, opting more often for political (e.g., president, Congress), symbolic (e.g., freedom), and abstract terms (e.g., freedom). Even when imposing an author's style to GPT, the resulting speech remains distinct from addresses written by the target author. Finally, the two GPT versions present distinct characteristics, but both appear overall dissimilar to true presidential messages.
- Abstract(参考訳): 大規模言語モデル(LLM)を使用することで、コンピュータは us er 要求に応じてテキストを生成することができる。
この広汎な技術は様々な文脈で応用できるため、近年のアメリカ大統領とのスピーチを比較して、GPTと呼ばれる1つのLCMの書き方を分析した。
この目的を達成するために、レーガンがビデンに書いたSOTU(State of the Union)アドレスは、GPT-3.5とGPT-4.oの両方のバージョンで作成されたアドレスと対比される。
アメリカ合衆国大統領と比較すると、GPTはレムマを過剰に使用し、平均して長い文で短いメッセージを生成する傾向にある。
さらに、GPTは楽観的なトーンを選択し、政治的(例えば、大統領、議会)、象徴的(eg、自由)、抽象的(eg、自由)をより頻繁に選択する。
著者のスタイルをGPTに付与しても、結果として得られる音声は、ターゲットの著者が書いたアドレスとは異なるままである。
最後に、2つのGPTバージョンは異なる特徴を示すが、どちらも真の大統領メッセージと全体的な違いを示している。
関連論文リスト
- Quantifying the Uniqueness of Donald Trump in Presidential Discourse [51.76056700705539]
本稿では,大規模言語モデルに基づく一意性尺度を提案する。
トランプ氏の演説パターンが、最近の歴史の中で大統領候補に指名されたすべての主要政党の発言パターンから逸脱していることを示す証拠が相当ある」と述べた。
論文 参考訳(メタデータ) (2024-01-02T19:00:17Z) - ChatGPT vs Human-authored Text: Insights into Controllable Text Summarization and Sentence Style Transfer [13.83503100145004]
2つの制御可能な生成タスクにおいてChatGPTの性能を体系的に検査する。
生成したテキストの忠実度を評価し、そのモデルの性能を人間によるテキストと比較する。
テキストを特定のスタイルに適合させる際に、ChatGPTは時に事実的誤りや幻覚を取り入れている。
論文 参考訳(メタデータ) (2023-06-13T14:21:35Z) - RecurrentGPT: Interactive Generation of (Arbitrarily) Long Text [81.33699837678229]
本稿では,RNNにおけるリカレンス機構の言語に基づくシミュララムであるRecurrentGPTを紹介する。
各時点において、RecurrentGPTはテキストの段落を生成し、言語ベースの長期記憶を更新する。
RecurrentGPTは、次世代のコンピュータ支援書き込みシステムに向けた最初のステップである。
論文 参考訳(メタデータ) (2023-05-22T17:58:10Z) - Collaborative Generative AI: Integrating GPT-k for Efficient Editing in
Text-to-Image Generation [114.80518907146792]
GPT-kのような大規模言語モデルを利用してテキスト・画像生成の迅速な編集プロセスを改善する可能性について検討する。
我々は、人間とGPT-kの共通編集を比較し、T2Iを誘導する際のGPT-kの性能を評価し、このプロセスに影響を与える可能性のある要因を検討する。
論文 参考訳(メタデータ) (2023-05-18T21:53:58Z) - AI, write an essay for me: A large-scale comparison of human-written
versus ChatGPT-generated essays [66.36541161082856]
ChatGPTや同様の生成AIモデルは、何億人ものユーザーを惹きつけている。
本研究は,ChatGPTが生成した議論的学生エッセイと比較した。
論文 参考訳(メタデータ) (2023-04-24T12:58:28Z) - ChatGPT-4 Outperforms Experts and Crowd Workers in Annotating Political
Twitter Messages with Zero-Shot Learning [0.0]
本稿では、ツイートの内容に基づいて、Twitterポスターの政治的関連を分類するテキスト分析タスクにおいて、Large Language Model (LLM) ChatGPT-4の精度、信頼性、バイアスを評価する。
2020年の大統領選挙では、米国政治家のTwitterメッセージを使い、正確さを測定するための根拠となる真実を提供します。
論文 参考訳(メタデータ) (2023-04-13T14:51:40Z) - The political ideology of conversational AI: Converging evidence on
ChatGPT's pro-environmental, left-libertarian orientation [0.0]
OpenAIは、最先端の対話モデルであるChatGPTを導入した。
本稿では,民主社会の最も重要な意思決定プロセスである政治選挙に焦点を当てる。
われわれはChatGPTの環境的、左自由主義的イデオロギーを明らかにする。
論文 参考訳(メタデータ) (2023-01-05T07:13:13Z) - On Prosody Modeling for ASR+TTS based Voice Conversion [82.65378387724641]
音声変換において、最新の音声変換チャレンジ(VCC)2020における有望な結果を示すアプローチは、まず、ソース音声を基礎となる言語内容に書き起こすために、自動音声認識(ASR)モデルを使用することである。
このようなパラダイムはASR+TTSと呼ばれ、音声の自然性と変換の類似性において重要な役割を果たす韻律のモデル化を見落としている。
本稿では,ターゲットテキスト予測(TTP)と呼ばれる,ターゲット話者に依存した言語表現から直接韻律を予測することを提案する。
論文 参考訳(メタデータ) (2021-07-20T13:30:23Z) - Investigating African-American Vernacular English in Transformer-Based
Text Generation [55.53547556060537]
ソーシャルメディアはアフリカ系アメリカ人英語(AAVE)の使用を奨励している
AAVEテキスト上でのGPT-2の性能は、意図等価な並列AAVE/SAEツイートペアのデータセットを作成することによって検証する。
AAVEテキストはSAEよりもネガティブな感情の分類が多かったが、GPT-2の使用は概して肯定的な感情の発生を増加させている。
論文 参考訳(メタデータ) (2020-10-06T06:27:02Z) - Text-Based Ideal Points [26.981303055207267]
著者の政治的立場を定量化するためにテキストを解析する教師なし確率的トピックモデルであるテキストベース理想点モデル(TBIP)を導入する。
TBIPは政党ごとに議員を分離し、解釈可能な政治トピックを学び、古典的な投票に基づく理想点に近い理想的な点を推測する。
非投票者を含む政治的テキストを執筆する人の理想的なポイントを見積もることができる。
論文 参考訳(メタデータ) (2020-05-08T21:16:42Z) - Assessing Discourse Relations in Language Generation from GPT-2 [37.30382375828105]
GPT-2は、左から右への言語モデリングの目的から、生成タスクに適している。
有機生成シナリオと微調整シナリオの両方において, GPT-2の出力における明示的談話関係の有効性について検討した。
論文 参考訳(メタデータ) (2020-04-26T23:29:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。