論文の概要: Talking Abortion (Mis)information with ChatGPT on TikTok
- arxiv url: http://arxiv.org/abs/2303.13524v1
- Date: Thu, 23 Feb 2023 17:35:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 16:35:26.804872
- Title: Talking Abortion (Mis)information with ChatGPT on TikTok
- Title(参考訳): TikTok上のChatGPTによる中絶(ミス)情報提供
- Authors: Filipo Sharevski and Jennifer Vander Loop and Peter Jachim and Amy
Devine and Emma Pieroni
- Abstract要約: われわれはTikTokビデオの精度とエンゲージメントに対するユーザの認識を検証し、ChatGPTは「自宅での」中絶治療のプロンプトに反応した。
私たちはChatGPTを使って、2つのTikTokビデオの変種を作成しました。
その結果,ChatGPTのテキスト合成に気づいていない参加者群は,応答が誤情報であると考える傾向が見られた。
- 参考スコア(独自算出の注目度): 9.101622055120831
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we tested users' perception of accuracy and engagement with
TikTok videos in which ChatGPT responded to prompts about "at-home" abortion
remedies. The chatbot's responses, though somewhat vague and confusing,
nonetheless recommended consulting with health professionals before attempting
an "at-home" abortion. We used ChatGPT to create two TikTok video variants -
one where users can see ChatGPT explicitly typing back a response, and one
where the text response is presented without any notion to the chatbot. We
randomly exposed 100 participants to each variant and found that the group of
participants unaware of ChatGPT's text synthetization was more inclined to
believe the responses were misinformation. Under the same impression, TikTok
itself attached misinformation warning labels ("Get the facts about abortion")
to all videos after we collected our initial results. We then decided to test
the videos again with another set of 50 participants and found that the labels
did not affect the perceptions of abortion misinformation except in the case
where ChatGPT explicitly responded to a prompt for a lyrical output. We also
found that more than 60% of the participants expressed negative or hesitant
opinions about chatbots as sources of credible health information.
- Abstract(参考訳): そこで本研究では,ChatGPTが在宅中絶治療のプロンプトに応答するTikTokビデオの精度とエンゲージメントに対するユーザの認識を検討した。
チャットボットの反応はやや曖昧で紛らわしいが、それでも「在宅」中絶を試みる前に健康専門家との相談を推奨した。
私たちはChatGPTを使って、2つのTikTokビデオの変種を作成しました。
ランダムに各変異体に100人の参加者を露出させた結果,ChatGPTのテキスト合成が誤情報であると考える傾向が認められた。
同じ印象の下、tiktok自身は、最初の結果を収集した後、すべてのビデオに誤った情報警告ラベル(中絶に関する事実を入手する)を付けた。
その後、別の50人の参加者で再び動画をテストすることに決め、ラベルが中絶の誤情報の知覚に影響を与えないことを発見したが、chatgptが歌詞のアウトプットのプロンプトに明示的に反応した場合を除いては。
また、回答者の60%以上が、チャットボットを信頼できる健康情報源として否定的、あるいは過激な意見を表明していることも判明した。
関連論文リスト
- A Study on the Vulnerability of Test Questions against ChatGPT-based
Cheating [14.113742357609285]
ChatGPTはテキストのプロンプトを正確に答えることができる。
多くの教育者は、彼らの持ち帰りテストや遠隔テストや試験がChatGPTベースの不正行為に弱いことを発見している。
論文 参考訳(メタデータ) (2024-02-21T23:51:06Z) - Exploring ChatGPT's Capabilities on Vulnerability Management [56.4403395100589]
我々は、70,346のサンプルを含む大規模なデータセットを用いて、完全な脆弱性管理プロセスを含む6つのタスクでChatGPTの機能を探求する。
注目すべき例として、ChatGPTのソフトウェアバグレポートのタイトル生成などのタスクにおける熟練度がある。
以上の結果から,ChatGPTが抱える障害が明らかとなり,将来的な方向性に光を当てた。
論文 参考訳(メタデータ) (2023-11-11T11:01:13Z) - Primacy Effect of ChatGPT [69.49920102917598]
本稿では,ChatGPTの優位性について検討する。
実験と分析により、より信頼性の高いChatGPTベースのソリューションを構築する上で、さらなる洞察が得られればと思っています。
論文 参考訳(メタデータ) (2023-10-20T00:37:28Z) - Is Stack Overflow Obsolete? An Empirical Study of the Characteristics of
ChatGPT Answers to Stack Overflow Questions [7.065853028825656]
Stack Overflowのプログラミング問題に対するChatGPT回答の詳細な分析を行った。
また,ChatGPT回答の正確性,一貫性,包括性,簡潔性を検討した。
分析の結果,ChatGPT回答の52%が誤り情報であり,77%が冗長であることがわかった。
論文 参考訳(メタデータ) (2023-08-04T13:23:20Z) - Chatbots put to the test in math and logic problems: A preliminary
comparison and assessment of ChatGPT-3.5, ChatGPT-4, and Google Bard [68.8204255655161]
曖昧さがなく、プレーンテキストのみで完全に記述され、ユニークな、明確に定義された正しい回答を持つ、30の質問を使用します。
回答は記録され、議論され、その強みと弱点を強調します。
その結果,ChatGPT-4はChatGPT-3.5より優れていた。
論文 参考訳(メタデータ) (2023-05-30T11:18:05Z) - To ChatGPT, or not to ChatGPT: That is the question! [78.407861566006]
本研究は,ChatGPT検出における最新の手法を包括的かつ現代的に評価するものである。
我々は、ChatGPTと人間からのプロンプトからなるベンチマークデータセットをキュレートし、医療、オープンQ&A、ファイナンスドメインからの多様な質問を含む。
評価の結果,既存の手法ではChatGPT生成内容を効果的に検出できないことがわかった。
論文 参考訳(メタデータ) (2023-04-04T03:04:28Z) - Seeing ChatGPT Through Students' Eyes: An Analysis of TikTok Data [3.441021278275805]
われわれは、#chatgptでタグ付けされた英語で最も人気のある100本の動画の内容を分析した。
ビデオの多くは、エッセイを書いたりコードを書いたりするためのChatGPTの使用を奨励した。
しかし、TikTokで分析されたクリップに欠けているのは、ChatGPTが生み出すコンテンツについて、トレーニングデータに不利で不誠実な議論をするビデオだ。
論文 参考訳(メタデータ) (2023-03-09T15:46:54Z) - Let's have a chat! A Conversation with ChatGPT: Technology,
Applications, and Limitations [0.0]
Chat Generative Pre-trained Transformerは、ChatGPTとしてよく知られたもので、人間に似た文を生成し、一貫性のあるエッセイを書くことができる。
医療、教育、研究など様々な分野におけるChatGPTの応用の可能性を強調した。
有望な結果にもかかわらず、ChatGPTにはいくつかのプライバシーと倫理上の懸念がある。
論文 参考訳(メタデータ) (2023-02-27T14:26:29Z) - Can ChatGPT Understand Too? A Comparative Study on ChatGPT and
Fine-tuned BERT [103.57103957631067]
チャットGPTは、人間の質問に対する流動的で高品質な応答を生成できるため、大きな注目を集めている。
そこで我々は,ChatGPTの理解能力を,最も人気のあるGLUEベンチマークで評価し,より詳細な4種類のBERTスタイルのモデルと比較した。
2)ChatGPTは,感情分析や質問応答タスクにおいて,BERTと同等のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2023-02-19T12:29:33Z) - Is ChatGPT a General-Purpose Natural Language Processing Task Solver? [113.22611481694825]
大規模言語モデル(LLM)は、さまざまな自然言語処理(NLP)タスクをゼロショットで実行できることを実証している。
近年、ChatGPTのデビューは自然言語処理(NLP)コミュニティから大きな注目を集めている。
ChatGPTが多くのNLPタスクをゼロショットで実行できるジェネラリストモデルとして機能するかどうかはまだ分かっていない。
論文 参考訳(メタデータ) (2023-02-08T09:44:51Z) - Abortion Misinformation on TikTok: Rampant Content, Lax Moderation, and
Vivid User Experiences [9.101622055120831]
我々は60人のTikTokユーザを対象に、中絶誤報の経験を明らかにするための調査を行った。
以上の結果より, 妊娠終了に対するハーブの「在宅治療」を示唆する短期的ビデオがほとんどであった。
参加者の多くは科学的に「吸収代替」に注意を払っていたが、サンプル全体の約30%は安全性と有効性を信じていた。
論文 参考訳(メタデータ) (2023-01-12T16:31:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。