論文の概要: Tweetorial Hooks: Generative AI Tools to Motivate Science on Social
Media
- arxiv url: http://arxiv.org/abs/2305.12265v1
- Date: Sat, 20 May 2023 18:47:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 23:30:31.217522
- Title: Tweetorial Hooks: Generative AI Tools to Motivate Science on Social
Media
- Title(参考訳): Tweetorial Hooks: ソーシャルメディアで科学を動機付ける生成AIツール
- Authors: Tao Long, Dorothy Zhang, Grace Li, Batool Taraif, Samia Menon, Kynnedy
Simone Smith, Sitong Wang, Katy Ilonka Gero, Lydia B. Chilton
- Abstract要約: 本研究では,大規模言語モデル(LLM)を用いて,複雑な科学的トピックのフックを書くプロセスの足場を構築する手法を提案する。
評価の結果、システムは認知負荷を低減し、より良いフックを書くのに役立ちます。
- 参考スコア(独自算出の注目度): 6.921166414004819
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Communicating science and technology is essential for the public to
understand and engage in a rapidly changing world. Tweetorials are an emerging
phenomenon where experts explain STEM topics on social media in creative and
engaging ways. However, STEM experts struggle to write an engaging "hook" in
the first tweet that captures the reader's attention. We propose methods to use
large language models (LLMs) to help users scaffold their process of writing a
relatable hook for complex scientific topics. We demonstrate that LLMs can help
writers find everyday experiences that are relatable and interesting to the
public, avoid jargon, and spark curiosity. Our evaluation shows that the system
reduces cognitive load and helps people write better hooks. Lastly, we discuss
the importance of interactivity with LLMs to preserve the correctness,
effectiveness, and authenticity of the writing.
- Abstract(参考訳): 科学とテクノロジーのコミュニケーションは、大衆が急速に変化する世界を理解し、関与することが不可欠である。
Tweetorialsは、専門家がソーシャルメディア上のSTEMトピックを創造的で魅力的な方法で説明する、新たな現象だ。
しかし、STEMの専門家は、読者の注意を引く最初のツイートで、魅力的な「フック」を書くのに苦労している。
本研究では, 大規模言語モデル(LLM)を用いて, 複雑な科学的トピックに関連性のあるフックを書くプロセスの足場を構築する手法を提案する。
LLMは、一般大衆に近づき、興味深い日常的な体験を見つけるのに役立ち、ジャーゴンを避け、好奇心を喚起する。
評価の結果、システムは認知的負荷を減らし、より良いフックを書くのに役立ちます。
最後に,筆記の正確性,有効性,信頼性を維持するため,LLMとの相互作用の重要性について論じる。
関連論文リスト
- TEXT2TASTE: A Versatile Egocentric Vision System for Intelligent Reading Assistance Using Large Language Model [2.2469442203227863]
組込みRGBカメラとLarge Language Model(LLM)を用いたスマートグラスを用いたインテリジェントリーディングアシスタントを提案する。
眼鏡をかけている人の自我中心から見た映像を処理し、オブジェクト検出と光学文字認識方法を用いてテキスト情報をローカライズする。
LLMはデータを処理し、ユーザはテキストと対話し、所定のクエリに応答し、修正レンズの機能を拡張する。
論文 参考訳(メタデータ) (2024-04-14T13:39:02Z) - How should the advent of large language models affect the practice of
science? [51.62881233954798]
大規模言語モデルの出現は科学の実践にどのように影響を与えるべきか?
我々は4つの科学者グループを招待し、この質問を反映し、彼らの見解を共有し、議論をおこなった。
論文 参考訳(メタデータ) (2023-12-05T10:45:12Z) - Countering Misinformation via Emotional Response Generation [15.383062216223971]
ソーシャルメディアプラットフォーム(SMP)における誤情報拡散は、公衆衛生、社会的結束、民主主義に重大な危険をもたらす。
これまでの研究では、社会的訂正が誤情報を抑制する効果的な方法であることが示された。
約1万のクレーム応答対からなる最初の大規模データセットであるVerMouthを提案する。
論文 参考訳(メタデータ) (2023-11-17T15:37:18Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Ruffle&Riley: Towards the Automated Induction of Conversational Tutoring
Systems [23.093767743306973]
会話学習システム(CTS)は、自然言語の相互作用によって駆動される学習体験を提供する。
大規模言語モデル(LLM)の最近の進歩を2つの方法で活用する新しいタイプのCTSを提案する。
Ruffle&Riley は ITS の典型的な内ループ構造と外ループ構造に従う自由形式の会話を可能にする。
論文 参考訳(メタデータ) (2023-09-26T23:27:06Z) - Creativity Support in the Age of Large Language Models: An Empirical
Study Involving Emerging Writers [33.3564201174124]
経験的ユーザスタディを通じて,プロのライターを支援するため,現代の大規模言語モデルの有用性について検討する。
筆者らは3種類の認知活動の全てにLLMの助けを求める一方で、LLMは翻訳やレビューに役立ちます。
論文 参考訳(メタデータ) (2023-09-22T01:49:36Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on
Social Media [53.51665032295087]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Context-faithful Prompting for Large Language Models [51.194410884263135]
大言語モデル(LLM)は世界事実に関するパラメトリック知識を符号化する。
パラメトリック知識への依存は、文脈的手がかりを見落とし、文脈に敏感なNLPタスクにおいて誤った予測をもたらす可能性がある。
我々は, LLMの文脈的忠実度を, 知識の衝突と, 棄権による予測の2つの側面で評価し, 向上する。
論文 参考訳(メタデータ) (2023-03-20T17:54:58Z) - RHO ($\rho$): Reducing Hallucination in Open-domain Dialogues with
Knowledge Grounding [57.46495388734495]
本稿では、知識グラフ(KG)からリンクされたエンティティと関係述語を表現したRHO(rho$)を提案する。
本稿では,(1)テキスト埋め込みと対応するKG埋め込みを組み合わせるための局所知識基盤,(2)注目機構を介してRHOにマルチホップ推論能力を持たせるためのグローバル知識基盤を提案する。
論文 参考訳(メタデータ) (2022-12-03T10:36:34Z) - Improving Machine Reading Comprehension with Contextualized Commonsense
Knowledge [62.46091695615262]
我々は、機械読解の理解を改善するために、常識知識を抽出することを目指している。
構造化知識を文脈内に配置することで,関係を暗黙的に表現することを提案する。
我々は,教師の学習パラダイムを用いて,複数種類の文脈的知識を学生機械読取機に注入する。
論文 参考訳(メタデータ) (2020-09-12T17:20:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。