論文の概要: Tweetorial Hooks: Generative AI Tools to Motivate Science on Social
Media
- arxiv url: http://arxiv.org/abs/2305.12265v1
- Date: Sat, 20 May 2023 18:47:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 23:30:31.217522
- Title: Tweetorial Hooks: Generative AI Tools to Motivate Science on Social
Media
- Title(参考訳): Tweetorial Hooks: ソーシャルメディアで科学を動機付ける生成AIツール
- Authors: Tao Long, Dorothy Zhang, Grace Li, Batool Taraif, Samia Menon, Kynnedy
Simone Smith, Sitong Wang, Katy Ilonka Gero, Lydia B. Chilton
- Abstract要約: 本研究では,大規模言語モデル(LLM)を用いて,複雑な科学的トピックのフックを書くプロセスの足場を構築する手法を提案する。
評価の結果、システムは認知負荷を低減し、より良いフックを書くのに役立ちます。
- 参考スコア(独自算出の注目度): 6.921166414004819
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Communicating science and technology is essential for the public to
understand and engage in a rapidly changing world. Tweetorials are an emerging
phenomenon where experts explain STEM topics on social media in creative and
engaging ways. However, STEM experts struggle to write an engaging "hook" in
the first tweet that captures the reader's attention. We propose methods to use
large language models (LLMs) to help users scaffold their process of writing a
relatable hook for complex scientific topics. We demonstrate that LLMs can help
writers find everyday experiences that are relatable and interesting to the
public, avoid jargon, and spark curiosity. Our evaluation shows that the system
reduces cognitive load and helps people write better hooks. Lastly, we discuss
the importance of interactivity with LLMs to preserve the correctness,
effectiveness, and authenticity of the writing.
- Abstract(参考訳): 科学とテクノロジーのコミュニケーションは、大衆が急速に変化する世界を理解し、関与することが不可欠である。
Tweetorialsは、専門家がソーシャルメディア上のSTEMトピックを創造的で魅力的な方法で説明する、新たな現象だ。
しかし、STEMの専門家は、読者の注意を引く最初のツイートで、魅力的な「フック」を書くのに苦労している。
本研究では, 大規模言語モデル(LLM)を用いて, 複雑な科学的トピックに関連性のあるフックを書くプロセスの足場を構築する手法を提案する。
LLMは、一般大衆に近づき、興味深い日常的な体験を見つけるのに役立ち、ジャーゴンを避け、好奇心を喚起する。
評価の結果、システムは認知的負荷を減らし、より良いフックを書くのに役立ちます。
最後に,筆記の正確性,有効性,信頼性を維持するため,LLMとの相互作用の重要性について論じる。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Can Stories Help LLMs Reason? Curating Information Space Through Narrative [10.840580696466535]
本稿では,物語要素を組み込むことで,複雑な問題をより効果的に解く上で,Large Language Models (LLM) を支援することができるかどうかを検討する。
本稿では,物語構造を問題解決に役立てる新しい手法,SoT(Story of Thought)を提案する。
論文 参考訳(メタデータ) (2024-10-25T00:13:15Z) - Exploring Knowledge Tracing in Tutor-Student Dialogues [53.52699766206808]
本稿では,教師と学生の対話における知識追跡(KT)の最初の試みについて述べる。
そこで本研究では,対話の各ターンに係わる知識コンポーネントやスキルを同定する手法を提案する。
次に,得られたラベル付きデータに様々なKT手法を適用し,対話全体を通して学生の知識レベルを追跡する。
論文 参考訳(メタデータ) (2024-09-24T22:31:39Z) - LLMs Assist NLP Researchers: Critique Paper (Meta-)Reviewing [106.45895712717612]
大規模言語モデル(LLM)は、様々な生成タスクにおいて顕著な汎用性を示している。
本研究は,NLP研究者を支援するLLMの話題に焦点を当てる。
私たちの知る限りでは、このような包括的な分析を提供するのはこれが初めてです。
論文 参考訳(メタデータ) (2024-06-24T01:30:22Z) - Countering Misinformation via Emotional Response Generation [15.383062216223971]
ソーシャルメディアプラットフォーム(SMP)における誤情報拡散は、公衆衛生、社会的結束、民主主義に重大な危険をもたらす。
これまでの研究では、社会的訂正が誤情報を抑制する効果的な方法であることが示された。
約1万のクレーム応答対からなる最初の大規模データセットであるVerMouthを提案する。
論文 参考訳(メタデータ) (2023-11-17T15:37:18Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Creativity Support in the Age of Large Language Models: An Empirical
Study Involving Emerging Writers [33.3564201174124]
経験的ユーザスタディを通じて,プロのライターを支援するため,現代の大規模言語モデルの有用性について検討する。
筆者らは3種類の認知活動の全てにLLMの助けを求める一方で、LLMは翻訳やレビューに役立ちます。
論文 参考訳(メタデータ) (2023-09-22T01:49:36Z) - PromptRobust: Towards Evaluating the Robustness of Large Language Models on Adversarial Prompts [76.18347405302728]
本研究は、文字、単語、文、意味といった複数のレベルにわたるプロンプトを標的とした、敵対的なテキスト攻撃を多用する。
相手のプロンプトは、感情分析、自然言語推論、読書理解、機械翻訳、数学の問題解決など様々なタスクに使用される。
以上の結果から,現代の大規模言語モデルでは,敵対的プロンプトに対して頑健ではないことが示唆された。
論文 参考訳(メタデータ) (2023-06-07T15:37:00Z) - Measuring Dimensions of Self-Presentation in Twitter Bios and their Links to Misinformation Sharing [17.165798960147036]
ソーシャルメディアプラットフォームは、ユーザに「バイオ」と呼ばれるプロファイル記述フィールドを提供し、世界に自らを提示することができる。
社会的意味の健全な次元を捉えた空間に生物を埋め込むための、単純で効果的、理論的に動機づけられた一連のアプローチを提案し、評価する。
我々の研究は、計算社会科学者が生体情報を利用するのを助ける新しいツールを提供し、Twitter上での誤情報共有がどのように認識されるかに関する新たな洞察を提供する。
論文 参考訳(メタデータ) (2023-05-16T15:45:59Z) - RHO ($\rho$): Reducing Hallucination in Open-domain Dialogues with
Knowledge Grounding [57.46495388734495]
本稿では、知識グラフ(KG)からリンクされたエンティティと関係述語を表現したRHO(rho$)を提案する。
本稿では,(1)テキスト埋め込みと対応するKG埋め込みを組み合わせるための局所知識基盤,(2)注目機構を介してRHOにマルチホップ推論能力を持たせるためのグローバル知識基盤を提案する。
論文 参考訳(メタデータ) (2022-12-03T10:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。