論文の概要: Student-AI Creative Writing: Pedagogical Strategies for Applying Natural
Language Generation in Schools
- arxiv url: http://arxiv.org/abs/2207.01484v2
- Date: Tue, 5 Jul 2022 05:38:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-10 17:59:13.512502
- Title: Student-AI Creative Writing: Pedagogical Strategies for Applying Natural
Language Generation in Schools
- Title(参考訳): student-ai creative writing: 学校における自然言語生成の教育戦略
- Authors: David James Woo, Yanzhi Wang, Hengky Susanto
- Abstract要約: 第1回Human-AI Creative Writing Contest in a Hong Kong Middle School を設計,実施した。
生徒は、コンピュータで生成された生徒自身の言葉と言葉を使って、最大500語までの短い物語を書いた。
デザインに基づく研究を用いて,学生が4つのテキストジェネレータで書くことを学習する7つのワークショップを開発した。
- 参考スコア(独自算出の注目度): 23.49722560996335
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI natural language generation (NLG) is a process where computer systems
generate human-comprehensible language texts from information. It can become an
integral part of a human's creative writing process. Importantly, youths can
learn to apply NLG in mainstream education and become better prepared for
AI-enhanced writing jobs and other writing endeavors. To explore how students
apply NLG to creative writing, we designed and implemented the 1st Human-AI
Creative Writing Contest in a Hong Kong secondary school. In this contest, each
student participant wrote a short story of up to 500-words using the student's
own words and words generated by a computer and built on open-source language
models. We designed four text generators for the contest as the computer's text
entry. Additionally, using design-based research, we developed seven workshops
where students learned to write with the four text generators and answered
reflection questions. In analyzing four students' short stories and
adjudicators' scores for the stories, we found different strategies in terms of
the number and the type of text generator words that students used. Some
strategies appeared more sophisticated than others. In analyzing students'
reflections, we found students could describe text generator input and output
as units of thought. Besides, students showed preferences for text generators;
and they expressed a range of feelings when writing with text generators. The
findings provide design implications not only for NLG applications in formal
schooling but also suggest pedagogical strategies for AI curriculum.
- Abstract(参考訳): AI自然言語生成(AI natural Language generation、NLG)は、コンピュータシステムが情報から人間の理解可能な言語テキストを生成するプロセスである。
これは人間の創造的な執筆プロセスの不可欠な部分となる。
重要なことは、若者はNLGをメインストリームの教育に応用することを学び、AIに強化された筆記職や他の筆記作業への準備がより良くなることである。
学生がNLGを創造的著作に適用する方法を探るため,香港の中学校で第1回人間AI創造的著作コンテストを設計・実施した。
このコンテストでは、各学生がコンピュータが生成し、オープンソースの言語モデルに基づいて構築した生徒自身の言葉と単語を用いて、最大500語までの短い物語を書いた。
コンテスト用の4つのテキストジェネレータをコンピュータのテキスト入力として設計した。
さらに,学生が4つのテキストジェネレータで書き書きを学習し,リフレクション質問に答える7つのワークショップを開発した。
4人の児童生徒の短話と副詞の得点を分析した結果,学生が用いた数字とテキスト生成語の種類によって異なる戦略が得られた。
いくつかの戦略は他の戦略よりも洗練されたように見える。
学生の振り返りを分析した結果,テキスト生成器の入力と出力を思考単位として記述できることがわかった。
また、学生はテキスト生成器の好みを示し、テキスト生成器で書くときに様々な感情を表わした。
この結果から,NLG の学校教育への応用だけでなく,AI カリキュラムの教育戦略も示唆された。
関連論文リスト
- A Framework for Collaborating a Large Language Model Tool in Brainstorming for Triggering Creative Thoughts [2.709166684084394]
本研究は, 設計者に対して, ブレインストーミング時のアイデアの創造性向上のために, LLMツールで体系的に作業するための目標, プロンプト, 戦略を取り入れたGPSというフレームワークを提案する。
設計事例とケーススタディを通じてテストした本フレームワークは,創造性を刺激する効果と,設計プラクティスへのLCMツールのシームレスな統合を実証する。
論文 参考訳(メタデータ) (2024-10-10T13:39:27Z) - What You Need is What You Get: Theory of Mind for an LLM-Based Code Understanding Assistant [0.0]
開発者のコード理解を支援するために、多くのツールがLLM(Large Language Models)を使用している。
本研究では,LLMをベースとした対話型アシスタントの設計を行った。
コード理解の初心者を支援するためにLLMベースの会話アシスタントを開発したり改善したりしたい研究者やツールビルダーに洞察を提供する。
論文 参考訳(メタデータ) (2024-08-08T14:08:15Z) - Situated Natural Language Explanations [54.083715161895036]
自然言語の説明(NLE)は、人間に意思決定を説明する最もアクセスしやすいツールである。
既存のNLE研究の視点は、観客を考慮に入れない。
Situated NLEは視点を提供し、説明の生成と評価に関するさらなる研究を促進する。
論文 参考訳(メタデータ) (2023-08-27T14:14:28Z) - Storyfier: Exploring Vocabulary Learning Support with Text Generation
Models [52.58844741797822]
本研究では,学習者の興味をひく対象語に対するコヒーレントな文脈を提供するために,Storyfierを開発した。
学習者は一般的に、生成したストーリーを目標語を接続し、学習負荷を緩和するための支援を書くのに好む。
読み書き学習セッションでは、AI機能のないベースラインツールで学習するよりも、Storyfierを使用する参加者は、リコールやターゲット語の使用でパフォーマンスが悪くなります。
論文 参考訳(メタデータ) (2023-08-07T18:25:00Z) - Exploring EFL students' prompt engineering in human-AI story writing: an
Activity Theory perspective [4.0109641418513355]
本研究では,外国語(EFL)の学生が,短編執筆中に生成人工知能(AI)ツールをどのように促すかを検討するために,活動理論を適用した。
この研究は、学生の生成AIツール、短編小説、彼らの状況や目的について書かれたリフレクションを収集し、分析した。
論文 参考訳(メタデータ) (2023-06-01T14:52:28Z) - CREATOR: Tool Creation for Disentangling Abstract and Concrete Reasoning of Large Language Models [74.22729793816451]
大規模言語モデル(LLM)はツールの利用において大きな進歩を遂げているが、その能力はAPIの可用性によって制限されている。
我々は、LCMがドキュメンテーションとコード実現を使って独自のツールを作成できる新しいフレームワークCREATORを提案する。
我々は,MATH と TabMWP のベンチマークで CREATOR を評価する。
論文 参考訳(メタデータ) (2023-05-23T17:51:52Z) - Harnessing Knowledge and Reasoning for Human-Like Natural Language
Generation: A Brief Review [18.353155826882336]
我々は,言語生成を通して人間のような推論を伝達するために,NLGが知識によってガイドされることの重要性を探求する。
知的NLGシステムのための10の目標を提案し,知識と推論によって導かれるNLG技術の成果を概観した。
論文 参考訳(メタデータ) (2022-12-07T16:18:19Z) - A Survey of Knowledge Enhanced Pre-trained Language Models [78.56931125512295]
我々は、知識強化事前学習言語モデル(KE-PLMs)の包括的なレビューを行う。
NLUでは、言語知識、テキスト知識、知識グラフ(KG)、ルール知識の4つのカテゴリに分類する。
NLGのKE-PLMは、KGベースと検索ベースに分類される。
論文 参考訳(メタデータ) (2022-11-11T04:29:02Z) - Visualize Before You Write: Imagination-Guided Open-Ended Text
Generation [68.96699389728964]
我々は、機械生成画像を用いて、オープンエンドテキスト生成における言語モデルをガイドするiNLGを提案する。
オープンエンドテキスト生成タスクにおけるiNLGの有効性について実験と解析を行った。
論文 参考訳(メタデータ) (2022-10-07T18:01:09Z) - Deep Reinforcement Learning with Stacked Hierarchical Attention for
Text-based Games [64.11746320061965]
自然言語の文脈におけるインタラクティブなシミュレーションであるテキストベースゲームの強化学習について検討する。
エージェントの動作が解釈可能な推論手順によって生成され、支援されるように、意思決定のための知識グラフを用いた明示的な推論を行うことを目指している。
提案手法を多数の人為的ベンチマークゲームで広範囲に評価し,本手法が既存のテキストベースエージェントよりも優れていることを示す実験結果を得た。
論文 参考訳(メタデータ) (2020-10-22T12:40:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。