論文の概要: Purposeful remixing with generative AI: Constructing designer voice in multimodal composing
- arxiv url: http://arxiv.org/abs/2403.19095v1
- Date: Thu, 28 Mar 2024 02:15:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-29 17:32:29.581779
- Title: Purposeful remixing with generative AI: Constructing designer voice in multimodal composing
- Title(参考訳): 汎用リミックスと生成AI:マルチモーダル合成におけるデザイナ音声の構成
- Authors: Xiao Tan, Wei Xu, Chaoran Wang,
- Abstract要約: 本研究は, 生成型AIツールの使用が, 多モーダル執筆において, より一貫した音声構築に役立つかどうかを考察する。
この研究は、技術的柔軟性によって得られるように、AIによるマルチモーダル書き込みの意図的かつ非帰的な性質に光を当てている。
- 参考スコア(独自算出の注目度): 16.24460569356749
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Voice, the discursive construction of the writer's identity, has been extensively studied and theorized in composition studies. In multimodal writing, students are able to mobilize both linguistic and non linguistic resources to express their real or imagined identities. But at the same time, when students are limited to choose from available online resources, their voices might be compromised due to the incompatibility between their authorial intentions and the existing materials. This study, therefore, investigates whether the use of generative AI tools could help student authors construct a more consistent voice in multimodal writing. In this study, we have designed a photo essay assignment where students recount a story in the form of photo essays and prompt AI image generating tools to create photos for their storytelling. Drawing on interview data, written reflection, written annotation, and multimodal products from seven focal participants, we have identified two remixing practices, through which students attempted to establish a coherent and unique voice in writing. The study sheds light on the intentional and discursive nature of multimodal writing with AI as afforded by the technological flexibility, while also highlighting the practical and ethical challenges that could be attributed to students insufficient prompt and multimodal literacy and the innate limitations of AI systems. This study provides important implications for incorporating AI tools in designing multimodal writing tasks.
- Abstract(参考訳): 著者のアイデンティティの非帰的な構成である音声は、作曲研究において広く研究され、理論化されている。
マルチモーダル・ライティングでは、学生は言語資源と非言語資源の両方を動員して、実または想像上のアイデンティティを表現することができる。
しかし同時に、学生が利用可能なオンラインリソースからしか選択できない場合、著者の意図と既存の資料との相容れないため、彼らの声は損なわれる可能性がある。
そこで本研究では,生成型AIツールの使用が,複数モーダル執筆においてより一貫した音声構築に役立つかどうかを考察した。
本研究では,学生が写真エッセイの形式でストーリーを再現し,AI画像生成ツールを用いてストーリーテリングのための写真作成を行う写真エッセイ課題を設計した。
7名の被験者からインタビューデータ、リフレクション、注釈、マルチモーダル・プロダクトを抽出し、2つのリミックス・プラクティスを特定し、学生が文章における一貫性と独特な声の確立を試みた。
この研究は、技術的柔軟性によって得られる、AIによるマルチモーダル書記の意図的かつ非帰的な性質に光を当て、同時に、学生が不十分な急進的かつマルチモーダル識字性と、AIシステムの自然的限界に起因する、実践的で倫理的な課題を強調した。
本研究は,マルチモーダル書記タスクの設計において,AIツールを組み込む上で重要な意味を持つ。
関連論文リスト
- "It was 80% me, 20% AI": Seeking Authenticity in Co-Writing with Large Language Models [97.22914355737676]
我々は、AIツールと共同で書き込む際に、著者が自分の真正な声を保存したいかどうか、どのように検討する。
本研究は,人間とAIの共創における真正性の概念を解明するものである。
読者の反応は、人間とAIの共著に対する関心が低かった。
論文 参考訳(メタデータ) (2024-11-20T04:42:32Z) - SARD: A Human-AI Collaborative Story Generation [0.0]
本研究では,大規模言語モデルを用いたマルチチャプタストーリ生成のためのドラッグアンドドロップ型ビジュアルインタフェースであるSARDを提案する。
SARDのユーザビリティとその創造性に対する評価は、物語のノードベースの可視化は、著者がメンタルモデルを構築するのに役立つかもしれないが、著者にとって不必要な精神的オーバーヘッドを生じさせることを示している。
また、AIはストーリーの複雑さに関係なく、語彙的に多様性の低いストーリーを生成することもわかりました。
論文 参考訳(メタデータ) (2024-03-03T17:48:42Z) - Techniques for supercharging academic writing with generative AI [0.0]
このパースペクティブは、生成的人工知能(AI)を用いた学術著作の質と効率を高めるための原則と方法を示す。
我々は、書面におけるAIの関与の根拠(なぜ)、プロセス(方法)、そして自然(何)を明確にする人間とAIの協調フレームワークを紹介します。
論文 参考訳(メタデータ) (2023-10-26T04:35:00Z) - Exploring EFL students' prompt engineering in human-AI story writing: an
Activity Theory perspective [4.0109641418513355]
本研究では,外国語(EFL)の学生が,短編執筆中に生成人工知能(AI)ツールをどのように促すかを検討するために,活動理論を適用した。
この研究は、学生の生成AIツール、短編小説、彼らの状況や目的について書かれたリフレクションを収集し、分析した。
論文 参考訳(メタデータ) (2023-06-01T14:52:28Z) - The Role of AI in Human-AI Creative Writing for Hong Kong Secondary
Students [4.739597165434651]
近年の自然言語処理の進歩は、人間のような言語を生成できる言語モデルの開発につながっている。
私たちの経験的発見は、学生作家がより創造的になるのを助けるために、言語モデルが異なる役割を担っていることを示している。
論文 参考訳(メタデータ) (2023-04-21T23:50:09Z) - Beyond Summarization: Designing AI Support for Real-World Expository
Writing Tasks [28.702425557409516]
大規模言語モデルは、新しいAI支援書き込み支援ツールの設計と開発において、エキサイティングな新しい機会と課題をもたらした。
最近の研究は、この新技術を活用することで、創造的執筆時の構想、編集支援、要約など、多くのシナリオで文章を変換できることを示している。
実証書作成のためのAIサポートの開発には、独特でエキサイティングな研究課題があり、高い実世界への影響をもたらす可能性がある、と私たちは主張する。
論文 参考訳(メタデータ) (2023-04-05T17:47:11Z) - Vision+X: A Survey on Multimodal Learning in the Light of Data [64.03266872103835]
様々なソースからのデータを組み込んだマルチモーダル機械学習が,ますます普及している研究分野となっている。
我々は、視覚、音声、テキスト、動きなど、各データフォーマットの共通点と特異点を分析する。
本稿では,表現学習と下流アプリケーションレベルの両方から,マルチモーダル学習に関する既存の文献を考察する。
論文 参考訳(メタデータ) (2022-10-05T13:14:57Z) - Multimodal Lecture Presentations Dataset: Understanding Multimodality in
Educational Slides [57.86931911522967]
学習内容のマルチモーダル理解における機械学習モデルの能力を検証する。
このデータセットには,180時間以上のビデオと9000時間以上のスライドが,各科目から10人の講師が参加している。
マルチモーダル・トランスフォーマーであるPolyViLTを導入する。
論文 参考訳(メタデータ) (2022-08-17T05:30:18Z) - Personalized Multimodal Feedback Generation in Education [50.95346877192268]
学校課題の自動評価は、教育分野におけるAIの重要な応用である。
モーダルゲート機構とパーソナライズされたバイアス機構を備えたPMFGN(Personalized Multimodal Feedback Generation Network)を提案する。
我々のモデルは、より正確で多様なフィードバックを生成することによって、いくつかのベースラインを著しく上回ります。
論文 参考訳(メタデータ) (2020-10-31T05:26:49Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z) - Disentangled Speech Embeddings using Cross-modal Self-supervision [119.94362407747437]
本研究では,映像における顔と音声の自然な相互同期を生かした自己教師型学習目標を提案する。
我々は,(1)両表現に共通する低レベルの特徴を共有する2ストリームアーキテクチャを構築し,(2)これらの要因を明示的に解消する自然なメカニズムを提供する。
論文 参考訳(メタデータ) (2020-02-20T14:13:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。