論文の概要: Adult learners recall and recognition performance and affective feedback when learning from an AI-generated synthetic video
- arxiv url: http://arxiv.org/abs/2412.10384v1
- Date: Thu, 28 Nov 2024 21:40:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-22 09:02:54.213403
- Title: Adult learners recall and recognition performance and affective feedback when learning from an AI-generated synthetic video
- Title(参考訳): 成人学習者は、AI生成合成ビデオから学ぶときのパフォーマンスと感情のフィードバックを思い出す
- Authors: Zoe Ruo-Yu Li, Caswell Barry, Mutlu Cukurova,
- Abstract要約: この研究は500人の参加者を募集し、大人の学習者のリコールと認識のパフォーマンス、AI生成合成ビデオに対する感情的なフィードバックについて調査した。
その結果,リコールおよび認識性能の条件間で統計的に有意な差は認められなかった。
しかし、成人の学習者はテキストではなくビデオ形式から学ぶことを好んだ。
- 参考スコア(独自算出の注目度): 1.7742433461734404
- License:
- Abstract: The widespread use of generative AI has led to multiple applications of AI-generated text and media to potentially enhance learning outcomes. However, there are a limited number of well-designed experimental studies investigating the impact of learning gains and affective feedback from AI-generated media compared to traditional media (e.g., text from documents and human recordings of video). The current study recruited 500 participants to investigate adult learners recall and recognition performances as well as their affective feedback on the AI-generated synthetic video, using a mixed-methods approach with a pre-and post-test design. Specifically, four learning conditions, AI-generated framing of human instructor-generated text, AI-generated synthetic videos with human instructor-generated text, human instructor-generated videos, and human instructor-generated text frame (baseline), were considered. The results indicated no statistically significant difference amongst conditions on recall and recognition performance. In addition, the participants affective feedback was not statistically significantly different between the two video conditions. However, adult learners preferred to learn from the video formats rather than text materials.
- Abstract(参考訳): 生成AIの普及は、学習結果を高めるために、AI生成テキストとメディアの複数の応用につながった。
しかし、従来のメディア(例えば、文書からのテキストやビデオの人間記録)と比較して、学習の成果とAI生成メディアからの感情的フィードバックの影響について、十分に設計された研究が限られている。
今回の研究では、500人の参加者を募集し、成人の学習者のリコールと認識のパフォーマンス、AI生成された合成ビデオに対する感情的なフィードバックを、事前テストとポストテストの設計による混合メソッドアプローチを用いて調査した。
具体的には、4つの学習条件、人間のインストラクター生成テキストのAI生成フレーミング、人間のインストラクター生成テキストによるAI生成合成ビデオ、人間のインストラクター生成ビデオ、および人間のインストラクター生成テキストフレーム(ベースライン)を検討した。
その結果,リコールおよび認識性能の条件間で統計的に有意な差は認められなかった。
また,被験者の感情フィードバックは,2つの映像条件間に統計的に有意差はなかった。
しかし、成人の学習者はテキストではなくビデオ形式から学ぶことを好んだ。
関連論文リスト
- Generative Ghost: Investigating Ranking Bias Hidden in AI-Generated Videos [106.5804660736763]
ビデオ情報検索は、ビデオコンテンツにアクセスするための基本的なアプローチである。
我々は,検索モデルがアドホックや画像検索タスクにおいて,AI生成コンテンツに好適であることを示す。
我々は、ビデオ検索に挑戦する文脈において、同様のバイアスが出現するかどうかを考察する。
論文 参考訳(メタデータ) (2025-02-11T07:43:47Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - MindSpeech: Continuous Imagined Speech Decoding using High-Density fNIRS and Prompt Tuning for Advanced Human-AI Interaction [0.0]
本稿では,脳とAIの直接インターフェースを開発することによって,人間とAIのインタラクションを実現する新しい手法を提案する。
我々はMindSpeechと呼ばれる新しいAIモデルについて論じる。
4名中3名に対してBLEU-1,BERT Pスコアなどの指標を有意に改善した。
論文 参考訳(メタデータ) (2024-07-25T16:39:21Z) - Unmasking Illusions: Understanding Human Perception of Audiovisual Deepfakes [49.81915942821647]
本研究は,ディープフェイク映像を主観的研究により識別する人間の能力を評価することを目的とする。
人間の観察者を5つの最先端オーディオ視覚深度検出モデルと比較することにより,その知見を提示する。
同じ40の動画で評価すると、すべてのAIモデルは人間より優れていることが分かりました。
論文 参考訳(メタデータ) (2024-05-07T07:57:15Z) - A Comparative Study of Perceptual Quality Metrics for Audio-driven
Talking Head Videos [81.54357891748087]
4つの生成手法から生成した音声ヘッドビデオを収集する。
視覚的品質、口唇音の同期、頭部運動の自然性に関する制御された心理物理実験を行った。
実験では,モデル予測と人間のアノテーションの整合性を検証し,広く使用されている指標よりも人的意見に整合した指標を同定した。
論文 参考訳(メタデータ) (2024-03-11T04:13:38Z) - Evaluating the Efficacy of Hybrid Deep Learning Models in Distinguishing
AI-Generated Text [0.0]
私の研究は、AI生成テキストと人間の文章を正確に区別するために、最先端のハイブリッドディープラーニングモデルを使用することを調査します。
さまざまなソースからAIと人文からなる慎重に選択されたデータセットを利用し、それぞれに指示をタグ付けして、堅牢な方法論を適用しました。
論文 参考訳(メタデータ) (2023-11-27T06:26:53Z) - The Imitation Game: Detecting Human and AI-Generated Texts in the Era of
ChatGPT and BARD [3.2228025627337864]
異なるジャンルの人文・AI生成テキストのデータセットを新たに導入する。
テキストを分類するために、いくつかの機械学習モデルを使用します。
結果は、人間とAIが生成したテキストを識別する上で、これらのモデルの有効性を示す。
論文 参考訳(メタデータ) (2023-07-22T21:00:14Z) - A Video Is Worth 4096 Tokens: Verbalize Videos To Understand Them In
Zero Shot [67.00455874279383]
そこで本研究では,自然言語による記述を生成するために長編動画を音声化し,生成したストーリーの映像理解タスクを実行することを提案する。
提案手法は,ゼロショットであるにもかかわらず,ビデオ理解のための教師付きベースラインよりもはるかに優れた結果が得られる。
ストーリー理解ベンチマークの欠如を緩和するため,我々は,説得戦略の識別に関する計算社会科学における重要な課題に関する最初のデータセットを公開している。
論文 参考訳(メタデータ) (2023-05-16T19:13:11Z) - Generative AI for learning: Investigating the potential of synthetic
learning videos [0.6628807224384127]
そこで本研究では,AI生成合成ビデオを用いたオンライン教育環境における教育コンテンツ作成の有用性について検討する。
オンライン学習プラットフォームにおけるAI合成ビデオの利用が学習者のコンテンツ獲得と学習経験に与える影響について検討した。
論文 参考訳(メタデータ) (2023-04-07T12:57:42Z) - Reading and Writing: Discriminative and Generative Modeling for
Self-Supervised Text Recognition [101.60244147302197]
テキスト画像の識別と生成を学習するために,コントラスト学習とマスク付き画像モデリングを導入する。
本手法は,不規則なシーンテキスト認識データセットにおいて,従来の自己教師付きテキスト認識手法を10.2%~20.2%向上させる。
提案したテキスト認識器は,11のベンチマークで平均5.3%の精度で従来のテキスト認識手法を上回り,モデルサイズが類似している。
論文 参考訳(メタデータ) (2022-07-01T03:50:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。