論文の概要: Learning Through AI-Clones: Enhancing Self-Perception and Presentation Performance
- arxiv url: http://arxiv.org/abs/2310.15112v2
- Date: Fri, 07 Mar 2025 21:50:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 20:09:43.540554
- Title: Learning Through AI-Clones: Enhancing Self-Perception and Presentation Performance
- Title(参考訳): AIクローンによる学習 - 自己認識とプレゼンテーションのパフォーマンス向上
- Authors: Qingxiao Zheng, Zhuoer Chen, Yun Huang,
- Abstract要約: 44人の国際学生による混合設計実験は、オンライン英語プレゼンテーションの自己記録ビデオ(自己記録グループ)とAIクローンビデオ(AIクローングループ)を比較した。
その結果、AIクローンは、社会的比較を容易にするために肯定的な「ロールモデル」として機能していた。
- 参考スコア(独自算出の注目度): 7.151400656424202
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This study examines the impact of AI-generated digital clones with self-images on enhancing perceptions and skills in online presentations. A mixed-design experiment with 44 international students compared self-recording videos (self-recording group) to AI-clone videos (AI-clone group) for online English presentation practice. AI-clone videos were generated using voice cloning, face swapping, lip-syncing, and body-language simulation, refining the repetition, filler words, and pronunciation of participants' original presentations. Through the lens of social comparison theory, the results showed that AI clones functioned as positive "role models" for facilitating social comparisons. When comparing the effects on self-perceptions, speech qualities, and self-kindness, the self-recording group showed an increase in pronunciation satisfaction. However, the AI-clone group exhibited greater self-kindness, broader observational coverage, and a meaningful transition from a corrective to an enhancive approach in self-critique. Moreover, machine-rated scores revealed immediate performance gains only within the AI-clone group. Considering individual differences, aligning interventions with participants' regulatory focus significantly enhanced their learning experience. These findings highlight the theoretical, practical, and ethical implications of AI clones in supporting emotional and cognitive skill development.
- Abstract(参考訳): 本研究では,自己イメージを用いたAI生成デジタルクローンがオンラインプレゼンテーションにおける知覚とスキル向上に与える影響について検討する。
44人の国際学生による混合設計実験は、自己記録ビデオ(自己記録グループ)とAIクローンビデオ(AIクローングループ)をオンライン英語のプレゼンテーション実践と比較した。
AIクローンビデオは、音声のクローニング、顔交換、リップシンク、ボディランゲージのシミュレーション、繰り返しの修正、フィラーワード、参加者のオリジナルのプレゼンテーションの発音を用いて生成された。
社会比較理論のレンズを通して、AIクローンは社会比較を促進するために肯定的な「ロールモデル」として機能したことを示した。
自己知覚, 音声品質, 自己親和性に対する効果を比較すると, 自己記録群は発音満足度の増加を示した。
しかし、AIクローングループは、より優れた自己親和性、より広い観察範囲、そして自己批判における矯正的アプローチから啓発的アプローチへの有意義な移行を示した。
さらに、AIクローングループ内でのみ、マシンレーティングスコアが即時パフォーマンス向上を示した。
個人差を考慮すると、参加者の規制に焦点を合わせることで、学習経験が大幅に向上した。
これらの知見は、感情的および認知的スキル開発を支援するAIクローンの理論的、実践的、倫理的意味を浮き彫りにした。
関連論文リスト
- Enhancing nonnative speech perception and production through an AI-powered application [0.0]
本研究の目的は、AIを利用したモバイルアプリケーションによるトレーニングが、非ネイティブな音の知覚と生産に与える影響を検討することである。
この介入には、英語の母音を特徴とする録音タスクと発音フィードバックと練習を取り入れたSpeakometer Mobileアプリケーションによるトレーニングが含まれていた。
その結果,介入後の判別精度と目標コントラストの生成に有意な改善が認められた。
論文 参考訳(メタデータ) (2025-03-18T10:05:12Z) - Identifying Features that Shape Perceived Consciousness in Large Language Model-based AI: A Quantitative Study of Human Responses [4.369058206183195]
本研究では,大規模言語モデル(LLM)に基づくAIシステムにおいて,AI生成したテキストの特徴が人間に主観意識を知覚させるかどうかを定量的に検討する。
回帰分析とクラスタリング分析を用いて,これらの特徴がAI意識に対する参加者の認識にどのように影響するかを検討した。
論文 参考訳(メタデータ) (2025-02-21T10:27:28Z) - Adult learners recall and recognition performance and affective feedback when learning from an AI-generated synthetic video [1.7742433461734404]
この研究は500人の参加者を募集し、大人の学習者のリコールと認識のパフォーマンス、AI生成合成ビデオに対する感情的なフィードバックについて調査した。
その結果,リコールおよび認識性能の条件間で統計的に有意な差は認められなかった。
しかし、成人の学習者はテキストではなくビデオ形式から学ぶことを好んだ。
論文 参考訳(メタデータ) (2024-11-28T21:40:28Z) - Listening for Expert Identified Linguistic Features: Assessment of Audio Deepfake Discernment among Undergraduate Students [0.0]
本稿では,専門家が定義した言語的特徴を聴くことで,大学生が音声深層認識能力を向上させるための教育効果を評価する。
我々の研究は、ディープフェイク識別メカニズムとして、ターゲット言語的手がかりをリスナーに導入することで、情報教育に留まらない。
その結果, 実験群は, 音声クリップの評価における不確実性が統計的に顕著に低下し, 当初不確実であったクリップを正確に識別する能力が向上したことがわかった。
論文 参考訳(メタデータ) (2024-11-21T20:52:02Z) - MindSpeech: Continuous Imagined Speech Decoding using High-Density fNIRS and Prompt Tuning for Advanced Human-AI Interaction [0.0]
本稿では,脳とAIの直接インターフェースを開発することによって,人間とAIのインタラクションを実現する新しい手法を提案する。
我々はMindSpeechと呼ばれる新しいAIモデルについて論じる。
4名中3名に対してBLEU-1,BERT Pスコアなどの指標を有意に改善した。
論文 参考訳(メタデータ) (2024-07-25T16:39:21Z) - Collective Attention in Human-AI Teams [4.312803416185713]
AIアシスタントの存在は、共有認知の様々な側面を調節することによって、チームの集団的注意に大きく影響する。
本研究は,チーム設定におけるAIシステムがチームパフォーマンスに影響を及ぼす中心的なメカニズムとして,集団的注意を喚起することによって,人間とAIのコラボレーション研究に寄与する。
論文 参考訳(メタデータ) (2024-07-03T13:46:00Z) - EgoNCE++: Do Egocentric Video-Language Models Really Understand Hand-Object Interactions? [48.702973928321946]
我々は、EgoNCE++という新しい非対称なコントラスト対象をEgoHOIに導入する。
実験の結果,EgoNCE++はオープン語彙HOI認識,マルチインスタンス検索,アクション認識タスクを著しく向上させることがわかった。
論文 参考訳(メタデータ) (2024-05-28T00:27:29Z) - Contrastive Learning of Person-independent Representations for Facial
Action Unit Detection [70.60587475492065]
自己教師型AU表現学習信号を2次元で定式化する。
ビデオクリップ内でAU表現を学習し、個人に依存しない表現を学習するためのクロスアイデンティティ再構築機構を考案する。
提案手法は,他のコントラスト学習手法よりも優れており,自己教師と教師付きAU検出手法間の性能ギャップを著しく短縮する。
論文 参考訳(メタデータ) (2024-03-06T01:49:28Z) - Attention-based Interactive Disentangling Network for Instance-level
Emotional Voice Conversion [81.1492897350032]
感情音声変換(Emotional Voice Conversion)は、非感情成分を保存しながら、与えられた感情に応じて音声を操作することを目的とする。
本稿では,音声変換にインスタンスワイドな感情知識を活用する,意図に基づく対話型ディスタングネットワーク(AINN)を提案する。
論文 参考訳(メタデータ) (2023-12-29T08:06:45Z) - DinoSR: Self-Distillation and Online Clustering for Self-supervised
Speech Representation Learning [140.96990096377127]
自己教師型音声表現学習(DinoSR)のための自己蒸留とオンラインクラスタリングを導入する。
DinoSRはまず、入力されたオーディオから教師ネットワークにコンテキスト化された埋め込みを抽出し、埋め込み上にオンラインクラスタリングシステムを実行して、マシンが発見した携帯電話の在庫を出力し、最後に、識別トークンを使用して学生ネットワークを誘導する。
本稿では,DinoSRが複数の下流タスクにおいて過去の最先端性能を上回ることを示し,モデルと学習した離散単位の詳細な解析を行う。
論文 参考訳(メタデータ) (2023-05-17T07:23:46Z) - An Exploration of Self-Supervised Pretrained Representations for
End-to-End Speech Recognition [98.70304981174748]
本稿では,事前訓練された音声表現の一般応用,高度なエンドツーエンド自動音声認識(E2E-ASR)モデルに焦点をあてる。
いくつかの事前訓練された音声表現を選択し、E2E-ASRのための様々なオープンソースおよび公開コーパスの実験結果を示す。
論文 参考訳(メタデータ) (2021-10-09T15:06:09Z) - Self-PU: Self Boosted and Calibrated Positive-Unlabeled Training [118.10946662410639]
本稿では,PU学習と自己学習をシームレスに統合する,新しい自己学習フレームワークを提案する。
Self-PUは3つの"自己"指向のビルディングブロックを強調している。
本稿では,アルツハイマー病の脳画像の分類という,PU学習の現実的応用について検討する。
論文 参考訳(メタデータ) (2020-06-22T17:53:59Z) - Does Visual Self-Supervision Improve Learning of Speech Representations
for Emotion Recognition? [63.564385139097624]
本研究は,音声表現の学習を指導するために,顔再構成による視覚的自己監督について検討する。
提案した視覚的・音声的自己監督のマルチタスクの組み合わせは,よりリッチな特徴を学習する上で有益であることを示す。
学習した音声表現を、離散的感情認識、連続的感情認識、自動音声認識のために評価する。
論文 参考訳(メタデータ) (2020-05-04T11:33:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。