論文の概要: Learning Through AI-Clones: Enhancing Self-Perception and Presentation Performance
- arxiv url: http://arxiv.org/abs/2310.15112v2
- Date: Fri, 07 Mar 2025 21:50:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:39:59.829507
- Title: Learning Through AI-Clones: Enhancing Self-Perception and Presentation Performance
- Title(参考訳): AIクローンによる学習 - 自己認識とプレゼンテーションのパフォーマンス向上
- Authors: Qingxiao Zheng, Zhuoer Chen, Yun Huang,
- Abstract要約: 44人の国際学生による混合設計実験は、オンライン英語プレゼンテーションの自己記録ビデオ(自己記録グループ)とAIクローンビデオ(AIクローングループ)を比較した。
その結果、AIクローンは、社会的比較を容易にするために肯定的な「ロールモデル」として機能していた。
- 参考スコア(独自算出の注目度): 7.151400656424202
- License:
- Abstract: This study examines the impact of AI-generated digital clones with self-images on enhancing perceptions and skills in online presentations. A mixed-design experiment with 44 international students compared self-recording videos (self-recording group) to AI-clone videos (AI-clone group) for online English presentation practice. AI-clone videos were generated using voice cloning, face swapping, lip-syncing, and body-language simulation, refining the repetition, filler words, and pronunciation of participants' original presentations. Through the lens of social comparison theory, the results showed that AI clones functioned as positive "role models" for facilitating social comparisons. When comparing the effects on self-perceptions, speech qualities, and self-kindness, the self-recording group showed an increase in pronunciation satisfaction. However, the AI-clone group exhibited greater self-kindness, broader observational coverage, and a meaningful transition from a corrective to an enhancive approach in self-critique. Moreover, machine-rated scores revealed immediate performance gains only within the AI-clone group. Considering individual differences, aligning interventions with participants' regulatory focus significantly enhanced their learning experience. These findings highlight the theoretical, practical, and ethical implications of AI clones in supporting emotional and cognitive skill development.
- Abstract(参考訳): 本研究では,自己イメージを用いたAI生成デジタルクローンがオンラインプレゼンテーションにおける知覚とスキル向上に与える影響について検討する。
44人の国際学生による混合設計実験は、自己記録ビデオ(自己記録グループ)とAIクローンビデオ(AIクローングループ)をオンライン英語のプレゼンテーション実践と比較した。
AIクローンビデオは、音声のクローニング、顔交換、リップシンク、ボディランゲージのシミュレーション、繰り返しの修正、フィラーワード、参加者のオリジナルのプレゼンテーションの発音を用いて生成された。
社会比較理論のレンズを通して、AIクローンは社会比較を促進するために肯定的な「ロールモデル」として機能したことを示した。
自己知覚, 音声品質, 自己親和性に対する効果を比較すると, 自己記録群は発音満足度の増加を示した。
しかし、AIクローングループは、より優れた自己親和性、より広い観察範囲、そして自己批判における矯正的アプローチから啓発的アプローチへの有意義な移行を示した。
さらに、AIクローングループ内でのみ、マシンレーティングスコアが即時パフォーマンス向上を示した。
個人差を考慮すると、参加者の規制に焦点を合わせることで、学習経験が大幅に向上した。
これらの知見は、感情的および認知的スキル開発を支援するAIクローンの理論的、実践的、倫理的意味を浮き彫りにした。
関連論文リスト
- Listening for Expert Identified Linguistic Features: Assessment of Audio Deepfake Discernment among Undergraduate Students [0.0]
本稿では,専門家が定義した言語的特徴を聴くことで,大学生が音声深層認識能力を向上させるための教育効果を評価する。
我々の研究は、ディープフェイク識別メカニズムとして、ターゲット言語的手がかりをリスナーに導入することで、情報教育に留まらない。
その結果, 実験群は, 音声クリップの評価における不確実性が統計的に顕著に低下し, 当初不確実であったクリップを正確に識別する能力が向上したことがわかった。
論文 参考訳(メタデータ) (2024-11-21T20:52:02Z) - People are poorly equipped to detect AI-powered voice clones [12.3166714008126]
同一性マッチングと自然性の観点から,AI生成音声の現実性について報告する。
人間の参加者は、AIが生成した音声の記録を一貫して識別することはできない。
論文 参考訳(メタデータ) (2024-10-03T21:26:58Z) - MindSpeech: Continuous Imagined Speech Decoding using High-Density fNIRS and Prompt Tuning for Advanced Human-AI Interaction [0.0]
本稿では,脳とAIの直接インターフェースを開発することによって,人間とAIのインタラクションを実現する新しい手法を提案する。
我々はMindSpeechと呼ばれる新しいAIモデルについて論じる。
4名中3名に対してBLEU-1,BERT Pスコアなどの指標を有意に改善した。
論文 参考訳(メタデータ) (2024-07-25T16:39:21Z) - Do Egocentric Video-Language Models Truly Understand Hand-Object Interactions? [48.702973928321946]
Egocentric Video-Language Pretrainingは、一対一のシナリオにおける手動対話の理解を促進するための重要なステップである。
既存のテストベッドでの成功にもかかわらず、現在のEgoVLMは簡単な修正によって容易に誤認できることがわかった。
EgoVLMは手動オブジェクトの相互作用を本当に理解していますか?
論文 参考訳(メタデータ) (2024-05-28T00:27:29Z) - Contrastive Learning of Person-independent Representations for Facial
Action Unit Detection [70.60587475492065]
自己教師型AU表現学習信号を2次元で定式化する。
ビデオクリップ内でAU表現を学習し、個人に依存しない表現を学習するためのクロスアイデンティティ再構築機構を考案する。
提案手法は,他のコントラスト学習手法よりも優れており,自己教師と教師付きAU検出手法間の性能ギャップを著しく短縮する。
論文 参考訳(メタデータ) (2024-03-06T01:49:28Z) - Attention-based Interactive Disentangling Network for Instance-level
Emotional Voice Conversion [81.1492897350032]
感情音声変換(Emotional Voice Conversion)は、非感情成分を保存しながら、与えられた感情に応じて音声を操作することを目的とする。
本稿では,音声変換にインスタンスワイドな感情知識を活用する,意図に基づく対話型ディスタングネットワーク(AINN)を提案する。
論文 参考訳(メタデータ) (2023-12-29T08:06:45Z) - An Exploration of Self-Supervised Pretrained Representations for
End-to-End Speech Recognition [98.70304981174748]
本稿では,事前訓練された音声表現の一般応用,高度なエンドツーエンド自動音声認識(E2E-ASR)モデルに焦点をあてる。
いくつかの事前訓練された音声表現を選択し、E2E-ASRのための様々なオープンソースおよび公開コーパスの実験結果を示す。
論文 参考訳(メタデータ) (2021-10-09T15:06:09Z) - Self-PU: Self Boosted and Calibrated Positive-Unlabeled Training [118.10946662410639]
本稿では,PU学習と自己学習をシームレスに統合する,新しい自己学習フレームワークを提案する。
Self-PUは3つの"自己"指向のビルディングブロックを強調している。
本稿では,アルツハイマー病の脳画像の分類という,PU学習の現実的応用について検討する。
論文 参考訳(メタデータ) (2020-06-22T17:53:59Z) - Does Visual Self-Supervision Improve Learning of Speech Representations
for Emotion Recognition? [63.564385139097624]
本研究は,音声表現の学習を指導するために,顔再構成による視覚的自己監督について検討する。
提案した視覚的・音声的自己監督のマルチタスクの組み合わせは,よりリッチな特徴を学習する上で有益であることを示す。
学習した音声表現を、離散的感情認識、連続的感情認識、自動音声認識のために評価する。
論文 参考訳(メタデータ) (2020-05-04T11:33:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。