論文の概要: People are poorly equipped to detect AI-powered voice clones
- arxiv url: http://arxiv.org/abs/2410.03791v2
- Date: Sat, 25 Jan 2025 01:18:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:52:40.437653
- Title: People are poorly equipped to detect AI-powered voice clones
- Title(参考訳): 人々はAIによる音声クローンを検出できない
- Authors: Sarah Barrington, Emily A. Cooper, Hany Farid,
- Abstract要約: 同一性マッチングと自然性の観点から,AI生成音声の現実性について報告する。
人間の参加者は、AIが生成した音声の記録を一貫して識別することはできない。
- 参考スコア(独自算出の注目度): 12.3166714008126
- License:
- Abstract: As generative artificial intelligence (AI) continues its ballistic trajectory, everything from text to audio, image, and video generation continues to improve at mimicking human-generated content. Through a series of perceptual studies, we report on the realism of AI-generated voices in terms of identity matching and naturalness. We find human participants cannot consistently identify recordings of AI-generated voices. Specifically, participants perceived the identity of an AI-voice to be the same as its real counterpart approximately 80% of the time, and correctly identified a voice as AI generated only about 60% of the time.
- Abstract(参考訳): 生成的人工知能(AI)はその弾道的な軌道を継続するので、テキスト、音声、画像、ビデオ生成など、あらゆるものが、人間の生成コンテンツを模倣して改善され続けている。
一連の知覚研究を通じて、同一性マッチングと自然性の観点から、AI生成音声のリアリズムについて報告する。
人間の参加者は、AIが生成した音声の記録を一貫して識別することはできない。
具体的には、参加者はAI声の同一性が実際の80%の時間と同一であると認識し、AIが生成した音声を60%程度しか正確に識別しなかった。
関連論文リスト
- "It was 80% me, 20% AI": Seeking Authenticity in Co-Writing with Large Language Models [97.22914355737676]
我々は、AIツールと共同で書き込む際に、著者が自分の真正な声を保存したいかどうか、どのように検討する。
本研究は,人間とAIの共創における真正性の概念を解明するものである。
読者の反応は、人間とAIの共著に対する関心が低かった。
論文 参考訳(メタデータ) (2024-11-20T04:42:32Z) - AI-rays: Exploring Bias in the Gaze of AI Through a Multimodal Interactive Installation [7.939652622988465]
我々は、AIが参加者の外観から投機的アイデンティティを生成するインタラクティブなインスタレーションであるAI-rayを紹介する。
投機的なX線ビジョンを使用して、AIが生成する仮定と現実を対比し、AIの精査と偏見を比喩的に強調する。
論文 参考訳(メタデータ) (2024-10-03T18:44:05Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Self-Directed Turing Test for Large Language Models [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すことができるかどうかを調べる。
従来のチューリングテストでは、各参加者が1回に1つのメッセージだけを送信する厳格な対話形式を採用している。
本稿では,バーストダイアログ形式を用いた自己指示チューリングテストを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - Navigating AI Fallibility: Examining People's Reactions and Perceptions of AI after Encountering Personality Misrepresentations [7.256711790264119]
ハイパーパーソナライズされたAIシステムは、パーソナライズされたレコメンデーションを提供するために人々の特性をプロファイルする。
これらのシステムは、人々の最も個人的な特性を推測する際にエラーに免疫がない。
人格の誤表現に遭遇した後、人々がどのように反応し、AIを知覚するかを検討するための2つの研究を行った。
論文 参考訳(メタデータ) (2024-05-25T21:27:15Z) - Unmasking Illusions: Understanding Human Perception of Audiovisual Deepfakes [49.81915942821647]
本研究は,ディープフェイク映像を主観的研究により識別する人間の能力を評価することを目的とする。
人間の観察者を5つの最先端オーディオ視覚深度検出モデルと比較することにより,その知見を提示する。
同じ40の動画で評価すると、すべてのAIモデルは人間より優れていることが分かりました。
論文 参考訳(メタデータ) (2024-05-07T07:57:15Z) - Generation Z's Ability to Discriminate Between AI-generated and
Human-Authored Text on Discord [0.32885740436059047]
DiscordはAI統合を可能にし、主にAI生成コンテンツに"ジェネレーションZ"ユーザベースをさらけ出す。
我々は,AI生成テキストと人間によるテキストの識別能力を評価するため,世代Zの高齢者を対象に調査を行った。
ジェネレーションZの個人は、AIと人間によるテキストを区別できない。
論文 参考訳(メタデータ) (2023-12-31T11:52:15Z) - The Self 2.0: How AI-Enhanced Self-Clones Transform Self-Perception and
Improve Presentation Skills [9.495191491787908]
本研究は、AI生成デジタルセルフクローンがオンラインプレゼンテーションスキル改善に与える影響について検討する。
自己記録ビデオ(制御)と自己記録ビデオ(AIグループ)を比較した。
本研究は, 自己クローンの倫理的利用を推奨し, スキル開発における感情的・認知的側面を高めることを目的とする。
論文 参考訳(メタデータ) (2023-10-23T17:20:08Z) - Real-time Detection of AI-Generated Speech for DeepFake Voice Conversion [4.251500966181852]
本研究は,8人の有名な人物の実際の音声と,その音声を検索型音声変換を用いて互いに変換する。
エクストリーム・グラディエント・ブースティング・モデルは99.3%の平均的な分類精度を達成でき、音声の1秒あたり0.004ミリ秒のリアルタイムな分類が可能であることが判明した。
論文 参考訳(メタデータ) (2023-08-24T12:26:15Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - Decoding speech perception from non-invasive brain recordings [48.46819575538446]
非侵襲的な記録から知覚音声の自己教師付き表現をデコードするために、コントラスト学習で訓練されたモデルを導入する。
我々のモデルでは、3秒のMEG信号から、1,000以上の異なる可能性から最大41%の精度で対応する音声セグメントを識別できる。
論文 参考訳(メタデータ) (2022-08-25T10:01:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。