論文の概要: People are poorly equipped to detect AI-powered voice clones
- arxiv url: http://arxiv.org/abs/2410.03791v1
- Date: Thu, 3 Oct 2024 21:26:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 16:20:48.021358
- Title: People are poorly equipped to detect AI-powered voice clones
- Title(参考訳): 人々はAIによる音声クローンを検出できない
- Authors: Sarah Barrington, Hany Farid,
- Abstract要約: 同一性マッチングと自然性の観点から,AI生成音声の現実性について報告する。
人間の参加者は、AI生成音声の短い録音(20秒以内)を確実に特定できない。
- 参考スコア(独自算出の注目度): 12.369423169349673
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As generative AI continues its ballistic trajectory, everything from text to audio, image, and video generation continues to improve in mimicking human-generated content. Through a series of perceptual studies, we report on the realism of AI-generated voices in terms of identity matching and naturalness. We find human participants cannot reliably identify short recordings (less than 20 seconds) of AI-generated voices. Specifically, participants mistook the identity of an AI-voice for its real counterpart 80% of the time, and correctly identified a voice as AI-generated only 60% of the time. In all cases, performance is independent of the demographics of the speaker or listener.
- Abstract(参考訳): 生成AIはその弾道的な軌道を継続するので、テキスト、オーディオ、画像、ビデオ生成など、あらゆるものが、人間の生成コンテンツを模倣する上で改善され続けている。
一連の知覚研究を通じて、同一性マッチングと自然性の観点から、AI生成音声のリアリズムについて報告する。
人間の参加者は、AI生成音声の短い録音(20秒以内)を確実に特定できない。
具体的には、参加者はAI声の正体を実際の80%の時間と誤認し、AIが生成した音声は60%に過ぎないと正しく識別した。
いずれの場合も、パフォーマンスは話者やリスナーの人口統計とは無関係である。
関連論文リスト
- AI-rays: Exploring Bias in the Gaze of AI Through a Multimodal Interactive Installation [7.939652622988465]
我々は、AIが参加者の外観から投機的アイデンティティを生成するインタラクティブなインスタレーションであるAI-rayを紹介する。
投機的なX線ビジョンを使用して、AIが生成する仮定と現実を対比し、AIの精査と偏見を比喩的に強調する。
論文 参考訳(メタデータ) (2024-10-03T18:44:05Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Measuring Human Contribution in AI-Assisted Content Generation [66.06040950325969]
本研究は,AIによるコンテンツ生成における人間の貢献度を測定する研究課題を提起する。
人間の入力とAI支援出力の自己情報に対する相互情報を計算することにより、コンテンツ生成における人間の比例情報貢献を定量化する。
論文 参考訳(メタデータ) (2024-08-27T05:56:04Z) - Navigating AI Fallibility: Examining People's Reactions and Perceptions of AI after Encountering Personality Misrepresentations [7.256711790264119]
ハイパーパーソナライズされたAIシステムは、パーソナライズされたレコメンデーションを提供するために人々の特性をプロファイルする。
これらのシステムは、人々の最も個人的な特性を推測する際にエラーに免疫がない。
人格の誤表現に遭遇した後、人々がどのように反応し、AIを知覚するかを検討するための2つの研究を行った。
論文 参考訳(メタデータ) (2024-05-25T21:27:15Z) - Unmasking Illusions: Understanding Human Perception of Audiovisual Deepfakes [49.81915942821647]
本研究は,ディープフェイク映像を主観的研究により識別する人間の能力を評価することを目的とする。
人間の観察者を5つの最先端オーディオ視覚深度検出モデルと比較することにより,その知見を提示する。
同じ40の動画で評価すると、すべてのAIモデルは人間より優れていることが分かりました。
論文 参考訳(メタデータ) (2024-05-07T07:57:15Z) - Generation Z's Ability to Discriminate Between AI-generated and
Human-Authored Text on Discord [0.32885740436059047]
DiscordはAI統合を可能にし、主にAI生成コンテンツに"ジェネレーションZ"ユーザベースをさらけ出す。
我々は,AI生成テキストと人間によるテキストの識別能力を評価するため,世代Zの高齢者を対象に調査を行った。
ジェネレーションZの個人は、AIと人間によるテキストを区別できない。
論文 参考訳(メタデータ) (2023-12-31T11:52:15Z) - The Self 2.0: How AI-Enhanced Self-Clones Transform Self-Perception and
Improve Presentation Skills [9.495191491787908]
本研究は、AI生成デジタルセルフクローンがオンラインプレゼンテーションスキル改善に与える影響について検討する。
自己記録ビデオ(制御)と自己記録ビデオ(AIグループ)を比較した。
本研究は, 自己クローンの倫理的利用を推奨し, スキル開発における感情的・認知的側面を高めることを目的とする。
論文 参考訳(メタデータ) (2023-10-23T17:20:08Z) - Real-time Detection of AI-Generated Speech for DeepFake Voice Conversion [4.251500966181852]
本研究は,8人の有名な人物の実際の音声と,その音声を検索型音声変換を用いて互いに変換する。
エクストリーム・グラディエント・ブースティング・モデルは99.3%の平均的な分類精度を達成でき、音声の1秒あたり0.004ミリ秒のリアルタイムな分類が可能であることが判明した。
論文 参考訳(メタデータ) (2023-08-24T12:26:15Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Self-supervised reinforcement learning for speaker localisation with the
iCub humanoid robot [58.2026611111328]
人の顔を見ることは、ノイズの多い環境での音声のフィルタリングに人間が依存するメカニズムの1つである。
スピーカーに目を向けるロボットを持つことは、挑戦的な環境でのASRのパフォーマンスに恩恵をもたらす可能性がある。
本稿では,人間の初期発達に触発された自己指導型強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-12T18:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。