論文の概要: Deep Learning for Visual Speech Analysis: A Survey
- arxiv url: http://arxiv.org/abs/2205.10839v1
- Date: Sun, 22 May 2022 14:44:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-29 22:41:22.200474
- Title: Deep Learning for Visual Speech Analysis: A Survey
- Title(参考訳): 視覚音声分析のためのディープラーニング:調査
- Authors: Changchong Sheng, Gangyao Kuang, Liang Bai, Chenping Hou, Yulan Guo,
Xin Xu, Matti Pietik\"ainen, and Li Liu
- Abstract要約: 本稿では,視覚音声分析におけるディープラーニング手法の最近の進歩を概観する。
私たちは、基本的な問題、課題、ベンチマークデータセット、既存のメソッドの分類、最先端のパフォーマンスなど、視覚音声のさまざまな側面をカバーしています。
- 参考スコア(独自算出の注目度): 44.51868799541462
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual speech, referring to the visual domain of speech, has attracted
increasing attention due to its wide applications, such as public security,
medical treatment, military defense, and film entertainment. As a powerful AI
strategy, deep learning techniques have extensively promoted the development of
visual speech learning. Over the past five years, numerous deep learning based
methods have been proposed to address various problems in this area, especially
automatic visual speech recognition and generation. To push forward future
research on visual speech, this paper aims to present a comprehensive review of
recent progress in deep learning methods on visual speech analysis. We cover
different aspects of visual speech, including fundamental problems, challenges,
benchmark datasets, a taxonomy of existing methods, and state-of-the-art
performance. Besides, we also identify gaps in current research and discuss
inspiring future research directions.
- Abstract(参考訳): 音声の視覚領域を指す視覚音声は、公衆の安全、医療、軍事防衛、映画の娯楽といった幅広い応用により注目を集めている。
強力なAI戦略として、深層学習技術は視覚音声学習の発展を大いに促進してきた。
過去5年間で、この領域の様々な問題、特に自動視覚音声認識と生成に対処するために、多くのディープラーニングに基づく手法が提案されている。
本稿では,視覚音声に関する今後の研究を推し進めるために,視覚音声分析におけるディープラーニング手法の最近の進歩を概観する。
視覚音声の基本問題や課題,ベンチマークデータセット,既存手法の分類,最先端のパフォーマンスなど,視覚音声のさまざまな側面をカバーする。
また、現在の研究のギャップを特定し、今後の研究の方向性について論じる。
関連論文リスト
- Learning in Audio-visual Context: A Review, Analysis, and New
Perspective [88.40519011197144]
本調査は,聴覚・視覚領域の研究を体系的に整理し,分析することを目的とする。
計算研究に影響を与えた重要な発見をいくつか紹介する。
本稿では,音声視覚シーン理解の新しい視点を提案するとともに,音声視覚学習領域の今後の可能性について論じ,分析する。
論文 参考訳(メタデータ) (2022-08-20T02:15:44Z) - Self-Supervised Speech Representation Learning: A Review [105.1545308184483]
自己教師付き表現学習法は、幅広いタスクやドメインに利益をもたらす単一の普遍的モデルを約束する。
音声表現学習は、生成的、コントラスト的、予測的という3つの主要なカテゴリで同様の進歩を経験している。
本稿では,自己指導型音声表現学習のアプローチと,他の研究領域との関係について述べる。
論文 参考訳(メタデータ) (2022-05-21T16:52:57Z) - E-ffective: A Visual Analytic System for Exploring the Emotion and
Effectiveness of Inspirational Speeches [57.279044079196105]
E-ffective(エフェクティブ)は、音声の専門家や初心者が、音声要因の役割と効果的な音声への貢献の両方を分析することのできる視覚分析システムである。
E-spiral(音声の感情の変化を視覚的にコンパクトに表現する)とE-script(音声コンテンツを主要な音声配信情報に結びつける)の2つの新しい可視化技術がある。
論文 参考訳(メタデータ) (2021-10-28T06:14:27Z) - From Show to Tell: A Survey on Image Captioning [48.98681267347662]
視覚と言語を結びつけることは、ジェネレーティブ・インテリジェンスにおいて重要な役割を担っている。
画像キャプションの研究はまだ結論に達していない。
本研究の目的は,画像キャプション手法の包括的概要と分類を提供することである。
論文 参考訳(メタデータ) (2021-07-14T18:00:54Z) - Leveraging Recent Advances in Deep Learning for Audio-Visual Emotion
Recognition [2.1485350418225244]
人間の行動分析のために, 自発的なマルチモーダル感情認識が広く研究されている。
視聴覚感情認識のための深層学習に基づく新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-03-16T15:49:15Z) - An Overview of Deep-Learning-Based Audio-Visual Speech Enhancement and
Separation [57.68765353264689]
音声強調と音声分離は関連する2つの課題である。
伝統的に、これらのタスクは信号処理と機械学習技術を使って取り組まれてきた。
ディープラーニングは強力なパフォーマンスを達成するために利用されています。
論文 参考訳(メタデータ) (2020-08-21T17:24:09Z) - Deep learning for scene recognition from visual data: a survey [2.580765958706854]
この研究は、視覚データから深層学習モデルを用いて、シーン認識における最先端の技術をレビューすることを目的としている。
シーン認識は依然としてコンピュータビジョンの新たな分野であり、単一の画像と動的な画像の観点から対処されてきた。
論文 参考訳(メタデータ) (2020-07-03T16:53:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。