論文の概要: Emotion Transfer Using Vector-Valued Infinite Task Learning
- arxiv url: http://arxiv.org/abs/2102.05075v1
- Date: Tue, 9 Feb 2021 19:05:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-11 16:20:03.080353
- Title: Emotion Transfer Using Vector-Valued Infinite Task Learning
- Title(参考訳): ベクトル値無限課題学習による感情伝達
- Authors: Alex Lambert, Sanjeel Parekh, Zolt\'an Szab\'o, Florence d'Alch\'e-Buc
- Abstract要約: 本稿では,無限タスク学習とベクトル値再生カーネルHilbert空間に基づく新しいスタイル転送フレームワークを提案する。
我々は、顔のイメージを異なるターゲットの感情に変換することを目標とする感情伝達のアイデアをインスタンス化する。
- 参考スコア(独自算出の注目度): 2.588412672658578
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Style transfer is a significant problem of machine learning with numerous
successful applications. In this work, we present a novel style transfer
framework building upon infinite task learning and vector-valued reproducing
kernel Hilbert spaces. We instantiate the idea in emotion transfer where the
goal is to transform facial images to different target emotions. The proposed
approach provides a principled way to gain explicit control over the continuous
style space. We demonstrate the efficiency of the technique on popular facial
emotion benchmarks, achieving low reconstruction cost and high emotion
classification accuracy.
- Abstract(参考訳): スタイル転送は多くの成功したアプリケーションで機械学習の重要な問題である。
本研究では,無限タスク学習とベクトル値再生カーネルヒルベルト空間に基づく新しいスタイルの転送フレームワークを提案する。
我々は、顔のイメージを異なるターゲットの感情に変換することを目標とする感情伝達のアイデアをインスタンス化する。
提案されたアプローチは、継続的スタイル空間を明示的に制御する原則的な方法を提供する。
本手法を顔の感情評価ベンチマークに応用し,再現コストの低減と感情分類精度の向上を図った。
関連論文リスト
- Re-ENACT: Reinforcement Learning for Emotional Speech Generation using Actor-Critic Strategy [8.527959937101826]
我々は、ベルヌーイ確率変数の集合の変動後部を生成するためにニューラルネットワークを訓練する。
対象感情のスコアを高めるために,マスク付きセグメントの韻律的特徴を変化させる。
実験により、この枠組みは、特定の発話のターゲットに対する知覚的感情を変化させることを示した。
論文 参考訳(メタデータ) (2024-08-04T00:47:29Z) - Self-Explainable Affordance Learning with Embodied Caption [63.88435741872204]
具体的キャプションを具現化したSelf-Explainable Affordance Learning (SEA)を紹介する。
SEAは、ロボットが意図を明確に表現し、説明可能な視覚言語キャプションと視覚能力学習のギャップを埋めることを可能にする。
本稿では, 簡便かつ効率的な方法で, 空き地と自己説明を効果的に組み合わせた新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-04-08T15:22:38Z) - AnySkill: Learning Open-Vocabulary Physical Skill for Interactive Agents [58.807802111818994]
オープンな語彙の指示に従って物理的に妥当な相互作用を学習する新しい階層的手法であるAnySkillを提案する。
我々のアプローチは、模倣学習によって訓練された低レベルコントローラを介して、一連のアトミックアクションを開発することから始まります。
提案手法の重要な特徴は,手動の報酬工学を使わずにオブジェクトとのインタラクションを学習する,高レベルなポリシーに対する画像ベースの報酬の利用である。
論文 参考訳(メタデータ) (2024-03-19T15:41:39Z) - Weakly-Supervised Emotion Transition Learning for Diverse 3D Co-speech Gesture Generation [43.04371187071256]
本研究では,3次元アバターにおける鮮明で感情的な3次元共同音声ジェスチャを生成する新しい手法を提案する。
そこで我々は,ChatGPT-4と音声インペインティング手法を用いて,高忠実度感情遷移音声を構築する。
本手法は,1つの感情条件に適応して構築した最先端モデルよりも優れる。
論文 参考訳(メタデータ) (2023-11-29T11:10:40Z) - Transductive Learning for Unsupervised Text Style Transfer [60.65782243927698]
教師なしスタイル転送モデルは、主に帰納的学習アプローチに基づいている。
本稿では,検索に基づく文脈認識スタイルの表現に基づく新しいトランスダクティブ学習手法を提案する。
論文 参考訳(メタデータ) (2021-09-16T08:57:20Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z) - Learning Unseen Emotions from Gestures via Semantically-Conditioned
Zero-Shot Perception with Adversarial Autoencoders [25.774235606472875]
本稿では,3次元モーションキャプチャー・ジェスチャ・シーケンスと自然言語知覚感情項のベクトル化表現とを関連付ける,対角的自己エンコーダに基づく表現学習を提案する。
我々は、既知の感情用語に注釈付けされたジェスチャーと、どんな感情にも注釈付けされていないジェスチャーを組み合わせることで、手法を訓練する。
論文 参考訳(メタデータ) (2020-09-18T15:59:44Z) - Generative Adversarial Stacked Autoencoders for Facial Pose
Normalization and Emotion Recognition [4.620526905329234]
本稿では,表情のマッピングを学習するジェネレーティブ・アドバイサル・スタックド・オートエンコーダを提案する。
野生で採集された顔の感情認識コーパスについて,最先端のパフォーマンスを報告した。
論文 参考訳(メタデータ) (2020-07-19T21:47:16Z) - Image-to-image Mapping with Many Domains by Sparse Attribute Transfer [71.28847881318013]
教師なし画像と画像の変換は、2つの領域間の一対のマッピングを、ポイント間の既知のペアワイズ対応なしで学習することで構成される。
現在の慣例は、サイクル一貫性のあるGANでこのタスクにアプローチすることです。
そこで本研究では,ジェネレータを直接,潜在層における単純なスパース変換に制限する代替手法を提案する。
論文 参考訳(メタデータ) (2020-06-23T19:52:23Z) - Meta Transfer Learning for Emotion Recognition [42.61707533351803]
本研究では、ある視覚的/聴覚的感情領域から学習した感情知識を、別の視覚的/聴覚的感情領域に伝達できるPathNetに基づく伝達学習手法を提案する。
提案システムは感情認識の性能を向上し,最近提案された微調整/事前学習モデルに基づく伝達学習手法よりも性能が大幅に向上する。
論文 参考訳(メタデータ) (2020-06-23T00:25:28Z) - Image Sentiment Transfer [84.91653085312277]
我々は,イメージの感情伝達という,重要ではあるが未調査の研究課題を導入する。
本稿では,オブジェクトレベルでイメージの感情伝達を行う,効果的で柔軟なフレームワークを提案する。
中心となるオブジェクトレベルの感情伝達のために、我々は新しい感性認識型GAN(SentiGAN)を提案する。
論文 参考訳(メタデータ) (2020-06-19T19:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。