論文の概要: FeelsGoodMan: Inferring Semantics of Twitch Neologisms
- arxiv url: http://arxiv.org/abs/2108.08411v1
- Date: Wed, 18 Aug 2021 23:46:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-20 14:44:28.526136
- Title: FeelsGoodMan: Inferring Semantics of Twitch Neologisms
- Title(参考訳): FeelsGoodMan:Twitchのネオロジズムのセマンティクスを推測する
- Authors: Pavel Dolin, Luc d'Hauthuille, Andrea Vattani
- Abstract要約: デスクトップは860万本あり、そのうち4万本以上が週に利用された。
表の意味や感情についてはほとんど情報がなく、新しい表やその周波数のドリフトが絶え間なく流入しているため、手動でラベル付けされたデータセットを維持することは不可能である。
単語埋め込みとk-NNに基づくシンプルだが強力な教師なしフレームワークを導入し、語彙外知識を持つ既存のモデルを強化する。
このフレームワークでは,擬似ディクショナリのEmoteの自動生成が可能で,そのようなインジェクションを行う場合でも,上述のベンチマークとほぼ一致できることが示される。
- 参考スコア(独自算出の注目度): 0.7734726150561088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Twitch chats pose a unique problem in natural language understanding due to a
large presence of neologisms, specifically emotes. There are a total of 8.06
million emotes, over 400k of which were used in the week studied. There is
virtually no information on the meaning or sentiment of emotes, and with a
constant influx of new emotes and drift in their frequencies, it becomes
impossible to maintain an updated manually-labeled dataset. Our paper makes a
two fold contribution. First we establish a new baseline for sentiment analysis
on Twitch data, outperforming the previous supervised benchmark by 7.9% points.
Secondly, we introduce a simple but powerful unsupervised framework based on
word embeddings and k-NN to enrich existing models with out-of-vocabulary
knowledge. This framework allows us to auto-generate a pseudo-dictionary of
emotes and we show that we can nearly match the supervised benchmark above even
when injecting such emote knowledge into sentiment classifiers trained on
extraneous datasets such as movie reviews or Twitter.
- Abstract(参考訳): Twitchチャットは、ネオロジズム、特に表象の存在により、自然言語理解においてユニークな問題を引き起こす。
合計で8億6600万のエモテがあり、その内4万が研究に使われた。
エモテの意味や感情についてはほとんど情報がなく、新しいエモテやドリフトの頻度が絶え間なく流入する中、手作業でラベルを付けたデータセットを維持することは不可能になる。
私たちの論文は2つある。
まず、Twitchデータに対する感情分析の新しいベースラインを確立し、前回の教師付きベンチマークを7.9%上回った。
第二に、単語埋め込みとk-NNに基づくシンプルだが強力な教師なしフレームワークを導入し、語彙外知識で既存のモデルを強化する。
このフレームワークは,映画レビューやTwitterなどの外部データセットでトレーニングされた感情分類器に,そのような感情分類器にそのような感情知識を注入しても,上記のベンチマークとほぼ一致することを示す。
関連論文リスト
- Laugh Now Cry Later: Controlling Time-Varying Emotional States of Flow-Matching-Based Zero-Shot Text-to-Speech [51.486112860259595]
EmoCtrl-TTSは感情制御可能なゼロショットTSであり、あらゆる話者に対してNVで高い感情的な音声を生成することができる。
高品質な感情音声生成を実現するために、EmoCtrl-TTSは擬似ラベルに基づく27,000時間以上の表現データを用いて訓練される。
論文 参考訳(メタデータ) (2024-07-17T00:54:15Z) - Enhancing Emotion Prediction in News Headlines: Insights from ChatGPT and Seq2Seq Models for Free-Text Generation [19.520889098893395]
我々は、ニュース見出しを読んでからどのように感じるかについて、自由テキストで書かれた人々の感情の説明を使う。
感情分類では、自由文の説明は見出しによって引き起こされる支配的な感情と強く相関する。
マクネマールの重要度テストを用いて、GPT生成自由テキストの説明を取り入れた手法は大幅に改善された。
論文 参考訳(メタデータ) (2024-07-14T06:04:11Z) - ChatAnything: Facetime Chat with LLM-Enhanced Personas [87.76804680223003]
多様な音声・外観生成のための音声(MoV)とディフューザ(MoD)の混合を提案する。
MoVでは,テキスト音声合成(TTS)アルゴリズムを様々な事前定義された音色で活用する。
近年普及しているテキスト・画像生成技術とトーキングヘッドアルゴリズムを組み合わせることで,音声オブジェクトの生成プロセスの合理化を図る。
論文 参考訳(メタデータ) (2023-11-12T08:29:41Z) - Emotional Speech-Driven Animation with Content-Emotion Disentanglement [51.34635009347183]
本研究では,感情表現の明示的な制御を可能にしつつ,音声からリップシンクを維持する3次元音声アバターを生成するEMOTEを提案する。
EmOTEは、同じデータでトレーニングされた最先端の方法よりも、リップシンクで音声駆動の顔アニメーションを生成する。
論文 参考訳(メタデータ) (2023-06-15T09:31:31Z) - Unsupervised Extractive Summarization of Emotion Triggers [56.50078267340738]
我々は、感情を共同で検出し、トリガーを要約できる新しい教師なし学習モデルを開発した。
Emotion-Aware Pagerankと題された私たちのベストアプローチは、外部ソースからの感情情報と言語理解モジュールを組み合わせたものです。
論文 参考訳(メタデータ) (2023-06-02T11:07:13Z) - Controlling Personality Style in Dialogue with Zero-Shot Prompt-Based
Learning [0.0]
タスク指向対話におけるNLGのパーソナリティと意味的精度を同時に制御するためのプロンプトベース学習の性能について検討する。
5種類のBig-5パーソナライズタイプに対して,セマンティックかつスタイリスティックに制御されたテキストを生成する。
また,NLGパーソナリティのデモンストレーションがゲーム領域における意味表現と併用できるかどうかを検証した。
論文 参考訳(メタデータ) (2023-02-08T02:45:21Z) - MAFW: A Large-scale, Multi-modal, Compound Affective Database for
Dynamic Facial Expression Recognition in the Wild [56.61912265155151]
大規模複合感情データベースMAFWを提案する。
各クリップには、複雑な感情カテゴリーと、クリップ内の被験者の感情行動を記述する2つの文が注釈付けされている。
複合感情のアノテーションでは、それぞれのクリップは、怒り、嫌悪感、恐怖、幸福、中立、悲しみ、驚き、軽蔑、不安、無力感、失望など、広く使われている11の感情のうちの1つ以上に分類される。
論文 参考訳(メタデータ) (2022-08-01T13:34:33Z) - Learning Unseen Emotions from Gestures via Semantically-Conditioned
Zero-Shot Perception with Adversarial Autoencoders [25.774235606472875]
本稿では,3次元モーションキャプチャー・ジェスチャ・シーケンスと自然言語知覚感情項のベクトル化表現とを関連付ける,対角的自己エンコーダに基づく表現学習を提案する。
我々は、既知の感情用語に注釈付けされたジェスチャーと、どんな感情にも注釈付けされていないジェスチャーを組み合わせることで、手法を訓練する。
論文 参考訳(メタデータ) (2020-09-18T15:59:44Z) - Moment-to-moment Engagement Prediction through the Eyes of the Observer:
PUBG Streaming on Twitch [0.9281671380673304]
我々は,有名なバトルロイヤルゲームPlayerUnknown's Battlegroundsから収集されたデータに基づいて,視聴者のエンゲージメントを予測するモデルを構築した。
特に,5つの人気ストリーマーの数百試合から視聴者のチャットログとゲーム内テレメトリデータを収集する。
私たちの重要な発見は、40のゲームプレイ機能のみにトレーニングされたエンゲージメントモデルが、平均で80%、最高で84%のアキュラシーに達することを示しています。
論文 参考訳(メタデータ) (2020-08-17T10:40:34Z) - BAKSA at SemEval-2020 Task 9: Bolstering CNN with Self-Attention for
Sentiment Analysis of Code Mixed Text [4.456122555367167]
本稿では,畳み込みニューラルネット(CNN)と自己注意に基づくLSTMのアンサンブルアーキテクチャを提案する。
我々はヒンディー語(ヒングリッシュ)とスペイン語(スパングリッシュ)のデータセットでそれぞれ0.707と0.725のスコアを得た。
論文 参考訳(メタデータ) (2020-07-21T14:05:51Z) - Detecting Perceived Emotions in Hurricane Disasters [62.760131661847986]
私たちはHurricaneEmoを紹介します。HurricaneEmoは、Harvey、Irma、Mariaの3つのハリケーンにまたがる15,000の英語ツイートの感情データセットです。
本稿では, きめ細かい感情を包括的に研究し, 粗い感情群を識別するための分類タスクを提案する。
論文 参考訳(メタデータ) (2020-04-29T16:17:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。