論文の概要: A Hybrid BERT and LightGBM based Model for Predicting Emotion GIF
Categories on Twitter
- arxiv url: http://arxiv.org/abs/2008.06176v1
- Date: Fri, 14 Aug 2020 03:23:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 17:38:11.599427
- Title: A Hybrid BERT and LightGBM based Model for Predicting Emotion GIF
Categories on Twitter
- Title(参考訳): Twitter上での感情GIFカテゴリ予測のためのハイブリッドBERTとLightGBMに基づくモデル
- Authors: Ye Bi, Shuo Wang, Zhongrui Fan
- Abstract要約: われわれは、Social 2020の共有タスクであるEmotionGIF 2020チャレンジの解決策を提示する。
ラベルのないツイートに対してGIFカテゴリを推奨するために,変換器による双方向表現(BERT)とLightGBMに基づくランク付けフレームワークを提案する。
私たちのチームは、ラウンド1のリーダーボードで平均精度@6(MAP@6)スコア0.5394で4位を獲得しました。
- 参考スコア(独自算出の注目度): 7.463657960984954
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The animated Graphical Interchange Format (GIF) images have been widely used
on social media as an intuitive way of expression emotion. Given their
expressiveness, GIFs offer a more nuanced and precise way to convey emotions.
In this paper, we present our solution for the EmotionGIF 2020 challenge, the
shared task of SocialNLP 2020. To recommend GIF categories for unlabeled
tweets, we regarded this problem as a kind of matching tasks and proposed a
learning to rank framework based on Bidirectional Encoder Representations from
Transformer (BERT) and LightGBM. Our team won the 4th place with a Mean Average
Precision @ 6 (MAP@6) score of 0.5394 on the round 1 leaderboard.
- Abstract(参考訳): アニメーションのグラフィカル・インターチェンジ・フォーマット(GIF)画像は、直感的な表現感情の方法としてソーシャルメディアで広く使われている。
彼らの表現力を考えると、GIFは感情を伝えるためのより微妙で正確な方法を提供する。
本稿では,SocialNLP 2020の共通課題であるEmotionGIF 2020チャレンジに対する解決策を提案する。
ラベルのないツイートに対してGIFカテゴリを推奨するために、この問題を一種のマッチングタスクとみなし、双方向エンコーダ表現(BERT)とLightGBMに基づくランク付けフレームワークを提案する。
私たちのチームは、ラウンド1のリーダーボードで平均精度@6(MAP@6)スコア0.5394で4位を獲得しました。
関連論文リスト
- EmoEdit: Evoking Emotions through Image Manipulation [62.416345095776656]
Affective Image Manipulation (AIM) は、特定の感情的な反応を誘発するために、ユーザーが提供する画像を修正しようとする。
本稿では,感情的影響を高めるためにコンテンツ修正を取り入れてAIMを拡張したEmoEditを紹介する。
本手法は定性的かつ定量的に評価され,従来の最先端技術と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2024-05-21T10:18:45Z) - Multimodal Sentiment Analysis: Perceived vs Induced Sentiments [1.6574413179773761]
GIFの感情を予測するために,視覚的特徴とテキスト的特徴を統合したフレームワークを提案する。
また、顔の感情検出やOCR生成キャプションなどの属性を取り入れ、GIFのセマンティックな側面をキャプチャする。
開発した分類器は、TwitterのGIFで82.7%の精度を実現している。
論文 参考訳(メタデータ) (2023-12-12T07:24:02Z) - MAFW: A Large-scale, Multi-modal, Compound Affective Database for
Dynamic Facial Expression Recognition in the Wild [56.61912265155151]
大規模複合感情データベースMAFWを提案する。
各クリップには、複雑な感情カテゴリーと、クリップ内の被験者の感情行動を記述する2つの文が注釈付けされている。
複合感情のアノテーションでは、それぞれのクリップは、怒り、嫌悪感、恐怖、幸福、中立、悲しみ、驚き、軽蔑、不安、無力感、失望など、広く使われている11の感情のうちの1つ以上に分類される。
論文 参考訳(メタデータ) (2022-08-01T13:34:33Z) - Leveraging Emotion-specific Features to Improve Transformer Performance
for Emotion Classification [0.0]
本稿では,チームPVGs AI ClubによるWASSA 2022における感情分類共有タスクへのアプローチについて述べる。
このトラック2のサブタスクは、ニュース記事のエッセイに基づいてマルチクラスの感情ラベルを予測できるモデルの構築に焦点を当てている。
論文 参考訳(メタデータ) (2022-04-30T14:36:04Z) - SocialNLP EmotionGIF 2020 Challenge Overview: Predicting Reaction GIF
Categories on Social Media [8.034293322106627]
第8回ソーシャルメディア自然言語処理ワークショップ(Social)で開催された「EmotionGIF 2020 Challenge」の概要を紹介します。
この課題は、オンラインテキストに対する感情的な反応を予測し、EmotionGIFデータセットを含むことであった。
新しいデータセットには、リアクションgif付きで40万ツイートが含まれている。
論文 参考訳(メタデータ) (2021-02-24T05:22:10Z) - EmotionGIF-IITP-AINLPML: Ensemble-based Automated Deep Neural System for
predicting category(ies) of a GIF response [41.23094507923245]
我々は,我々のIITP-AINLPMLチームが提出したシステムについて,SocialNLP 2020, EmotionGIF 2020の共有タスクで述べる。
提案モデルでは,第1ラウンドと第2ラウンドでは平均リコール(MR)スコアが52.92%,第53.80%であった。
論文 参考訳(メタデータ) (2020-12-23T15:52:27Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z) - Animated GIF optimization by adaptive color local table management [0.0]
提案手法は局所色表選択と色再現に基づく。
この技術は、知覚された色質を損なうことなく、バイト削減の観点で良好な結果が得られる。
論文 参考訳(メタデータ) (2020-07-09T11:36:48Z) - EmotiCon: Context-Aware Multimodal Emotion Recognition using Frege's
Principle [71.47160118286226]
EmotiConは、ビデオや画像から知覚された人間の感情認識をコンテキスト認識する学習アルゴリズムである。
心理学からフレーゲの文脈原理に動機づけられた我々のアプローチは、感情認識のための文脈の3つの解釈を組み合わせたものである。
平均精度 (AP) スコアは26クラスで35.48であり, 従来の手法よりも7-8の改善が見られた。
論文 参考訳(メタデータ) (2020-03-14T19:55:21Z) - ProxEmo: Gait-based Emotion Learning and Multi-view Proxemic Fusion for
Socially-Aware Robot Navigation [65.11858854040543]
本稿では,歩行者間のロボットナビゲーションのための感情予測アルゴリズムProxEmoを提案する。
提案手法は歩行歩行から歩行者の知覚された感情を予測し,感情誘導ナビゲーションに使用する。
論文 参考訳(メタデータ) (2020-03-02T17:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。