論文の概要: Transformer-based Context-aware Sarcasm Detection in Conversation
Threads from Social Media
- arxiv url: http://arxiv.org/abs/2005.11424v1
- Date: Fri, 22 May 2020 23:41:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 09:16:44.655184
- Title: Transformer-based Context-aware Sarcasm Detection in Conversation
Threads from Social Media
- Title(参考訳): ソーシャルメディアからの会話スレッドにおけるコンテクスト対応サルカズム検出
- Authors: Xiangjue Dong, Changmao Li, Jinho D. Choi
- Abstract要約: 我々は,より堅牢な予測のために,会話スレッド全体のコンテキストを考慮したトランスフォーマーに基づくサルカズム検出モデルを提案する。
我々のモデルは、スレッド内のターゲット発話と関連するコンテキストの間で、ディープトランスフォーマー層を用いてマルチヘッドアテンションを実行する。
コンテキスト認識モデルは、ソーシャルメディア、Twitter、Redditの2つのデータセットで評価され、ベースラインよりも3.1%と7.0%改善されている。
- 参考スコア(独自算出の注目度): 17.17880150351333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a transformer-based sarcasm detection model that accounts for the
context from the entire conversation thread for more robust predictions. Our
model uses deep transformer layers to perform multi-head attentions among the
target utterance and the relevant context in the thread. The context-aware
models are evaluated on two datasets from social media, Twitter and Reddit, and
show 3.1% and 7.0% improvements over their baselines. Our best models give the
F1-scores of 79.0% and 75.0% for the Twitter and Reddit datasets respectively,
becoming one of the highest performing systems among 36 participants in this
shared task.
- Abstract(参考訳): 本稿では,よりロバストな予測のために,会話スレッド全体のコンテキストを考慮したトランスフォーマ・サーカズム検出モデルを提案する。
本モデルでは,スレッド内の目標発話と関連するコンテキスト間でマルチヘッド注目を行うために,深いトランスフォーマー層を用いる。
コンテキスト対応モデルは、ソーシャルメディア、twitterとredditの2つのデータセットで評価され、ベースラインよりも3.1%と7.0%改善されている。
当社のベストモデルでは、TwitterとRedditのデータセットでそれぞれ79.0%と75.0%のF1スコアが与えられており、36人の参加者の中で最もパフォーマンスの高いシステムのひとつになっています。
関連論文リスト
- Grounding Language in Multi-Perspective Referential Communication [16.421832484760987]
マルチエージェント環境における表現生成と理解のためのタスクとデータセットを提案する。
我々は2,970人の人間が書いた参照表現のデータセットを収集し、それぞれが人間の理解的判断と組み合わせる。
自動モデルの性能を人間のパートナーとペアリングした話者とリスナーとして評価し,人間のエージェントのペアよりも遅れた参照生成と理解の遅延の両方におけるモデル性能を確認した。
論文 参考訳(メタデータ) (2024-10-04T22:42:30Z) - TextSquare: Scaling up Text-Centric Visual Instruction Tuning [64.55339431760727]
大規模かつ高品質な命令チューニングデータセットSquare-10Mを作成するための新しいアプローチを提案する。
われわれのモデルであるTextSquareは、最先端のText中心のMLLMをはるかに上回っている。
さらに、GPT4VやGeminiといったトップクラスのモデルでは、テキスト中心のベンチマークを10つ中6つで上回っている。
論文 参考訳(メタデータ) (2024-04-19T11:38:08Z) - BJTU-WeChat's Systems for the WMT22 Chat Translation Task [66.81525961469494]
本稿では,WMT'22チャット翻訳タスクに対して,北京地東大学とWeChat AIを共同で提案する。
Transformerに基づいて、いくつかの有効な変種を適用します。
本システムでは,0.810と0.946のCOMETスコアを達成している。
論文 参考訳(メタデータ) (2022-11-28T02:35:04Z) - 5q032e@SMM4H'22: Transformer-based classification of premise in tweets
related to COVID-19 [2.3931689873603603]
本研究では,Twitterテキストにおける前提の存在を分類するために,トランスフォーマーアーキテクチャに基づく予測モデルを提案する。
Twitterデータセットを用いた実験の結果,RoBERTaは前提予測タスクの場合,他のトランスフォーマーモデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-09-08T14:46:28Z) - UTNLP at SemEval-2022 Task 6: A Comparative Analysis of Sarcasm
Detection using generative-based and mutation-based data augmentation [0.0]
サルカズム(英: Sarcasm)とは、誰かをモックしたり、いらいらさせたり、楽しませたりする言葉を指す用語である。
サルカズムの比喩的・創造的な性質は感情計算に基づく感情分析システムに重大な困難をもたらす。
異なるモデルとデータ拡張アプローチをテストに配置し、どれが最もうまく機能するかを報告します。
論文 参考訳(メタデータ) (2022-04-18T07:25:27Z) - Conformer: Convolution-augmented Transformer for Speech Recognition [60.119604551507805]
最近、トランスフォーマーと畳み込みニューラルネットワーク(CNN)に基づくモデルが、自動音声認識(ASR)の有望な結果を示している。
音声認識のための畳み込み拡張変換器,Conformerを提案する。
広く使われているLibriSpeechベンチマークでは、言語モデルを用いずにWERが2.1%/4.3%、テスト/テストの外部言語モデルで1.9%/3.9%を達成した。
論文 参考訳(メタデータ) (2020-05-16T20:56:25Z) - Large Scale Multi-Actor Generative Dialog Modeling [22.286624163849893]
本稿では,俳優のペルソナにおける複数回会話を確率的にモデル化するために,過去の参照会話を条件づけた言語モデルである生成会話制御モデルを紹介する。
モデルのサイズを117Mから8.3Bに拡大すると、1.7Mの会話で23.14から13.14に改善される。
過去の会話を条件付きでモデル化することで、自動評価において難易度が0.47向上することがわかった。
論文 参考訳(メタデータ) (2020-05-13T01:56:00Z) - ContextNet: Improving Convolutional Neural Networks for Automatic Speech
Recognition with Global Context [58.40112382877868]
ContextNet と呼ばれる新しい CNN-RNN-Transducer アーキテクチャを提案する。
ContextNetは、グローバルコンテキスト情報を畳み込みレイヤに組み込む、完全な畳み込みエンコーダを備えている。
クリーン/ノイズの多いLibriSpeechテストセット上では、ContextNetは、外部言語モデル(LM)なしで2.1%/4.6%、LMで1.9%/4.1%、および2.9%/7.0%のワードエラー率(WER)を達成した。
論文 参考訳(メタデータ) (2020-05-07T01:03:18Z) - EmotiCon: Context-Aware Multimodal Emotion Recognition using Frege's
Principle [71.47160118286226]
EmotiConは、ビデオや画像から知覚された人間の感情認識をコンテキスト認識する学習アルゴリズムである。
心理学からフレーゲの文脈原理に動機づけられた我々のアプローチは、感情認識のための文脈の3つの解釈を組み合わせたものである。
平均精度 (AP) スコアは26クラスで35.48であり, 従来の手法よりも7-8の改善が見られた。
論文 参考訳(メタデータ) (2020-03-14T19:55:21Z) - IART: Intent-aware Response Ranking with Transformers in
Information-seeking Conversation Systems [80.0781718687327]
我々は、情報探索会話におけるユーザ意図パターンを分析し、意図認識型ニューラルレスポンスランキングモデル「IART」を提案する。
IARTは、ユーザ意図モデリングと言語表現学習とTransformerアーキテクチャの統合の上に構築されている。
論文 参考訳(メタデータ) (2020-02-03T05:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。