論文の概要: BERT-based Ensembles for Modeling Disclosure and Support in
Conversational Social Media Text
- arxiv url: http://arxiv.org/abs/2006.01222v1
- Date: Mon, 1 Jun 2020 19:52:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 07:24:43.817975
- Title: BERT-based Ensembles for Modeling Disclosure and Support in
Conversational Social Media Text
- Title(参考訳): 会話型ソーシャルメディアテキストにおける開示のモデル化と支援のためのBERTベースのアンサンブル
- Authors: Tanvi Dadu, Kartikey Pant and Radhika Mamidi
- Abstract要約: 本稿では,RoBERTa と ALBERT を用いた文脈適応型単語埋め込みを用いた予測アンサンブルモデルを提案する。
提案手法は,F1スコアにおいて,F1スコアにおいて3%の精度向上を達成し,すべての基準値においてベースモデルよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 9.475039534437332
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is a growing interest in understanding how humans initiate and hold
conversations. The affective understanding of conversations focuses on the
problem of how speakers use emotions to react to a situation and to each other.
In the CL-Aff Shared Task, the organizers released Get it #OffMyChest dataset,
which contains Reddit comments from casual and confessional conversations,
labeled for their disclosure and supportiveness characteristics. In this paper,
we introduce a predictive ensemble model exploiting the finetuned
contextualized word embeddings, RoBERTa and ALBERT. We show that our model
outperforms the base models in all considered metrics, achieving an improvement
of $3\%$ in the F1 score. We further conduct statistical analysis and outline
deeper insights into the given dataset while providing a new characterization
of impact for the dataset.
- Abstract(参考訳): 人間の会話の開始と保持の方法を理解することへの関心が高まっている。
会話に対する感情的な理解は、話者が感情を使って状況やお互いに反応する方法の問題に焦点を当てている。
cl-aff共有タスクでは、オーガナイザがget it #offmychestデータセットをリリースした。このデータセットには、カジュアルな会話や告白的な会話からのredditコメントが含まれており、開示とサポート性の特徴がラベル付けされている。
本稿では,RoBERTa と ALBERT を用いた文脈適応型単語埋め込みを用いた予測アンサンブルモデルを提案する。
私たちのモデルは、すべての考慮されたメトリクスでベースモデルよりも優れており、f1スコアで3〜%$の改善を達成しています。
さらに,データセットへの影響を新たな特徴付けしながら,統計的分析を行い,所定のデータセットに対する深い洞察を概説する。
関連論文リスト
- Long-Span Question-Answering: Automatic Question Generation and QA-System Ranking via Side-by-Side Evaluation [65.16137964758612]
大規模言語モデルにおける長文文の活用について検討し,本書全体の読解データを作成する。
我々の目的は、長いテキストの詳細な理解を必要とする問題を分析し、理解し、推論するLLMの能力をテストすることである。
論文 参考訳(メタデータ) (2024-05-31T20:15:10Z) - Learning From Free-Text Human Feedback -- Collect New Datasets Or Extend
Existing Ones? [57.16050211534735]
一般的な対話データセットにおける自由文フィードバックのタイプと頻度について検討する。
この結果から, エラータイプ, ユーザ応答タイプ, それらの関係性など, 調査したデータセットの構成に関する新たな知見が得られた。
論文 参考訳(メタデータ) (2023-10-24T12:01:11Z) - Rating Prediction in Conversational Task Assistants with Behavioral and
Conversational-Flow Features [6.188306785668896]
本稿では,会話フロー機能とユーザ行動機能を組み合わせてユーザ評価を予測するトランスフォーマーモデルTB-Raterを提案する。
特に、Alexa TaskBotチャレンジで収集された実際のヒューマンエージェントの会話とレーティングを使用します。
本結果は,オフライン評価予測のための1つのモデルにおいて,会話の対話フローと行動的側面の両方をモデル化する利点を示す。
論文 参考訳(メタデータ) (2023-09-20T13:34:03Z) - Measuring the Effect of Influential Messages on Varying Personas [67.1149173905004]
我々は、ニュースメッセージを見る際にペルソナが持つ可能性のある応答を推定するために、ニュースメディア向けのペルソナに対するレスポンス予測という新しいタスクを提示する。
提案課題は,モデルにパーソナライズを導入するだけでなく,各応答の感情極性と強度も予測する。
これにより、ペルソナの精神状態に関するより正確で包括的な推測が可能になる。
論文 参考訳(メタデータ) (2023-05-25T21:01:00Z) - TANet: Thread-Aware Pretraining for Abstractive Conversational
Summarization [27.185068253347257]
我々はRedditコミュニティの複数人による議論に基づいて,RCSと呼ばれる大規模(11M)事前学習データセットを構築した。
次に、スレッド対応のTransformerベースのネットワークであるTANetを紹介する。
会話を文の列として扱う既存の事前学習モデルとは異なり、本質的な文脈依存は会話全体を理解する上で重要な役割を担っていると論じる。
論文 参考訳(メタデータ) (2022-04-09T16:08:46Z) - T-BERT -- Model for Sentiment Analysis of Micro-blogs Integrating Topic
Model and BERT [0.0]
生のライブデータセットからの感情分類タスクにおけるBERT(Bidirectional Representations from Transformers)の有効性を示す。
T-BERT フレームワークは、潜在トピックとコンテキスト BERT 埋め込みを組み合わせることで得られる性能向上を示す。
論文 参考訳(メタデータ) (2021-06-02T12:01:47Z) - ConvoSumm: Conversation Summarization Benchmark and Improved Abstractive
Summarization with Argument Mining [61.82562838486632]
我々は、さまざまなオンライン会話形式のニュースコメント、ディスカッションフォーラム、コミュニティ質問応答フォーラム、電子メールスレッドに関する4つの新しいデータセットをクラウドソースする。
我々は、データセットの最先端モデルをベンチマークし、データに関連する特徴を分析します。
論文 参考訳(メタデータ) (2021-06-01T22:17:13Z) - Exploiting Unsupervised Data for Emotion Recognition in Conversations [76.01690906995286]
会話における感情認識(Emotion Recognition in Conversations:ERC)は、会話における話者の感情状態を予測することを目的としている。
ERCタスクの教師付きデータは限られている。
教師なし会話データを活用する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-02T13:28:47Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - DialBERT: A Hierarchical Pre-Trained Model for Conversation
Disentanglement [47.403802900555576]
そこで我々は,DialBERT (DialBERT) という新しいモデルを提案する。このモデルでは,局所的およびグローバルなセマンティクスを単一のメッセージストリームに統合し,混在する会話をアンハングリングする。
BERTを用いて発話レベルの各発話ペアのマッチング情報をキャプチャし、BiLSTMを用いてコンテキストレベルの情報を集約し、組み込む。
パラメータがわずか3%増加しただけで、F1-Scoreに基づくBERTと比較して12%の改善が達成された。
論文 参考訳(メタデータ) (2020-04-08T00:54:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。