論文の概要: Re-entry Prediction for Online Conversations via Self-Supervised
Learning
- arxiv url: http://arxiv.org/abs/2109.02020v1
- Date: Sun, 5 Sep 2021 08:07:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-07 16:44:31.772583
- Title: Re-entry Prediction for Online Conversations via Self-Supervised
Learning
- Title(参考訳): 自己指導型学習によるオンライン会話の再エントリー予測
- Authors: Lingzhi Wang, Xingshan Zeng, Huang Hu, Kam-Fai Wong, Daxin Jiang
- Abstract要約: 本稿では,再突入予測のための自己教師型信号として,スプレッドパターン,繰り返しターゲットユーザ,ターンオーサシップの3つの補助タスクを提案する。
Twitter と Reddit から新たに収集した2つのデータセットの実験結果から,我々の手法が過去の最先端よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 25.488783376789026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, world business in online discussions and opinion sharing on
social media is booming. Re-entry prediction task is thus proposed to help
people keep track of the discussions which they wish to continue. Nevertheless,
existing works only focus on exploiting chatting history and context
information, and ignore the potential useful learning signals underlying
conversation data, such as conversation thread patterns and repeated engagement
of target users, which help better understand the behavior of target users in
conversations. In this paper, we propose three interesting and well-founded
auxiliary tasks, namely, Spread Pattern, Repeated Target user, and Turn
Authorship, as the self-supervised signals for re-entry prediction. These
auxiliary tasks are trained together with the main task in a multi-task manner.
Experimental results on two datasets newly collected from Twitter and Reddit
show that our method outperforms the previous state-of-the-arts with fewer
parameters and faster convergence. Extensive experiments and analysis show the
effectiveness of our proposed models and also point out some key ideas in
designing self-supervised tasks.
- Abstract(参考訳): 近年,オンライン議論における世界ビジネスやソーシャルメディアでの意見共有が盛んになっている。
そのため、継続したい議論の追跡を支援するために、再突入予測タスクが提案されている。
それにもかかわらず、既存の作品はチャット履歴とコンテキスト情報のみを活用し、会話スレッドパターンやターゲットユーザーの繰り返しのエンゲージメントといった会話データの基礎となる有用な学習信号を無視し、会話中のターゲットユーザーの振る舞いをより理解するのに役立つ。
本稿では,再突入予測のための自己監督信号として,拡散パターン,反復ターゲットユーザ,ターンオーサシップという3つの興味深く,確立された補助タスクを提案する。
これらの補助タスクは、メインタスクとともにマルチタスクでトレーニングされる。
Twitter と Reddit から新たに収集した2つのデータセットによる実験結果から,本手法は従来手法よりも少ないパラメータと高速収束率で優れていた。
大規模な実験と分析は,提案モデルの有効性を示すとともに,自己指導型タスクの設計における重要なアイデアを指摘する。
関連論文リスト
- NewsDialogues: Towards Proactive News Grounded Conversation [72.10055780635625]
本稿では,対話システムがニュースの重要な話題に基づいて会話を積極的にリードする新しいタスク,Proactive News Grounded Conversationを提案する。
この課題をさらに発展させるために、人間と人間の対話データセットtsNewsDialoguesを収集し、合計14.6Kの発話を含む1Kの会話を含む。
論文 参考訳(メタデータ) (2023-08-12T08:33:42Z) - "You might think about slightly revising the title": identifying hedges
in peer-tutoring interactions [1.0466434989449724]
ヘッジは会話の相互作用の管理において重要な役割を果たす。
我々は、ヘッジを特定するための計算フレームワークを構築するために、マルチモーダルなピアチューニングデータセットを使用する。
我々は、ピアチューニング会話でヘッジを特徴付ける特徴を探索するために、モデル説明可能性ツールを使用します。
論文 参考訳(メタデータ) (2023-06-18T12:47:54Z) - Task Compass: Scaling Multi-task Pre-training with Task Prefix [122.49242976184617]
既存の研究では、大規模教師付きタスクによるマルチタスク学習がタスク間の負の効果に悩まされていることが示されている。
タスク間の関係を探索するために,タスクプレフィックスガイド付きマルチタスク事前学習フレームワークを提案する。
我々のモデルは、幅広いタスクの強力な基盤バックボーンとして機能するだけでなく、タスク関係を分析するための探索ツールとしても実現可能である。
論文 参考訳(メタデータ) (2022-10-12T15:02:04Z) - KETOD: Knowledge-Enriched Task-Oriented Dialogue [77.59814785157877]
対話システム研究における既存の研究は、主にタスク指向の対話とチャットを独立したドメインとして扱う。
本研究では,タスク指向対話と知識ベースチップチャットを一つのモデルに効果的に統合する方法について検討する。
論文 参考訳(メタデータ) (2022-05-11T16:01:03Z) - TANet: Thread-Aware Pretraining for Abstractive Conversational
Summarization [27.185068253347257]
我々はRedditコミュニティの複数人による議論に基づいて,RCSと呼ばれる大規模(11M)事前学習データセットを構築した。
次に、スレッド対応のTransformerベースのネットワークであるTANetを紹介する。
会話を文の列として扱う既存の事前学習モデルとは異なり、本質的な文脈依存は会話全体を理解する上で重要な役割を担っていると論じる。
論文 参考訳(メタデータ) (2022-04-09T16:08:46Z) - Unsupervised Conversation Disentanglement through Co-Training [30.304609312675186]
人間のアノテーションを参考にすることなく、会話の絡み合いモデルを訓練する。
提案手法は,2つのニューラルネットワークからなるディープコトレーニングアルゴリズムに基づいて構築される。
メッセージペア分類器では、信頼度の高いメッセージペアを検索することで、トレーニングデータを強化します。
論文 参考訳(メタデータ) (2021-09-07T17:05:18Z) - Parrot: Data-Driven Behavioral Priors for Reinforcement Learning [79.32403825036792]
そこで本研究では,実験で得られた複雑なインプット・アウトプット関係を事前に学習する手法を提案する。
RLエージェントが新規な動作を試す能力を阻害することなく、この学習が新しいタスクを迅速に学習するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2020-11-19T18:47:40Z) - Probing Task-Oriented Dialogue Representation from Language Models [106.02947285212132]
本稿では,タスク指向対話タスクにおいて,どのモデルが本質的に最も有意義な表現を担っているかを明らかにするために,事前学習された言語モデルについて検討する。
我々は、アノテートラベルを教師付き方法で固定された事前学習言語モデルの上に、分類器プローブとしてフィードフォワード層を微調整する。
論文 参考訳(メタデータ) (2020-10-26T21:34:39Z) - Adding Chit-Chat to Enhance Task-Oriented Dialogues [36.93917437554091]
Chit-Chatをタスク指向の対話に追加することで、仮想アシスタントの会話をより魅力的でインタラクティブにすることができる。
我々は,2つのタスク指向対話データセットから23.8Kの対話に,新しいチャットベースのアノテーションを提案する。
また,タスク指向対話にChit-chatを追加するための3つの新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-10-24T03:22:43Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。