論文の概要: Disentangling Online Chats with DAG-Structured LSTMs
- arxiv url: http://arxiv.org/abs/2106.09024v1
- Date: Wed, 16 Jun 2021 18:00:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-19 12:17:54.490564
- Title: Disentangling Online Chats with DAG-Structured LSTMs
- Title(参考訳): DAG構造化LSTMを用いたオンラインチャットの遠隔操作
- Authors: Duccio Pappadopulo, Lisa Bauer, Marco Farina, Ozan \.Irsoy, and Mohit
Bansal
- Abstract要約: DAG-LSTMはTree-LSTMの一般化であり、間接的な非循環的依存関係を処理できる。
提案する新モデルでは,リプライ・トゥ・リレーション(Repend-to-Relation)を回復する作業において,アート・ステータスの状態を達成できることが示される。
- 参考スコア(独自算出の注目度): 55.33014148383343
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many modern messaging systems allow fast and synchronous textual
communication among many users. The resulting sequence of messages hides a more
complicated structure in which independent sub-conversations are interwoven
with one another. This poses a challenge for any task aiming to understand the
content of the chat logs or gather information from them. The ability to
disentangle these conversations is then tantamount to the success of many
downstream tasks such as summarization and question answering. Structured
information accompanying the text such as user turn, user mentions, timestamps,
is used as a cue by the participants themselves who need to follow the
conversation and has been shown to be important for disentanglement. DAG-LSTMs,
a generalization of Tree-LSTMs that can handle directed acyclic dependencies,
are a natural way to incorporate such information and its non-sequential
nature. In this paper, we apply DAG-LSTMs to the conversation disentanglement
task. We perform our experiments on the Ubuntu IRC dataset. We show that the
novel model we propose achieves state of the art status on the task of
recovering reply-to relations and it is competitive on other disentanglement
metrics.
- Abstract(参考訳): 多くの現代メッセージングシステムは、多くのユーザー間で高速で同期的なテキスト通信を可能にする。
その結果、メッセージのシーケンスは、独立したサブ会話が相互に織り合わされる、より複雑な構造を隠す。
これは、チャットログの内容を理解したり、それらから情報を集めることを目的としたタスクに対して、課題となる。
これらの会話を解き放つ能力は、要約や質問応答といった多くの下流タスクの成功に重きを置いている。
会話に従わなければならない参加者自身の手掛かりとして、ユーザ・ターン、ユーザへの言及、タイムスタンプなどのテキストに付随する構造化情報を使用し、絡み合いに重要であることが示されている。
DAG-LSTMは、直交非巡回依存を扱える木-LSTMの一般化であり、そのような情報とその非順序の性質を組み込む自然な方法である。
本稿では,DAG-LSTMを会話障害タスクに適用する。
我々はubuntu ircデータセットで実験を行う。
提案する新たなモデルでは,リプライ・トゥ・リレーション(Repend-to-Relation)のタスクにおけるアートステータスの状態が得られ,他のアンタングルメント指標と競合することを示す。
関連論文リスト
- Beyond Prompts: Dynamic Conversational Benchmarking of Large Language Models [0.0]
本稿では,対話エージェントを対象とした動的ベンチマークシステムを提案する。
タスクをインターリーブするために定期的にコンテキストスイッチを行い、エージェントの長期記憶、継続的な学習、情報統合機能を評価する現実的なテストシナリオを構築します。
論文 参考訳(メタデータ) (2024-09-30T12:01:29Z) - Do LLMs suffer from Multi-Party Hangover? A Diagnostic Approach to Addressee Recognition and Response Selection in Conversations [11.566214724241798]
本研究では,会話の特定の構造的属性間でのモデル性能を調査する手法を提案する。
我々はモデルの弱点を診断するために、応答選択とアドレス認識タスクに焦点をあてる。
その結果、応答選択は会話のテキストの内容に依存しており、アドレス認識ではその構造的次元を捉える必要があることがわかった。
論文 参考訳(メタデータ) (2024-09-27T10:07:33Z) - Beyond the Turn-Based Game: Enabling Real-Time Conversations with Duplex Models [66.24055500785657]
従来のターンベースのチャットシステムは、ユーザが応答を生成している間に、システムが言葉で対話することを防ぐ。
これらの制限を克服するため,既存のLCMをユーザを聴きながら出力を生成し,ユーザに対して即時フィードバックを提供する。
クエリとレスポンスの時間スライスを交互に行うデータセットを構築し、インスタントインタラクションにおける典型的なフィードバックタイプをカバーする。
論文 参考訳(メタデータ) (2024-06-22T03:20:10Z) - Thread of Thought Unraveling Chaotic Contexts [133.24935874034782]
思考のスレッド(ThoT)戦略は、人間の認知プロセスからインスピレーションを得ている。
実験では、他のプロンプト技術と比較して、ThoTは推論性能を著しく改善する。
論文 参考訳(メタデータ) (2023-11-15T06:54:44Z) - MemoChat: Tuning LLMs to Use Memos for Consistent Long-Range Open-Domain
Conversation [43.24092422054248]
そこで本稿では,大規模言語モデルに対して,自己合成メモを効果的に活用するためのパイプラインを提案する。
我々は、反復的な「記憶-記憶-記憶-応答」サイクルを通して、長い範囲のオープンドメイン会話を実演する。
これらの命令は、LLMに、構造化されたメモによる過去の対話を記憶し、検索するように教えるために、公開データセットの集合から再構築される。
論文 参考訳(メタデータ) (2023-08-16T09:15:18Z) - End-to-end Spoken Conversational Question Answering: Task, Dataset and
Model [92.18621726802726]
音声による質問応答では、システムは関連する音声書き起こしの中に連続したテキストスパンからの質問に答えるように設計されている。
本稿では,複雑な対話フローをモデル化することを目的とした音声対話型質問応答タスク(SCQA)を提案する。
本研究の目的は,音声記録に基づく対話型質問に対処するシステムを構築することであり,情報収集システムによる様々なモダリティからより多くの手がかりを提供する可能性を探ることである。
論文 参考訳(メタデータ) (2022-04-29T17:56:59Z) - Unsupervised Summarization for Chat Logs with Topic-Oriented Ranking and
Context-Aware Auto-Encoders [59.038157066874255]
本稿では,手動ラベル付きデータを用いずにチャット要約を行うrankaeという新しいフレームワークを提案する。
RankAEは、中心性と多様性に応じてトピックの発話を同時に選択するトピック指向のランキング戦略で構成されています。
消音自動エンコーダは、選択された発話に基づいて簡潔でコンテキスト情報に基づいた要約を生成するように設計されています。
論文 参考訳(メタデータ) (2020-12-14T07:31:17Z) - Online Conversation Disentanglement with Pointer Networks [13.063606578730449]
本稿では,会話の絡み合わせのためのエンドツーエンドのオンラインフレームワークを提案する。
我々は、タイムスタンプ、話者、メッセージテキストを含む全発話を埋め込む新しい手法を設計する。
Ubuntu IRCデータセットを用いた実験により,提案手法はリンクと会話の予測タスクにおいて,最先端のパフォーマンスを実現することを示す。
論文 参考訳(メタデータ) (2020-10-21T15:43:07Z) - Conversations with Search Engines: SERP-based Conversational Response
Generation [77.1381159789032]
我々は、検索エンジンと対話するためのパイプラインを開発するために、適切なデータセット、検索・アズ・ア・会話(SaaC)データセットを作成します。
また、このデータセットを用いて、検索エンジンと対話するための最先端パイプライン(Conversations with Search Engines (CaSE))も開発しています。
CaSEは、サポートされたトークン識別モジュールとプリア・アウェア・ポインタージェネレータを導入することで最先端を向上する。
論文 参考訳(メタデータ) (2020-04-29T13:07:53Z) - Conversational Question Answering over Passages by Leveraging Word
Proximity Networks [33.59664244897881]
CROWNは、経路応答を持つ会話型QAのための教師なしかつ効果的なシステムである。
複数のターンにまたがる複数のコンテキストの伝搬をサポートする。
CROWNはTREC CAsTデータで評価され、ニューラルネットワークのプールにおいて上述の性能を達成した。
論文 参考訳(メタデータ) (2020-04-27T19:30:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。