論文の概要: The Branch Not Taken: Predicting Branching in Online Conversations
- arxiv url: http://arxiv.org/abs/2404.13613v1
- Date: Sun, 21 Apr 2024 10:49:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-23 18:11:42.979799
- Title: The Branch Not Taken: Predicting Branching in Online Conversations
- Title(参考訳): ブランチは取らない - オンライン会話におけるブランチ予測
- Authors: Shai Meital, Lior Rokach, Roman Vainshtein, Nir Grinberg,
- Abstract要約: 分岐予測の新しいタスクを定義し,分岐予測のためのディープニューラルネットワークモデルであるGLOBSを提案する。
GLOBSはRedditの3つの大きなディスカッションフォーラムで評価されており、競争の激しいベースラインよりも大幅に改善されている。
構造的,時間的,言語的特徴がGLOBSの成功に寄与し,分岐がより多くの会話参加者に結びついていることを確認する。
- 参考スコア(独自算出の注目度): 9.765888351418663
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-participant discussions tend to unfold in a tree structure rather than a chain structure. Branching may occur for multiple reasons -- from the asynchronous nature of online platforms to a conscious decision by an interlocutor to disengage with part of the conversation. Predicting branching and understanding the reasons for creating new branches is important for many downstream tasks such as summarization and thread disentanglement and may help develop online spaces that encourage users to engage in online discussions in more meaningful ways. In this work, we define the novel task of branch prediction and propose GLOBS (Global Branching Score) -- a deep neural network model for predicting branching. GLOBS is evaluated on three large discussion forums from Reddit, achieving significant improvements over an array of competitive baselines and demonstrating better transferability. We affirm that structural, temporal, and linguistic features contribute to GLOBS success and find that branching is associated with a greater number of conversation participants and tends to occur in earlier levels of the conversation tree. We publicly release GLOBS and our implementation of all baseline models to allow reproducibility and promote further research on this important task.
- Abstract(参考訳): 多人数の議論は、連鎖構造ではなく木構造に展開する傾向がある。
分岐は、オンラインプラットフォームの非同期性から、会話の一部を解き放つためのインターロケータによる意識的な決定に至るまで、さまざまな理由で起こりうる。要約やスレッドのゆがみといった多くの下流タスクにおいて、分岐の予測と理解は重要であり、ユーザがオンラインの議論にもっと意味のある方法で参加するように促すオンライン空間の開発に役立つ。この記事では、分岐予測の新しいタスクを定義し、分岐予測のための深層ニューラルネットワークモデルであるGLOBS(Global Branching Score)を提案する。
GLOBSはRedditの3つの大きなディスカッションフォーラムで評価されており、競争の激しいベースラインよりも大幅に改善され、転送性も向上している。
構造的,時間的,言語的特徴がGLOBSの成功に寄与し,分岐がより多くの会話参加者と結びついており,会話ツリーの早期に発生する傾向があることを確認した。
我々はGLOBSと全てのベースラインモデルの実装を公開し、再現性を確保し、この重要な課題についてさらなる研究を促進する。
関連論文リスト
- Branches, Assemble! Multi-Branch Cooperation Network for Large-Scale Click-Through Rate Prediction at Taobao [49.11242099449315]
MBCnet(Multi-Branch Cooperation Network)を紹介する。
MBCnetは、Expert-based Feature Grouping and Crossing (EFGC)、低ランククロスネットブランチ、Deepブランチの3つのブランチで構成されている。
大規模産業データセットとオンラインA/Bテストの実験では、MBCnetのパフォーマンスが向上し、CTRが0.09ポイント、取引が1.49%、GMVが1.62%向上した。
論文 参考訳(メタデータ) (2024-11-20T06:10:06Z) - Scaling Large-Language-Model-based Multi-Agent Collaboration [75.5241464256688]
大規模言語モデルによるエージェントのパイオニア化は、マルチエージェントコラボレーションの設計パターンを暗示している。
神経スケーリング法則に触発された本研究では,マルチエージェント協調におけるエージェントの増加に類似の原理が適用されるかを検討する。
論文 参考訳(メタデータ) (2024-06-11T11:02:04Z) - Large Discourse Treebanks from Scalable Distant Supervision [30.615883375573432]
本稿では,感情分析の補助的課題に対する遠隔監視から「銀標準」談話木を生成する枠組みを提案する。
銀標準」の談話木は、より大きく、より多様性があり、ドメインに依存しないデータセットで訓練されている。
論文 参考訳(メタデータ) (2022-10-18T03:33:43Z) - Join-Chain Network: A Logical Reasoning View of the Multi-head Attention
in Transformer [59.73454783958702]
本稿では,多くの結合演算子を連結して出力論理式をモデル化するシンボリック推論アーキテクチャを提案する。
特に,このような結合鎖のアンサンブルが'ツリー構造'の1次論理式であるFOETの広い部分集合を表現できることを実証する。
変圧器における多頭部自己保持モジュールは,確率的述語空間における結合作用素の結合境界を実装する特別なニューラル演算子として理解することができる。
論文 参考訳(メタデータ) (2022-10-06T07:39:58Z) - Characterizing the Structure of Online Conversations Across Reddit [1.7595244858303718]
本稿ではReddit上でのオンラインディスカッションの構造的特性について検討する。
1年分のRedditデータを総合統計分析します。
ポストコンテンツや感情などのローカル機能は、全体として大きな影響を与える。
論文 参考訳(メタデータ) (2022-09-29T14:50:50Z) - Unsupervised Learning of Hierarchical Conversation Structure [50.29889385593043]
ゴール指向の会話は、しばしば意味のあるサブ対話構造を持つが、ドメインに依存しやすい。
この研究は、ターンやサブダイアログのセグメントラベルを含む階層的な会話構造を学習するための教師なしのアプローチを導入する。
復号化構造は3つの会話レベル理解タスクのための言語ニューラルネットワークの強化に有用であることが示されている。
論文 参考訳(メタデータ) (2022-05-24T17:52:34Z) - Improving Online Forums Summarization via Unifying Hierarchical
Attention Networks with Convolutional Neural Networks [4.5591913587473964]
本研究の目的は,オンラインフォーラムのためのテキスト要約の自動作成である。
階層的注意ネットワーク、双方向長期記憶(Bi-LSTM)、畳み込みニューラルネットワーク(CNN)に基づくフレームワークを提案する。
このスキームでは、Bi-LSTMは文全体とスレッド全体の情報を含む表現を導出する。
注意機構はcnnの上に適用され、望ましい要約に寄与する重要なユニットをキャプチャするハイレベルな表現をさらに強調する。
論文 参考訳(メタデータ) (2021-03-25T03:38:56Z) - Discovering Dialog Structure Graph for Open-Domain Dialog Generation [51.29286279366361]
chitchat corporaの対話構造を無監督で発見します。
次に、下流システムでのダイアログ生成を容易にするために利用します。
本稿では,グラフニューラルネットワーク(DVAE-GNN)を用いた離散変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2020-12-31T10:58:37Z) - Unsupervised Learning of Discourse Structures using a Tree Autoencoder [8.005512864082126]
本研究では, 自動符号化目的による潜在木誘導フレームワークを拡張することにより, タスクに依存しない, 監視されていない方法で木構造を生成する新しい戦略を提案する。
提案されたアプローチは、構文解析、談話解析など、任意のツリー目的に適用することができる。
本稿では,複数の領域における自然文の一般的な木構造を推定し,様々なタスクで有望な結果を示す。
論文 参考訳(メタデータ) (2020-12-17T08:40:34Z) - Dynamic Hierarchical Mimicking Towards Consistent Optimization
Objectives [73.15276998621582]
一般化能力を高めたCNN訓練を推進するための汎用的特徴学習機構を提案する。
DSNに部分的にインスパイアされた私たちは、ニューラルネットワークの中間層から微妙に設計されたサイドブランチをフォークしました。
カテゴリ認識タスクとインスタンス認識タスクの両方の実験により,提案手法の大幅な改善が示された。
論文 参考訳(メタデータ) (2020-03-24T09:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。