論文の概要: Conversations Gone Alright: Quantifying and Predicting Prosocial
Outcomes in Online Conversations
- arxiv url: http://arxiv.org/abs/2102.08368v1
- Date: Tue, 16 Feb 2021 18:53:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 14:56:31.052772
- Title: Conversations Gone Alright: Quantifying and Predicting Prosocial
Outcomes in Online Conversations
- Title(参考訳): オンライン会話における社会的利益の定量化と予測
- Authors: Jiajun Bao, Junjie Wu, Yiming Zhang, Eshwar Chandrasekharan, and David
Jurgens
- Abstract要約: 2600万のreddit会話のコーパスを使って、これらの結果がオンライン会話の最初のコメントから予測できることを示した。
以上の結果から,プラットフォームは早期会話のアルゴリズム的ランク付けにおいて,より優れた結果の優先順位付けにこれらの早期手がかりを活用できることが示唆された。
- 参考スコア(独自算出の注目度): 14.761354058401418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online conversations can go in many directions: some turn out poorly due to
antisocial behavior, while others turn out positively to the benefit of all.
Research on improving online spaces has focused primarily on detecting and
reducing antisocial behavior. Yet we know little about positive outcomes in
online conversations and how to increase them-is a prosocial outcome simply the
lack of antisocial behavior or something more? Here, we examine how
conversational features lead to prosocial outcomes within online discussions.
We introduce a series of new theory-inspired metrics to define prosocial
outcomes such as mentoring and esteem enhancement. Using a corpus of 26M Reddit
conversations, we show that these outcomes can be forecasted from the initial
comment of an online conversation, with the best model providing a relative 24%
improvement over human forecasting performance at ranking conversations for
predicted outcome. Our results indicate that platforms can use these early cues
in their algorithmic ranking of early conversations to prioritize better
outcomes.
- Abstract(参考訳): オンラインの会話は、さまざまな方向に進むことができる。反社会的行動のために悪い結果になるものもあれば、すべての人の利益に肯定的に反応するものもある。
オンライン空間の改善に関する研究は、主に反社会的行動の検出と減少に焦点を当てている。
しかし、私たちはオンライン会話における肯定的な結果とそれらを増やす方法についてほとんど知りません。
本稿では,対話型機能がオンライン議論におけるソーシャルな結果にどのようにつながるかを検討する。
メンタリングやエステム強化など、社会的な成果を定義するための一連の新しい理論に基づくメトリクスを紹介します。
26MのReddit会話のコーパスを使用して、これらの結果がオンライン会話の最初のコメントから予測できることを示し、最良のモデルは予測結果のために会話のランキングで人間予測のパフォーマンスよりも相対的な24%改善を提供する。
以上の結果から,プラットフォームは早期会話のアルゴリズム的ランク付けにおいて,より優れた結果の優先順位付けにこれらの早期手がかりを活用できることが示唆された。
関連論文リスト
- SocialBench: Sociality Evaluation of Role-Playing Conversational Agents [85.6641890712617]
大規模言語モデル(LLM)は、様々なAI対話エージェントの開発を進めてきた。
SocialBenchは、ロールプレイングの会話エージェントの社会的性を個人レベルとグループレベルで評価するために設計された最初のベンチマークである。
個人レベルで優れたエージェントは,集団レベルでの熟練度を示唆しない。
論文 参考訳(メタデータ) (2024-03-20T15:38:36Z) - Social Orientation: A New Feature for Dialogue Analysis [15.192659799728181]
ソーシャル指向タグをラベル付けした対話音声のデータセットを新たに導入する。
ソーシャル・オリエンテーション・タグは特に低リソース環境においてタスク・パフォーマンスを向上させることを示す。
また、ニューラルモデルにおける社会的相互作用の結果を説明する上で、ソーシャルオリエンテーションタグがどのように役立つかを実証する。
論文 参考訳(メタデータ) (2024-02-26T01:55:45Z) - Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - Leveraging Implicit Feedback from Deployment Data in Dialogue [83.02878726357523]
本研究では,ユーザ間の自然な対話とデプロイモデルから学習することで,社会的会話エージェントの改善について検討する。
我々は、ユーザ応答長、感情、未来の人間の発話の反応などの信号を、収集された対話エピソードで活用する。
論文 参考訳(メタデータ) (2023-07-26T11:34:53Z) - AI Chat Assistants can Improve Conversations about Divisive Topics [3.8583005413310625]
我々は、人工知能ツールを用いてオンライン会話をいかに改善できるかを示す大規模な実験の結果を示す。
我々は、参加者の会話で理解される感覚の向上を目的とした、リアルタイムなエビデンスベースのレコメンデーションを実現するために、大きな言語モデルを採用している。
これらの介入は、会話の内容の体系的変更や人々の政策姿勢の移動を伴わずに、報告された会話の質を改善し、政治的分裂を減らし、トーンを改善する。
論文 参考訳(メタデータ) (2023-02-14T06:42:09Z) - Flexible social inference facilitates targeted social learning when
rewards are not observable [58.762004496858836]
グループは、個人が他人の成功から学べるときにより効果的にコーディネートする。
社会的推論能力は、このギャップを埋める助けとなり、個人が他人の基本的な知識に対する信念を更新し、観察可能な行動軌跡から成功することを示唆する。
論文 参考訳(メタデータ) (2022-12-01T21:04:03Z) - Harnessing the Power of Ego Network Layers for Link Prediction in Online
Social Networks [0.734084539365505]
予測は典型的には教師なしまたは教師なしの学習に基づいている。
個人の社会的構造に関するより豊かな情報は、より良い予測につながるかもしれないと我々は主張する。
社会的認識が予測性能に大きな改善をもたらすことを示す。
論文 参考訳(メタデータ) (2021-09-19T18:49:10Z) - The Structure of Toxic Conversations on Twitter [10.983958397797847]
Twitter上での会話における構造と毒性の関係について検討した。
個人レベルでは、毒性は多くの低レベルから中程度の有害なユーザーに分散している。
グループレベルでは、有害な会話はより大きく、より広く、より深い応答木を持つ傾向にある。
論文 参考訳(メタデータ) (2021-05-25T01:18:02Z) - Artificial intelligence in communication impacts language and social
relationships [11.212791488179757]
我々は、最も普及しているAIアプリケーションのうちの1つ、アルゴリズム的な応答提案(smart response)の社会的結果を研究する。
提案手法は, コミュニケーション効率の向上, 肯定的な感情言語の利用, コミュニケーションパートナーによる肯定的な評価を行う。
しかし、AIの否定的含意に関する一般的な仮定と一致し、アルゴリズム的応答を疑う場合、人々はより否定的に評価される。
論文 参考訳(メタデータ) (2021-02-10T22:05:11Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z) - Echo Chambers on Social Media: A comparative analysis [64.2256216637683]
本研究では,4つのソーシャルメディアプラットフォーム上で100万ユーザが生成した100万個のコンテンツに対して,エコーチャンバーの操作的定義を導入し,大規模な比較分析を行う。
議論の的になっているトピックについてユーザの傾きを推測し、異なる特徴を分析してインタラクションネットワークを再構築する。
我々は、Facebookのようなニュースフィードアルゴリズムを実装するプラットフォームが、エコーチャンバの出現を招きかねないという仮説を支持する。
論文 参考訳(メタデータ) (2020-04-20T20:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。