論文の概要: Understanding and Predicting Derailment in Toxic Conversations on GitHub
- arxiv url: http://arxiv.org/abs/2503.02191v3
- Date: Wed, 19 Mar 2025 14:54:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:20:54.360194
- Title: Understanding and Predicting Derailment in Toxic Conversations on GitHub
- Title(参考訳): GitHub上のトキシックな会話における脱線理解と予測
- Authors: Mia Mohammad Imran, Robert Zita, Rebekah Copeland, Preetha Chatterjee, Rahat Rizvi Rahman, Kostadin Damevski,
- Abstract要約: この研究は、GitHubの有害性につながる会話の脱線を理解し予測することを目的としている。
このデータセットに基づいて,有害な会話や脱線点の特徴を識別する。
本研究では,エスカレーション前に潜在的に有害な会話を自動的に検出し,対処するための能動的モデレーション手法を提案する。
- 参考スコア(独自算出の注目度): 6.343946534579351
- License:
- Abstract: Software projects thrive on the involvement and contributions of individuals from different backgrounds. However, toxic language and negative interactions can hinder the participation and retention of contributors and alienate newcomers. Proactive moderation strategies aim to prevent toxicity from occurring by addressing conversations that have derailed from their intended purpose. This study aims to understand and predict conversational derailment leading to toxicity on GitHub. To facilitate this research, we curate a novel dataset comprising 202 toxic conversations from GitHub with annotated derailment points, along with 696 non-toxic conversations as a baseline. Based on this dataset, we identify unique characteristics of toxic conversations and derailment points, including linguistic markers such as second-person pronouns, negation terms, and tones of Bitter Frustration and Impatience, as well as patterns in conversational dynamics between project contributors and external participants. Leveraging these empirical observations, we propose a proactive moderation approach to automatically detect and address potentially harmful conversations before escalation. By utilizing modern LLMs, we develop a conversation trajectory summary technique that captures the evolution of discussions and identifies early signs of derailment. Our experiments demonstrate that LLM prompts tailored to provide summaries of GitHub conversations achieve 70% F1-Score in predicting conversational derailment, strongly improving over a set of baseline approaches.
- Abstract(参考訳): ソフトウェアプロジェクトは、異なるバックグラウンドの個人の関与と貢献に基づいて成長します。
しかし、有害な言語とネガティブな相互作用は、貢献者の参加と保持を妨げ、新参者を疎外させる。
積極的なモデレーション戦略は、意図した目的から脱線した会話に対処することで、毒性の発生を防止することを目的としている。
この研究は、GitHubの有害性につながる会話の脱線を理解し予測することを目的としている。
本研究を容易にするために,アノテーション付き脱線点を持つGitHubから202件の有害な会話と,ベースラインとして696件の非有害な会話からなる新たなデータセットをキュレートした。
本データセットでは,2人称代名詞や否定語,ビターフラストレーションや不忍感のトーンといった言語マーカーや,プロジェクトコントリビュータと外部参加者の会話ダイナミクスのパターンなど,有害な会話や脱線点の特徴を識別する。
これらの経験的観察を活用することで、エスカレーション前に潜在的に有害な会話を自動的に検出し、対処するための能動的モデレーション手法を提案する。
現代のLLMを利用して,議論の進化を捉え,初期の脱線兆候を識別する対話軌跡要約手法を開発した。
我々の実験は、LLMがGitHubの会話の要約を提供することで、会話の脱線を予測する上で70%のF1スコアを実現し、一連のベースラインアプローチよりも大幅に改善されていることを実証した。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Knowledge-Aware Conversation Derailment Forecasting Using Graph Convolutional Networks [5.571668670990489]
我々は,対話文脈情報の知識ベースからコモンセンス文を導出し,グラフニューラルネットワークの分類アーキテクチャを充実させる。
我々は,発話のマルチソース情報をカプセルに融合し,会話の脱線を予測するためにトランスフォーマーベースの予測器が使用する。
我々のモデルは,CGAおよびCMVベンチマークデータセットの最先端モデルよりも優れ,会話のダイナミクスと文脈の伝播を捉えている。
論文 参考訳(メタデータ) (2024-08-24T02:40:28Z) - How Did We Get Here? Summarizing Conversation Dynamics [4.644319899528183]
本稿では,人文要約のデータセットを構築し,会話のダイナミクスを要約するタスクを紹介する。
このような要約が、確立された下流タスクを介して会話の軌跡を捉えることができるかどうかを評価する。
この予測タスクでは,人間と自動化システムの両方が有効であることを示す。
論文 参考訳(メタデータ) (2024-04-29T18:00:03Z) - Conversation Derailment Forecasting with Graph Convolutional Networks [6.251188655534379]
本稿では,対話型ユーザダイナミクスと,会話発話に対する公衆認識の影響を考慮した,グラフ畳み込みニューラルネットワークに基づく新しいモデルを提案する。
提案モデルでは,CGAとCMVのベンチマークデータセットにおいて,会話のダイナミクスを効果的に把握し,最先端のモデルをそれぞれ1.5%,1.7%向上させる。
論文 参考訳(メタデータ) (2023-06-22T15:40:59Z) - ChatCoT: Tool-Augmented Chain-of-Thought Reasoning on Chat-based Large
Language Models [125.7209927536255]
チャットベースのLLMのためのツール拡張チェーン推論フレームワークChatCoTを提案する。
ChatCoTでは、チャットを通じてより自然な方法でツールを活用するために、マルチターン会話として思考の連鎖(CoT)推論をモデル化します。
提案手法は,チャットベースのLLMのマルチターン会話能力を効果的に活用し,思考連鎖とツール操作を統一的に統合する。
論文 参考訳(メタデータ) (2023-05-23T17:54:33Z) - SpokenWOZ: A Large-Scale Speech-Text Benchmark for Spoken Task-Oriented
Dialogue Agents [72.42049370297849]
SpokenWOZは音声TODのための大規模音声テキストデータセットである。
SpokenWOZでは、クロスターンスロットと推論スロット検出が新たな課題である。
論文 参考訳(メタデータ) (2023-05-22T13:47:51Z) - Conversation Modeling to Predict Derailment [15.45515784064555]
進行中の会話が脱線する可能性があるかどうかを予測する能力は、インターロケータやモデレーターに貴重なリアルタイム洞察を提供する可能性がある。
会話が発達するにつれて動的予測を試みようとする研究もあるが、会話構造や脱線距離といった多元的情報を組み込むことは困難である。
本稿では,発話レベルと会話レベルの情報を組み合わせた階層型トランスフォーマーベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-20T15:10:45Z) - CoSyn: Detecting Implicit Hate Speech in Online Conversations Using a
Context Synergized Hyperbolic Network [52.85130555886915]
CoSynは、オンライン会話における暗黙のヘイトスピーチを検出するために、ユーザと会話のコンテキストを明示的に組み込んだ、コンテキスト中心のニューラルネットワークである。
我々は、CoSynが、1.24%から57.8%の範囲で絶対的に改善された暗黙のヘイトスピーチを検出することで、我々のベースラインを全て上回っていることを示す。
論文 参考訳(メタデータ) (2023-03-02T17:30:43Z) - CHAI: A CHatbot AI for Task-Oriented Dialogue with Offline Reinforcement
Learning [85.3987745097806]
オフライン強化学習は、人間の話者から収集された静的データセットを使用して、対話エージェントをトレーニングするために使用することができる。
実験により,最近開発されたオフラインRL手法と言語モデルを組み合わせることで,現実的な対話エージェントが得られることが示された。
論文 参考訳(メタデータ) (2022-04-18T17:43:21Z) - Who Responded to Whom: The Joint Effects of Latent Topics and Discourse
in Conversation Structure [53.77234444565652]
会話談話における応答関係を同定し,会話の開始に応答発話をリンクする。
単語分布における潜在トピックと会話を学習し,ペアワイズ開始応答リンクを予測するモデルを提案する。
英語と中国語の会話における実験結果から,我々のモデルは過去の芸術の状況を大きく上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T17:46:00Z) - Online Conversation Disentanglement with Pointer Networks [13.063606578730449]
本稿では,会話の絡み合わせのためのエンドツーエンドのオンラインフレームワークを提案する。
我々は、タイムスタンプ、話者、メッセージテキストを含む全発話を埋め込む新しい手法を設計する。
Ubuntu IRCデータセットを用いた実験により,提案手法はリンクと会話の予測タスクにおいて,最先端のパフォーマンスを実現することを示す。
論文 参考訳(メタデータ) (2020-10-21T15:43:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。