論文の概要: Predicting Hateful Discussions on Reddit using Graph Transformer
Networks and Communal Context
- arxiv url: http://arxiv.org/abs/2301.04248v1
- Date: Tue, 10 Jan 2023 23:47:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 14:29:55.930055
- Title: Predicting Hateful Discussions on Reddit using Graph Transformer
Networks and Communal Context
- Title(参考訳): Graph Transformer NetworksとCommunal Contextを用いたRedditの好意的な議論の予測
- Authors: Liam Hebert, Lukasz Golab, Robin Cohen
- Abstract要約: ソーシャルメディアプラットフォーム上で有害な議論を予測するシステムを提案する。
我々のソリューションは文脈の深い言語モデルを使用し、最先端のグラフトランスフォーマーネットワークを統合します。
我々は,様々なコミュニティから333,487件のRedditディスカッションを行った。
- 参考スコア(独自算出の注目度): 9.4337569682766
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a system to predict harmful discussions on social media platforms.
Our solution uses contextual deep language models and proposes the novel idea
of integrating state-of-the-art Graph Transformer Networks to analyze all
conversations that follow an initial post. This framework also supports
adapting to future comments as the conversation unfolds. In addition, we study
whether a community-specific analysis of hate speech leads to more effective
detection of hateful discussions. We evaluate our approach on 333,487 Reddit
discussions from various communities. We find that community-specific modeling
improves performance two-fold and that models which capture wider-discussion
context improve accuracy by 28\% (35\% for the most hateful content) compared
to limited context models.
- Abstract(参考訳): ソーシャルメディアプラットフォーム上で有害な議論を予測するシステムを提案する。
本ソリューションでは,文脈的深層言語モデルを用いて,最先端グラフトランスフォーマーネットワークを統合し,最初の投稿に続くすべての会話を分析するという新しいアイデアを提案する。
このフレームワークは、会話が広がるにつれて、将来のコメントへの適応もサポートする。
さらに,コミュニティ固有のヘイトスピーチの分析によって,ヘイトフルな議論をより効果的に検出できるかどうかを検討した。
我々は,様々なコミュニティから333,487件のRedditディスカッションを行った。
コミュニティ固有のモデリングは、パフォーマンスを2倍に改善し、より広義のコンテクストをキャプチャするモデルは、限られたコンテキストモデルと比較して、精度を28\%(35\%)向上させる。
関連論文リスト
- Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - Lexical Squad@Multimodal Hate Speech Event Detection 2023: Multimodal
Hate Speech Detection using Fused Ensemble Approach [0.23020018305241333]
テキスト埋め込み画像から「ヘイトスピーチ」と「ノーヘイトスピーチ」の2つのラベルに分類し、ヘイトスピーチを検出するための新しいアンサンブル学習手法を提案する。
提案したアンサンブルモデルでは,75.21と74.96を精度,F-1スコア(参照)として有望な結果を得た。
論文 参考訳(メタデータ) (2023-09-23T12:06:05Z) - FLIRT: Feedback Loop In-context Red Teaming [71.38594755628581]
我々は、与えられたモデルを評価し、その脆弱性を明らかにする自動レッドチーム化フレームワークを提案する。
私たちのフレームワークは、レッドチームモデルに対するフィードバックループでコンテキスト内学習を使用し、それらを安全でないコンテンツ生成にトリガーします。
論文 参考訳(メタデータ) (2023-08-08T14:03:08Z) - Multi-Modal Discussion Transformer: Integrating Text, Images and Graph
Transformers to Detect Hate Speech on Social Media [6.3756400508728515]
Reddit のようなオンラインソーシャルネットワーク上でヘイトスピーチを検出する新しい手法である Multi-Modal discussion Transformer (mDT) を提案する。
従来のコメントのみの手法とは対照的に、ヘイトスピーチとしてコメントをラベル付けするアプローチには、議論の文脈に根ざしたテキストや画像の全体的分析が含まれる。
これは、コメントを取り巻く議論において、グラフトランスフォーマーを活用してコンテキスト関係をキャプチャし、モーダルを別々に処理するのではなく、テキストと画像の埋め込みを組み合わせた相互融合層を基盤とする。
論文 参考訳(メタデータ) (2023-07-18T14:57:12Z) - CoSyn: Detecting Implicit Hate Speech in Online Conversations Using a
Context Synergized Hyperbolic Network [52.85130555886915]
CoSynは、オンライン会話における暗黙のヘイトスピーチを検出するために、ユーザと会話のコンテキストを明示的に組み込んだ、コンテキスト中心のニューラルネットワークである。
我々は、CoSynが、1.24%から57.8%の範囲で絶対的に改善された暗黙のヘイトスピーチを検出することで、我々のベースラインを全て上回っていることを示す。
論文 参考訳(メタデータ) (2023-03-02T17:30:43Z) - Qualitative Analysis of a Graph Transformer Approach to Addressing Hate
Speech: Adapting to Dynamically Changing Content [8.393770595114763]
我々は、ソーシャルネットワークにおけるヘイトスピーチ検出のために、このソリューションの詳細な質的分析を提供する。
重要な洞察は、コンテキストの概念に関する推論に焦点が当てられていることは、オンライン投稿のマルチモーダル分析をサポートするのに十分な位置にあるということだ。
この問題が特に動的変化のテーマとどのように関係しているかを考察して結論付けます。
論文 参考訳(メタデータ) (2023-01-25T23:32:32Z) - Assessing the impact of contextual information in hate speech detection [0.48369513656026514]
我々は,Twitter上のメディアからのニュース投稿に対するユーザの反応に基づいた,文脈的ヘイトスピーチ検出のための新しいコーパスを提供する。
このコーパスはリオプラテンセ方言のスペイン語で収集され、新型コロナウイルスのパンデミックに関連するヘイトスピーチに焦点を当てている。
論文 参考訳(メタデータ) (2022-10-02T09:04:47Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - ConvoSumm: Conversation Summarization Benchmark and Improved Abstractive
Summarization with Argument Mining [61.82562838486632]
我々は、さまざまなオンライン会話形式のニュースコメント、ディスカッションフォーラム、コミュニティ質問応答フォーラム、電子メールスレッドに関する4つの新しいデータセットをクラウドソースする。
我々は、データセットの最先端モデルをベンチマークし、データに関連する特徴を分析します。
論文 参考訳(メタデータ) (2021-06-01T22:17:13Z) - LIFI: Towards Linguistically Informed Frame Interpolation [66.05105400951567]
我々は、複数のディープラーニングビデオ生成アルゴリズムを用いて、欠落したフレームを生成することで、この問題を解決しようとしている。
音声理解のコンピュータビジョン映像生成モデルをテストするために,いくつかのデータセットをリリースする。
論文 参考訳(メタデータ) (2020-10-30T05:02:23Z) - Detecting Online Hate Speech: Approaches Using Weak Supervision and
Network Embedding Models [2.3322477552758234]
本研究では,ヘイトフルユーザを定量的に発見する弱監督型深層学習モデルを提案する。
我々は、19.2Mの投稿において、我々のモデルを評価し、我々の弱い監督モデルは、間接的に憎悪的な相互作用を識別するベースラインモデルよりも優れていることを示す。
また,Gabにおける2種類のユーザインタラクション(引用と応答)と,弱監督モデルからのインタラクションスコアをエッジウェイトとして分析し,ヘイトフルユーザを予測する。
論文 参考訳(メタデータ) (2020-07-24T18:13:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。