論文の概要: Extracting Incidents, Effects, and Requested Advice from MeToo Posts
- arxiv url: http://arxiv.org/abs/2303.10573v1
- Date: Sun, 19 Mar 2023 05:22:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 18:31:59.677240
- Title: Extracting Incidents, Effects, and Requested Advice from MeToo Posts
- Title(参考訳): MeTooポストからのインシデント・エフェクト・リクエストアドバイザの抽出
- Authors: Vaibhav Garg, Jiaqing Yuan, Rujie Xi, and Munindar P. Singh
- Abstract要約: 長い投稿では、(i)セクハラ事件、(ii)生存者への影響、(iii)求められているアドバイスの組み合わせが述べられている。
有望な支援者は、そのようなポストから生存者のニーズを理解する必要がある。
上記の3つのカテゴリのいずれかを記述した投稿から文を識別する自然言語モデルを構築した。
さらに,Reddit投稿から抽出した8,947のラベル付き文からなるデータセットであるMeThreeをコントリビュートする。
- 参考スコア(独自算出の注目度): 12.545285425297395
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Survivors of sexual harassment frequently share their experiences on social
media, revealing their feelings and emotions and seeking advice. We observed
that on Reddit, survivors regularly share long posts that describe a
combination of (i) a sexual harassment incident, (ii) its effect on the
survivor, including their feelings and emotions, and (iii) the advice being
sought. We term such posts MeToo posts, even though they may not be so tagged
and may appear in diverse subreddits. A prospective helper (such as a counselor
or even a casual reader) must understand a survivor's needs from such posts.
But long posts can be time-consuming to read and respond to.
Accordingly, we address the problem of extracting key information from a long
MeToo post. We develop a natural language-based model to identify sentences
from a post that describe any of the above three categories.
On ten-fold cross-validation of a dataset, our model achieves a macro F1
score of 0.82.
In addition, we contribute MeThree, a dataset comprising 8,947 labeled
sentences extracted from Reddit posts. We apply the LIWC-22 toolkit on MeThree
to understand how different language patterns in sentences of the three
categories can reveal differences in emotional tone, authenticity, and other
aspects.
- Abstract(参考訳): セクハラの生き残りはしばしばソーシャルメディアで経験を共有し、感情や感情を明らかにし、アドバイスを求める。
私たちはRedditで、生存者が定期的に長い投稿を共有しているのを観察した。
(i)セクハラ事件。
(ii)その感情や感情を含む生存者への影響
(iii)求められているアドバイス。
このような投稿をmetoo postと呼んでいますが、タグ付けされていなくても、さまざまなサブredditに表示されます。
将来の支援者(カウンセラーやカジュアル読者など)は、そのようなポストから生存者のニーズを理解する必要がある。
しかし、長い投稿は読むのに時間がかかる。
したがって、長いMeToo投稿からキー情報を抽出する問題に対処する。
上記の3つのカテゴリのいずれかを記述する投稿から文を識別する自然言語モデルを開発した。
データセットの10倍のクロスバリデーションでは、マクロF1スコアが0.82である。
methreeはredditの投稿から抽出された8,947のラベル付き文章からなるデータセットだ。
liwc-22 ツールキットを methree に適用して,3つのカテゴリの文の異なる言語パターンが,感情的トーンや真正性,その他の側面の差異をいかに顕在化するかを理解する。
関連論文リスト
- Characterizing and Classifying Developer Forum Posts with their Intentions [10.452110215035072]
オンライン技術フォーラムの投稿数は急速に増えている。
ほとんどのタグは技術的な観点にのみ焦点をあてています。
ポストの意図をモデル化することは、現在のタグ分類に余分な次元を与えることができる。
論文 参考訳(メタデータ) (2023-12-21T20:17:01Z) - Overview of the HASOC Subtrack at FIRE 2023: Identification of Tokens
Contributing to Explicit Hate in English by Span Detection [40.10513344092731]
反応的に、ブラックボックスモデルを使ってヘイトフルコンテンツを特定すると、投稿が自動的にヘイトフルであるとフラグ付けされた理由について、ユーザーを混乱させる可能性がある。
ポストが公にされる前に、リフレージングを提案することで、積極的な緩和が達成できる。
論文 参考訳(メタデータ) (2023-11-16T12:01:19Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Depression detection in social media posts using affective and social
norm features [84.12658971655253]
ソーシャルメディア投稿からの抑うつ検出のための奥深いアーキテクチャを提案する。
我々は、後期融合方式を用いて、ポストとワードの敬称と道徳的特徴をアーキテクチャに組み込んだ。
提案された機能を含めると、両方の設定で最先端の結果が得られます。
論文 参考訳(メタデータ) (2023-03-24T21:26:27Z) - Multilingual Content Moderation: A Case Study on Reddit [23.949429463013796]
Redditのコメント18万件の多言語データセットを導入し,コンテンツモデレーションの課題について検討する。
我々は、基礎となる課題を強調し、関連する研究課題を提案するために、広範な実験分析を行う。
私たちのデータセットと分析は、オートモデレーションの課題と機会に備えるのに役立ちます。
論文 参考訳(メタデータ) (2023-02-19T16:36:33Z) - Why Do You Feel This Way? Summarizing Triggers of Emotions in Social
Media Posts [61.723046082145416]
CovidET (Emotions and their Triggers during Covid-19)は、COVID-19に関連する英国のReddit投稿1,900件のデータセットである。
我々は、感情を共同で検出し、感情のトリガーを要約する強力なベースラインを開発する。
分析の結果,コビデットは感情特異的要約における新たな課題と,長文のソーシャルメディア投稿におけるマルチ感情検出の課題が示唆された。
論文 参考訳(メタデータ) (2022-10-22T19:10:26Z) - Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable
Topics for the Russian Language [76.58220021791955]
本稿では,不合理性という二項的概念と,センシティブなトピックの多項的概念に基づいてラベル付けされた2つのテキストコレクションについて述べる。
不適切な概念を客観するために、クラウドソーシングではデータ駆動方式で定義する。
論文 参考訳(メタデータ) (2022-03-04T15:59:06Z) - Toxicity Detection for Indic Multilingual Social Media Content [0.0]
本稿では、emphIIIT-D Abusive Comment Identification Challengeにおいて、ShareChat/Mojが提供するデータを用いて、チーム「Moj Masti」によって提案されたシステムについて述べる。
我々は、多言語トランスフォーマーに基づく事前訓練および微調整モデルを用いて、コード混在/コード切替型分類タスクにアプローチする方法に焦点をあてる。
論文 参考訳(メタデータ) (2022-01-03T12:01:47Z) - Lightme: Analysing Language in Internet Support Groups for Mental Health [1.474723404975345]
手法:自然言語処理と機械学習技術が用いられた。
結果: 主に語彙資源の特徴に基づくソリューションで, 危機投稿の分類性能が最も高い(52%)。
我々の量的および質的な発見を特徴に翻訳するためには、さらなる研究が必要である。
論文 参考訳(メタデータ) (2020-07-02T01:25:22Z) - Detecting Perceived Emotions in Hurricane Disasters [62.760131661847986]
私たちはHurricaneEmoを紹介します。HurricaneEmoは、Harvey、Irma、Mariaの3つのハリケーンにまたがる15,000の英語ツイートの感情データセットです。
本稿では, きめ細かい感情を包括的に研究し, 粗い感情群を識別するための分類タスクを提案する。
論文 参考訳(メタデータ) (2020-04-29T16:17:49Z) - #MeToo on Campus: Studying College Sexual Assault at Scale Using Data
Reported on Social Media [71.74529365205053]
我々は、#トレンドが大学フォロワーのプールに与える影響を分析した。
その結果、これらの#ツイートに埋め込まれたトピックの大部分は、セクシャルハラスメントのストーリーを詳述している。
この傾向といくつかの主要地理的地域に関する公式な報告との間には大きな相関関係がある。
論文 参考訳(メタデータ) (2020-01-16T18:05:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。