論文の概要: PACO: Provocation Involving Action, Culture, and Oppression
- arxiv url: http://arxiv.org/abs/2303.12808v1
- Date: Sun, 19 Mar 2023 04:39:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 16:53:56.830555
- Title: PACO: Provocation Involving Action, Culture, and Oppression
- Title(参考訳): PACO:行動、文化、抑圧に関わる挑発
- Authors: Vaibhav Garg, Ganning Xu, and Munindar P. Singh
- Abstract要約: インドでは、宗教などの特定の属性に基づいて特定の集団を識別する。
同じ宗教団体が互いに反対することが多い。
以前の研究では、インドの2つの著名な宗教グループ、ヒンドゥー教徒とムスリムの間の緊張を増す上で、挑発の役割が示されていた。
- 参考スコア(独自算出の注目度): 13.70482307997736
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In India, people identify with a particular group based on certain attributes
such as religion. The same religious groups are often provoked against each
other. Previous studies show the role of provocation in increasing tensions
between India's two prominent religious groups: Hindus and Muslims. With the
advent of the Internet, such provocation also surfaced on social media
platforms such as WhatsApp.
By leveraging an existing dataset of Indian WhatsApp posts, we identified
three categories of provoking sentences against Indian Muslims. Further, we
labeled 7,000 sentences for three provocation categories and called this
dataset PACO. We leveraged PACO to train a model that can identify provoking
sentences from a WhatsApp post. Our best model is fine-tuned RoBERTa and
achieved a 0.851 average AUC score over five-fold cross-validation.
Automatically identifying provoking sentences could stop provoking text from
reaching out to the masses, and can prevent possible discrimination or violence
against the target religious group.
Further, we studied the provocative speech through a pragmatic lens, by
identifying the dialog acts and impoliteness super-strategies used against the
religious group.
- Abstract(参考訳): インドでは、宗教などの特定の属性に基づいて特定の集団を識別する。
同じ宗教団体が互いに挑発されることが多い。
これまでの研究では、インドで著名な宗教団体であるヒンドゥー教徒とムスリムの間で緊張が高まっている。
インターネットが出現すると、WhatsAppなどのソーシャルメディアプラットフォームにもそのような挑発が浮上した。
既存のインドのWhatsApp投稿のデータセットを活用することで、インド系ムスリムに対する挑発文の3つのカテゴリを特定しました。
さらに,3つの挑発カテゴリに対して7,000文のラベル付けを行い,このデータセットをpacoと呼ぶ。
私たちはpacoを使ってwhatsappの投稿から引き起こされる文章を識別できるモデルを訓練しました。
我々の最良のモデルは細調整されたRoBERTaで、5倍のクロスバリデーションで平均AUCスコア0.851を達成した。
挑発文を自動で識別することは、テキストが大衆に届くのを阻止し、対象の宗教集団に対する差別や暴力を防止できる。
さらに, 実践的レンズによる挑発的発話について, 宗教集団に対するダイアログ行動と過度な超ストラテジーを同定し検討した。
関連論文リスト
- On the Use of Proxies in Political Ad Targeting [49.61009579554272]
我々は、主要な政治広告主がプロキシ属性をターゲットとして緩和を回避したことを示す。
本研究は政治広告の規制に関する議論に重要な意味を持つ。
論文 参考訳(メタデータ) (2024-10-18T17:15:13Z) - Understanding writing style in social media with a supervised
contrastively pre-trained transformer [57.48690310135374]
オンラインソーシャルネットワークは、ヘイトスピーチから偽情報の拡散まで、有害な行動の場として機能している。
本稿では, 4.5 x 106テキストの公開資料から得られた大規模コーパスに基づいて学習したStyle Transformer for Authorship Representations (STAR)を紹介する。
512個のトークンからなる8つのドキュメントからなるサポートベースを使用して、著者を最大1616人の著者のセットから、少なくとも80%の精度で識別することができる。
論文 参考訳(メタデータ) (2023-10-17T09:01:17Z) - Harnessing Pre-Trained Sentence Transformers for Offensive Language
Detection in Indian Languages [0.6526824510982802]
この研究はヘイトスピーチ検出の領域に踏み込み、ベンガル語、アサメセ語、グジャラート語という3つの低リソースのインドの言語に特に重点を置いている。
この課題は、ツイートが攻撃的コンテンツを含むか、非攻撃的コンテンツを含むかを識別することを目的としたテキスト分類タスクである。
我々は,事前学習したBERTモデルとSBERTモデルを微調整し,ヘイトスピーチの同定の有効性を評価する。
論文 参考訳(メタデータ) (2023-10-03T17:53:09Z) - SQuARe: A Large-Scale Dataset of Sensitive Questions and Acceptable
Responses Created Through Human-Machine Collaboration [75.62448812759968]
このデータセットは、韓国の大規模データセットで、49kの機密性があり、42kの許容範囲と46kの非許容応答がある。
データセットは、実際のニュースの見出しに基づいて、HyperCLOVAを人道的に活用して構築された。
論文 参考訳(メタデータ) (2023-05-28T11:51:20Z) - Religion and Spirituality on Social Media in the Aftermath of the Global
Pandemic [59.930429668324294]
私たちは、突然の宗教活動の変化を2つに分析します。
重要な点として,2020年7月から9月にかけての3ヶ月の期間を分析して,この過程の時間的変動を分析した。
論文 参考訳(メタデータ) (2022-12-11T18:41:02Z) - AlexU-AIC at Arabic Hate Speech 2022: Contrast to Classify [2.9220076568786326]
アラビア・ヘイトスピーチ2022共有タスクワークショップ(OSACT52022)に、関連するアラビア・Twitterデータセットを用いて提出する。
攻撃的なツイートに関しては、サブタスクBは、ツイートがヘイトスピーチであるか否かを検出することに焦点を当てている。
ヘイトスピーチのつぶやきに対して、サブタスクCは6つの異なるクラス間のきめ細かいタイプのヘイトスピーチを検出することに重点を置いている。
論文 参考訳(メタデータ) (2022-07-18T12:33:51Z) - COLD: A Benchmark for Chinese Offensive Language Detection [54.60909500459201]
COLDatasetは、37kの注釈付き文を持つ中国の攻撃的言語データセットである。
また、人気のある中国語モデルの出力攻撃性を研究するために、textscCOLDetectorを提案する。
我々の資源と分析は、中国のオンラインコミュニティを解毒し、生成言語モデルの安全性を評価することを目的としている。
論文 参考訳(メタデータ) (2022-01-16T11:47:23Z) - "Stop Asian Hate!" : Refining Detection of Anti-Asian Hate Speech During
the COVID-19 Pandemic [2.5227595609842206]
新型コロナウイルス(COVID-19)のパンデミックは、アジアでのキセノフォビアと偏見の急増を加速させた。
我々は2つの実験的なアプローチを用いてTwitterのツイートのコーパスを作成して注釈付けし、反アジア人虐待とヘイトスピーチを探索する。
論文 参考訳(メタデータ) (2021-12-04T06:55:19Z) - "Short is the Road that Leads from Fear to Hate": Fear Speech in Indian
WhatsApp Groups [8.682669903229165]
私たちは、インドの政治について議論する何千もの公開WhatsAppグループを対象に、恐怖のスピーチに関する最初の大規模な研究を行います。
我々は、恐怖音声を分類するモデルを構築し、現在の最先端のNLPモデルは、このタスクでうまく機能しないことを観察する。
論文 参考訳(メタデータ) (2021-02-07T18:14:16Z) - Persistent Anti-Muslim Bias in Large Language Models [13.984800635696566]
最新の文脈言語モデルであるGPT-3は、永続的なムスリム-暴力バイアスを捕捉する。
我々は, GPT-3 を様々な方法で探索し, 即時完了, 類似推論, 物語生成を行う。
例えば、"イスラム教徒"はテストケースの23%で"テロリスト"に、"ユダヤ人"はテストケースの5%で"お金"にマッピングされます。
論文 参考訳(メタデータ) (2021-01-14T18:41:55Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。