論文の概要: A Bootstrapped Model to Detect Abuse and Intent in White Supremacist
Corpora
- arxiv url: http://arxiv.org/abs/2008.04276v1
- Date: Mon, 10 Aug 2020 17:17:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 22:57:22.521338
- Title: A Bootstrapped Model to Detect Abuse and Intent in White Supremacist
Corpora
- Title(参考訳): 白人至上主義コーパスにおける虐待と意図を検出するブートストラップモデル
- Authors: B. Simons, D.B. Skillicorn
- Abstract要約: インテントの予測モデルを構築し、インテントのシードセットからブートストラップし、インテントを表現する言語テンプレートを作成します。
暴力行為の欲求を示すポストを検出するために、意図の予測と虐待言語の予測を融合する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intelligence analysts face a difficult problem: distinguishing extremist
rhetoric from potential extremist violence. Many are content to express abuse
against some target group, but only a few indicate a willingness to engage in
violence. We address this problem by building a predictive model for intent,
bootstrapping from a seed set of intent words, and language templates
expressing intent. We design both an n-gram and attention-based deep learner
for intent and use them as colearners to improve both the basis for prediction
and the predictions themselves. They converge to stable predictions in a few
rounds. We merge predictions of intent with predictions of abusive language to
detect posts that indicate a desire for violent action. We validate the
predictions by comparing them to crowd-sourced labelling. The methodology can
be applied to other linguistic properties for which a plausible starting point
can be defined.
- Abstract(参考訳): インテリジェンスアナリストは、過激派レトリックと過激派暴力を区別する、難しい問題に直面している。
多くは一部の標的グループに対する虐待を表現できるが、暴力に参加する意思を示すものはごくわずかである。
インテントの予測モデルの構築、インテントのシードセットからのブートストラップ、インテントを表現する言語テンプレートによってこの問題に対処する。
我々は,n-gramと注意に基づく深層学習者の両方を意図的に設計し,それらを用いて予測の基礎と予測自体を改善する。
彼らは数回のラウンドで安定した予測に収束する。
暴力行為の欲求を示すポストを検出するために、意図の予測と虐待言語の予測を融合する。
クラウドソースラベルと比較することにより,予測を検証する。
この方法論は、可算開始点が定義できる他の言語特性にも適用することができる。
関連論文リスト
- Temperature-scaling surprisal estimates improve fit to human reading times -- but does it do so for the "right reasons"? [15.773775387121097]
大規模な言語モデルのキャリブレーションは,通常モデルサイズによって改善されることを示す。
温度スケーリングの確率は、読み取り時間に体系的に適合することがわかった。
論文 参考訳(メタデータ) (2023-11-15T19:34:06Z) - Humans and language models diverge when predicting repeating text [52.03471802608112]
我々は,人間とLMのパフォーマンスが分岐するシナリオを提示する。
人間とGPT-2 LMの予測はテキストスパンの最初のプレゼンテーションで強く一致しているが、メモリが役割を担い始めると、その性能は急速にバラバラになる。
このシナリオが,LMを人間の行動に近づける上で,今後の作業に拍車をかけることを期待しています。
論文 参考訳(メタデータ) (2023-10-10T08:24:28Z) - A Word is Worth A Thousand Dollars: Adversarial Attack on Tweets Fools
Stock Prediction [100.9772316028191]
本稿では,3つのストック予測犠牲者モデルを騙すために,様々な攻撃構成を試行する。
以上の結果から,提案手法が一貫した成功率を達成し,取引シミュレーションにおいて大きな損失をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-01T05:12:22Z) - Learning-based Hybrid Local Search for the Hard-label Textual Attack [53.92227690452377]
我々は,攻撃者が予測ラベルにのみアクセス可能な,滅多に調査されていないが厳格な設定,すなわちハードラベル攻撃を考える。
そこで本研究では,Learning-based Hybrid Local Search (LHLS)アルゴリズムという,新たなハードラベル攻撃を提案する。
我々のLHLSは、攻撃性能と敵の品質に関する既存のハードラベル攻撃を著しく上回っている。
論文 参考訳(メタデータ) (2022-01-20T14:16:07Z) - Enhanced Aspect-Based Sentiment Analysis Models with Progressive
Self-supervised Attention Learning [103.0064298630794]
アスペクトベース感情分析(absa)では、多くのニューラルモデルに感情予測に対する各文脈単語の寄与を定量化するための注意機構が備わっている。
注目ABSAモデルに対する自己監督型注意学習の進歩的アプローチを提案する。
提案手法を3つの最先端の神経ABSAモデルに統合する。
論文 参考訳(メタデータ) (2021-03-05T02:50:05Z) - A Context Aware Approach for Generating Natural Language Attacks [3.52359746858894]
本研究では,意味的に類似した敵対例をテキスト分類と関連タスクに組み込む攻撃戦略を提案する。
提案攻撃は,元の単語とその周囲の文脈の両方の情報を考慮し,候補語を見つける。
論文 参考訳(メタデータ) (2020-12-24T17:24:54Z) - Concealed Data Poisoning Attacks on NLP Models [56.794857982509455]
逆攻撃はテスト時間入力の摂動によってNLPモデル予測を変化させる。
我々は,入力に所望のトリガーフレーズが存在する場合,相手がモデル予測を制御できる新しいデータ中毒攻撃を開発した。
論文 参考訳(メタデータ) (2020-10-23T17:47:06Z) - Set Prediction without Imposing Structure as Conditional Density
Estimation [40.86881969839325]
本研究では,学習を条件密度推定として見ることにより,設定損失による学習の代替を提案する。
本フレームワークは, 深部エネルギーモデルに適合し, 勾配誘導サンプリングによる難易度を近似する。
我々のアプローチは、標準ベンチマークの以前のセット予測モデルと競合する。
論文 参考訳(メタデータ) (2020-10-08T16:49:16Z) - Adversarial Attack and Defense of Structured Prediction Models [58.49290114755019]
本論文では,NLPにおける構造化予測タスクに対する攻撃と防御について検討する。
構造化予測モデルの構造化出力は、入力中の小さな摂動に敏感である。
本稿では,シーケンス・ツー・シーケンス・モデルを用いて,構造化予測モデルへの攻撃を学習する,新規で統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-04T15:54:03Z) - Examining Racial Bias in an Online Abuse Corpus with Structural Topic
Modeling [0.30458514384586405]
我々は、ソーシャルメディア投稿における人種的偏見を調べるために、構造的トピックモデリングを用いる。
我々は、アフリカ系アメリカ人の英語で書かれたツイートの予測確率を示す追加機能を追加することにより、乱用言語データセットを増強する。
論文 参考訳(メタデータ) (2020-05-26T21:02:43Z) - Improved Speech Representations with Multi-Target Autoregressive
Predictive Coding [23.424410568555547]
我々は、将来のフレームを正確に予測できる隠された状態が、多くの下流タスクに有用な表現である、という仮説を拡張した。
本稿では、将来のフレーム予測タスクの一般化を改善するための正規化として機能する補助的目的を提案する。
論文 参考訳(メタデータ) (2020-04-11T01:09:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。