論文の概要: From Dogwhistles to Bullhorns: Unveiling Coded Rhetoric with Language
Models
- arxiv url: http://arxiv.org/abs/2305.17174v1
- Date: Fri, 26 May 2023 18:00:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 21:31:46.738266
- Title: From Dogwhistles to Bullhorns: Unveiling Coded Rhetoric with Language
Models
- Title(参考訳): DogwhistlesからBullhornsへ:言語モデルによるコード付きレトリックの展開
- Authors: Julia Mendelsohn, Ronan Le Bras, Yejin Choi, Maarten Sap
- Abstract要約: 本研究は,イヌヒストルの大規模数値計算による研究である。
我々は、ドッグウィストルの類型学を開発し、300以上のドッグウィストルの過去最大の用語集をキュレートし、歴史的なアメリカの政治家の演説でそれらの使用法を分析した。
犬毛を含む有害なコンテンツは毒性の検出を回避し,このような符号化された言語のオンラインリスクを強調している。
- 参考スコア(独自算出の注目度): 73.25963871034858
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dogwhistles are coded expressions that simultaneously convey one meaning to a
broad audience and a second one, often hateful or provocative, to a narrow
in-group; they are deployed to evade both political repercussions and
algorithmic content moderation. For example, in the sentence 'we need to end
the cosmopolitan experiment,' the word 'cosmopolitan' likely means 'worldly' to
many, but secretly means 'Jewish' to a select few. We present the first
large-scale computational investigation of dogwhistles. We develop a typology
of dogwhistles, curate the largest-to-date glossary of over 300 dogwhistles
with rich contextual information and examples, and analyze their usage in
historical U.S. politicians' speeches. We then assess whether a large language
model (GPT-3) can identify dogwhistles and their meanings, and find that
GPT-3's performance varies widely across types of dogwhistles and targeted
groups. Finally, we show that harmful content containing dogwhistles avoids
toxicity detection, highlighting online risks of such coded language. This work
sheds light on the theoretical and applied importance of dogwhistles in both
NLP and computational social science, and provides resources for future
research in modeling dogwhistles and mitigating their online harms.
- Abstract(参考訳): ドッグウィストル(dogwhistles)は、ある意味を広いオーディエンスに、別の意味(しばしば憎悪的または挑発的)を狭いグループに同時に伝えるコード化された表現であり、政治的な影響とアルゴリズムによるコンテンツモデレーションの両方を避けるために展開される。
例えば、"we need to end the cosmopolitan experiment"という文では、「コスモポリタン」(cosmopolitan)という言葉は多くの人に「世界的」を意味するが、ひそかに「ユダヤ人」(jewish)を意味する。
本研究は,イヌヒストルの大規模研究である。
我々は,ドッグウィストルの類型学を開発し,より豊富な文脈情報と実例で300以上のドッグウィストルの過去最大の用語集をキュレートし,歴史的アメリカの政治家の演説におけるその使用状況を分析した。
次に,大規模言語モデル (GPT-3) を用いて, イヌヒストルとその意味を識別できるかどうかを検証し, GPT-3 の性能は, イヌヒストルの種類や対象グループによって大きく異なることがわかった。
最後に,犬毛を含む有害なコンテンツは毒性の検出を回避し,このような符号化された言語のオンラインリスクを強調した。
この研究は、NLPと計算社会科学の両方におけるドッグウィストルの理論的および応用的な重要性に光を当て、ドッグウィストルをモデリングし、オンラインの害を軽減するためのリソースを提供する。
関連論文リスト
- One Language, Many Gaps: Evaluating Dialect Fairness and Robustness of Large Language Models in Reasoning Tasks [55.35278531907263]
本稿では,大言語モデルの公平性と頑健性に関する最初の研究を標準的推論タスクにおける方言に提示する。
我々は、HumanEvalやGSM8Kといった7つの人気のあるベンチマークを書き換えるために、AAVEスピーカーを採用。
標準英語と比較して、これらの広く使われているモデルのほとんどは、AAVEのクエリに対して重大な脆さと不公平さを示している。
論文 参考訳(メタデータ) (2024-10-14T18:44:23Z) - Towards Probing Speech-Specific Risks in Large Multimodal Models: A Taxonomy, Benchmark, and Insights [50.89022445197919]
本研究は,8つのリスクカテゴリーを敵意(悪意的皮肉と脅し),悪意的模倣(年齢,性別,民族),ステレオタイプ的バイアス(年齢,性別,民族)を対象とする音声特異的リスク分類法を提案する。
分類に基づいて,これらのリスクのカテゴリを検出するために,現在のLMM能力を評価するための小規模データセットを作成する。
論文 参考訳(メタデータ) (2024-06-25T10:08:45Z) - Silent Signals, Loud Impact: LLMs for Word-Sense Disambiguation of Coded Dog Whistles [47.61526125774749]
犬の笛は、特定の聴衆に二次的な意味を持ち、しばしば人種的・社会経済的差別のために武器化された符号化通信の一種である。
本稿では,Large Language Models (LLMs) を用いた標準音声からの犬笛の単語センスの曖昧化手法を提案する。
我々はこの手法を利用して、フォーマルで非公式なコミュニケーションに使用される犬の口笛の16,550個の高信頼符号化されたサンプルのデータセットを作成する。
論文 参考訳(メタデータ) (2024-06-10T23:09:19Z) - Verbreitungsmechanismen sch\"adigender Sprache im Netz: Anatomie zweier
Shitstorms [0.9898607871253772]
私たちは、ビジネスの世界からよく知られた個人に対して、2つの模範的でクロスメディアなたわごとに焦点を合わせています。
どちらも共通点があり、最初は、暴風雨の標的となる人物による議論の的になっている。
本稿では,2つのメディアにまたがる乱れ波の拡散について検討し,その時間経過を解析するための計算言語学的手法の適用性を検証する。
論文 参考訳(メタデータ) (2023-12-12T12:00:04Z) - What Do Llamas Really Think? Revealing Preference Biases in Language
Model Representations [62.91799637259657]
大規模言語モデル(LLMs)は、応答を辞退しても、社会的な偏見を示すか?
本研究は,文脈的埋め込みを探索し,このバイアスが潜在表現にエンコードされているかどうかを探索することによって検討する。
単語の隠れベクトルからLLMの単語ペア選好を予測するロジスティックなBradley-Terryプローブを提案する。
論文 参考訳(メタデータ) (2023-11-30T18:53:13Z) - Diagnosing and Debiasing Corpus-Based Political Bias and Insults in GPT2 [0.0]
大規模な言語モデル (LLMs) をインターネットから流出した未フィルタリングコーパスでトレーニングすることは、一般的で有利なプラクティスである。
近年の研究では、生成事前学習型トランスフォーマー(GPT)言語モデルが、自身のバイアスを認識し、生成されたコンテンツの毒性を検出することが示されている。
本研究は、侮辱と政治的偏見の2つの追加的なバイアスを緩和する診断・偏見的アプローチの有効性について検討した。
論文 参考訳(メタデータ) (2023-11-17T01:20:08Z) - A Group-Specific Approach to NLP for Hate Speech Detection [2.538209532048867]
オンラインヘイトスピーチ検出のためのグループ固有のNLPアプローチを提案する。
我々は、保護されたグループに対する差別に関する歴史的データを分析し、そのグループに対するヘイトスピーチのスパイクを予測する。
我々は,NLPによる反ユダヤ的ヘイトスピーチの検出を事例として,この手法を実証する。
論文 参考訳(メタデータ) (2023-04-21T19:08:49Z) - Hate versus Politics: Detection of Hate against Policy makers in Italian
tweets [0.6289422225292998]
本稿では,イタリアにおけるTwitterの政策立案者に対するヘイトスピーチの分類問題について論じる。
1264ツイートを収集,注釈し,アノテータ間の不一致事例を調査し,ドメイン内およびドメイン間ヘイトスピーチ分類を行った。
我々は、ROC AUC 0.83の性能を達成し、最も予測可能な属性を分析し、また、反政治家と反移民ドメインで異なる言語特徴を見出した。
論文 参考訳(メタデータ) (2021-07-12T12:24:45Z) - Blow the Dog Whistle: A Chinese Dataset for Cant Understanding with
Common Sense and World Knowledge [49.288196234823005]
カントは、広告、喜劇、ドッグウィストル政治を理解するために重要である。
カントの作成と理解のための大規模で多様な中国データセットを提案します。
論文 参考訳(メタデータ) (2021-04-06T17:55:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。