論文の概要: Making FETCH! Happen: Finding Emergent Dog Whistles Through Common Habitats
- arxiv url: http://arxiv.org/abs/2412.12072v2
- Date: Fri, 14 Feb 2025 21:43:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:05:10.298404
- Title: Making FETCH! Happen: Finding Emergent Dog Whistles Through Common Habitats
- Title(参考訳): FETCH! ハッペン! 共通のハビタットから創発的な犬のホイッスルを見つける
- Authors: Kuleen Sasse, Carlos Aguirre, Isabel Cachola, Sharon Levy, Mark Dredze,
- Abstract要約: 犬の笛は二重の意味を持つコード化された表現である。
ソーシャルメディアコーパスにおける新規犬笛発見タスクであるFETCH!を紹介した。
本稿では,ベクトルデータベースと大規模言語モデルの強みを組み合わせた強力なベースラインシステムであるEarShotを提案する。
- 参考スコア(独自算出の注目度): 16.78149030970864
- License:
- Abstract: WARNING: This paper contains content that maybe upsetting or offensive to some readers. Dog whistles are coded expressions with dual meanings: one intended for the general public (outgroup) and another that conveys a specific message to an intended audience (ingroup). Often, these expressions are used to convey controversial political opinions while maintaining plausible deniability and slip by content moderation filters. Identification of dog whistles relies on curated lexicons, which have trouble keeping up to date. We introduce FETCH!, a task for finding novel dog whistles in massive social media corpora. We find that state-of-the-art systems fail to achieve meaningful results across three distinct social media case studies. We present EarShot, a strong baseline system that combines the strengths of vector databases and Large Language Models (LLMs) to efficiently and effectively identify new dog whistles.
- Abstract(参考訳): WARNING: この論文には、一部の読者にとって動揺または不快なコンテンツが含まれています。
犬の笛は二重の意味を持つコード化された表現で、一般大衆(アウトグループ)を意図したものと、特定のメッセージを意図した聴衆(イングループ)に伝えるものがある。
しばしば、これらの表現は議論を呼んでいる政治的意見を伝えるのに使われ、コンテンツモデレーションフィルタによる可視性や滑りの維持に使用される。
犬の口笛の識別は治療されたレキシコンに依存しており、最新の状態を維持するのに苦労している。
FETCH!は、ソーシャルメディアの巨大コーパスにおいて、新しい犬の口笛を見つけるためのタスクである。
最先端のシステムでは、3つの異なるソーシャルメディアケーススタディにおいて有意義な結果が得られないことがわかった。
本稿では,ベクトルデータベースとLarge Language Models(LLM)の強みを組み合わせた強力なベースラインシステムであるEarShotについて述べる。
関連論文リスト
- Silent Signals, Loud Impact: LLMs for Word-Sense Disambiguation of Coded Dog Whistles [47.61526125774749]
犬の笛は、特定の聴衆に二次的な意味を持ち、しばしば人種的・社会経済的差別のために武器化された符号化通信の一種である。
本稿では,Large Language Models (LLMs) を用いた標準音声からの犬笛の単語センスの曖昧化手法を提案する。
我々はこの手法を利用して、フォーマルで非公式なコミュニケーションに使用される犬の口笛の16,550個の高信頼符号化されたサンプルのデータセットを作成する。
論文 参考訳(メタデータ) (2024-06-10T23:09:19Z) - Towards Lexical Analysis of Dog Vocalizations via Online Videos [19.422796780268605]
本研究は, 犬声のセマンティクスに関するデータ駆動調査を行い, 異なる音種と一貫したセマンティクスを関連づけることにより, 犬声のセマンティクスについて検討した。
そこで我々はまず,シバイヌの音の新たなデータセットと,YouTubeから収集した位置情報や活動などのコンテキスト情報を提示する。
犬の発声とそれに対応する位置と活動の条件付き確率の分析から, 犬音の意味的意味に関する過去の研究の裏付けとなる証拠が発見された。
論文 参考訳(メタデータ) (2023-09-21T23:53:14Z) - Down the Toxicity Rabbit Hole: A Novel Framework to Bias Audit Large Language Models [11.330830398772582]
本研究では, 広範囲にわたる大規模言語モデルから有害な内容を反復的に引き出す, テキスト毒性ウサギ穴という新しい枠組みを提案する。
我々は、人種差別、反ユダヤ主義、ミソジニー、イスラム恐怖症、ホモフォビア、トランスフォビアに重点を置いた幅広い分析を行った。
論文 参考訳(メタデータ) (2023-09-08T03:59:02Z) - From Dogwhistles to Bullhorns: Unveiling Coded Rhetoric with Language
Models [73.25963871034858]
本研究は,イヌヒストルの大規模数値計算による研究である。
我々は、ドッグウィストルの類型学を開発し、300以上のドッグウィストルの過去最大の用語集をキュレートし、歴史的なアメリカの政治家の演説でそれらの使用法を分析した。
犬毛を含む有害なコンテンツは毒性の検出を回避し,このような符号化された言語のオンラインリスクを強調している。
論文 参考訳(メタデータ) (2023-05-26T18:00:57Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - DAMO-NLP at SemEval-2023 Task 2: A Unified Retrieval-augmented System
for Multilingual Named Entity Recognition [94.90258603217008]
MultiCoNER RNum2共有タスクは、細粒度でノイズの多いシナリオにおいて、多言語の名前付きエンティティ認識(NER)に取り組むことを目的としている。
MultiCoNER RNum1の以前のトップシステムは、ナレッジベースまたはガゼッタを組み込んでいる。
細粒度多言語NERのための統一検索拡張システム(U-RaNER)を提案する。
論文 参考訳(メタデータ) (2023-05-05T16:59:26Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Anti-Asian Hate Speech Detection via Data Augmented Semantic Relation
Inference [4.885207279350052]
本稿では,自然言語推論フレームワークにおけるヘイトスピーチ検出を強化するために,感情ハッシュタグを活用する新しい手法を提案する。
我々は,(1)オンライン投稿と感情ハッシュタグ間の意味的関係推論,(2)これらの投稿に対する感情分類の2つのタスクを同時に実行する新しいフレームワークSRICを設計する。
論文 参考訳(メタデータ) (2022-04-14T15:03:35Z) - UCPhrase: Unsupervised Context-aware Quality Phrase Tagging [63.86606855524567]
UCPhraseは、教師なしの文脈対応のフレーズタグである。
我々は,一貫した単語列から,高品質なフレーズを銀のラベルとして表現する。
我々の設計は、最先端の事前訓練、教師なし、遠隔管理の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-05-28T19:44:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。