論文の概要: PclGPT: A Large Language Model for Patronizing and Condescending Language Detection
- arxiv url: http://arxiv.org/abs/2410.00361v1
- Date: Tue, 1 Oct 2024 03:19:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 06:06:43.709845
- Title: PclGPT: A Large Language Model for Patronizing and Condescending Language Detection
- Title(参考訳): PclGPT: 言語検出の同期と継続のための大規模言語モデル
- Authors: Hongbo Wang, Mingda Li, Junyu Lu, Hebin Xia, Liang Yang, Bo Xu, Ruizhu Liu, Hongfei Lin,
- Abstract要約: Patronizing and condescending Language(PCL)は、脆弱なグループに向けられた音声の一種である。
従来の訓練済み言語モデル(PLM)は、偽善や偽共感のような暗黙的な毒性特性のためにPCLの検出に不適である。
大規模言語モデル(LLMs)の台頭により、我々は彼らの豊かな感情的意味論を利用して暗黙の毒性を探求するパラダイムを確立することができる。
- 参考スコア(独自算出の注目度): 18.516811093478054
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Disclaimer: Samples in this paper may be harmful and cause discomfort! Patronizing and condescending language (PCL) is a form of speech directed at vulnerable groups. As an essential branch of toxic language, this type of language exacerbates conflicts and confrontations among Internet communities and detrimentally impacts disadvantaged groups. Traditional pre-trained language models (PLMs) perform poorly in detecting PCL due to its implicit toxicity traits like hypocrisy and false sympathy. With the rise of large language models (LLMs), we can harness their rich emotional semantics to establish a paradigm for exploring implicit toxicity. In this paper, we introduce PclGPT, a comprehensive LLM benchmark designed specifically for PCL. We collect, annotate, and integrate the Pcl-PT/SFT dataset, and then develop a bilingual PclGPT-EN/CN model group through a comprehensive pre-training and supervised fine-tuning staircase process to facilitate implicit toxic detection. Group detection results and fine-grained detection from PclGPT and other models reveal significant variations in the degree of bias in PCL towards different vulnerable groups, necessitating increased societal attention to protect them.
- Abstract(参考訳): Disclaimer: この論文のサンプルは有害であり、不快を招きます!
Patronizing and condescending Language(PCL)は、脆弱なグループに向けられた音声の一種である。
有害言語の本質的な分野として、この種の言語はインターネットコミュニティ間の対立や対立を悪化させ、不利な集団に有害な影響を及ぼす。
従来の訓練済み言語モデル(PLM)は、偽善や偽共感のような暗黙的な毒性特性のためにPCLの検出に不適である。
大規模言語モデル(LLMs)の台頭により、我々は彼らの豊かな感情的意味論を利用して暗黙の毒性を探求するパラダイムを確立することができる。
本稿では,PCL専用に設計された総合LLMベンチマークであるPclGPTを紹介する。
我々は, Pcl-PT/SFTデータセットを収集, 注釈, 統合し, そして, 暗黙的な毒性検出を容易にするために, 包括的事前学習および教師付き微調整階段プロセスを通じてバイリンガルな PclGPT-EN/CN モデル群を開発する。
グループ検出結果とPclGPTおよび他のモデルからのきめ細かい検出結果から,PCLの様々な脆弱なグループに対するバイアスの程度が著しく変化していることが判明した。
関連論文リスト
- Large Language Models are Easily Confused: A Quantitative Metric, Security Implications and Typological Analysis [5.029635172046762]
言語融合(Language Confusion)とは、大言語モデル(LLM)が所望の言語でもなく、文脈的に適切な言語でもテキストを生成する現象である。
我々は,この混乱を計測し定量化するために設計された,新しい計量であるLanguage Confusion Entropyを導入する。
論文 参考訳(メタデータ) (2024-10-17T05:43:30Z) - Towards Patronizing and Condescending Language in Chinese Videos: A Multimodal Dataset and Detector [20.727790982395444]
Patronizing and Condescending Language (PCL)は、脆弱なグループをターゲットにした差別的有害なスピーチの一種である。
本稿では,Bilibiliによる715の注釈付きビデオからなるPCLのための中国初のマルチモーダルデータセットについて紹介する。
また,PCL認識のための表情検出モジュールを備えたマルチPCL検出器を提案する。
論文 参考訳(メタデータ) (2024-09-08T07:26:13Z) - Understanding and Mitigating Language Confusion in LLMs [76.96033035093204]
我々は,既存の英語および多言語プロンプトを用いた15の型的多様言語の評価を行った。
Llama Instruct と Mistral のモデルでは,言語的混乱の度合いが高いことがわかった。
言語混乱は,数発のプロンプト,多言語SFT,選好調整によって部分的に緩和できることがわかった。
論文 参考訳(メタデータ) (2024-06-28T17:03:51Z) - PolygloToxicityPrompts: Multilingual Evaluation of Neural Toxic Degeneration in Large Language Models [27.996123856250065]
既存の毒性ベンチマークは圧倒的に英語に焦点を当てている。
PTP(PolygloToxicity Prompts)は、17言語にまたがる自然発生プロンプト425Kの大規模多言語毒性評価ベンチマークである。
論文 参考訳(メタデータ) (2024-05-15T14:22:33Z) - Generating Valid and Natural Adversarial Examples with Large Language
Models [18.944937459278197]
敵対的攻撃モデルは有効でも自然でもないため、意味的維持、文法性、そして人間の知覚不能が失われる。
本研究では,LLM-Attackを提案する。
The Movie Review (MR), IMDB, and Review Polarity datas against the baseline adversarial attack model showed the effect of LLM-Attack。
論文 参考訳(メタデータ) (2023-11-20T15:57:04Z) - Let Models Speak Ciphers: Multiagent Debate through Embeddings [84.20336971784495]
この問題を解決するためにCIPHER(Communicative Inter-Model Protocol Through Embedding Representation)を導入する。
自然言語から逸脱することで、CIPHERはモデルの重みを変更することなく、より広い範囲の情報を符号化する利点を提供する。
このことは、LLM間の通信における代替の"言語"としての埋め込みの優越性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-10-10T03:06:38Z) - A Multi-level Supervised Contrastive Learning Framework for Low-Resource
Natural Language Inference [54.678516076366506]
自然言語推論(NLI)は、自然言語理解において、ますます重要な課題である。
本稿では,低リソースな自然言語推論のためのマルチSCLという,マルチレベルの教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-31T05:54:18Z) - PCL: Peer-Contrastive Learning with Diverse Augmentations for
Unsupervised Sentence Embeddings [69.87899694963251]
本稿では,多彩な拡張を伴う新しいピアコントラスト学習(PCL)を提案する。
PCLは、教師なし文の埋め込みのために、グループレベルで様々な対照的な正と負を構成する。
PCLはピア陽性のコントラストとピアネットワークの協調が可能である。
論文 参考訳(メタデータ) (2022-01-28T13:02:41Z) - COLD: A Benchmark for Chinese Offensive Language Detection [54.60909500459201]
COLDatasetは、37kの注釈付き文を持つ中国の攻撃的言語データセットである。
また、人気のある中国語モデルの出力攻撃性を研究するために、textscCOLDetectorを提案する。
我々の資源と分析は、中国のオンラインコミュニティを解毒し、生成言語モデルの安全性を評価することを目的としている。
論文 参考訳(メタデータ) (2022-01-16T11:47:23Z) - Don't Patronize Me! An Annotated Dataset with Patronizing and
Condescending Language towards Vulnerable Communities [39.429915087526965]
我々は,NLPモデルの開発を支援するための注釈付きデータセットを導入し,脆弱なコミュニティを支援・支援する言語を識別・分類する。
提案したデータセットを解析した結果,標準NLPモデルではPCLの同定が困難であり,BERTなどの言語モデルが最適であることがわかった。
論文 参考訳(メタデータ) (2020-11-16T22:45:03Z) - On Negative Interference in Multilingual Models: Findings and A
Meta-Learning Treatment [59.995385574274785]
従来の信念に反して、負の干渉は低リソース言語にも影響を及ぼすことを示す。
メタ学習アルゴリズムは、より優れた言語間変換性を得、負の干渉を軽減する。
論文 参考訳(メタデータ) (2020-10-06T20:48:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。