論文の概要: The Effects of Demographic Instructions on LLM Personas
- arxiv url: http://arxiv.org/abs/2505.11795v1
- Date: Sat, 17 May 2025 02:49:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.851311
- Title: The Effects of Demographic Instructions on LLM Personas
- Title(参考訳): LLMペルソナに対する復刻指導の効果
- Authors: Angel Felipe Magnossão de Paula, J. Shane Culpepper, Alistair Moffat, Sachin Pathiyan Cherumanal, Falk Scholer, Johanne Trippas,
- Abstract要約: ソーシャルメディアプラットフォームは、政府規制に従って性差別的なコンテンツをフィルタリングしなければならない。
現在の機械学習アプローチでは、標準化された定義に基づいて性差別を確実に検出することができる。
我々は、ゴールドスタンダードラベルを強制するのではなく、多彩なアノテーションを保ちながら、パースペクティブなアプローチを採用する。
- 参考スコア(独自算出の注目度): 14.283869154967835
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social media platforms must filter sexist content in compliance with governmental regulations. Current machine learning approaches can reliably detect sexism based on standardized definitions, but often neglect the subjective nature of sexist language and fail to consider individual users' perspectives. To address this gap, we adopt a perspectivist approach, retaining diverse annotations rather than enforcing gold-standard labels or their aggregations, allowing models to account for personal or group-specific views of sexism. Using demographic data from Twitter, we employ large language models (LLMs) to personalize the identification of sexism.
- Abstract(参考訳): ソーシャルメディアプラットフォームは、政府規制に従って性差別的なコンテンツをフィルタリングしなければならない。
現在の機械学習アプローチでは、標準化された定義に基づいて性差別を確実に検出することができるが、しばしば性差別言語の主観的な性質を無視し、個々のユーザーの視点を考慮できない。
このギャップに対処するために、私たちは、ゴールドスタンダードラベルやそれらのアグリゲーションを強制するのではなく、多様なアノテーションを保持する、パースペクティブなアプローチを採用しています。
Twitterの人口統計データを用いて、私たちは性差別の識別をパーソナライズするために、大きな言語モデル(LLM)を採用しています。
関連論文リスト
- MuSeD: A Multimodal Spanish Dataset for Sexism Detection in Social Media Videos [12.555579923843641]
我々は、TikTokとBitChuteから抽出された11時間分のビデオを$approx$で提供する、性差別検出のための新しいマルチモーダルスペイン語データセットであるMuSeDを紹介した。
視覚情報は、人間とモデルの両方に性差別的コンテンツをラベル付けする上で重要な役割を担っている。
論文 参考訳(メタデータ) (2025-04-15T13:16:46Z) - Adaptable Moral Stances of Large Language Models on Sexist Content: Implications for Society and Gender Discourse [17.084339235658085]
8つのモデルがすべて、理解しやすく、文脈的に関係のあるテキストを生成することを示す。
我々は,性差別的言語を正当化するLLMの誤用の可能性に注意する。
論文 参考訳(メタデータ) (2024-09-30T19:27:04Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Bilingual Sexism Classification: Fine-Tuned XLM-RoBERTa and GPT-3.5 Few-Shot Learning [0.7874708385247352]
本研究の目的は、自然言語処理モデルを活用することにより、バイリンガル文脈(英語とスペイン語)における性差別の識別を改善することである。
我々はXLM-RoBERTaモデルを微調整し、性差別的コンテンツを分類するための数発の学習プロンプトでGPT-3.5を別々に使用した。
論文 参考訳(メタデータ) (2024-06-11T14:15:33Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - Probing Explicit and Implicit Gender Bias through LLM Conditional Text
Generation [64.79319733514266]
大規模言語モデル(LLM)はバイアスと有害な応答を生成する。
本研究では,あらかじめ定義されたジェンダーフレーズやステレオタイプを必要としない条件付きテキスト生成機構を提案する。
論文 参考訳(メタデータ) (2023-11-01T05:31:46Z) - "Kelly is a Warm Person, Joseph is a Role Model": Gender Biases in
LLM-Generated Reference Letters [97.11173801187816]
大規模言語モデル(LLM)は、個人が様々な種類のコンテンツを書くのを支援する効果的なツールとして最近登場した。
本稿では, LLM 生成した参照文字の性別バイアスについて批判的に検討する。
論文 参考訳(メタデータ) (2023-10-13T16:12:57Z) - "I'm fully who I am": Towards Centering Transgender and Non-Binary
Voices to Measure Biases in Open Language Generation [69.25368160338043]
トランスジェンダーとノンバイナリ(TGNB)の個人は、日常生活から差別や排除を不当に経験している。
オープン・ランゲージ・ジェネレーションにおいて,経験豊富なTGNB人物の疎外化を取り巻く社会的現実がいかに貢献し,持続するかを評価する。
我々はTGNB指向のコミュニティからキュレートされたテンプレートベースの実世界のテキストのデータセットであるTANGOを紹介する。
論文 参考訳(メタデータ) (2023-05-17T04:21:45Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z) - "Call me sexist, but...": Revisiting Sexism Detection Using
Psychological Scales and Adversarial Samples [2.029924828197095]
我々は、性差別の異なる側面を心理学的尺度でそれらの実践に基礎を置いて概説する。
このスケールから、ソーシャルメディアにおける性差別のためのコードブックを導き、既存のデータセットや新しいデータセットに注釈を付けるために使用します。
結果は、現在の機械学習モデルは、性差別の非常に狭い言語マーカーの集合を拾い上げ、ドメイン外の例にうまく一般化しないことを示唆している。
論文 参考訳(メタデータ) (2020-04-27T13:07:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。