論文の概要: The Impact of Persona-based Political Perspectives on Hateful Content Detection
- arxiv url: http://arxiv.org/abs/2502.00385v1
- Date: Sat, 01 Feb 2025 09:53:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:04:46.253039
- Title: The Impact of Persona-based Political Perspectives on Hateful Content Detection
- Title(参考訳): ペルソナの政治的視点がコンテンツ検出に及ぼす影響
- Authors: Stefano Civelli, Pietro Bernardelle, Gianluca Demartini,
- Abstract要約: 政治的に多様な言語モデルは、多くの研究者や組織にアクセスできない計算資源を必要とする。
近年の研究では、ペルソナをベースとしたプロンプトが、追加の訓練なしに、モデルアウトプットに政治的多様性をもたらすことが確認されている。
本稿では、下流業務における政治的事前訓練に匹敵する結果が得られるかどうかを考察する。
- 参考スコア(独自算出の注目度): 4.04666623219944
- License:
- Abstract: While pretraining language models with politically diverse content has been shown to improve downstream task fairness, such approaches require significant computational resources often inaccessible to many researchers and organizations. Recent work has established that persona-based prompting can introduce political diversity in model outputs without additional training. However, it remains unclear whether such prompting strategies can achieve results comparable to political pretraining for downstream tasks. We investigate this question using persona-based prompting strategies in multimodal hate-speech detection tasks, specifically focusing on hate speech in memes. Our analysis reveals that when mapping personas onto a political compass and measuring persona agreement, inherent political positioning has surprisingly little correlation with classification decisions. Notably, this lack of correlation persists even when personas are explicitly injected with stronger ideological descriptors. Our findings suggest that while LLMs can exhibit political biases in their responses to direct political questions, these biases may have less impact on practical classification tasks than previously assumed. This raises important questions about the necessity of computationally expensive political pretraining for achieving fair performance in downstream tasks.
- Abstract(参考訳): 政治的に多様な内容を持つ事前学習された言語モデルは、下流のタスクフェアネスを改善することが示されているが、そのようなアプローチは、多くの研究者や組織にはアクセスできない重要な計算資源を必要とする。
近年の研究では、ペルソナに基づくプロンプトは、追加の訓練なしに、モデルアウトプットに政治的多様性をもたらすことが確認されている。
しかし、こうした推進戦略が下流業務の政治的事前訓練に匹敵する結果を達成できるかどうかは不明である。
本研究では,マルチモーダルヘイト音声検出タスクにおけるペルソナに基づくプロンプト戦略を用いて,特にミームにおけるヘイトスピーチに注目した。
我々の分析によると、ペルソナを政治的コンパスにマッピングし、ペルソナの合意を測定した場合、固有の政治的位置決めは驚くほど、分類決定とはほとんど相関がない。
特に、この相関の欠如は、強いイデオロギー記述子で明らかにペルソナを注入しても持続する。
以上の結果から,LSMは直接的政治的質問に対する反応に政治的偏見を示すことができるが,これらの偏見は以前想定されていたよりも実践的な分類課題にはあまり影響しない可能性が示唆された。
このことは、下流のタスクにおいて公正なパフォーマンスを達成するために、計算的に高価な政治事前訓練の必要性について重要な疑問を提起する。
関連論文リスト
- Few-shot Policy (de)composition in Conversational Question Answering [54.259440408606515]
本稿では,大規模言語モデル(LLM)を用いて数ショット設定でポリシーコンプライアンスを検出するニューラルシンボリックフレームワークを提案する。
提案手法は,回答すべきサブクエストを抽出し,文脈情報から真理値を割り当て,与えられたポリシーから論理文の集合を明示的に生成することで,政策コンプライアンスに関する会話に対して健全な理由を示す。
本手法は,PCDおよび会話機械読解ベンチマークであるShARCに適用し,タスク固有の微調整を伴わずに競合性能を示す。
論文 参考訳(メタデータ) (2025-01-20T08:40:15Z) - Political-LLM: Large Language Models in Political Science [159.95299889946637]
大規模言語モデル(LLM)は、政治科学のタスクで広く採用されている。
政治LLMは、LLMを計算政治科学に統合する包括的な理解を促進することを目的としている。
論文 参考訳(メタデータ) (2024-12-09T08:47:50Z) - On the Use of Proxies in Political Ad Targeting [49.61009579554272]
我々は、主要な政治広告主がプロキシ属性をターゲットとして緩和を回避したことを示す。
本研究は政治広告の規制に関する議論に重要な意味を持つ。
論文 参考訳(メタデータ) (2024-10-18T17:15:13Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - Generalizing Political Leaning Inference to Multi-Party Systems:
Insights from the UK Political Landscape [10.798766768721741]
ソーシャルメディアユーザーの政治的傾きを推測する能力は、世論調査の収集に役立つ。
政治的傾きと相互のインタラクションによってラベル付けされたユーザからなるデータセットをリリースする。
我々は、ユーザー間のリツイートという形でのインタラクションが、政治的に傾いた推論を可能にする、非常に強力な機能であることを示します。
論文 参考訳(メタデータ) (2023-12-04T09:02:17Z) - Inducing Political Bias Allows Language Models Anticipate Partisan
Reactions to Controversies [5.958974943807783]
本研究では,Large Language Models (LLMs) を用いたデジタル談話における政治的偏見の理解の課題に対処する。
本稿では,Partisan Bias Divergence AssessmentとPartisan Class Tendency Predictionからなる包括的分析フレームワークを提案する。
以上の結果から,感情的・道徳的ニュアンスを捉えたモデルの有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-11-16T08:57:53Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Quantitative Analysis of Forecasting Models:In the Aspect of Online
Political Bias [0.0]
ソーシャルメディア投稿を5つの異なる政治傾向カテゴリーに分類する手法を提案する。
我々のアプローチは、政治的イデオロギーの異なる2つのソーシャルメディアデータセット上で、既存の時系列予測モデルを活用することである。
論文 参考訳(メタデータ) (2023-09-11T16:17:24Z) - Diverse Perspectives Can Mitigate Political Bias in Crowdsourced Content
Moderation [5.470971742987594]
ソーシャルメディア企業は、プラットフォーム上の政治コンテンツを取り巻くコンテンツモデレーションポリシーの定義と強化に不満を抱いている。
このタスクにおいて、人間のラベルがどの程度うまく機能するか、あるいは、バイアスがこのプロセスに影響を及ぼすかどうかは不明だ。
集団労働者による政治内容の特定の実現可能性と実践性を実験的に評価した。
論文 参考訳(メタデータ) (2023-05-23T20:10:43Z) - A Machine Learning Pipeline to Examine Political Bias with Congressional
Speeches [0.3062386594262859]
私たちは、2つのイデオロギー的に多様なソーシャルメディアフォーラム、GabとTwitterで、政治的偏見を研究するための機械学習アプローチを提供します。
提案手法は,米国議会の政治演説から収集したテキストを用いて,そのデータをラベル付けする手法である。
また、カスケードとテキストの特徴を組み合わせて、カスケードの政治的偏見を約85%の精度で予測する機械学習アプローチを提案する。
論文 参考訳(メタデータ) (2021-09-18T21:15:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。