論文の概要: PRISM: A Framework for Producing Interpretable Political Bias Embeddings with Political-Aware Cross-Encoder
- arxiv url: http://arxiv.org/abs/2505.24646v1
- Date: Fri, 30 May 2025 14:31:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:53.004636
- Title: PRISM: A Framework for Producing Interpretable Political Bias Embeddings with Political-Aware Cross-Encoder
- Title(参考訳): PRISM: 政治対応クロスエンコーダを用いた解釈可能な政治バイアス埋め込み作成フレームワーク
- Authors: Yiqun Sun, Qiang Huang, Anthony K. H. Tung, Jun Yu,
- Abstract要約: PRISMはinteRpretable polItical biaS eMbeddingsを製造するためのフレームワークである。
弱いラベル付けされたニュースデータから政治トピックとそれに対応するバイアス指標を抽出する。
次に、構造化されたバイアススコアを、これらの指標との整合性に基づいてニュース記事に割り当てる。
- 参考スコア(独自算出の注目度): 17.00358234728804
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semantic Text Embedding is a fundamental NLP task that encodes textual content into vector representations, where proximity in the embedding space reflects semantic similarity. While existing embedding models excel at capturing general meaning, they often overlook ideological nuances, limiting their effectiveness in tasks that require an understanding of political bias. To address this gap, we introduce PRISM, the first framework designed to Produce inteRpretable polItical biaS eMbeddings. PRISM operates in two key stages: (1) Controversial Topic Bias Indicator Mining, which systematically extracts fine-grained political topics and their corresponding bias indicators from weakly labeled news data, and (2) Cross-Encoder Political Bias Embedding, which assigns structured bias scores to news articles based on their alignment with these indicators. This approach ensures that embeddings are explicitly tied to bias-revealing dimensions, enhancing both interpretability and predictive power. Through extensive experiments on two large-scale datasets, we demonstrate that PRISM outperforms state-of-the-art text embedding models in political bias classification while offering highly interpretable representations that facilitate diversified retrieval and ideological analysis. The source code is available at https://github.com/dukesun99/ACL-PRISM.
- Abstract(参考訳): Semantic Text Embeddingは、テキストコンテンツをベクトル表現にエンコードする基本的なNLPタスクである。
既存の埋め込みモデルは一般的な意味を捉えるのに優れているが、しばしばイデオロギー的なニュアンスを見落とし、政治的バイアスの理解を必要とするタスクにおける有効性を制限している。
このギャップに対処するため、PRISMは inteRpretable polItical biaS eMbeddings を生産するために設計された最初のフレームワークである。
PRISMは,(1)微粒な政治トピックとそれに対応するバイアス指標を弱いラベル付きニュースデータから体系的に抽出するコントロバーショナルトピックバイアス指標マイニング,(2)構造化バイアススコアをこれらの指標との整合性に基づいてニュース記事に割り当てるクロスエンコーダ政治バイアス埋め込みの2つの主要な段階で動作する。
このアプローチは、埋め込みがバイアス回避次元に明示的に結びついていることを保証するもので、解釈可能性と予測力の両方を高める。
PRISMは2つの大規模データセットに関する広範な実験を通じて、政治的バイアス分類における最先端のテキスト埋め込みモデルよりも優れており、多様な検索とイデオロギー分析を容易にする高度に解釈可能な表現を提供する。
ソースコードはhttps://github.com/dukesun99/ACL-PRISMで入手できる。
関連論文リスト
- BiasLab: Toward Explainable Political Bias Detection with Dual-Axis Annotations and Rationale Indicators [0.0]
BiasLabは、イデオロギー的偏見を意識した300の政治ニュース記事のデータセットである。
各記事は2つの独立したスケールでクラウドワーカーによってラベル付けされ、民主党と共和党に対する感情を評価している。
我々は、アノテータ間の合意を定量化し、ソースレベルの出口バイアスによる誤調整を分析し、その結果のラベルを解釈可能なサブセットに整理する。
論文 参考訳(メタデータ) (2025-05-21T23:50:42Z) - Mitigating Gender Bias in Contextual Word Embeddings [1.208453901299241]
本稿では,コンテキスト埋め込みにおける性別バイアスを大幅に軽減する,リップスティック(マスケ・ランゲージ・モデリング)の新たな目的関数を提案する。
また, 静的な埋め込みを嫌悪する新しい手法を提案し, 広範囲な解析と実験による実証実験を行った。
論文 参考訳(メタデータ) (2024-11-18T21:36:44Z) - The GUS Framework: Benchmarking Social Bias Classification with Discriminative (Encoder-Only) and Generative (Decoder-Only) Language Models [3.7716682697752506]
一般化、不公平、ステレオタイプ(GUSフレームワーク)は、社会的偏見の根底にある重要な言語的要素であると考えられている。
GUSフレームワークは、倫理的基準を維持するために人間が検証する包括的な合成データセットを作成するために、半自動化されたアプローチを採用している。
本手法は,識別的(エンコーダのみ)モデルと生成的(自己回帰的)大規模言語モデルを組み合わせることで,テキスト中のバイアスのあるエンティティを識別する。
論文 参考訳(メタデータ) (2024-10-10T21:51:22Z) - GradBias: Unveiling Word Influence on Bias in Text-to-Image Generative Models [75.04426753720553]
開集合におけるバイアスを特定し,定量化し,説明するための枠組みを提案する。
このパイプラインはLarge Language Model (LLM)を活用して、一連のキャプションから始まるバイアスを提案する。
このフレームワークには、OpenBiasとGradBiasの2つのバリエーションがあります。
論文 参考訳(メタデータ) (2024-08-29T16:51:07Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Discovering and Mitigating Visual Biases through Keyword Explanation [66.71792624377069]
視覚バイアスをキーワードとして解釈するBias-to-Text(B2T)フレームワークを提案する。
B2Tは、CelebAの性別バイアス、ウォーターバードの背景バイアス、ImageNet-R/Cの分布シフトなど、既知のバイアスを特定することができる。
B2Tは、Dollar StreetやImageNetのような大きなデータセットで、新しいバイアスを明らかにする。
論文 参考訳(メタデータ) (2023-01-26T13:58:46Z) - Mitigating Political Bias in Language Models Through Reinforced
Calibration [6.964628305312507]
GPT-2 世代における政治的偏見を測定する指標について述べる。
生成テキストにおける政治的バイアスを緩和するための強化学習(RL)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-30T07:21:30Z) - Weakly-Supervised Aspect-Based Sentiment Analysis via Joint
Aspect-Sentiment Topic Embedding [71.2260967797055]
アスペクトベース感情分析のための弱教師付きアプローチを提案する。
We learn sentiment, aspects> joint topic embeddeds in the word embedding space。
次に、ニューラルネットワークを用いて単語レベルの識別情報を一般化する。
論文 参考訳(メタデータ) (2020-10-13T21:33:24Z) - Consensus-Aware Visual-Semantic Embedding for Image-Text Matching [69.34076386926984]
画像テキストマッチングは、視覚と言語をブリッジする上で中心的な役割を果たす。
既存のアプローチのほとんどは、表現を学ぶためにイメージテキストインスタンスペアのみに依存しています。
コンセンサスを意識したビジュアル・セマンティック・エンベディングモデルを提案し,コンセンサス情報を組み込む。
論文 参考訳(メタデータ) (2020-07-17T10:22:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。