論文の概要: Filtering Context Mitigates Scarcity and Selection Bias in Political
Ideology Prediction
- arxiv url: http://arxiv.org/abs/2302.00239v1
- Date: Wed, 1 Feb 2023 04:34:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 13:35:59.302348
- Title: Filtering Context Mitigates Scarcity and Selection Bias in Political
Ideology Prediction
- Title(参考訳): 政治イデオロギー予測における空白化と選択バイアスのフィルタリング
- Authors: Chen Chen, Dylan Walker, Venkatesh Saligrama
- Abstract要約: 政治イデオロギー予測(PIP)のための新しい教師付き学習手法を提案する。
私たちのモデルは、5%のバイアスデータでトレーニングしても、予測を出力できることを示します。
- 参考スコア(独自算出の注目度): 42.31457743674423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel supervised learning approach for political ideology
prediction (PIP) that is capable of predicting out-of-distribution inputs. This
problem is motivated by the fact that manual data-labeling is expensive, while
self-reported labels are often scarce and exhibit significant selection bias.
We propose a novel statistical model that decomposes the document embeddings
into a linear superposition of two vectors; a latent neutral \emph{context}
vector independent of ideology, and a latent \emph{position} vector aligned
with ideology. We train an end-to-end model that has intermediate contextual
and positional vectors as outputs. At deployment time, our model predicts
labels for input documents by exclusively leveraging the predicted positional
vectors. On two benchmark datasets we show that our model is capable of
outputting predictions even when trained with as little as 5\% biased data, and
is significantly more accurate than the state-of-the-art. Through
crowd-sourcing we validate the neutrality of contextual vectors, and show that
context filtering results in ideological concentration, allowing for prediction
on out-of-distribution examples.
- Abstract(参考訳): 本稿では,分布外入力を予測可能な政治イデオロギー予測(pip)のための教師あり学習手法を提案する。
この問題は、手動データラベルが高価であるという事実に動機づけられているが、自己報告ラベルはしばしば不足し、重大な選択バイアスを示す。
そこで本研究では,イデオロギーとは無関係な潜在性中性なemph{context}ベクトルとイデオロギーに沿った潜在性emph{position}ベクトルという2つのベクトルの線形重ね合わせに埋め込みを分解する新しい統計モデルを提案する。
中間文脈ベクトルと位置ベクトルを出力とするエンドツーエンドモデルを訓練する。
配置時には,予測位置ベクトルのみを利用して,入力文書のラベルを予測する。
2つのベンチマークデータセットで、我々のモデルは5\%のバイアスデータでトレーニングしても予測を出力でき、最先端のモデルよりもはるかに正確であることを示す。
クラウドソーシングを通じてコンテキストベクトルの中立性を検証し、コンテキストフィルタリングがイデオロギー集中をもたらすことを示し、分散例の予測を可能にする。
関連論文リスト
- Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Augmented prediction of a true class for Positive Unlabeled data under selection bias [0.8594140167290099]
本稿では, 観測時刻をラベル付けした正のアンラベル(PU)データに対して, 新たな観測環境を提案する。
我々は、追加情報は予測に重要であると主張し、このタスクを"Augmented PU prediction"と呼んでいる。
このようなシナリオで経験的ベイズ則のいくつかの変種を導入し、それらの性能について検討する。
論文 参考訳(メタデータ) (2024-07-14T19:58:01Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Addressing Discretization-Induced Bias in Demographic Prediction [18.427077352120254]
アーグマックスのラベル付けは、ノースカロライナ州で28.2%の差でアフリカ系アメリカ人の有権者をかなり下回っていることを示している。
このバイアスは、そのようなラベルを使用する下流タスクに重大な影響を与える可能性がある。
このバイアスを取り除くために、$textitjoint Optimization$ approach と tractable $textitdata-driven thresholding$ を導入します。
論文 参考訳(メタデータ) (2024-05-27T02:22:43Z) - Stochastic Online Conformal Prediction with Semi-Bandit Feedback [29.334511328067777]
実例が時間とともに現れるオンライン学習環境について検討し、その目標は予測セットを動的に構築することである。
本稿では,この設定を対象とする新しい共形予測アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-22T00:42:49Z) - Adversarial Resilience in Sequential Prediction via Abstention [46.80218090768711]
本研究では,クリーンラベルの逆数例を注入できる逆数設定における逐次予測の問題について検討する。
そこで本研究では,純粋と完全対向的な設定の間に位置する逐次予測の新しいモデルを提案する。
論文 参考訳(メタデータ) (2023-06-22T17:44:22Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Measuring Model Biases in the Absence of Ground Truth [2.802021236064919]
根拠となる真理ラベルに依存しない公平さと偏見の測定に新たなフレーミングを導入する。
代わりに、ある画像のモデル予測を、自然言語処理(NLP)で使用される「言葉の袋」アプローチに類似したラベルの集合として扱う。
異なる相関指標の統計的性質(特に正規化)が,「生成バイアス」が検出されるラベルの異なる集合にどのようにつながるかを実証する。
論文 参考訳(メタデータ) (2021-03-05T01:23:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。