論文の概要: Filtering Context Mitigates Scarcity and Selection Bias in Political
Ideology Prediction
- arxiv url: http://arxiv.org/abs/2302.00239v1
- Date: Wed, 1 Feb 2023 04:34:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 13:35:59.302348
- Title: Filtering Context Mitigates Scarcity and Selection Bias in Political
Ideology Prediction
- Title(参考訳): 政治イデオロギー予測における空白化と選択バイアスのフィルタリング
- Authors: Chen Chen, Dylan Walker, Venkatesh Saligrama
- Abstract要約: 政治イデオロギー予測(PIP)のための新しい教師付き学習手法を提案する。
私たちのモデルは、5%のバイアスデータでトレーニングしても、予測を出力できることを示します。
- 参考スコア(独自算出の注目度): 42.31457743674423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel supervised learning approach for political ideology
prediction (PIP) that is capable of predicting out-of-distribution inputs. This
problem is motivated by the fact that manual data-labeling is expensive, while
self-reported labels are often scarce and exhibit significant selection bias.
We propose a novel statistical model that decomposes the document embeddings
into a linear superposition of two vectors; a latent neutral \emph{context}
vector independent of ideology, and a latent \emph{position} vector aligned
with ideology. We train an end-to-end model that has intermediate contextual
and positional vectors as outputs. At deployment time, our model predicts
labels for input documents by exclusively leveraging the predicted positional
vectors. On two benchmark datasets we show that our model is capable of
outputting predictions even when trained with as little as 5\% biased data, and
is significantly more accurate than the state-of-the-art. Through
crowd-sourcing we validate the neutrality of contextual vectors, and show that
context filtering results in ideological concentration, allowing for prediction
on out-of-distribution examples.
- Abstract(参考訳): 本稿では,分布外入力を予測可能な政治イデオロギー予測(pip)のための教師あり学習手法を提案する。
この問題は、手動データラベルが高価であるという事実に動機づけられているが、自己報告ラベルはしばしば不足し、重大な選択バイアスを示す。
そこで本研究では,イデオロギーとは無関係な潜在性中性なemph{context}ベクトルとイデオロギーに沿った潜在性emph{position}ベクトルという2つのベクトルの線形重ね合わせに埋め込みを分解する新しい統計モデルを提案する。
中間文脈ベクトルと位置ベクトルを出力とするエンドツーエンドモデルを訓練する。
配置時には,予測位置ベクトルのみを利用して,入力文書のラベルを予測する。
2つのベンチマークデータセットで、我々のモデルは5\%のバイアスデータでトレーニングしても予測を出力でき、最先端のモデルよりもはるかに正確であることを示す。
クラウドソーシングを通じてコンテキストベクトルの中立性を検証し、コンテキストフィルタリングがイデオロギー集中をもたらすことを示し、分散例の予測を可能にする。
関連論文リスト
- Cross-Prediction-Powered Inference [15.745692520785074]
クロスプレディクション(Cross-prediction)は、機械学習を利用した推論の検証方法である。
予測による推論の適応よりもクロス予測の方が一貫して強力であることを示す。
論文 参考訳(メタデータ) (2023-09-28T17:01:58Z) - Adversarial Resilience in Sequential Prediction via Abstention [46.80218090768711]
本研究では,クリーンラベルの逆数例を注入できる逆数設定における逐次予測の問題について検討する。
そこで本研究では,純粋と完全対向的な設定の間に位置する逐次予測の新しいモデルを提案する。
論文 参考訳(メタデータ) (2023-06-22T17:44:22Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - Towards Fine-Grained Information: Identifying the Type and Location of
Translation Errors [80.22825549235556]
既存のアプローチでは、エラーの位置と型を同期的に考慮することはできない。
我々はtextbf の追加と textbfomission エラーを予測するために FG-TED モデルを構築した。
実験により,本モデルではエラータイプと位置の同時同定が可能であり,最先端の結果が得られた。
論文 参考訳(メタデータ) (2023-02-17T16:20:33Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - $p$-DkNN: Out-of-Distribution Detection Through Statistical Testing of
Deep Representations [32.99800144249333]
我々は、訓練された深層ニューラルネットワークを使用し、その中間の隠蔽表現の類似構造を分析する新しい推論手順である$p$-DkNNを紹介した。
我々は、$p$-DkNNでアダプティブアタッカーが、最悪のOOD入力の形式である敵の例を作成して、入力に意味のある変更を導入する。
論文 参考訳(メタデータ) (2022-07-25T21:42:08Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Thought Flow Nets: From Single Predictions to Trains of Model Thought [39.619001911390804]
人間が複雑な問題を解くと、すぐに決定が下されることはめったにない。
その代わり、彼らは直感的な決定から始まり、間違いを見つけ、矛盾を解決し、異なる仮説の間を飛び交う。
論文 参考訳(メタデータ) (2021-07-26T13:56:37Z) - Measuring Model Biases in the Absence of Ground Truth [2.802021236064919]
根拠となる真理ラベルに依存しない公平さと偏見の測定に新たなフレーミングを導入する。
代わりに、ある画像のモデル予測を、自然言語処理(NLP)で使用される「言葉の袋」アプローチに類似したラベルの集合として扱う。
異なる相関指標の統計的性質(特に正規化)が,「生成バイアス」が検出されるラベルの異なる集合にどのようにつながるかを実証する。
論文 参考訳(メタデータ) (2021-03-05T01:23:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。