論文の概要: Diachronic Analysis of German Parliamentary Proceedings: Ideological
Shifts through the Lens of Political Biases
- arxiv url: http://arxiv.org/abs/2108.06295v1
- Date: Fri, 13 Aug 2021 15:58:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-16 14:59:11.840560
- Title: Diachronic Analysis of German Parliamentary Proceedings: Ideological
Shifts through the Lens of Political Biases
- Title(参考訳): ドイツの議会手続のダイアクロニック分析:政治バイアスのレンズによるイデオロギー的変化
- Authors: Tobias Walter, Celina Kirschner, Steffen Eger, Goran Glava\v{s}, Anne
Lauscher, Simone Paolo Ponzetto
- Abstract要約: 我々は、歴史的コーパスにおける偏見を、政治(反共産主義)と人種差別(反ユダヤ主義)の2種類の偏見に焦点をあてて分析する。
ダイアクロニック単語埋め込みにおける歴史的バイアスのこの分析を,用語共起とグラフに基づくラベル伝搬に基づく新しいバイアス尺度で補完する。
バイアス測定の結果は、異なる時代のドイツの政治における反ユダヤ主義的・反共主義的バイアスの一般的な歴史的傾向と一致した。
- 参考スコア(独自算出の注目度): 18.38810381745439
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We analyze bias in historical corpora as encoded in diachronic distributional
semantic models by focusing on two specific forms of bias, namely a political
(i.e., anti-communism) and racist (i.e., antisemitism) one. For this, we use a
new corpus of German parliamentary proceedings, DeuPARL, spanning the period
1867--2020. We complement this analysis of historical biases in diachronic word
embeddings with a novel measure of bias on the basis of term co-occurrences and
graph-based label propagation. The results of our bias measurements align with
commonly perceived historical trends of antisemitic and anti-communist biases
in German politics in different time periods, thus indicating the viability of
analyzing historical bias trends using semantic spaces induced from historical
corpora.
- Abstract(参考訳): 歴史的コーパスのバイアスを,二元論的分布的意味モデルにエンコードされるように分析し,政治(反共)と人種差別(反ユダヤ主義)という2つの特定のバイアスに焦点をあてて分析する。
この目的のために、我々は1867年から2020年までのドイツの議会手続の新たなコーパスであるDeuPARLを使用します。
ダイアクロニック単語埋め込みにおける歴史的バイアスのこの分析を,用語共起とグラフに基づくラベル伝搬に基づく新しいバイアス尺度で補完する。
偏見測定の結果は,ドイツ政治における反ユダヤ主義的・反共主義的偏見の歴史的傾向と一致し,歴史的コーパスから引き起こされた意味空間を用いた歴史的偏見傾向の分析の可能性を示した。
関連論文リスト
- High Risk of Political Bias in Black Box Emotion Inference Models [0.0]
本稿では、社会科学研究における感情分析(SA)に使用される機械学習モデルにおける政治的バイアスの存在について検討する。
ポーランドの感情分析モデルを用いた偏見調査を行った。
以上の結果から, 人間のラテンダーによるアノテーションは, モデルの予測に政治的偏見を伝播させることが示唆された。
論文 参考訳(メタデータ) (2024-07-18T20:31:07Z) - Leveraging Prototypical Representations for Mitigating Social Bias without Demographic Information [50.29934517930506]
DAFairは、言語モデルにおける社会的バイアスに対処する新しいアプローチである。
偏見を緩和するために、原型的人口統計テキストを活用し、微調整プロセス中に正規化用語を取り入れる。
論文 参考訳(メタデータ) (2024-03-14T15:58:36Z) - Cognitive bias in large language models: Cautious optimism meets
anti-Panglossian meliorism [0.0]
大きな言語モデルにおけるバイアスの伝統的な議論は、不公平と密接に結びついたバイアスの概念に焦点を当てている。
最近の研究は、様々な認知バイアスに対して、大きな言語モデルのアウトプットを評価する新たな可能性を高めている。
この議論の哲学的意味は、人間の認知バイアスの合理性や、モデルバイアスの駆動における非表現的データの役割である。
論文 参考訳(メタデータ) (2023-11-18T01:58:23Z) - Inducing Political Bias Allows Language Models Anticipate Partisan
Reactions to Controversies [5.958974943807783]
本研究では,Large Language Models (LLMs) を用いたデジタル談話における政治的偏見の理解の課題に対処する。
本稿では,Partisan Bias Divergence AssessmentとPartisan Class Tendency Predictionからなる包括的分析フレームワークを提案する。
以上の結果から,感情的・道徳的ニュアンスを捉えたモデルの有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-11-16T08:57:53Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Measuring Intersectional Biases in Historical Documents [37.03904311548859]
植民地時代(18世紀から19世紀)にカリブ海で発行された歴史新聞におけるバイアスの連続性と変化について検討する。
私たちの分析は、性別、人種、およびそれらの交点の軸に沿って行われます。
単語埋め込みの安定性と、過去のデータセットとの互換性の間にはトレードオフがあることが分かりました。
論文 参考訳(メタデータ) (2023-05-21T07:10:31Z) - NeuS: Neutral Multi-News Summarization for Mitigating Framing Bias [54.89737992911079]
様々な政治スペクトルの複数のニュース見出しから中立的な要約を生成する新しい課題を提案する。
最も興味深い観察の1つは、生成モデルは、事実的に不正確なコンテンツや検証不可能なコンテンツだけでなく、政治的に偏ったコンテンツにも幻覚を与えることができることである。
論文 参考訳(メタデータ) (2022-04-11T07:06:01Z) - The SAME score: Improved cosine based bias score for word embeddings [49.75878234192369]
埋め込みにおけるセマンティックバイアスのための新しいバイアススコアであるPetを紹介した。
本研究は,下水道作業における意味バイアスを測定し,社会的バイアスの潜在的な原因を特定することができることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Inflating Topic Relevance with Ideology: A Case Study of Political
Ideology Bias in Social Topic Detection Models [16.279854003220418]
トレーニングデータにおける政治的イデオロギーバイアスの影響について検討する。
私たちの研究は、人間の選択した入力からバイアスを伝達する、大規模で複雑なモデルの受容性を強調します。
偏見を緩和する手段として,政治的イデオロギーに不変なテキスト表現の学習を提案する。
論文 参考訳(メタデータ) (2020-11-29T05:54:03Z) - Towards Controllable Biases in Language Generation [87.89632038677912]
本研究では、特定の人口集団の言及を含む入力プロンプトによって生成されたテキストの社会的バイアスを誘導する手法を開発した。
1 つの人口統計学において負のバイアスを誘発し、もう1 つの人口統計学において正のバイアスを誘導し、2 つのシナリオを分析する。
論文 参考訳(メタデータ) (2020-05-01T08:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。