論文の概要: Exploiting Biased Models to De-bias Text: A Gender-Fair Rewriting Model
- arxiv url: http://arxiv.org/abs/2305.11140v1
- Date: Thu, 18 May 2023 17:35:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 13:39:32.486996
- Title: Exploiting Biased Models to De-bias Text: A Gender-Fair Rewriting Model
- Title(参考訳): バイアステキストへのバイアス付きモデルのエクスプロイト:ジェンダーフェア書き換えモデル
- Authors: Chantal Amrhein, Florian Schottmann, Rico Sennrich and Samuel L\"aubli
- Abstract要約: 我々は、精巧な手作りのルールを必要とせずに、ドイツ語の書き直しモデルを訓練する。
このモデルのアウトプットは、人間の評価研究で示されているように、ジェンダーフェアネスを増加させた。
- 参考スコア(独自算出の注目度): 32.21372089380992
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Natural language generation models reproduce and often amplify the biases
present in their training data. Previous research explored using
sequence-to-sequence rewriting models to transform biased model outputs (or
original texts) into more gender-fair language by creating pseudo training data
through linguistic rules. However, this approach is not practical for languages
with more complex morphology than English. We hypothesise that creating
training data in the reverse direction, i.e. starting from gender-fair text, is
easier for morphologically complex languages and show that it matches the
performance of state-of-the-art rewriting models for English. To eliminate the
rule-based nature of data creation, we instead propose using machine
translation models to create gender-biased text from real gender-fair text via
round-trip translation. Our approach allows us to train a rewriting model for
German without the need for elaborate handcrafted rules. The outputs of this
model increased gender-fairness as shown in a human evaluation study.
- Abstract(参考訳): 自然言語生成モデルは、トレーニングデータに存在するバイアスを再現し、しばしば増幅する。
従来の研究では、シーケンシャル・ツー・シーケンスの書き換えモデルを用いて、バイアス付きモデル出力(または元のテキスト)を、言語規則を通じて擬似的なトレーニングデータを作成することによって、よりジェンダーフェアな言語に変換する研究が行われた。
しかし、このアプローチは英語よりも複雑な形態を持つ言語には実用的ではない。
逆方向、つまりジェンダーフェアテキストから始まるトレーニングデータの作成は、形態的に複雑な言語では容易であり、それが英語の最先端の書き直しモデルのパフォーマンスと一致することを示す。
ルールに基づくデータ生成の本質をなくすため,本研究では,ラウンドトリップ翻訳を用いて,実際のジェンダーフェアテキストからジェンダーバイアス付きテキストを作成する機械翻訳モデルを提案する。
我々のアプローチは、精巧な手作りルールを必要とせずに、ドイツ語の書き直しモデルを訓練することを可能にする。
このモデルのアウトプットは、人間評価研究で示されるように、男女関係を増加させた。
関連論文リスト
- Multilingual Text-to-Image Generation Magnifies Gender Stereotypes and Prompt Engineering May Not Help You [64.74707085021858]
多言語モデルは、モノリンガルモデルと同様に、有意な性別バイアスに悩まされていることを示す。
多言語モデルにおけるジェンダーバイアスの研究を促進するための新しいベンチマークMAGBIGを提案する。
以上の結果から,モデルが強い性バイアスを示すだけでなく,言語によって異なる行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2024-01-29T12:02:28Z) - Using Artificial French Data to Understand the Emergence of Gender Bias
in Transformer Language Models [5.22145960878624]
この研究は、神経モデルがジェンダーなどの単語の言語的性質や、その使用法を規定する規則をいかに発見するかという、あまり研究されていないトピックを探求するための最初のステップである。
本稿では,フランス語をベースとしたPCFGが生成した人工コーパスを用いて,トレーニングデータ中の性別分布を正確に制御し,モデルが正しく性別情報をキャプチャした条件を決定することを提案する。
論文 参考訳(メタデータ) (2023-10-24T14:08:37Z) - Will the Prince Get True Love's Kiss? On the Model Sensitivity to Gender
Perturbation over Fairytale Texts [87.62403265382734]
近年の研究では、伝統的な妖精は有害な性バイアスを伴っていることが示されている。
本研究は,ジェンダーの摂動に対する頑健さを評価することによって,言語モデルの学習バイアスを評価することを目的とする。
論文 参考訳(メタデータ) (2023-10-16T22:25:09Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - The Birth of Bias: A case study on the evolution of gender bias in an
English language model [1.6344851071810076]
私たちは、英語のウィキペディアコーパスでトレーニングされたLSTMアーキテクチャを使って、比較的小さな言語モデルを使用します。
性別の表現は動的であり、訓練中に異なる位相を識別する。
モデルの入力埋め込みにおいて,ジェンダー情報が局所的に表現されることが示される。
論文 参考訳(メタデータ) (2022-07-21T00:59:04Z) - Using Natural Sentences for Understanding Biases in Language Models [10.604991889372092]
ウィキペディアの現実世界の自然文から収集した職業に関する素早いデータセットを作成する。
バイアス評価はテンプレートプロンプトの設計選択に非常に敏感である。
本研究では, 自然文のプロンプトを体系的な評価に用いて, 観察に偏見をもたらす可能性のある設計選択から脱却することを提案する。
論文 参考訳(メタデータ) (2022-05-12T18:36:33Z) - Training Language Models with Natural Language Feedback [51.36137482891037]
3段階学習アルゴリズムを用いてモデル出力の言語フィードバックから学習する。
合成実験において、まず言語モデルがフィードバックを正確に組み込んで改良を行うかどうかを評価する。
人間の手書きフィードバックのサンプルは100程度しかなく, 学習アルゴリズムはGPT-3モデルを微調整し, ほぼ人間レベルの要約を行う。
論文 参考訳(メタデータ) (2022-04-29T15:06:58Z) - Mitigating Gender Bias in Distilled Language Models via Counterfactual
Role Reversal [74.52580517012832]
言語エクセルモデルは、性中立性を持つ男女の知識を含むバイアスを受けることができる。
本稿では,複数の学習ロール設定に基づくジェンダー格差を緩和するための新しいアプローチを提案する。
男女極性言語を減少させるモデルは、公平さや下流の分類を改善しない。
論文 参考訳(メタデータ) (2022-03-23T17:34:35Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。