論文の概要: ChatGPT as a Text Simplification Tool to Remove Bias
- arxiv url: http://arxiv.org/abs/2305.06166v2
- Date: Thu, 1 Jun 2023 09:45:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 23:24:41.093215
- Title: ChatGPT as a Text Simplification Tool to Remove Bias
- Title(参考訳): chatgptはバイアスを取り除くためのテキスト簡易化ツール
- Authors: Charmaine Barker and Dimitar Kazakov
- Abstract要約: 特定のサブグループに特有の言語信号の存在は、訓練中に言語モデルによって拾うことができる。
テキストの簡易化という形でバイアス緩和の可能性を探る。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The presence of specific linguistic signals particular to a certain sub-group
of people can be picked up by language models during training. If the model
begins to associate specific language with a distinct group, any decisions made
based upon this language would hold a strong correlation to a decision based
upon their protected characteristic, leading to possible discrimination. We
explore a potential technique for bias mitigation in the form of simplification
of text. The driving force of this idea is that simplifying text should
standardise language between different sub-groups to one way of speaking while
keeping the same meaning. The experiment shows promising results as the
classifier accuracy for predicting the sensitive attribute drops by up to 17%
for the simplified data.
- Abstract(参考訳): 特定のサブグループに特有の特定の言語信号の存在は、訓練中に言語モデルによって拾うことができる。
モデルが特定の言語を別のグループに関連付け始めると、この言語に基づく決定は、その保護された特徴に基づく決定と強い相関関係を持ち、差別につながる可能性がある。
テキストの簡易化という形でバイアス緩和の可能性を探る。
この考え方の原動力は、テキストを単純化することで、異なるサブグループ間の言語を同じ意味を維持しながら、一つの話し方へと標準化すべきである。
この実験は, 簡易データに対して, 感度特性を最大17%低下させる分類器の精度として有望な結果を示した。
関連論文リスト
- Reliable Detection and Quantification of Selective Forces in Language
Change [3.55026004901472]
我々は,最近導入された手法をコーパスデータに適用し,歴史的言語変化の特定の事例における選択の強さを定量化する。
本手法は,従来適用されてきた類似手法よりも信頼性が高く,解釈可能であることを示す。
論文 参考訳(メタデータ) (2023-05-25T10:20:15Z) - CCPrefix: Counterfactual Contrastive Prefix-Tuning for Many-Class
Classification [57.62886091828512]
多クラス分類のための新しいプレフィックスチューニング手法であるCCPrefixを提案する。
基本的に、ラベル空間における実数対から派生したインスタンス依存の軟式接頭辞は、多クラス分類における言語動詞化を補完するために利用される。
論文 参考訳(メタデータ) (2022-11-11T03:45:59Z) - Natural Language Inference Prompts for Zero-shot Emotion Classification
in Text across Corpora [11.986676998327864]
特定のプロンプトの定式化の選択はコーパスに適合する必要があることを示す。
この課題は複数のプロンプトの組み合わせで対処可能であることを示す。
論文 参考訳(メタデータ) (2022-09-14T15:07:36Z) - Challenges in Measuring Bias via Open-Ended Language Generation [1.5552869983952944]
我々は、プロンプトセット、メトリクス、自動ツール、サンプリング戦略の特定の選択がバイアス結果にどのように影響するかを分析する。
オープンな言語生成におけるバイアスを報告するためのレコメンデーションを提供する。
論文 参考訳(メタデータ) (2022-05-23T19:57:15Z) - Polling Latent Opinions: A Method for Computational Sociolinguistics
Using Transformer Language Models [4.874780144224057]
我々は,Yelp レビューのより大きなコーパス内で,トランスフォーマー言語モデルの記憶と外挿の能力を用いて,サブグループの言語的振る舞いを学習する。
トレーニングコーパスに特定のキーワードが制限されたり、全く存在しない場合においても、GPTは正しい感情を持つ大量のテキストを正確に生成できることを示す。
論文 参考訳(メタデータ) (2022-04-15T14:33:58Z) - Typical Decoding for Natural Language Generation [76.69397802617064]
本稿は,高確率テキストが退屈あるいは反復的である理由について考察する。
典型的なサンプリングでは,品質面での競争性能が期待できる。
論文 参考訳(メタデータ) (2022-02-01T18:58:45Z) - Mitigating Biases in Toxic Language Detection through Invariant
Rationalization [70.36701068616367]
性別、人種、方言などの属性に対するバイアスは、毒性検出のためのほとんどのトレーニングデータセットに存在する。
本稿では,論理生成器と予測器から構成されるゲーム理論フレームワークである不変合理化(InvRat)を用いて,特定の構文パターンの素早い相関を除外することを提案する。
本手法は, 語彙属性と方言属性の両方において, 従来のデバイアス法よりも低い偽陽性率を示す。
論文 参考訳(メタデータ) (2021-06-14T08:49:52Z) - Leveraging Pre-trained Language Model for Speech Sentiment Analysis [58.78839114092951]
本研究では、事前学習された言語モデルを用いて、文章の感情情報を学習し、音声の感情分析を行う。
本稿では,言語モデルを用いた擬似ラベルに基づく半教師付き訓練戦略を提案する。
論文 参考訳(メタデータ) (2021-06-11T20:15:21Z) - Leveraging Adversarial Training in Self-Learning for Cross-Lingual Text
Classification [52.69730591919885]
本稿では,ラベル保存型入力摂動の最大損失を最小限に抑える半教師付き対向学習法を提案する。
多様な言語群に対する文書分類と意図分類において,有効性が著しく向上するのを観察する。
論文 参考訳(メタデータ) (2020-07-29T19:38:35Z) - On the Importance of Word Order Information in Cross-lingual Sequence
Labeling [80.65425412067464]
ソース言語の単語順に適合する言語間モデルでは、ターゲット言語を処理できない可能性がある。
本研究では,ソース言語の単語順序に敏感なモデルを作成することで,対象言語の適応性能が向上するかどうかを検討する。
論文 参考訳(メタデータ) (2020-01-30T03:35:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。