論文の概要: A Trip Towards Fairness: Bias and De-Biasing in Large Language Models
- arxiv url: http://arxiv.org/abs/2305.13862v1
- Date: Tue, 23 May 2023 09:35:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 17:27:06.775056
- Title: A Trip Towards Fairness: Bias and De-Biasing in Large Language Models
- Title(参考訳): フェアネスに向けて:大規模言語モデルにおけるバイアスと非バイアス
- Authors: Leonardo Ranaldi, Elena Sofia Ruzzetti, Davide Venditti, Dario
Onorati, Fabio Massimo Zanzotto
- Abstract要約: トランスフォーマーベースのLanguage Modelsの人気が高まり、新しい機械学習アプリケーションへの扉が開かれた。
本稿では,様々なパラメータや事前学習データにおいて,有望な言語モデルが生み出すバイアスについて検討する。
本稿では,下流タスクの性能を維持する頑健なデバイアスモデルを生成するデバイアス手法を提案する。
- 参考スコア(独自算出の注目度): 0.20999222360659608
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An outbreak in the popularity of transformer-based Language Models (such as
GPT (Brown et al., 2020) and PaLM (Chowdhery et al., 2022)) has opened the
doors to new Machine Learning applications. In particular, in Natural Language
Processing and how pre-training from large text, corpora is essential in
achieving remarkable results in downstream tasks. However, these Language
Models seem to have inherent biases toward certain demographics reflected in
their training data. While research has attempted to mitigate this problem,
existing methods either fail to remove bias altogether, degrade performance, or
are expensive. This paper examines the bias produced by promising Language
Models when varying parameters and pre-training data. Finally, we propose a
de-biasing technique that produces robust de-bias models that maintain
performance on downstream tasks.
- Abstract(参考訳): トランスフォーマーベースの言語モデル(GPT(Brown et al., 2020)やPaLM(Chowdhery et al., 2022)など)の人気が高まり、新しい機械学習アプリケーションへの扉が開かれた。
特に、自然言語処理や大規模テキストからの事前学習において、コーパスは下流タスクで顕著な結果を達成するのに不可欠である。
しかし、これらの言語モデルは、訓練データに反映される特定の人口層に対して固有の偏見を持っているようである。
研究はこの問題を緩和しようとしたが、既存の手法ではバイアスを完全に取り除いたり、性能を低下させたり、費用がかかる。
本稿では,様々なパラメータや事前学習データにおいて,有望な言語モデルが生み出すバイアスについて検討する。
最後に,下流タスクのパフォーマンスを維持するロバストなデバイアスモデルを生成するデバイアス手法を提案する。
関連論文リスト
- Investigating Bias in LLM-Based Bias Detection: Disparities between LLMs and Human Perception [13.592532358127293]
大規模言語モデル(LLM)におけるバイアスの存在と性質について検討する。
LLMが特に政治的バイアス予測やテキスト継続タスクにおいてバイアスを示すかどうかを調査する。
我々は,素早い工学とモデル微調整を含む脱バイアス戦略を提案する。
論文 参考訳(メタデータ) (2024-03-22T00:59:48Z) - Multimodal Large Language Models to Support Real-World Fact-Checking [80.41047725487645]
MLLM(Multimodal large language model)は、膨大な情報処理において人間を支援する能力を持つ。
MLLMはすでにファクトチェックツールとして使用されていますが、その能力や制限については検討中です。
本稿では,現実のファクトチェックを容易にするために,現在のマルチモーダルモデルの能力を体系的に評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-06T11:32:41Z) - Perils of Self-Feedback: Self-Bias Amplifies in Large Language Models [79.5116305401044]
セルフフィードバックは、特定のタスクにおいて大きな言語モデル(LLM)を改善し、他のタスクを悪化させる。
近年の研究では、自己フィードバックは特定のタスクにおいて大きな言語モデル(LLM)を改善する一方で、他のタスクを悪化させることが示されている。
本稿は、LSMの自己バイアス(自称世代を好む傾向)を正式に定義する。
論文 参考訳(メタデータ) (2024-02-18T03:10:39Z) - Large Language Models are Geographically Biased [51.37609528538606]
我々は、地理のレンズを通して、我々の住む世界について、Large Language Models (LLM)が何を知っているかを研究する。
我々は,地理空間予測において,システム的誤りと定義する,様々な問題的地理的バイアスを示す。
論文 参考訳(メタデータ) (2024-02-05T02:32:09Z) - Self-Debiasing Large Language Models: Zero-Shot Recognition and
Reduction of Stereotypes [73.12947922129261]
ステレオタイピングを減らすために,大規模言語モデルのゼロショット機能を活用している。
自己嫌悪は、9つの異なる社会集団におけるステレオタイピングの度合いを著しく低下させることが示される。
この研究が、バイアス軽減のための他のゼロショット技術に関する調査をオープンにすることを願っている。
論文 参考訳(メタデータ) (2024-02-03T01:40:11Z) - GPTBIAS: A Comprehensive Framework for Evaluating Bias in Large Language
Models [83.30078426829627]
大規模言語モデル(LLM)は人気を集め、大規模なユーザコミュニティで広く採用されている。
既存の評価手法には多くの制約があり、それらの結果は限定的な解釈可能性を示している。
本稿では,LPMの高性能性を活用し,モデル内のバイアスを評価するGPTBIASというバイアス評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-11T12:02:14Z) - ROBBIE: Robust Bias Evaluation of Large Generative Language Models [27.864027322486375]
異なるプロンプトベースのデータセットを使用して、複数のテキストドメインと人口統計軸にわたる社会的バイアスを測定することができる。
我々は,12の人口動態軸と5のジェネレーションLLMの家系の6つの異なるプロンプトベースのバイアスと毒性の指標を比較した。
3つのバイアス/毒性の緩和技術が、我々の一連の測定においていかにうまく機能するかを包括的に研究する。
論文 参考訳(メタデータ) (2023-11-29T23:03:04Z) - Verbosity Bias in Preference Labeling by Large Language Models [10.242500241407466]
大規模言語モデル(LLM)の評価に伴うバイアスについて検討する。
冗長性バイアス( verbosity bias) -- LLM では,たとえ同じような品質を持つとしても,より冗長な回答を好む場合があります。
論文 参考訳(メタデータ) (2023-10-16T05:19:02Z) - The Unequal Opportunities of Large Language Models: Revealing
Demographic Bias through Job Recommendations [5.898806397015801]
大規模言語モデル(LLM)における人口統計バイアスの分析と比較のための簡易な手法を提案する。
本稿では,ChatGPTとLLaMAの交差バイアスを計測し,本手法の有効性を示す。
両モデルとも、メキシコ労働者の低賃金雇用を一貫して示唆するなど、さまざまな人口統計学的アイデンティティに対する偏見を識別する。
論文 参考訳(メタデータ) (2023-08-03T21:12:54Z) - Keeping Up with the Language Models: Robustness-Bias Interplay in NLI
Data and Models [31.88383035298383]
我々は, LM生成語彙変動, 逆フィルタリング, 人間の検証を組み合わせることで, 既存のNLIのバイアスベンチマークを拡張した。
BBNLI-nextは平均して、最先端のNLIモデルの精度を95.3%から58.6%に下げる。
本稿では,抗ステレオタイプバイアスとモデル脆度を考慮したバイアス対策を提案する。
論文 参考訳(メタデータ) (2023-05-22T01:02:45Z) - Few-shot Instruction Prompts for Pretrained Language Models to Detect
Social Biases [55.45617404586874]
我々は、事前訓練された言語モデル(LM)を誘導する数ショットの命令ベース手法を提案する。
大規模なLMは、微調整モデルとよく似た精度で、異なる種類の細粒度バイアスを検出できることを示す。
論文 参考訳(メタデータ) (2021-12-15T04:19:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。