論文の概要: ChatGPT Based Data Augmentation for Improved Parameter-Efficient
Debiasing of LLMs
- arxiv url: http://arxiv.org/abs/2402.11764v1
- Date: Mon, 19 Feb 2024 01:28:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 18:53:47.914272
- Title: ChatGPT Based Data Augmentation for Improved Parameter-Efficient
Debiasing of LLMs
- Title(参考訳): LLMのパラメータ効率向上のためのChatGPTに基づくデータ拡張
- Authors: Pengrui Han, Rafal Kocielnik, Adhithya Saravanan, Roy Jiang, Or
Sharir, Anima Anandkumar
- Abstract要約: 大型言語モデル(LLM)は有害な社会的バイアスを示す。
そこで本研究では,ChatGPTを用いて合成学習データを生成する手法を提案する。
- 参考スコア(独自算出の注目度): 69.27030571729392
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language models (LLMs), while powerful, exhibit harmful social biases.
Debiasing is often challenging due to computational costs, data constraints,
and potential degradation of multi-task language capabilities. This work
introduces a novel approach utilizing ChatGPT to generate synthetic training
data, aiming to enhance the debiasing of LLMs. We propose two strategies:
Targeted Prompting, which provides effective debiasing for known biases but
necessitates prior specification of bias in question; and General Prompting,
which, while slightly less effective, offers debiasing across various
categories. We leverage resource-efficient LLM debiasing using adapter tuning
and compare the effectiveness of our synthetic data to existing debiasing
datasets. Our results reveal that: (1) ChatGPT can efficiently produce
high-quality training data for debiasing other LLMs; (2) data produced via our
approach surpasses existing datasets in debiasing performance while also
preserving internal knowledge of a pre-trained LLM; and (3) synthetic data
exhibits generalizability across categories, effectively mitigating various
biases, including intersectional ones. These findings underscore the potential
of synthetic data in advancing the fairness of LLMs with minimal retraining
cost.
- Abstract(参考訳): 大きな言語モデル(LLM)は強力だが、有害な社会的バイアスを示す。
遅延は計算コスト、データ制約、マルチタスク言語能力の潜在的な劣化のためにしばしば困難である。
本研究は, 合成学習データの生成にChatGPTを用いた新しい手法を導入し, LLMの劣化の促進を目的とした。
我々は、既知のバイアスに対して効果的なデバイアスを提供するが、問題のバイアスの事前指定を必要とするターゲットプロンプトと、いくつかのカテゴリでデバイアスを提供する一般的なプロンプトの2つの戦略を提案する。
アダプタチューニングを用いたリソース効率の高いllmデバイアスを活用し,既存のデバイアスデータセットと合成データの有効性を比較した。
以上の結果から,(1)ChatGPTは,他のLSMを劣化させるための高品質なトレーニングデータを効率よく生成することができること,(2)既存のLCMの内部知識を保ちながら,デバイアス性能のデータセットを超越したデータが得られること,(3)合成データはカテゴリ間での一般化性を示し,交叉性を含む様々なバイアスを効果的に軽減できることを示した。
これらの結果は,LLMの公正性を最小再トレーニングコストで推し進める上での合成データの可能性を裏付けるものである。
関連論文リスト
- Mitigating Catastrophic Forgetting in Large Language Models with
Self-Synthesized Rehearsal [51.36134981232229]
大規模言語モデル(LLM)は、連続学習中に破滅的な忘れ込みに悩まされる。
自己合成リハーサル(Self-Synthesized Rehearsal, SSR)と呼ばれるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-02T16:11:23Z) - Learning Fair Ranking Policies via Differentiable Optimization of
Ordered Weighted Averages [55.04219793298687]
本稿では,学習からランクへの学習ループに,効率よく解ける公正ランキングモデルを組み込む方法について述べる。
特に,本論文は,OWA目標の制約された最適化を通じてバックプロパゲーションを行う方法を示す最初のものである。
論文 参考訳(メタデータ) (2024-02-07T20:53:53Z) - The Gaps between Pre-train and Downstream Settings in Bias Evaluation
and Debiasing [74.7319697510621]
In-Context Learning (ICL)は、FTベースのデバイアス法と比較して、PLMの変更を小さくする。
ICL-based debiasing method is a higher correlation between intrinsic and extrinsic bias scores than FT-based method。
論文 参考訳(メタデータ) (2024-01-16T17:15:08Z) - Self-Play Fine-Tuning Converts Weak Language Models to Strong Language
Models [56.84735912476625]
本稿では,SPIN(Self-Play fIne-tuNing)と呼ばれるファインチューニング手法を提案する。
SPINの中心には自己再生機構があり、LLMは自身のインスタンスと対戦することでその能力を洗練させる。
このことは、自己プレイの約束に光を当て、熟練した相手を必要とせずに、LSMにおける人間レベルのパフォーマンスの達成を可能にする。
論文 参考訳(メタデータ) (2024-01-02T18:53:13Z) - Zero-Shot Position Debiasing for Large Language Models [41.601823886414294]
大規模言語モデル(LLM)における位置バイアスを軽減するため,ゼロショット位置バイアス(ZOE)フレームワークを提案する。
ZOEは3種類の位置バイアスを緩和する既存の手法より一貫して優れている。
論文 参考訳(メタデータ) (2024-01-02T14:12:41Z) - Adapting LLMs for Efficient, Personalized Information Retrieval: Methods
and Implications [0.7832189413179361]
LLM(Large Language Models)は、人間に似たテキストの理解と生成に優れた言語モデルである。
本稿では,言語モデル(LLM)と情報検索(IR)システムの統合戦略について検討する。
論文 参考訳(メタデータ) (2023-11-21T02:01:01Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data
Selection for Instruction Tuning [54.222609226692015]
我々は大規模言語モデルのための自己誘導手法を導入し、大規模なオープンソースデータセットからサクラサンプルを自律的に識別し、選択する。
私たちの重要なイノベーションであるIFD(Instruction-Following Difficulty)メトリックは、モデルが期待する応答と自動生成技術との間の相違を識別するための重要なツールとして現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z) - Generating Data to Mitigate Spurious Correlations in Natural Language
Inference Datasets [27.562256973255728]
自然言語処理モデルはしばしば、タスクに依存しない特徴とデータセットのラベルの間の急激な相関を利用して、トレーニング対象のディストリビューション内でのみうまく機能する。
そこで本研究では, 脱バイアス化したデータセットを生成して, 脱バイアス化したオフザシェルフモデルをトレーニングする手法を提案する。
提案手法は,1)高品質なラベル一貫性のあるデータサンプルを生成するためのデータジェネレータの訓練方法,2)素粒子相関に寄与するデータ点を除去するフィルタリング機構から構成される。
論文 参考訳(メタデータ) (2022-03-24T09:08:05Z) - Data balancing for boosting performance of low-frequency classes in
Spoken Language Understanding [9.689893038619585]
本稿では,音声言語理解(SLU)アプリケーションにおけるデータ不均衡処理に関する最初の体系的研究について述べる。
既存のデータ分散手法をSLUに適用し、目的分類とスロットフィリングのためのマルチタスクSLUモデルを提案する。
実世界のデータセットを用いた結果から,本モデルでは,頭部意図に対する潜在的な性能低下を回避しつつ,低周波意図に対する性能を著しく向上させることができることが示唆された。
論文 参考訳(メタデータ) (2020-08-06T12:23:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。