論文の概要: Inducing Group Fairness in LLM-Based Decisions
- arxiv url: http://arxiv.org/abs/2406.16738v1
- Date: Mon, 24 Jun 2024 15:45:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-25 14:15:21.801770
- Title: Inducing Group Fairness in LLM-Based Decisions
- Title(参考訳): LLMに基づく判定におけるグループフェアネスの誘導
- Authors: James Atwood, Preethi Lahoti, Ananth Balashankar, Flavien Prost, Ahmad Beirami,
- Abstract要約: Prompting Large Language Models (LLMs) におけるグループフェアネスは、よく研究されている問題である。
我々は、プロンプトベースの分類器が不公平な判断につながる可能性があることを示す。
いくつかの修復手法を導入し、公平さとパフォーマンスのトレードオフをベンチマークします。
- 参考スコア(独自算出の注目度): 12.368678951470162
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prompting Large Language Models (LLMs) has created new and interesting means for classifying textual data. While evaluating and remediating group fairness is a well-studied problem in classifier fairness literature, some classical approaches (e.g., regularization) do not carry over, and some new opportunities arise (e.g., prompt-based remediation). We measure fairness of LLM-based classifiers on a toxicity classification task, and empirically show that prompt-based classifiers may lead to unfair decisions. We introduce several remediation techniques and benchmark their fairness and performance trade-offs. We hope our work encourages more research on group fairness in LLM-based classifiers.
- Abstract(参考訳): Prompting Large Language Models (LLMs) は、テキストデータを分類する新しい、興味深い手段を生み出した。
群フェアネスの評価と更新は、分類器フェアネス文学においてよく研究されている問題であるが、古典的なアプローチ(例:正規化)は継続せず、いくつかの新しい機会(例:プロンプトベースの修復)が生じる。
毒性分類タスクにおけるLCMに基づく分類器の公平性を測定し,プロンプトに基づく分類器が不公平な判断につながることを実証的に示す。
いくつかの修復手法を導入し、公平さとパフォーマンスのトレードオフをベンチマークします。
LLMに基づく分類器におけるグループフェアネスの研究が促進されることを願っている。
関連論文リスト
- Adaptive Margin Global Classifier for Exemplar-Free Class-Incremental Learning [3.4069627091757178]
既存の手法は主にバイアス学習を扱うことに焦点を当てている。
本研究では,データ不均衡やサンプリングといった既存手法のバイアス要因を回避するために,分散ベースグローバル(DBGC)を導入する。
さらに重要なのは、古いクラスの妥協された分布は、単純な操作、分散(VE)によってシミュレートされることだ。
この損失は、Adaptive Margin Softmax Cross Entropy (AMarX)と等価であることが証明されている。
論文 参考訳(メタデータ) (2024-09-20T07:07:23Z) - Learning Context-aware Classifier for Semantic Segmentation [88.88198210948426]
本稿では,文脈認識型分類器の学習を通じて文脈ヒントを利用する。
本手法はモデルに依存しないため,ジェネリックセグメンテーションモデルにも容易に適用できる。
無視できる追加パラメータと+2%の推論時間だけで、小型モデルと大型モデルの両方で十分な性能向上が達成されている。
論文 参考訳(メタデータ) (2023-03-21T07:00:35Z) - Open World Classification with Adaptive Negative Samples [89.2422451410507]
オープンワールド分類は、自然言語処理における重要な実践的妥当性と影響を伴う課題である。
そこで本研究では, アンダーライン適応型アンダーラインアンプ (ANS) に基づいて, 学習段階における効果的な合成オープンカテゴリサンプルを生成する手法を提案する。
ANSは最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-03-09T21:12:46Z) - Anomaly Detection using Ensemble Classification and Evidence Theory [62.997667081978825]
本稿では,アンサンブル分類とエビデンス理論を用いた新しい検出手法を提案する。
固体アンサンブル分類器を構築するためのプール選択戦略が提示される。
我々は異常検出手法の不確実性を利用する。
論文 参考訳(メタデータ) (2022-12-23T00:50:41Z) - Multiple Classifiers Based Maximum Classifier Discrepancy for
Unsupervised Domain Adaptation [25.114533037440896]
本稿では、2つの分類器の構造を複数の分類器に拡張し、その性能をさらに向上することを提案する。
平均的に、3つの分類器の構造を採用すると、精度と効率のトレードオフとして最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-02T03:00:13Z) - MCDAL: Maximum Classifier Discrepancy for Active Learning [74.73133545019877]
近年の最先端のアクティブラーニング手法は, 主にGAN(Generative Adversarial Networks)をサンプル取得に活用している。
本稿では,MCDAL(Maximum Discrepancy for Active Learning)と呼ぶ新しいアクティブラーニングフレームワークを提案する。
特に,両者の差分を最大化することにより,より厳密な決定境界を学習する2つの補助的分類層を利用する。
論文 参考訳(メタデータ) (2021-07-23T06:57:08Z) - Early Exiting with Ensemble Internal Classifiers [57.80488632985445]
早期退社はNLPコミュニティで注目を集めている。
本稿では,過去の全ての内部分類器の予測から正しいラベルを推測する投票方式を提案する。
様々なNLPタスクに対する実験結果から,提案した目的関数と投票に基づく戦略により,より精度の高いトレードオフが達成できることが示唆された。
論文 参考訳(メタデータ) (2021-05-28T12:54:11Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。