論文の概要: Inducing Group Fairness in Prompt-Based Language Model Decisions
- arxiv url: http://arxiv.org/abs/2406.16738v2
- Date: Mon, 02 Dec 2024 18:27:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-03 16:57:12.244534
- Title: Inducing Group Fairness in Prompt-Based Language Model Decisions
- Title(参考訳): プロンプトに基づく言語モデル決定におけるグループフェアネスの誘導
- Authors: James Atwood, Nino Scherrer, Preethi Lahoti, Ananth Balashankar, Flavien Prost, Ahmad Beirami,
- Abstract要約: 新たなプロンプトベース言語モデル(LM)決定は、分類タスクを解く新しい機会を生み出した。
LMベースの意思決定者にとって「修復ツールキット」は不完全であり、意思決定者グループフェアネスを改善する方法についてはほとんど理解されていない。
- 参考スコア(独自算出の注目度): 12.964746511263833
- License:
- Abstract: Classifiers are used throughout industry to enforce policies, ranging from the detection of toxic content to age-appropriate content filtering. While these classifiers serve important functions, it is also essential that they are built in ways that minimize unfair biases for users. One such fairness consideration is called group fairness, which desires that different sub-population of users receive equal treatment. This is a well-studied problem in the context of 'classical' classifiers. However, the emergence of prompt-based language model (LM) decision making has created new opportunities to solve text-based classification tasks, and the fairness properties of these new classifiers are not yet well understood. Further, the `remediation toolkit' is incomplete for LM-based decision makers and little is understood about how to improve decision maker group fairness while maintaining classifier performance. This work sets out to add more tools to that toolbox. We introduce adaptations of existing effective approaches from the classical classifier fairness to the prompt-based classifier space. We also devise simple methods that take advantage of the new structure of prompt-based decision makers and operate at the prompt level. We compare these approaches empirically on real data. Our results suggest that adaptations of approaches that are effective for classical classifiers remain effective in the LM-based classifier environment. However, there is room for further exploration of prompt-based remediation methods (and other remediation methods that take advantage of LM structure).
- Abstract(参考訳): 分類器は業界全体で、有害なコンテンツの検出から年齢に応じたコンテンツフィルタリングまで、ポリシーを強制するために使用されている。
これらの分類器は重要な機能を提供しているが、ユーザにとって不公平なバイアスを最小限に抑える方法で構築されることも不可欠である。
このような公平さを考慮に入れているのがグループフェアネス(group fairness)であり、これは利用者の異なるサブ集団が平等に扱われることを望んでいる。
これは'古典'分類器の文脈におけるよく研究された問題である。
しかし、プロンプトベース言語モデル(LM)決定の出現は、テキストベースの分類タスクを解く新たな機会を生み出しており、これらの新しい分類器の公平性はまだよく理解されていない。
さらに、「修復ツールキット」はLMベースの意思決定者にとって不完全であり、分類器の性能を維持しながら意思決定者グループフェアネスを改善する方法についてはほとんど理解されていない。
この作業は、ツールボックスにより多くのツールを追加することを目的としている。
古典的分類器フェアネスからプロンプトベースの分類器空間への既存の効果的なアプローチの適応を導入する。
また,プロンプトベースの意思決定者の新たな構造を生かしたシンプルな手法を考案し,プロンプトレベルでの運用を行う。
これらのアプローチを実データで実証的に比較する。
この結果から,古典的分類法に有効な手法の適応は,LMベースの分類法環境においても有効であることが示唆された。
しかし, 即時修復法(およびLM構造を利用した他の修復法)のさらなる検討の余地がある。
関連論文リスト
- Adaptive Margin Global Classifier for Exemplar-Free Class-Incremental Learning [3.4069627091757178]
既存の手法は主にバイアス学習を扱うことに焦点を当てている。
本研究では,データ不均衡やサンプリングといった既存手法のバイアス要因を回避するために,分散ベースグローバル(DBGC)を導入する。
さらに重要なのは、古いクラスの妥協された分布は、単純な操作、分散(VE)によってシミュレートされることだ。
この損失は、Adaptive Margin Softmax Cross Entropy (AMarX)と等価であることが証明されている。
論文 参考訳(メタデータ) (2024-09-20T07:07:23Z) - Learning Context-aware Classifier for Semantic Segmentation [88.88198210948426]
本稿では,文脈認識型分類器の学習を通じて文脈ヒントを利用する。
本手法はモデルに依存しないため,ジェネリックセグメンテーションモデルにも容易に適用できる。
無視できる追加パラメータと+2%の推論時間だけで、小型モデルと大型モデルの両方で十分な性能向上が達成されている。
論文 参考訳(メタデータ) (2023-03-21T07:00:35Z) - Open World Classification with Adaptive Negative Samples [89.2422451410507]
オープンワールド分類は、自然言語処理における重要な実践的妥当性と影響を伴う課題である。
そこで本研究では, アンダーライン適応型アンダーラインアンプ (ANS) に基づいて, 学習段階における効果的な合成オープンカテゴリサンプルを生成する手法を提案する。
ANSは最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-03-09T21:12:46Z) - Anomaly Detection using Ensemble Classification and Evidence Theory [62.997667081978825]
本稿では,アンサンブル分類とエビデンス理論を用いた新しい検出手法を提案する。
固体アンサンブル分類器を構築するためのプール選択戦略が提示される。
我々は異常検出手法の不確実性を利用する。
論文 参考訳(メタデータ) (2022-12-23T00:50:41Z) - Multiple Classifiers Based Maximum Classifier Discrepancy for
Unsupervised Domain Adaptation [25.114533037440896]
本稿では、2つの分類器の構造を複数の分類器に拡張し、その性能をさらに向上することを提案する。
平均的に、3つの分類器の構造を採用すると、精度と効率のトレードオフとして最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-02T03:00:13Z) - MCDAL: Maximum Classifier Discrepancy for Active Learning [74.73133545019877]
近年の最先端のアクティブラーニング手法は, 主にGAN(Generative Adversarial Networks)をサンプル取得に活用している。
本稿では,MCDAL(Maximum Discrepancy for Active Learning)と呼ぶ新しいアクティブラーニングフレームワークを提案する。
特に,両者の差分を最大化することにより,より厳密な決定境界を学習する2つの補助的分類層を利用する。
論文 参考訳(メタデータ) (2021-07-23T06:57:08Z) - Early Exiting with Ensemble Internal Classifiers [57.80488632985445]
早期退社はNLPコミュニティで注目を集めている。
本稿では,過去の全ての内部分類器の予測から正しいラベルを推測する投票方式を提案する。
様々なNLPタスクに対する実験結果から,提案した目的関数と投票に基づく戦略により,より精度の高いトレードオフが達成できることが示唆された。
論文 参考訳(メタデータ) (2021-05-28T12:54:11Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。