論文の概要: Why Don't Prompt-Based Fairness Metrics Correlate?
- arxiv url: http://arxiv.org/abs/2406.05918v1
- Date: Sun, 9 Jun 2024 21:12:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-11 15:25:59.288582
- Title: Why Don't Prompt-Based Fairness Metrics Correlate?
- Title(参考訳): なぜプロンプトベースのフェアネスメトリクスが相関しないのか?
- Authors: Abdelrahman Zayed, Goncalo Mordido, Ioana Baldini, Sarath Chandar,
- Abstract要約: 相関によって測定したように,プロンプトベースの公正度測定値の一致性は低かった。
本研究では,CAIRO(Correlated Fairness Output)と呼ばれる手法を提案する。
- 参考スコア(独自算出の注目度): 12.65065211940792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The widespread use of large language models has brought up essential questions about the potential biases these models might learn. This led to the development of several metrics aimed at evaluating and mitigating these biases. In this paper, we first demonstrate that prompt-based fairness metrics exhibit poor agreement, as measured by correlation, raising important questions about the reliability of fairness assessment using prompts. Then, we outline six relevant reasons why such a low correlation is observed across existing metrics. Based on these insights, we propose a method called Correlated Fairness Output (CAIRO) to enhance the correlation between fairness metrics. CAIRO augments the original prompts of a given fairness metric by using several pre-trained language models and then selects the combination of the augmented prompts that achieves the highest correlation across metrics. We show a significant improvement in Pearson correlation from 0.3 and 0.18 to 0.90 and 0.98 across metrics for gender and religion biases, respectively. Our code is available at https://github.com/chandar-lab/CAIRO.
- Abstract(参考訳): 大規模言語モデルの普及により、これらのモデルが学習する可能性のあるバイアスについて、重要な疑問が持ち上がっている。
このことが、これらのバイアスを評価し緩和することを目的としたいくつかのメトリクスの開発につながった。
本稿では,まず,プロンプトを用いたフェアネス評価の信頼性に関する重要な疑問を提起し,相関によって測定されるように,プロンプトに基づくフェアネス評価が不一致を示すことを示す。
そして、そのような相関が既存のメトリクスで観測される6つの関連する理由を概説する。
そこで本研究では,CAIRO(Correlated Fairness Output)と呼ばれる手法を提案する。
CAIROは、事前訓練された言語モデルを使用することで、与えられた公正度メトリックの元々のプロンプトを強化し、その後、メトリクス間の最も高い相関を達成する拡張プロンプトの組み合わせを選択する。
我々は,ジェンダーと宗教の偏見の指標から,ピアソンの相関関係を0.3と0.18から0.90と0.98に大きく改善した。
私たちのコードはhttps://github.com/chandar-lab/CAIRO.comで公開されています。
関連論文リスト
- FamiCom: Further Demystifying Prompts for Language Models with Task-Agnostic Performance Estimation [73.454943870226]
言語モデルは、コンテキスト内学習能力に優れています。
本稿では,タスク非依存のパフォーマンス推定のためのより包括的な尺度であるFamiComを提案する。
論文 参考訳(メタデータ) (2024-06-17T06:14:55Z) - Cobra Effect in Reference-Free Image Captioning Metrics [58.438648377314436]
視覚言語事前学習モデル(VLM)を活用した参照フリー手法の普及が出現している。
本稿では,基準自由度に欠陥があるかどうかを考察する。
GPT-4Vは生成した文を評価するための評価ツールであり,提案手法がSOTA(State-of-the-art)の性能を達成することを示す。
論文 参考訳(メタデータ) (2024-02-18T12:36:23Z) - Towards Multiple References Era -- Addressing Data Leakage and Limited
Reference Diversity in NLG Evaluation [55.92852268168816]
BLEUやchrFのようなN-gramマッチングに基づく評価指標は、自然言語生成(NLG)タスクで広く利用されている。
近年の研究では、これらのマッチングベースの指標と人間の評価との間には弱い相関関係が示されている。
本稿では,これらの指標と人的評価の整合性を高めるために,テキストマルチプル参照を利用することを提案する。
論文 参考訳(メタデータ) (2023-08-06T14:49:26Z) - Flatness-Aware Prompt Selection Improves Accuracy and Sample Efficiency [26.829610705207955]
本稿では,言語プロンプトの期待される有用性を定量化する新しい指標であるプロンプト平坦性を導入する。
既存の指標と即時平坦性を組み合わせることで、性能とサンプル効率が向上することを示す。
論文 参考訳(メタデータ) (2023-05-18T05:17:57Z) - A Study on the Evaluation of Generative Models [19.18642459565609]
潜在的生成モデルは、確率値を返さないが、近年は普及している。
本研究では,高品質な合成データセットの生成による生成モデルの評価指標について検討する。
FIDとISはいくつかのf-divergensと相関するが、クローズドモデルのランクは様々である。
論文 参考訳(メタデータ) (2022-06-22T09:27:31Z) - On the Intrinsic and Extrinsic Fairness Evaluation Metrics for
Contextualized Language Representations [74.70957445600936]
様々な自然言語処理タスクの公平度を測定するために、複数のメトリクスが導入された。
これらの指標は,(1)下流アプリケーションにおけるフェアネスを評価する遠因性指標と,(2)上流言語表現モデルにおけるフェアネスを推定する遠因性指標の2つのカテゴリに大別することができる。
論文 参考訳(メタデータ) (2022-03-25T22:17:43Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Measuring Fairness with Biased Rulers: A Survey on Quantifying Biases in
Pretrained Language Models [2.567384209291337]
自然言語処理資源における偏見パターンの認識の高まりは、偏見と公平さを定量化するために多くの指標を動機付けてきた」。
本稿では,事前訓練された言語モデルの公平度指標に関する既存の文献を調査し,互換性を実験的に評価する。
その結果、多くの指標は互換性がなく、(i)テンプレート、(ii)属性とターゲット種子、(iii)埋め込みの選択に強く依存していることがわかった。
論文 参考訳(メタデータ) (2021-12-14T15:04:56Z) - REAM$\sharp$: An Enhancement Approach to Reference-based Evaluation
Metrics for Open-domain Dialog Generation [63.46331073232526]
オープンドメイン対話システムにおける参照ベースのEvAluation Metricsの拡張手法を提案する。
予測モデルは、与えられた基準セットの信頼性を推定するように設計されている。
本稿では,その予測結果が参照集合の増大にどのように役立つかを示し,測定値の信頼性を向上させる。
論文 参考訳(メタデータ) (2021-05-30T10:04:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。