論文の概要: Can Prompt Probe Pretrained Language Models? Understanding the Invisible
Risks from a Causal View
- arxiv url: http://arxiv.org/abs/2203.12258v1
- Date: Wed, 23 Mar 2022 08:10:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 02:15:36.920764
- Title: Can Prompt Probe Pretrained Language Models? Understanding the Invisible
Risks from a Causal View
- Title(参考訳): Promptは事前訓練された言語モデルを証明できるか?
因果的視点から見えないリスクを理解する
- Authors: Boxi Cao, Hongyu Lin, Xianpei Han, Fangchao Liu, Le Sun
- Abstract要約: プリトレーニング言語モデル(PLM)の能力を評価するために,プロンプトに基づく探索が広く用いられている。
本稿では、因果的観点からの素早い探索を考察し、偏りのある結果と結論を誘導する3つの重要なバイアスを強調し、因果的介入による偏りの回避を提案する。
- 参考スコア(独自算出の注目度): 37.625078897220305
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prompt-based probing has been widely used in evaluating the abilities of
pretrained language models (PLMs). Unfortunately, recent studies have
discovered such an evaluation may be inaccurate, inconsistent and unreliable.
Furthermore, the lack of understanding its inner workings, combined with its
wide applicability, has the potential to lead to unforeseen risks for
evaluating and applying PLMs in real-world applications. To discover,
understand and quantify the risks, this paper investigates the prompt-based
probing from a causal view, highlights three critical biases which could induce
biased results and conclusions, and proposes to conduct debiasing via causal
intervention. This paper provides valuable insights for the design of unbiased
datasets, better probing frameworks and more reliable evaluations of pretrained
language models. Furthermore, our conclusions also echo that we need to rethink
the criteria for identifying better pretrained language models. We openly
released the source code and data at https://github.com/c-box/causalEval.
- Abstract(参考訳): プロンプトベースのプローブは、プリトレーニング言語モデル(plm)の能力を評価するために広く使われている。
残念なことに、最近の研究では、そのような評価は不正確であり、矛盾し、信頼できない可能性がある。
さらに、内部動作の理解の欠如と幅広い適用性が相まって、実世界のアプリケーションにおけるplmの評価と適用に関する予期せぬリスクにつながる可能性がある。
リスクを発見し, 理解し, 定量化するため, 因果的考察から, バイアスのある結果や結論を導出できる3つの重要なバイアスに着目し, 因果的介入によるデバイアスの実施を提案する。
本稿では、不偏データセットの設計、より良い探索フレームワーク、事前学習された言語モデルのより信頼性の高い評価に関する貴重な洞察を提供する。
さらに、より優れた事前学習された言語モデルを特定するための基準を再考する必要があると結論付けている。
ソースコードとデータはhttps://github.com/c-box/causalEval.comで公開しました。
関連論文リスト
- Evaluating language models as risk scores [23.779329697527054]
我々は,予測不可能なタスクのリスクスコアとして,言語モデルの利用に焦点をあてる。
大規模言語モデルを用いてリスクスコアを体系的に生成するソフトウェアパッケージであるフォークテキストを導入する。
近年の16大言語モデルに関する実証的な知見を網羅して,民話の有用性を実証する。
論文 参考訳(メタデータ) (2024-07-19T18:13:37Z) - PRobELM: Plausibility Ranking Evaluation for Language Models [12.057770969325453]
PRobELM(PRobELM)は、言語モデルがパラメトリック知識を通じてより妥当なシナリオを識別する能力を評価するために設計されたベンチマークである。
我々のベンチマークは、Wikidata編集履歴から算出したデータセットから構築され、評価されたモデルに対するトレーニングデータの時間的境界を整列するように調整されている。
論文 参考訳(メタデータ) (2024-04-04T21:57:11Z) - GPTBIAS: A Comprehensive Framework for Evaluating Bias in Large Language
Models [83.30078426829627]
大規模言語モデル(LLM)は人気を集め、大規模なユーザコミュニティで広く採用されている。
既存の評価手法には多くの制約があり、それらの結果は限定的な解釈可能性を示している。
本稿では,LPMの高性能性を活用し,モデル内のバイアスを評価するGPTBIASというバイアス評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-11T12:02:14Z) - Fairness-guided Few-shot Prompting for Large Language Models [93.05624064699965]
インコンテキスト学習は、トレーニング例、例えば順、プロンプトフォーマットのバリエーションによって、高い不安定性に悩まされる可能性がある。
ラベルや属性に対する固定的なプロンプトの予測バイアスを評価するための指標を導入する。
そこで本研究では,テキスト内学習の性能向上のための最寄りのプロンプトを特定するための,欲求探索に基づく新しい探索手法を提案する。
論文 参考訳(メタデータ) (2023-03-23T12:28:25Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Evaluate Confidence Instead of Perplexity for Zero-shot Commonsense
Reasoning [85.1541170468617]
本稿では,コモンセンス推論の性質を再考し,新しいコモンセンス推論尺度であるNon-Replacement Confidence(NRC)を提案する。
提案手法は,2つのコモンセンス推論ベンチマークデータセットと,さらに7つのコモンセンス質問応答データセットに対してゼロショット性能を向上する。
論文 参考訳(メタデータ) (2022-08-23T14:42:14Z) - CausaLM: Causal Model Explanation Through Counterfactual Language Models [33.29636213961804]
CausaLMは、対実言語表現モデルを用いた因果モデル説明を作成するためのフレームワークである。
本稿では,BERT のような言語表現モデルが,ある意味ある概念に対する対実表現を効果的に学習できることを示す。
本手法の副産物は,テストされた概念の影響を受けない言語表現モデルである。
論文 参考訳(メタデータ) (2020-05-27T15:06:35Z) - Showing Your Work Doesn't Always Work [73.63200097493576]
『Show Your Work: Improved Reporting of Experimental Results』では、最高の学習モデルの有効性を報告している。
解析的にそれらの推定器は偏りがあり、エラーを起こしやすい仮定を用いていることを示す。
我々は、偏見のない代替案を導き、統計的シミュレーションから経験的な証拠で主張を裏付ける。
論文 参考訳(メタデータ) (2020-04-28T17:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。