論文の概要: How BERT Speaks Shakespearean English? Evaluating Historical Bias in
Contextual Language Models
- arxiv url: http://arxiv.org/abs/2402.05034v1
- Date: Wed, 7 Feb 2024 17:07:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 14:12:46.415468
- Title: How BERT Speaks Shakespearean English? Evaluating Historical Bias in
Contextual Language Models
- Title(参考訳): バートはシェイクスピア英語をどう話すか?
文脈言語モデルにおける歴史的バイアスの評価
- Authors: Miriam Cuscito, Alfio Ferrara, Martin Ruskov
- Abstract要約: 本研究では,現代英語(EME)と現代英語(ME)に関して,BERTに基づく文脈言語モデルの歴史的バイアスを分析した。
両言語間の5点バイポーラ尺度に基づいてモデル予測を評価し、重み付けスコアを導出し、各モデルの妥当性を英語のEMEとMEに測定する。
- 参考スコア(独自算出の注目度): 2.7336271737474083
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we explore the idea of analysing the historical bias of
contextual language models based on BERT by measuring their adequacy with
respect to Early Modern (EME) and Modern (ME) English. In our preliminary
experiments, we perform fill-in-the-blank tests with 60 masked sentences (20
EME-specific, 20 ME-specific and 20 generic) and three different models (i.e.,
BERT Base, MacBERTh, English HLM). We then rate the model predictions according
to a 5-point bipolar scale between the two language varieties and derive a
weighted score to measure the adequacy of each model to EME and ME varieties of
English.
- Abstract(参考訳): 本稿では,近世英語 (eme) と現代英語 (me) について,その妥当性を計測することで,bert に基づく文脈言語モデルの歴史的バイアスを分析する方法を検討する。
予備実験では,60のマスキング文(EME特20、ME特20、ジェネリック20)と3つの異なるモデル(BERT Base, MacBERTh, English HLM)を用いて補充試験を行った。
次に、2つの言語品種間の5点バイポーラスケールに基づいてモデル予測を評価し、重み付けスコアを導出し、各モデルの妥当性を英語のEMEとMEに測定する。
関連論文リスト
- HYBRINFOX at CheckThat! 2024 -- Task 2: Enriching BERT Models with the Expert System VAGO for Subjectivity Detection [0.8083061106940517]
HYBRINFOX法は評価データからマクロF1スコア0.7442で1位にランク付けした。
本稿では,我々のハイブリッドアプローチの原理を説明し,その手法を英語以外の言語にも適用する方法を概説する。
論文 参考訳(メタデータ) (2024-07-04T09:29:19Z) - Multilingual E5 Text Embeddings: A Technical Report [63.503320030117145]
異なるサイズの3つの埋め込みモデルを提供し、推論効率と埋め込み品質のバランスを提供する。
そこで我々は,新しい命令調整型埋め込みモデルを導入し,その性能は類似サイズの最先端の英語のみのモデルと同等である。
論文 参考訳(メタデータ) (2024-02-08T13:47:50Z) - A Predictive Model of Digital Information Engagement: Forecasting User
Engagement With English Words by Incorporating Cognitive Biases,
Computational Linguistics and Natural Language Processing [3.09766013093045]
本研究は,デジタル情報エンゲージメント(IE)の新しい予測モデルの導入と実証実験である。
READモデルは、重要な認知バイアスを計算言語学や自然言語処理と統合し、情報のエンゲージメントに関する多次元的視点を開発する。
READモデルの可能性は、ビジネス、教育、政府、医療など、さまざまな領域に及んでいる。
論文 参考訳(メタデータ) (2023-07-26T20:58:47Z) - Disco-Bench: A Discourse-Aware Evaluation Benchmark for Language
Modelling [70.23876429382969]
本研究では,多種多様なNLPタスクに対して,文内談話特性を評価できるベンチマークを提案する。
ディスコ・ベンチは文学領域における9つの文書レベルのテストセットから構成されており、豊富な談話現象を含んでいる。
また,言語分析のために,対象モデルが談話知識を学習するかどうかを検証できる診断テストスイートを設計する。
論文 参考訳(メタデータ) (2023-07-16T15:18:25Z) - Scaling Laws for Generative Mixed-Modal Language Models [103.25737824352949]
個別のモダリティの貢献とそれら間の相互作用を統一する混合モードスケーリング法則について報告する。
具体的には、過去のユニモーダルスケーリング法則に対する加算項として、データとモデルサイズによる最適シナジーと競合を明示的にモデル化する。
また,訓練中に観察される4つの経験的現象,例えば,自然にモダリティを交互に交互に行う創発的コーディネート・アセット・スタイル・トレーニングを見出した。
論文 参考訳(メタデータ) (2023-01-10T00:20:06Z) - An Analysis of Social Biases Present in BERT Variants Across Multiple
Languages [0.0]
多様な言語からなる単言語BERTモデルにおけるバイアスについて検討する。
文の擬似類似度に基づいて,任意のバイアスを測定するテンプレートベースの手法を提案する。
偏見探索の現在の手法は言語に依存していると結論付けている。
論文 参考訳(メタデータ) (2022-11-25T23:38:08Z) - M-SpeechCLIP: Leveraging Large-Scale, Pre-Trained Models for
Multilingual Speech to Image Retrieval [56.49878599920353]
本研究は,多言語画像音声検索におけるCLIPとHuBERTの大規模,英語のみの事前学習モデル(CLIPとHuBERT)の利用について検討する。
非英語画像音声検索では、各言語毎に個別のモデルを訓練する場合と、3言語すべてで音声を処理する1つのモデルの両方において、最先端のパフォーマンスを幅広いマージンで上回ります。
論文 参考訳(メタデータ) (2022-11-02T14:54:45Z) - Bias at a Second Glance: A Deep Dive into Bias for German Educational
Peer-Review Data Modeling [10.080007569933331]
我々は5年間で9,165人のドイツのピアレビューのコーパスで、テキストと複数のアーキテクチャ間のバイアスを分析します。
収集したコーパスは, 共起解析やGloVe埋め込みにおいて多くのバイアスを示さない。
事前訓練されたドイツの言語モデルは、実質的な概念的、人種的、性別的偏見を見出す。
論文 参考訳(メタデータ) (2022-09-21T13:08:16Z) - Unifying Language Learning Paradigms [96.35981503087567]
データセットやセットアップ全体にわたって普遍的に有効である事前学習モデルのための統一的なフレームワークを提案する。
本研究では, 事前学習対象を相互に配置し, 異なる対象間の補間を効果的に行う方法を示す。
また,テキスト内学習において,ゼロショットSuperGLUEで175B GPT-3,ワンショット要約でT5-XXLの性能を3倍に向上させた。
論文 参考訳(メタデータ) (2022-05-10T19:32:20Z) - Towards Making the Most of Context in Neural Machine Translation [112.9845226123306]
我々は、これまでの研究がグローバルな文脈をはっきりと利用しなかったと論じている。
本研究では,各文の局所的文脈を意図的にモデル化する文書レベルNMTフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T03:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。