論文の概要: DebIE: A Platform for Implicit and Explicit Debiasing of Word Embedding
Spaces
- arxiv url: http://arxiv.org/abs/2103.06598v1
- Date: Thu, 11 Mar 2021 10:55:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-13 05:08:08.140091
- Title: DebIE: A Platform for Implicit and Explicit Debiasing of Word Embedding
Spaces
- Title(参考訳): DebIE: 単語埋め込み空間の暗黙的および明示的なデバイアスのためのプラットフォーム
- Authors: Niklas Friedrich, Anne Lauscher, Simone Paolo Ponzetto and Goran
Glava\v{s}
- Abstract要約: DebIEは単語埋め込みにおけるバイアスの測定と緩和のための統合プラットフォームである。
Webアプリケーション(a)、デスクトップアプリケーション(b)、RESTフルAPI(c)、コマンドラインアプリケーション(d)の4つの異なるインターフェースを通じてアクセスすることができる。
- 参考スコア(独自算出の注目度): 12.395323315744625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent research efforts in NLP have demonstrated that distributional word
vector spaces often encode stereotypical human biases, such as racism and
sexism. With word representations ubiquitously used in NLP models and
pipelines, this raises ethical issues and jeopardizes the fairness of language
technologies. While there exists a large body of work on bias measures and
debiasing methods, to date, there is no platform that would unify these
research efforts and make bias measuring and debiasing of representation spaces
widely accessible. In this work, we present DebIE, the first integrated
platform for (1) measuring and (2) mitigating bias in word embeddings. Given an
(i) embedding space (users can choose between the predefined spaces or upload
their own) and (ii) a bias specification (users can choose between existing
bias specifications or create their own), DebIE can (1) compute several
measures of implicit and explicit bias and modify the embedding space by
executing two (mutually composable) debiasing models. DebIE's functionality can
be accessed through four different interfaces: (a) a web application, (b) a
desktop application, (c) a REST-ful API, and (d) as a command-line application.
DebIE is available at: debie.informatik.uni-mannheim.de.
- Abstract(参考訳): NLPの最近の研究は、分布ワードベクトル空間がしばしば人種差別や性差別などのステレオタイプの人間のバイアスを符号化することを実証している。
nlpモデルやパイプラインでユビキタスに使用される言葉表現は、倫理的な問題を引き起こし、言語技術の公平さを損なう。
バイアス測度とデバイアス法に関する大きな研究体は存在するが、これまでのところ、これらの研究を統一し、表現空間のバイアス測度とデバイアスを広くアクセス可能にするプラットフォームはない。
本稿では,(1)計測のための統合プラットフォームであるdebieと,(2)単語埋め込みにおけるバイアスの軽減について述べる。
i)埋め込み空間(ユーザが事前に定義された空間を選べるか、自分でアップロードするか)と(ii)バイアス仕様(ユーザが既存のバイアス仕様を選べるか、独自のバイアスを作成するか)が与えられた場合、debieは(1)暗黙的および明示的なバイアスのいくつかの尺度を計算し、2つの(変更可能な)デバイアスモデルを実行して埋め込み空間を変更することができる。
DebIEの機能は、(a)Webアプリケーション、(b)デスクトップアプリケーション、(c)RESTフルAPI、(d)コマンドラインアプリケーションという4つの異なるインターフェースを通じてアクセスすることができる。
DebIEはdebie.informatik.uni-mannheim.deで入手できる。
関連論文リスト
- Mitigating Gender Bias in Contextual Word Embeddings [1.208453901299241]
本稿では,コンテキスト埋め込みにおける性別バイアスを大幅に軽減する,リップスティック(マスケ・ランゲージ・モデリング)の新たな目的関数を提案する。
また, 静的な埋め込みを嫌悪する新しい手法を提案し, 広範囲な解析と実験による実証実験を行った。
論文 参考訳(メタデータ) (2024-11-18T21:36:44Z) - On Debiasing Text Embeddings Through Context Injection [0.0]
我々は,そのバイアスを定量化し,文脈注入にどう反応するかを定量化することにより,19種類の埋め込みモデルのレビューを行う。
より高いパフォーマンスモデルはバイアスを捉えやすいが、コンテキストを組み込むのが優れていることも示している。
検索タスクでは,埋め込みのバイアスが望ましくない結果をもたらすことを示す。
論文 参考訳(メタデータ) (2024-10-14T18:11:53Z) - GradBias: Unveiling Word Influence on Bias in Text-to-Image Generative Models [75.04426753720553]
開集合におけるバイアスを特定し,定量化し,説明するための枠組みを提案する。
このパイプラインはLarge Language Model (LLM)を活用して、一連のキャプションから始まるバイアスを提案する。
このフレームワークには、OpenBiasとGradBiasの2つのバリエーションがあります。
論文 参考訳(メタデータ) (2024-08-29T16:51:07Z) - From Prejudice to Parity: A New Approach to Debiasing Large Language Model Word Embeddings [2.9324535682810886]
DeepSoftDebiasは、ニューラルネットワークを使って'ソフトデバイアス'を実行するアルゴリズム
我々は、このアルゴリズムを様々なSOTAデータセット、精度メトリクス、難解なNLPタスクで徹底的に評価する。
DeepSoftDebiasは、性別、人種、宗教の偏見を減らし、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-02-18T08:53:41Z) - General Phrase Debiaser: Debiasing Masked Language Models at a
Multi-Token Level [12.014504621547765]
我々はtextbf General Phrase Debiaser と呼ばれる自動マルチトークンデバイアスパイプラインを提案する。
具体的には,ウィキペディアページからステレオタイプ句を生成するテキストフレーズフィルタのステージから構成する。
後者はモデルのバイアスをトリガーするプロンプトを検索し、デバイアスに使用する。
論文 参考訳(メタデータ) (2023-11-23T10:23:51Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Square One Bias in NLP: Towards a Multi-Dimensional Exploration of the
Research Manifold [88.83876819883653]
我々は、最近のNLP研究論文のマニュアル分類を通して、これが事実であることを示す。
NLP研究は正方形ではなく、精度だけでなく、公平性や解釈可能性にも焦点をあてる。
論文 参考訳(メタデータ) (2022-06-20T13:04:23Z) - Towards Robustifying NLI Models Against Lexical Dataset Biases [94.79704960296108]
本稿では、語彙的データセットバイアスに対するモデル強化のための、データレベルとモデルレベルのデバイアス法の両方について検討する。
まず、データ拡張と拡張によってデータセットをデバイアスするが、この方法でモデルバイアスを完全に除去することはできないことを示す。
第2のアプローチでは、バーオブワードのサブモデルを使用して、バイアスを悪用する可能性のある機能をキャプチャし、元のモデルがこれらのバイアス付き機能を学ぶのを防ぐ。
論文 参考訳(メタデータ) (2020-05-10T17:56:10Z) - Double-Hard Debias: Tailoring Word Embeddings for Gender Bias Mitigation [94.98656228690233]
本稿では,性別サブスペースの推測と削除に先立って,コーパス正規性に対する単語埋め込みを浄化する手法を提案する。
本手法は,事前学習した単語埋め込みの分布的意味を保ちつつ,性別バイアスを従来の手法よりもはるかに大きい程度に低減する。
論文 参考訳(メタデータ) (2020-05-03T02:33:20Z) - Joint Multiclass Debiasing of Word Embeddings [5.1135133995376085]
本稿では,複数のバイアス次元を同時に脱バイアスできる多クラス脱バイアス手法を提案する。
単語埋め込みにおけるベクトル間の有意義な関係を維持しながら、私たちの概念がバイアスを減らすか、あるいは完全に排除できることを示す。
論文 参考訳(メタデータ) (2020-03-09T22:06:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。