論文の概要: Deep Learning for Bias Detection: From Inception to Deployment
- arxiv url: http://arxiv.org/abs/2110.15728v1
- Date: Tue, 12 Oct 2021 13:57:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-07 11:39:46.054719
- Title: Deep Learning for Bias Detection: From Inception to Deployment
- Title(参考訳): バイアス検出のためのディープラーニング: 開始から展開まで
- Authors: Md Abul Bashar, Richi Nayak, Anjor Kothare, Vishal Sharma, Kesavan
Kandadai
- Abstract要約: 企業コンテンツにおけるバイアスを自動的に識別するために,手動でタグ付けされた文書から学習するために,移動学習に基づく言語モデルを用いたディープラーニングモデルを提案する。
まず、ウィキペディアを用いてディープラーニングベースの言語モデルを事前学習し、それから様々な種類のエンタープライズコンテンツに関連する大きな未学習データセットでモデルを微調整する。
トレーニングされたモデルは、一般的なアプリケーションを保証するために、独立したデータセットで徹底的に評価される。
- 参考スコア(独自算出の注目度): 4.51073220028236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To create a more inclusive workplace, enterprises are actively investing in
identifying and eliminating unconscious bias (e.g., gender, race, age,
disability, elitism and religion) across their various functions. We propose a
deep learning model with a transfer learning based language model to learn from
manually tagged documents for automatically identifying bias in enterprise
content. We first pretrain a deep learning-based language-model using
Wikipedia, then fine tune the model with a large unlabelled data set related
with various types of enterprise content. Finally, a linear layer followed by
softmax layer is added at the end of the language model and the model is
trained on a labelled bias dataset consisting of enterprise content. The
trained model is thoroughly evaluated on independent datasets to ensure a
general application. We present the proposed method and its deployment detail
in a real-world application.
- Abstract(参考訳): より包括的な職場を作るために、企業は様々な機能に対する無意識の偏見(性別、人種、年齢、障害、エリート主義、宗教など)の特定と排除に積極的に投資している。
企業コンテンツのバイアスを自動的に識別するために,手作業でタグ付けされた文書から学習するための,トランスファー学習に基づく言語モデルを用いたディープラーニングモデルを提案する。
まず、ウィキペディアを用いてディープラーニングベースの言語モデルを事前学習し、それから様々な種類のエンタープライズコンテンツに関連する大きな未学習データセットでモデルを微調整する。
最後に、言語モデルの最後に線形層とソフトマックス層を追加し、エンタープライズコンテンツからなるラベル付きバイアスデータセットに基づいてモデルをトレーニングする。
トレーニングされたモデルは、一般的なアプリケーションを保証するために、独立したデータセットで徹底的に評価される。
提案手法とその展開の詳細を実世界のアプリケーションに提示する。
関連論文リスト
- Self-Regulated Data-Free Knowledge Amalgamation for Text Classification [9.169836450935724]
そこで我々は,複数の教師モデルから学習できる軽量な学生ネットワークを構築した。
そこで本研究では,各教師に適したテキストデータを生成するモデリングフレームワークSTRATANETを提案する。
本手法は,ラベルやドメインの異なる3つのベンチマークテキスト分類データセットを用いて評価する。
論文 参考訳(メタデータ) (2024-06-16T21:13:30Z) - Generative Active Learning for Image Synthesis Personalization [57.01364199734464]
本稿では,伝統的に識別モデルを用いて研究されてきた能動的学習の生成モデルへの応用について検討する。
生成モデル上でアクティブな学習を行う上での最大の課題は、クエリのオープンな性質にある。
問合せ処理を半開問題に変換するために,アンカー方向の概念を導入する。
論文 参考訳(メタデータ) (2024-03-22T06:45:45Z) - TOFU: A Task of Fictitious Unlearning for LLMs [99.92305790945507]
Webからの大量のコーパスに基づいてトレーニングされた大規模な言語モデルは、法的および倫理的懸念を提起する機密データやプライベートデータを再現することができる。
トレーニングデータに存在する情報を忘れるためにモデルをチューニングするアンラーニングは、トレーニング後のプライベートデータを保護する手段を提供する。
未学習の理解を深めるためのベンチマークであるTOFUを紹介する。
論文 参考訳(メタデータ) (2024-01-11T18:57:12Z) - From Supervised to Generative: A Novel Paradigm for Tabular Deep Learning with Large Language Models [18.219485459836285]
GTL(Generative Tabular Learning)は、大規模言語モデル(LLM)の高度な機能を統合する新しいフレームワークである。
我々の実証的研究は、GTLのスケーリングの振る舞いを厳格に分析し、384の公開データセットにまたがる。
GTL-LLaMA-2モデルは、多くの分類および回帰タスクにまたがる優れたゼロショットおよびインコンテキスト学習能力を示す。
論文 参考訳(メタデータ) (2023-10-11T09:37:38Z) - Cross-Lingual NER for Financial Transaction Data in Low-Resource
Languages [70.25418443146435]
半構造化テキストデータにおける言語間名前認識のための効率的なモデリングフレームワークを提案する。
我々は2つの独立したSMSデータセットを英語とアラビア語で使用し、それぞれが半構造化された銀行取引情報を持っている。
わずか30のラベル付きサンプルにアクセスすることで、我々のモデルは、英語からアラビア語までの商人、金額、その他の分野の認識を一般化することができる。
論文 参考訳(メタデータ) (2023-07-16T00:45:42Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Certifying Robustness to Programmable Data Bias in Decision Trees [12.060443368097102]
学習者が生成したモデルは、潜在的なデータセットバイアスに対してポイントワイズで損なわれていることを証明します。
このアプローチでは,さまざまな次元にまたがるバイアスモデルを指定することが可能です。
フェアネス文献でよく用いられるデータセットに対する我々のアプローチを評価する。
論文 参考訳(メタデータ) (2021-10-08T20:15:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。