論文の概要: Should We Attend More or Less? Modulating Attention for Fairness
- arxiv url: http://arxiv.org/abs/2305.13088v1
- Date: Mon, 22 May 2023 14:54:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 15:16:33.523978
- Title: Should We Attend More or Less? Modulating Attention for Fairness
- Title(参考訳): より多くのことを行うべきか?
公平性に対する注意の変調
- Authors: Abdelrahman Zayed, Goncalo Mordido, Samira Shabanian, Sarath Chandar
- Abstract要約: 社会的バイアスの伝播において,現在最先端のNLPモデルにおいて広く用いられている手法である注意の役割について検討する。
トレーニング後のモデルフェアネスを改善するために,注目度を変調する新しい手法を提案する。
本結果から,テキスト分類や生成タスクにおいて,公平性の増加と性能損失の最小化が示唆された。
- 参考スコア(独自算出の注目度): 11.249410336982258
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The abundance of annotated data in natural language processing (NLP) poses
both opportunities and challenges. While it enables the development of
high-performing models for a variety of tasks, it also poses the risk of models
learning harmful biases from the data, such as gender stereotypes. In this
work, we investigate the role of attention, a widely-used technique in current
state-of-the-art NLP models, in the propagation of social biases. Specifically,
we study the relationship between the entropy of the attention distribution and
the model's performance and fairness. We then propose a novel method for
modulating attention weights to improve model fairness after training. Since
our method is only applied post-training and pre-inference, it is an
intra-processing method and is, therefore, less computationally expensive than
existing in-processing and pre-processing approaches. Our results show an
increase in fairness and minimal performance loss on different text
classification and generation tasks using language models of varying sizes.
WARNING: This work uses language that is offensive.
- Abstract(参考訳): 自然言語処理(NLP)における注釈付きデータの豊富さは、機会と課題の両方をもたらす。
様々なタスクのためのハイパフォーマンスモデルの開発を可能にする一方で、性別ステレオタイプのようなデータから有害なバイアスを学習するモデルのリスクも生じている。
本研究では,現在最先端のNLPモデルにおいて広く用いられている,社会バイアスの伝播における注意の役割について検討する。
具体的には,注意分布のエントロピーとモデルの性能と公平性の関係について検討した。
そこで本研究では,トレーニング後のモデルの公平性を改善するために注意重みを変調する新しい手法を提案する。
本手法はトレーニング後および事前推論にのみ適用されるため,プロセス内手法であり,既存のプロセス内手法や事前処理手法よりも計算コストが低い。
本研究の結果は,テキストの分類や生成タスクにおいて,様々なサイズの言語モデルを用いて,公平さと最小性能の損失の増加を示す。
WARNING: この仕事は攻撃的な言語を使用します。
関連論文リスト
- TaCo: Targeted Concept Removal in Output Embeddings for NLP via
Information Theory and Explainability [3.6598644685721036]
情報理論は、モデルが性別、民族、年齢などの敏感な変数を予測できないことを示唆している。
NLPモデルの埋め込みレベルで機能する新しい手法を提案する。
提案手法は,NLPモデルにおける性別関連関連性を著しく低減することを示す。
論文 参考訳(メタデータ) (2023-12-11T16:22:37Z) - Language Models Get a Gender Makeover: Mitigating Gender Bias with
Few-Shot Data Interventions [50.67412723291881]
事前訓練された大きな言語モデルに存在する社会的バイアスが重要な問題である。
我々は,事前学習モデルにおける性別バイアスを低減するために,データ介入戦略を強力かつ簡単な手法として提案する。
論文 参考訳(メタデータ) (2023-06-07T16:50:03Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - Improving Pre-trained Language Model Fine-tuning with Noise Stability
Regularization [94.4409074435894]
本稿では,LNSR(Layerwise Noise Stability Regularization)という,新規かつ効果的な微調整フレームワークを提案する。
具体的には、標準ガウス雑音を注入し、微調整モデルの隠れ表現を正規化することを提案する。
提案手法は,L2-SP,Mixout,SMARTなど他の最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-12T04:42:49Z) - Learning Neural Models for Natural Language Processing in the Face of
Distributional Shift [10.990447273771592]
特定のデータセットでひとつのタスクを実行するための強力な神経予測器をトレーニングするNLPのパラダイムが、さまざまなアプリケーションで最先端のパフォーマンスを実現している。
データ分布が定常である、すなわち、トレーニングとテストの時間の両方で、データは固定された分布からサンプリングされる、という仮定に基づいて構築される。
この方法でのトレーニングは、人間が絶えず変化する情報の流れの中で学習し、操作できる方法と矛盾する。
データ分散がモデル寿命の経過とともにシフトすることが期待される実世界のユースケースに不適応である。
論文 参考訳(メタデータ) (2021-09-03T14:29:20Z) - NoiER: An Approach for Training more Reliable Fine-TunedDownstream Task
Models [54.184609286094044]
補助モデルと付加データなしで問題を解くための学習パラダイムとして,ノイズエントロピー正規化(NoiER)を提案する。
提案手法は,従来の微調整モデルと比較して平均55%改善した。
論文 参考訳(メタデータ) (2021-08-29T06:58:28Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z) - CausaLM: Causal Model Explanation Through Counterfactual Language Models [33.29636213961804]
CausaLMは、対実言語表現モデルを用いた因果モデル説明を作成するためのフレームワークである。
本稿では,BERT のような言語表現モデルが,ある意味ある概念に対する対実表現を効果的に学習できることを示す。
本手法の副産物は,テストされた概念の影響を受けない言語表現モデルである。
論文 参考訳(メタデータ) (2020-05-27T15:06:35Z) - FairALM: Augmented Lagrangian Method for Training Fair Models with
Little Regret [42.66567001275493]
現在、我々がモデルに提示するデータセットのバイアスのため、公正な公開トレーニングが不公平なモデルにつながることは受け入れられている。
そこで本研究では,モデルのトレーニング中に公平性を同時に課すメカニズムについて検討する。
論文 参考訳(メタデータ) (2020-04-03T03:18:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。