論文の概要: Bridging Fairness and Environmental Sustainability in Natural Language
Processing
- arxiv url: http://arxiv.org/abs/2211.04256v1
- Date: Tue, 8 Nov 2022 14:05:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 16:10:34.305435
- Title: Bridging Fairness and Environmental Sustainability in Natural Language
Processing
- Title(参考訳): 自然言語処理におけるブリッジフェアネスと環境保全性
- Authors: Marius Hessenthaler, Emma Strubell, Dirk Hovy, Anne Lauscher
- Abstract要約: 公正性と環境影響は、人工知能の持続可能な開発のための重要な研究方向である。
各トピックは自然言語処理(NLP)の活発な研究領域であるが、この2つの分野間の相互作用に関する驚くべき研究の欠如がある。
公正性への排他的注力が環境の持続可能性を妨げるという証拠が増えているためである。
- 参考スコア(独自算出の注目度): 25.25873476410549
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness and environmental impact are important research directions for the
sustainable development of artificial intelligence. However, while each topic
is an active research area in natural language processing (NLP), there is a
surprising lack of research on the interplay between the two fields. This
lacuna is highly problematic, since there is increasing evidence that an
exclusive focus on fairness can actually hinder environmental sustainability,
and vice versa. In this work, we shed light on this crucial intersection in NLP
by (1) investigating the efficiency of current fairness approaches through
surveying example methods for reducing unfair stereotypical bias from the
literature, and (2) evaluating a common technique to reduce energy consumption
(and thus environmental impact) of English NLP models, knowledge distillation
(KD), for its impact on fairness. In this case study, we evaluate the effect of
important KD factors, including layer and dimensionality reduction, with
respect to: (a) performance on the distillation task (natural language
inference and semantic similarity prediction), and (b) multiple measures and
dimensions of stereotypical bias (e.g., gender bias measured via the Word
Embedding Association Test). Our results lead us to clarify current assumptions
regarding the effect of KD on unfair bias: contrary to other findings, we show
that KD can actually decrease model fairness.
- Abstract(参考訳): 公正性と環境影響は、人工知能の持続可能な開発のための重要な研究方向である。
しかしながら、各トピックは自然言語処理(nlp)の活発な研究領域であるが、この2つの分野間の相互作用に関する研究が驚くほど欠落している。
このラクナは、公平性に排他的な焦点が実際に環境の持続性を阻害する可能性があるという証拠が増えているため、非常に問題となっている。
本研究は,(1) 文献から不公平なステレオタイプバイアスを除去するためのサンプル手法を探索し,(2) イングランドのNLPモデル,知識蒸留(KD) のエネルギー消費(および環境影響)を減らすための共通手法を評価することによって, フェアネスアプローチの効率性を検討することによって, NLPにおけるこの重要な交差点に光を当てた。
今回のケーススタディでは, 層や次元の縮小を含む重要なKD因子の効果を評価する。
(a)蒸留作業における性能(自然言語推論と意味的類似性予測)及び
(b)ステレオタイプバイアスの複数の尺度及び寸法(例えば、単語埋め込み関連テストによって測定された性別バイアス)。
その結果,KDが不公平バイアスに与える影響に関する現在の仮定を明らかにすることができた。
関連論文リスト
- Contexts Matter: An Empirical Study on Contextual Influence in Fairness Testing for Deep Learning Systems [3.077531983369872]
さまざまなコンテキストが公平性テストの結果にどのように影響するかを理解することを目的としている。
私たちの結果は、異なるコンテキストタイプと設定が一般的にテストに重大な影響を与えることを示しています。
論文 参考訳(メタデータ) (2024-08-12T12:36:06Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Robust Emotion Recognition in Context Debiasing [12.487614699507793]
文脈認識型感情認識(CAER)は、近年、制約のない環境における感情コンピューティング技術の実践的応用を高めている。
進歩にもかかわらず、最大の課題は、コンテキストバイアスの干渉によるものである。
本稿では,このような問題に対処する対実的感情推定(CLEF)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-09T17:05:43Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Through the Fairness Lens: Experimental Analysis and Evaluation of
Entity Matching [17.857838691801884]
アルゴリズムの公平さは、機械バイアスとその社会的影響に対処するためのタイムリーなトピックとなっている。
これら2つのトピックに関する広範な研究にもかかわらず、エンティティマッチングの公平性にはほとんど注意が払われていない。
フェアネスのレンズを通してEMを監査するためのソーシャルデータセットを2つ生成する。
論文 参考訳(メタデータ) (2023-07-06T02:21:08Z) - On Bias and Fairness in NLP: Investigating the Impact of Bias and Debiasing in Language Models on the Fairness of Toxicity Detection [7.297345802761503]
表現バイアス、選択バイアス、過剰増幅バイアスが研究されている。
過度増幅バイアスは毒性検出のタスクの公平性に対する最も影響の大きいバイアスであることを示す。
毒性検出のタスクの公平性を確保するためのガイドラインの一覧を紹介する。
論文 参考訳(メタデータ) (2023-05-22T08:44:00Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Cascaded Debiasing: Studying the Cumulative Effect of Multiple
Fairness-Enhancing Interventions [48.98659895355356]
本稿では機械学習(ML)パイプラインの異なる段階における多重公正強化介入の累積効果について検討する。
複数の介入を適用すると、集約に対する個々の介入よりも公平性と実用性が向上する。
マイナス面として、公平性向上の介入は異なる集団、特に特権集団に悪影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-02-08T09:20:58Z) - Causal Inference in Natural Language Processing: Estimation, Prediction,
Interpretation and Beyond [38.055142444836925]
学術分野にまたがる研究を集約し、より広い自然言語処理の現場に配置する。
本稿では,因果効果を推定する統計的課題を紹介し,テキストを結果,治療,あるいはコンバウンディングに対処するための手段として用いるような設定を包含する。
さらに, NLPモデルの性能, 堅牢性, 公正性, 解釈可能性を向上させるために, 因果推論の潜在的利用について検討する。
論文 参考訳(メタデータ) (2021-09-02T05:40:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。