論文の概要: Bridging Fairness and Environmental Sustainability in Natural Language
Processing
- arxiv url: http://arxiv.org/abs/2211.04256v1
- Date: Tue, 8 Nov 2022 14:05:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 16:10:34.305435
- Title: Bridging Fairness and Environmental Sustainability in Natural Language
Processing
- Title(参考訳): 自然言語処理におけるブリッジフェアネスと環境保全性
- Authors: Marius Hessenthaler, Emma Strubell, Dirk Hovy, Anne Lauscher
- Abstract要約: 公正性と環境影響は、人工知能の持続可能な開発のための重要な研究方向である。
各トピックは自然言語処理(NLP)の活発な研究領域であるが、この2つの分野間の相互作用に関する驚くべき研究の欠如がある。
公正性への排他的注力が環境の持続可能性を妨げるという証拠が増えているためである。
- 参考スコア(独自算出の注目度): 25.25873476410549
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness and environmental impact are important research directions for the
sustainable development of artificial intelligence. However, while each topic
is an active research area in natural language processing (NLP), there is a
surprising lack of research on the interplay between the two fields. This
lacuna is highly problematic, since there is increasing evidence that an
exclusive focus on fairness can actually hinder environmental sustainability,
and vice versa. In this work, we shed light on this crucial intersection in NLP
by (1) investigating the efficiency of current fairness approaches through
surveying example methods for reducing unfair stereotypical bias from the
literature, and (2) evaluating a common technique to reduce energy consumption
(and thus environmental impact) of English NLP models, knowledge distillation
(KD), for its impact on fairness. In this case study, we evaluate the effect of
important KD factors, including layer and dimensionality reduction, with
respect to: (a) performance on the distillation task (natural language
inference and semantic similarity prediction), and (b) multiple measures and
dimensions of stereotypical bias (e.g., gender bias measured via the Word
Embedding Association Test). Our results lead us to clarify current assumptions
regarding the effect of KD on unfair bias: contrary to other findings, we show
that KD can actually decrease model fairness.
- Abstract(参考訳): 公正性と環境影響は、人工知能の持続可能な開発のための重要な研究方向である。
しかしながら、各トピックは自然言語処理(nlp)の活発な研究領域であるが、この2つの分野間の相互作用に関する研究が驚くほど欠落している。
このラクナは、公平性に排他的な焦点が実際に環境の持続性を阻害する可能性があるという証拠が増えているため、非常に問題となっている。
本研究は,(1) 文献から不公平なステレオタイプバイアスを除去するためのサンプル手法を探索し,(2) イングランドのNLPモデル,知識蒸留(KD) のエネルギー消費(および環境影響)を減らすための共通手法を評価することによって, フェアネスアプローチの効率性を検討することによって, NLPにおけるこの重要な交差点に光を当てた。
今回のケーススタディでは, 層や次元の縮小を含む重要なKD因子の効果を評価する。
(a)蒸留作業における性能(自然言語推論と意味的類似性予測)及び
(b)ステレオタイプバイアスの複数の尺度及び寸法(例えば、単語埋め込み関連テストによって測定された性別バイアス)。
その結果,KDが不公平バイアスに与える影響に関する現在の仮定を明らかにすることができた。
関連論文リスト
- Robust Emotion Recognition in Context Debiasing [13.23207410614903]
文脈認識型感情認識(CAER)は、近年、制約のない環境における感情コンピューティング技術の実践的応用を高めている。
進歩にもかかわらず、最大の課題は、コンテキストバイアスの干渉によるものである。
本稿では,このような問題に対処する対実的感情推定(CLEF)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-09T17:05:43Z) - Bias and Fairness in Large Language Models: A Survey [76.65471160523444]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Through the Fairness Lens: Experimental Analysis and Evaluation of
Entity Matching [17.857838691801884]
アルゴリズムの公平さは、機械バイアスとその社会的影響に対処するためのタイムリーなトピックとなっている。
これら2つのトピックに関する広範な研究にもかかわらず、エンティティマッチングの公平性にはほとんど注意が払われていない。
フェアネスのレンズを通してEMを監査するためのソーシャルデータセットを2つ生成する。
論文 参考訳(メタデータ) (2023-07-06T02:21:08Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Fair Spatial Indexing: A paradigm for Group Spatial Fairness [6.640563753223598]
機械学習における位置バイアスを軽減する手法を提案する。
本研究では,空間群フェアネスに着目し,空間群フェアネスを考慮に入れた空間インデックス化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-05T05:15:11Z) - Evaluate Confidence Instead of Perplexity for Zero-shot Commonsense
Reasoning [85.1541170468617]
本稿では,コモンセンス推論の性質を再考し,新しいコモンセンス推論尺度であるNon-Replacement Confidence(NRC)を提案する。
提案手法は,2つのコモンセンス推論ベンチマークデータセットと,さらに7つのコモンセンス質問応答データセットに対してゼロショット性能を向上する。
論文 参考訳(メタデータ) (2022-08-23T14:42:14Z) - Beyond Impossibility: Balancing Sufficiency, Separation and Accuracy [27.744055920557024]
満足度とテキストセパレーションの緊張
本研究の目的は,テクスチャフィフィフィリエイトとテクスチャセパレーションのバランスをとることである。
既存の代替手段よりも優れたトレードオフが達成できる、有望な結果を示します。
論文 参考訳(メタデータ) (2022-05-24T19:14:21Z) - Conditional Supervised Contrastive Learning for Fair Text Classification [59.813422435604025]
対照的な学習を通してテキスト分類のための等化オッズとして知られる公平性の概念を満たす学習公正表現について研究する。
具体的には、まず、公正性制約のある学習表現と条件付き教師付きコントラスト目的との間の関係を理論的に分析する。
論文 参考訳(メタデータ) (2022-05-23T17:38:30Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Cascaded Debiasing: Studying the Cumulative Effect of Multiple
Fairness-Enhancing Interventions [48.98659895355356]
本稿では機械学習(ML)パイプラインの異なる段階における多重公正強化介入の累積効果について検討する。
複数の介入を適用すると、集約に対する個々の介入よりも公平性と実用性が向上する。
マイナス面として、公平性向上の介入は異なる集団、特に特権集団に悪影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-02-08T09:20:58Z) - Causal Inference in Natural Language Processing: Estimation, Prediction,
Interpretation and Beyond [38.055142444836925]
学術分野にまたがる研究を集約し、より広い自然言語処理の現場に配置する。
本稿では,因果効果を推定する統計的課題を紹介し,テキストを結果,治療,あるいはコンバウンディングに対処するための手段として用いるような設定を包含する。
さらに, NLPモデルの性能, 堅牢性, 公正性, 解釈可能性を向上させるために, 因果推論の潜在的利用について検討する。
論文 参考訳(メタデータ) (2021-09-02T05:40:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。