論文の概要: Lawyers are Dishonest? Quantifying Representational Harms in Commonsense
Knowledge Resources
- arxiv url: http://arxiv.org/abs/2103.11320v1
- Date: Sun, 21 Mar 2021 06:59:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:42:20.440140
- Title: Lawyers are Dishonest? Quantifying Representational Harms in Commonsense
Knowledge Resources
- Title(参考訳): 弁護士は不正直?
コモンセンス知識資源における表現のハームの定量化
- Authors: Ninareh Mehrabi, Pei Zhou, Fred Morstatter, Jay Pujara, Xiang Ren,
Aram Galstyan
- Abstract要約: ConceptNetは、主に人間からクラウドソースされ、「法律家は不正です」などの人間のバイアスを反映している可能性があります。
ConceptNetには、4つのカテゴリーにまたがって深刻な偏見と格差がある。
フィルタに基づくバイアス軽減手法を提案し,その効果を検討する。
- 参考スコア(独自算出の注目度): 43.81001715036473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Warning: this paper contains content that may be offensive or upsetting.
Numerous natural language processing models have tried injecting commonsense
by using the ConceptNet knowledge base to improve performance on different
tasks. ConceptNet, however, is mostly crowdsourced from humans and may reflect
human biases such as "lawyers are dishonest." It is important that these biases
are not conflated with the notion of commonsense. We study this missing yet
important problem by first defining and quantifying biases in ConceptNet as two
types of representational harms: overgeneralization of polarized perceptions
and representation disparity. We find that ConceptNet contains severe biases
and disparities across four demographic categories. In addition, we analyze two
downstream models that use ConceptNet as a source for commonsense knowledge and
find the existence of biases in those models as well. We further propose a
filtered-based bias-mitigation approach and examine its effectiveness. We show
that our mitigation approach can reduce the issues in both resource and models
but leads to a performance drop, leaving room for future work to build fairer
and stronger commonsense models.
- Abstract(参考訳): 警告: 本論文は攻撃的あるいは不安定なコンテンツを含んでいる。
多くの自然言語処理モデルは、ConceptNetナレッジベースを使用して、さまざまなタスクのパフォーマンスを改善することで、コモンセンスの注入を試みた。
しかし、conceptnetはほとんどが人間からクラウドソースされており、「弁護士は不正である」といった人間の偏見を反映している可能性がある。
これらのバイアスが常識の概念と混同されないことが重要である。
そこで我々は,概念ネットにおけるバイアスを,偏極知覚の過一般化と表現格差の2種類の表現的害として定義し,定量化する。
conceptnetには4つのカテゴリにまたがる厳格な偏見と格差が含まれていることがわかりました。
さらに,conceptnet をコモンセンス知識の源として使用する下流モデル2つを分析し,それらのモデルにもバイアスが存在することを発見した。
さらに,フィルタに基づくバイアス緩和手法を提案し,その有効性を検討した。
我々の緩和アプローチは、リソースとモデルの両方の問題を減らすことができるが、パフォーマンスの低下を招き、より公平で強力なコモンセンスモデルを構築する余地を残している。
関連論文リスト
- What Really is Commonsense Knowledge? [58.5342212738895]
我々は、既存のコモンセンス知識の定義を調査し、概念を定義するための3つのフレームワークに基礎を置き、それらをコモンセンス知識の統一的な定義に統合する。
次に、アノテーションと実験のための統合された定義をCommonsenseQAとCommonsenseQA 2.0データセットで使用します。
本研究は,2つのデータセットには非常識知識のインスタンスが多数存在し,これら2つのサブセットに対して大きな性能差があることを示す。
論文 参考訳(メタデータ) (2024-11-06T14:54:19Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - It's All Relative: Interpretable Models for Scoring Bias in Documents [10.678219157857946]
本稿では,テキストコンテンツのみに基づいて,Webドキュメントに存在するバイアスを評価するための解釈可能なモデルを提案する。
我々のモデルはBradley-Terryの公理を思わせる仮定を取り入れ、同じウィキペディアの記事の2つの修正に基づいて訓練されている。
我々は、訓練されたモデルのパラメータを解釈して、最も偏りを示す単語を見つけることができることを示す。
論文 参考訳(メタデータ) (2023-07-16T19:35:38Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Probing Classifiers are Unreliable for Concept Removal and Detection [18.25734277357466]
テキストデータに基づいてトレーニングされたニューラルネットワークモデルは、その表現において望ましくない言語的あるいはセンシティブな概念を符号化する。
近年の研究では、そのような不要な概念をモデル表現から除去するためのポストホックおよび逆法が提案されている。
これらの手法は非生産的であり、最悪の場合、すべてのタスク関連機能を破壊する可能性がある。
論文 参考訳(メタデータ) (2022-07-08T23:15:26Z) - Are Two Heads the Same as One? Identifying Disparate Treatment in Fair
Neural Networks [38.14455334700671]
人口密度を満足するディープニューラルネットワークは、人種や性意識の形で実現可能であることを示す。
フェアネスを強制する簡単な2段階の解法を提案する。
論文 参考訳(メタデータ) (2022-04-09T10:07:02Z) - Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning [61.93730166203915]
我々は、モデルが敵の攻撃に弱い場合、従来の公平性の概念では不十分であると主張する。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-17T22:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。