論文の概要: Effectiveness of Debiasing Techniques: An Indigenous Qualitative
Analysis
- arxiv url: http://arxiv.org/abs/2304.11094v1
- Date: Mon, 17 Apr 2023 22:25:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-30 07:59:16.217509
- Title: Effectiveness of Debiasing Techniques: An Indigenous Qualitative
Analysis
- Title(参考訳): デバイアス手法の有効性--先住民の質的分析
- Authors: Vithya Yogarajan, Gillian Dobbie, Henry Gouk
- Abstract要約: 言語モデルの測定とデバイアスのための現在の技術は、米国の人種的偏見に対して歪められている。
局所的な知識と理解は、偏見のないアルゴリズムを保証するために組み込まれなければならない。
- 参考スコア(独自算出の注目度): 14.287758028119786
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An indigenous perspective on the effectiveness of debiasing techniques for
pre-trained language models (PLMs) is presented in this paper. The current
techniques used to measure and debias PLMs are skewed towards the US racial
biases and rely on pre-defined bias attributes (e.g. "black" vs "white"). Some
require large datasets and further pre-training. Such techniques are not
designed to capture the underrepresented indigenous populations in other
countries, such as M\=aori in New Zealand. Local knowledge and understanding
must be incorporated to ensure unbiased algorithms, especially when addressing
a resource-restricted society.
- Abstract(参考訳): 本稿では,プレトレーニング言語モデル(PLM)におけるデバイアス手法の有効性について考察する。
現在のplmの測定やデバイアスの手法は、アメリカの人種バイアスに偏り、事前に定義されたバイアス属性(例えば「黒」と「白」)に依存する。
大規模なデータセットと、さらに事前トレーニングが必要なものもある。
このような技術は、ニュージーランドのM\=aoriなど、他の国の少数民族を捕えるように設計されていない。
地域知識と理解は、特に資源制限社会に対処する際に、偏見のないアルゴリズムを保証するために組み込まれなければならない。
関連論文リスト
- MABR: A Multilayer Adversarial Bias Removal Approach Without Prior Bias Knowledge [6.208151505901749]
実世界のデータに基づいてトレーニングされたモデルは、しばしば既存の社会的バイアスを反映し、悪化させる。
本稿では,従来のバイアス型知識とは独立して機能する,新たな対人訓練戦略を提案する。
本手法は,人口統計学的アノテーションを必要とせずに,社会的バイアスを効果的に低減する。
論文 参考訳(メタデータ) (2024-08-10T09:11:01Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Self-Debiasing Large Language Models: Zero-Shot Recognition and
Reduction of Stereotypes [73.12947922129261]
ステレオタイピングを減らすために,大規模言語モデルのゼロショット機能を活用している。
自己嫌悪は、9つの異なる社会集団におけるステレオタイピングの度合いを著しく低下させることが示される。
この研究が、バイアス軽減のための他のゼロショット技術に関する調査をオープンにすることを願っている。
論文 参考訳(メタデータ) (2024-02-03T01:40:11Z) - No Word Embedding Model Is Perfect: Evaluating the Representation
Accuracy for Social Bias in the Media [17.4812995898078]
我々は,米国オンラインニュース記事に存在する社会バイアスの種類を正確に測定するために,どのような埋め込みアルゴリズムが最適かを検討する。
我々は500万の記事を収集し、予想される社会的偏見に関して心理学文献をレビューする。
我々は、ニュース記事のアルゴリズムでトレーニングされたモデルが、期待される社会的バイアスをどう表すかを比較する。
論文 参考訳(メタデータ) (2022-11-07T15:45:52Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Optimising Equal Opportunity Fairness in Model Training [60.0947291284978]
既存のデバイアス法、例えば、敵の訓練や、表現から保護された情報を取り除くことは、バイアスを減らすことが示されている。
2つの新たな学習目標を提案し,2つの分類課題における高い性能を維持しつつ,バイアスの低減に有効であることを示す。
論文 参考訳(メタデータ) (2022-05-05T01:57:58Z) - An Empirical Survey of the Effectiveness of Debiasing Techniques for
Pre-Trained Language Models [4.937002982255573]
最近の研究によると、事前学習された言語モデルは、訓練されたテキストコーパスから社会的偏見を捉えている。
最近提案された5つのデバイアス技術: 対実データ拡張、ドロップアウト、イテレーティブヌルスペース投影、セルフデバイアス、センテンスデバイアス。
3つの異なるバイアスベンチマークを用いて各手法の有効性を定量化するとともに,これらの手法がモデル言語モデリング能力に与える影響を計測する。
論文 参考訳(メタデータ) (2021-10-16T09:40:30Z) - Towards Measuring Bias in Image Classification [61.802949761385]
畳み込みニューラルネットワーク(CNN)は、主要なコンピュータビジョンタスクの最先端技術となっている。
しかし、複雑な構造のため、その決定は産業世界の何らかの文脈での使用を制限するかを理解することは困難である。
帰属マップによるデータのバイアスを明らかにするための体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-07-01T10:50:39Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - Avoiding bias when inferring race using name-based approaches [0.8543368663496084]
我々は、米国国勢調査および住宅ローン申請の情報を用いて、米国関連作家のウェブ・オブ・サイエンスにおける人種を推測する。
その結果、人種・民族によって名前に基づく推論の妥当性が異なり、しきい値が黒人作家を過小評価し、白人作家を過小評価することを示した。
論文 参考訳(メタデータ) (2021-04-14T08:36:22Z) - An experiment on the mechanisms of racial bias in ML-based credit
scoring in Brazil [0.0]
実データを用いた実験的なクレジットスコアリングモデルについて検討する。
私たちは、保護された属性にアクセスすることなく、位置情報の使用が人種的偏見をいかに引き起こすかを実証します。
私たちの知る限りでは、ブラジルにおけるMLベースの信用スコアリングにおいて、アルゴリズムによる人種的偏見が最初に記録されたケースである。
論文 参考訳(メタデータ) (2020-11-11T02:14:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。