論文の概要: ASCenD-BDS: Adaptable, Stochastic and Context-aware framework for Detection of Bias, Discrimination and Stereotyping
- arxiv url: http://arxiv.org/abs/2502.02072v1
- Date: Tue, 04 Feb 2025 07:44:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:06:22.776899
- Title: ASCenD-BDS: Adaptable, Stochastic and Context-aware framework for Detection of Bias, Discrimination and Stereotyping
- Title(参考訳): ASCenD-BDS: バイアスの検出・識別・ステレオタイピングのための適応的・確率的・コンテキスト認識フレームワーク
- Authors: Rajiv Bahl, Venkatesan N, Parimal Aglawe, Aastha Sarasapalli, Bhavya Kancharla, Chaitanya kolukuluri, Harish Mohite, Japneet Hora, Kiran Kakollu, Rahul Diman, Shubham Kapale, Sri Bhagya Kathula, Vamsikrishna Motru, Yogeshwar Reddy,
- Abstract要約: 本稿では,ASCenD BDS(バイアス・識別・ステレオタイピングのための適応・コンテキスト・コンテキスト認識フレームワーク)というフレームワークを提案する。
この枠組みは, 性別, 年齢, 障害, 社会経済的地位, 言語的バリエーションなど, 様々なカテゴリーにまたがる偏見, 差別, ステレオタイピングを検出するアプローチを示す。
このコンセプトは、製品開発の一環としてSFCLabsでテストされている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The rapid evolution of Large Language Models (LLMs) has transformed natural language processing but raises critical concerns about biases inherent in their deployment and use across diverse linguistic and sociocultural contexts. This paper presents a framework named ASCenD BDS (Adaptable, Stochastic and Context-aware framework for Detection of Bias, Discrimination and Stereotyping). The framework presents approach to detecting bias, discrimination, stereotyping across various categories such as gender, caste, age, disability, socioeconomic status, linguistic variations, etc., using an approach which is Adaptive, Stochastic and Context-Aware. The existing frameworks rely heavily on usage of datasets to generate scenarios for detection of Bias, Discrimination and Stereotyping. Examples include datasets such as Civil Comments, Wino Gender, WinoBias, BOLD, CrowS Pairs and BBQ. However, such an approach provides point solutions. As a result, these datasets provide a finite number of scenarios for assessment. The current framework overcomes this limitation by having features which enable Adaptability, Stochasticity, Context Awareness. Context awareness can be customized for any nation or culture or sub-culture (for example an organization's unique culture). In this paper, context awareness in the Indian context has been established. Content has been leveraged from Indian Census 2011 to have a commonality of categorization. A framework has been developed using Category, Sub-Category, STEM, X-Factor, Synonym to enable the features for Adaptability, Stochasticity and Context awareness. The framework has been described in detail in Section 3. Overall 800 plus STEMs, 10 Categories, 31 unique SubCategories were developed by a team of consultants at Saint Fox Consultancy Private Ltd. The concept has been tested out in SFCLabs as part of product development.
- Abstract(参考訳): 大規模言語モデル(LLM)の急速な進化は自然言語処理を変革させたが、その展開に固有のバイアスや、多様な言語や社会文化の文脈における使用に対する批判的な懸念を提起している。
ASCenD BDS (Adaptable, Stochastic and Context-aware framework for Detection of Bias, Discrimination and Stereotyping)を提案する。
このフレームワークは、Adaptive、Stochastic、Context-Awareといったアプローチを用いて、性別、キャスティング、年齢、障害、社会経済的地位、言語的バリエーションなどの様々なカテゴリにおけるバイアス、差別、ステレオタイピングを検出するアプローチを提案する。
既存のフレームワークは、バイアス、識別、ステレオタイピングを検出するシナリオを生成するために、データセットの使用に大きく依存している。
例えば、Civil Comments、Wino Gender、WinoBias、BOLD、CrowS Pairs、BBQといったデータセットがある。
しかし、そのようなアプローチはポイントソリューションを提供する。
その結果、これらのデータセットは、アセスメントのための限られたシナリオを提供する。
現在のフレームワークでは、Adaptability、Stochasticity、Context Awarenessを可能にする機能によって、この制限を克服している。
コンテキスト認識は、どんな国や文化やサブカルチャー(例えば、組織のユニークな文化)にもカスタマイズできる。
本稿では,インドにおける文脈認識の確立について述べる。
コンテンツはインド国勢調査2011から活用され、分類の共通性を持つ。
Category、Sub-Category、STEM、X-Factor、Synonymを使用して、適応性、確率性、コンテキスト認識の機能を実現するフレームワークが開発されている。
フレームワークは第3節で詳細に説明されています。
総合800台、STEM10台、サブカテゴリ31台がセントフォックス・コンサルティング・プライベート社のコンサルタントチームによって開発された。
このコンセプトは、製品開発の一環としてSFCLabsでテストされている。
関連論文リスト
- Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - An Empirical Analysis of Racial Categories in the Algorithmic Fairness
Literature [2.2713084727838115]
アルゴリズムフェアネスフレームワークにおいて、レースがどのように概念化され、形式化されるかを分析する。
人種の異なる概念は、時には1つの分析の範囲内でも、矛盾なく採用されていることが分かっています。
人種的カテゴリーの構築は、社会的、政治的に重要な結果をもたらす価値の高いプロセスである、と我々は主張する。
論文 参考訳(メタデータ) (2023-09-12T21:23:29Z) - TIDE: Textual Identity Detection for Evaluating and Augmenting
Classification and Language Models [0.0]
機械学習モデルは、不公平で不均衡なデータセットから意図しないバイアスを永続することができる。
分類器と言語モデルにおけるテキストの公平性を改善するためのアプローチと組み合わせたデータセットを提案する。
我々は、IDコンテキストの可用性向上に使用できるIDアノテーションと拡張ツールを開発するために、TIDALを活用している。
論文 参考訳(メタデータ) (2023-09-07T21:44:42Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - NBIAS: A Natural Language Processing Framework for Bias Identification
in Text [9.486702261615166]
テキストデータのバイアスは、データが使用されると歪んだ解釈や結果につながる可能性がある。
偏りのあるデータに基づいて訓練されたアルゴリズムは、あるグループに不公平に影響を及ぼす決定を下すかもしれない。
我々は,データ,コーパス構築,モデル開発,評価レイヤの4つの主要レイヤからなる包括的フレームワーク NBIAS を開発した。
論文 参考訳(メタデータ) (2023-08-03T10:48:30Z) - CBBQ: A Chinese Bias Benchmark Dataset Curated with Human-AI
Collaboration for Large Language Models [52.25049362267279]
本稿では,人的専門家と生成言語モデルによって共同で構築された100万以上の質問からなる中国語バイアスベンチマークデータセットを提案する。
データセットのテストインスタンスは、手作業による厳格な品質管理を備えた3K以上の高品質テンプレートから自動的に抽出される。
大規模な実験により、データセットがモデルバイアスを検出することの有効性が実証された。
論文 参考訳(メタデータ) (2023-06-28T14:14:44Z) - Uncovering and Categorizing Social Biases in Text-to-SQL [28.07279278808438]
大規模な事前訓練された言語モデルは、異なる人口層に対する社会的偏見を持つと認められている。
既存のText-to-モデルは、SpiderやWikiといったクリーンで中立なデータセットでトレーニングされている。
この研究は、テキスト・ツー・モデルで社会的バイアスを発見し、分類することを目的としている。
論文 参考訳(メタデータ) (2023-05-25T17:08:56Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - Mitigating Racial Biases in Toxic Language Detection with an
Equity-Based Ensemble Framework [9.84413545378636]
最近の研究では、アフリカ系アメリカ人の英語を書いているユーザーに対する人種的偏見が、人気のある有毒な言語データセットに存在することが示されている。
これらのバイアスの発生源をよりよく理解するために、さらに説明的公正度指標を提案する。
提案手法は,モデルがこれらのデータセットから学習する人種的バイアスを大幅に低減することを示す。
論文 参考訳(メタデータ) (2021-09-27T15:54:05Z) - One Label, One Billion Faces: Usage and Consistency of Racial Categories
in Computer Vision [75.82110684355979]
顔画像の分類的人種ラベルを提供するコンピュータビジョンデータセットによって符号化された人種システムについて検討する。
各データセットは、名目上等価な人種分類にもかかわらず、かなりユニークな人種体系をコードしている。
我々は、人種的カテゴリーがステレオタイプを符号化し、非整合性からステレオタイプへの分類から民族集団を除外する証拠を見出した。
論文 参考訳(メタデータ) (2021-02-03T22:50:04Z) - XL-WiC: A Multilingual Benchmark for Evaluating Semantic
Contextualization [98.61159823343036]
単語の意味を正確にモデル化する能力を評価するために,Word-in-Context データセット (WiC) を提案する。
我々は、XL-WiCという大規模なマルチ言語ベンチマークを提案し、12の新しい言語でゴールドスタンダードを特徴付けました。
実験結果から、ターゲット言語にタグ付けされたインスタンスが存在しない場合でも、英語データのみにトレーニングされたモデルは、競争力のあるパフォーマンスが得られることが示された。
論文 参考訳(メタデータ) (2020-10-13T15:32:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。