論文の概要: Introducing Construct Theory as a Standard Methodology for Inclusive AI
Models
- arxiv url: http://arxiv.org/abs/2304.09867v1
- Date: Wed, 19 Apr 2023 01:01:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 15:34:24.702420
- Title: Introducing Construct Theory as a Standard Methodology for Inclusive AI
Models
- Title(参考訳): 包括的AIモデルの標準方法論としての構成理論の導入
- Authors: Susanna Raj, Sudha Jamthe, Yashaswini Viswanath, Suresh Lokiah
- Abstract要約: Google Cloud Vision APIとMicrosoft Cognitive Services APIをテストし、50のサブエレメントで、顔の構成の15の要素を提示します。
この結果から, 傾斜率の差が正確に分かる。
実験結果から,AIMLモデルの業界標準として,検証された包括的構成が提案される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Construct theory in social psychology, developed by George Kelly are mental
constructs to predict and anticipate events. Constructs are how humans
interpret, curate, predict and validate data; information. AI today is biased
because it is trained with a narrow construct as defined by the training data
labels. Machine Learning algorithms for facial recognition discriminate against
darker skin colors and in the ground breaking research papers (Buolamwini, Joy
and Timnit Gebru. Gender Shades: Intersectional Accuracy Disparities in
Commercial Gender Classification. FAT (2018), the inclusion of phenotypic
labeling is proposed as a viable solution. In Construct theory, phenotype is
just one of the many subelements that make up the construct of a face. In this
paper, we present 15 main elements of the construct of face, with 50
subelements and tested Google Cloud Vision API and Microsoft Cognitive Services
API using FairFace dataset that currently has data for 7 races, genders and
ages, and we retested against FairFace Plus dataset curated by us. Our results
show exactly where they have gaps for inclusivity. Based on our experiment
results, we propose that validated, inclusive constructs become industry
standards for AI ML models going forward.
- Abstract(参考訳): ジョージ・ケリーによって開発された社会心理学における構成理論は、事象を予測し予測するための精神構成である。
構成は、人間がデータを解釈し、キュレートし、予測し、検証する方法です。
今日のaiは、トレーニングデータラベルで定義された狭いコンストラクタでトレーニングされるため、偏りがある。
顔認識のための機械学習アルゴリズムは、より暗い肌の色と地上での研究論文(Buolamwini、Joy、Timnit Gebru)を識別する。
ジェンダーシェード:商業性分類における交叉精度の差。
FAT (2018) では, 表現型ラベリングが有効解として提案されている。
構成論において、表現型は顔の構成を構成する多くの部分要素の1つである。
本稿では、現在7つの人種、性別、年齢のデータを保有しているFairFaceデータセットを使用して、50のサブエレメントとテストされたGoogle Cloud Vision APIとMicrosoft Cognitive Services APIを用いて、顔の構成の15の要素を提示する。
この結果から, 傾斜率の差が正確に分かる。
実験結果に基づき,検証されたインクルーシブコンストラクタが今後,ai mlモデルの業界標準となることを提案する。
関連論文リスト
- Fact-or-Fair: A Checklist for Behavioral Testing of AI Models on Fairness-Related Queries [85.909363478929]
本研究では,権威ある情報源から収集した19の実世界統計に着目した。
主観的および主観的な問合せからなるチェックリストを作成し,大規模言語モデルの振る舞いを解析する。
事実性と公平性を評価するためのメトリクスを提案し、これらの2つの側面の間に固有のトレードオフを正式に証明する。
論文 参考訳(メタデータ) (2025-02-09T10:54:11Z) - On the "Illusion" of Gender Bias in Face Recognition: Explaining the Fairness Issue Through Non-demographic Attributes [7.602456562464879]
顔認識システムは、ユーザの性別に基づいて、かなりの精度の差を示す。
顔の属性を効果的にデコレーションし、集約し、バイアスの少ない性別分析を可能にするツールチェーンを提案する。
実験の結果,男女のイメージが特定の属性を共有すると,男女差は消失することがわかった。
論文 参考訳(メタデータ) (2025-01-21T10:21:19Z) - Improving Fairness using Vision-Language Driven Image Augmentation [60.428157003498995]
公平性は、特に顔領域において、ディープラーニングの識別モデルを訓練する際に重要である。
モデルは、特定の特性(年齢や肌の色など)と無関係な属性(下流タスク)を関連付ける傾向がある
本稿では,これらの相関を緩和し,公平性を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T19:51:10Z) - The Impact of Racial Distribution in Training Data on Face Recognition
Bias: A Closer Look [0.0]
トレーニングデータにおける人種分布が顔認識モデルの性能に及ぼす影響について検討する。
精度メトリクス、クラスタリングメトリクス、UMAPプロジェクション、顔の品質、決定しきい値を用いて、これらのトレーニングされたモデルを解析する。
論文 参考訳(メタデータ) (2022-11-26T07:03:24Z) - My Face My Choice: Privacy Enhancing Deepfakes for Social Media
Anonymization [4.725675279167593]
仮説的ソーシャルネットワークに3つの顔アクセスモデルを導入し、ユーザーが承認した写真にのみ現れる能力を持つ。
我々のアプローチは、現在のタグ付けシステムを廃止し、未承認の顔を定量的に異なるディープフェイクに置き換える。
その結果,7つのSOTA顔認識器を動作させることで,平均精度を61%削減できることがわかった。
論文 参考訳(メタデータ) (2022-11-02T17:58:20Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Explaining Bias in Deep Face Recognition via Image Characteristics [9.569575076277523]
2つのデータセットのセキュリティとユーザビリティの観点から,10種類の最先端の顔認識モデルを評価し,その妥当性を比較した。
次に,画像特性がモデル性能に与える影響を解析する。
論文 参考訳(メタデータ) (2022-08-23T17:18:23Z) - Meta Balanced Network for Fair Face Recognition [51.813457201437195]
我々は、データとアルゴリズムの両方の側面からバイアスを体系的に科学的に研究する。
本稿では,メタバランスネットワーク(MBN)と呼ばれるメタ学習アルゴリズムを提案する。
大規模な実験により、MBNは偏見を緩和し、顔認識において異なる肌のトーンを持つ人々に対してよりバランスの取れたパフォーマンスを学ぶことができた。
論文 参考訳(メタデータ) (2022-05-13T10:25:44Z) - Ethically aligned Deep Learning: Unbiased Facial Aesthetic Prediction [0.77477965522982]
我々は,現在最先端の魅力予測ネットワークであるAestheticNetを導入し,ピアソン相関0.9601で競合相手を著しく上回っている。
また,機械学習における公平性を改善するため,バイアスのないCNNを生成する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-09T13:53:32Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - Investigating Bias in Deep Face Analysis: The KANFace Dataset and
Empirical Study [67.3961439193994]
現在までに最も包括的で大規模な顔画像とビデオのデータセットを導入している。
データは、アイデンティティ、正確な年齢、性別、親族関係の点で手動で注釈付けされる。
提案したベンチマークでネットワーク埋め込みをデバイアス化する手法を導入し,テストした。
論文 参考訳(メタデータ) (2020-05-15T00:14:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。