論文の概要: Introducing Construct Theory as a Standard Methodology for Inclusive AI
Models
- arxiv url: http://arxiv.org/abs/2304.09867v1
- Date: Wed, 19 Apr 2023 01:01:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 15:34:24.702420
- Title: Introducing Construct Theory as a Standard Methodology for Inclusive AI
Models
- Title(参考訳): 包括的AIモデルの標準方法論としての構成理論の導入
- Authors: Susanna Raj, Sudha Jamthe, Yashaswini Viswanath, Suresh Lokiah
- Abstract要約: Google Cloud Vision APIとMicrosoft Cognitive Services APIをテストし、50のサブエレメントで、顔の構成の15の要素を提示します。
この結果から, 傾斜率の差が正確に分かる。
実験結果から,AIMLモデルの業界標準として,検証された包括的構成が提案される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Construct theory in social psychology, developed by George Kelly are mental
constructs to predict and anticipate events. Constructs are how humans
interpret, curate, predict and validate data; information. AI today is biased
because it is trained with a narrow construct as defined by the training data
labels. Machine Learning algorithms for facial recognition discriminate against
darker skin colors and in the ground breaking research papers (Buolamwini, Joy
and Timnit Gebru. Gender Shades: Intersectional Accuracy Disparities in
Commercial Gender Classification. FAT (2018), the inclusion of phenotypic
labeling is proposed as a viable solution. In Construct theory, phenotype is
just one of the many subelements that make up the construct of a face. In this
paper, we present 15 main elements of the construct of face, with 50
subelements and tested Google Cloud Vision API and Microsoft Cognitive Services
API using FairFace dataset that currently has data for 7 races, genders and
ages, and we retested against FairFace Plus dataset curated by us. Our results
show exactly where they have gaps for inclusivity. Based on our experiment
results, we propose that validated, inclusive constructs become industry
standards for AI ML models going forward.
- Abstract(参考訳): ジョージ・ケリーによって開発された社会心理学における構成理論は、事象を予測し予測するための精神構成である。
構成は、人間がデータを解釈し、キュレートし、予測し、検証する方法です。
今日のaiは、トレーニングデータラベルで定義された狭いコンストラクタでトレーニングされるため、偏りがある。
顔認識のための機械学習アルゴリズムは、より暗い肌の色と地上での研究論文(Buolamwini、Joy、Timnit Gebru)を識別する。
ジェンダーシェード:商業性分類における交叉精度の差。
FAT (2018) では, 表現型ラベリングが有効解として提案されている。
構成論において、表現型は顔の構成を構成する多くの部分要素の1つである。
本稿では、現在7つの人種、性別、年齢のデータを保有しているFairFaceデータセットを使用して、50のサブエレメントとテストされたGoogle Cloud Vision APIとMicrosoft Cognitive Services APIを用いて、顔の構成の15の要素を提示する。
この結果から, 傾斜率の差が正確に分かる。
実験結果に基づき,検証されたインクルーシブコンストラクタが今後,ai mlモデルの業界標準となることを提案する。
関連論文リスト
- AI-Face: A Million-Scale Demographically Annotated AI-Generated Face Dataset and Fairness Benchmark [12.368133562194267]
AI-Faceデータセットは、人口統計学的にアノテートされた最初のAI生成顔画像データセットである。
このデータセットに基づいて、さまざまなAI顔検出装置を評価するために、最初の総合的公正度ベンチマークを行う。
論文 参考訳(メタデータ) (2024-06-02T15:51:33Z) - Improving Fairness using Vision-Language Driven Image Augmentation [60.428157003498995]
公平性は、特に顔領域において、ディープラーニングの識別モデルを訓練する際に重要である。
モデルは、特定の特性(年齢や肌の色など)と無関係な属性(下流タスク)を関連付ける傾向がある
本稿では,これらの相関を緩和し,公平性を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T19:51:10Z) - The Impact of Racial Distribution in Training Data on Face Recognition
Bias: A Closer Look [0.0]
トレーニングデータにおける人種分布が顔認識モデルの性能に及ぼす影響について検討する。
精度メトリクス、クラスタリングメトリクス、UMAPプロジェクション、顔の品質、決定しきい値を用いて、これらのトレーニングされたモデルを解析する。
論文 参考訳(メタデータ) (2022-11-26T07:03:24Z) - My Face My Choice: Privacy Enhancing Deepfakes for Social Media
Anonymization [4.725675279167593]
仮説的ソーシャルネットワークに3つの顔アクセスモデルを導入し、ユーザーが承認した写真にのみ現れる能力を持つ。
我々のアプローチは、現在のタグ付けシステムを廃止し、未承認の顔を定量的に異なるディープフェイクに置き換える。
その結果,7つのSOTA顔認識器を動作させることで,平均精度を61%削減できることがわかった。
論文 参考訳(メタデータ) (2022-11-02T17:58:20Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Explaining Bias in Deep Face Recognition via Image Characteristics [9.569575076277523]
2つのデータセットのセキュリティとユーザビリティの観点から,10種類の最先端の顔認識モデルを評価し,その妥当性を比較した。
次に,画像特性がモデル性能に与える影響を解析する。
論文 参考訳(メタデータ) (2022-08-23T17:18:23Z) - Meta Balanced Network for Fair Face Recognition [51.813457201437195]
我々は、データとアルゴリズムの両方の側面からバイアスを体系的に科学的に研究する。
本稿では,メタバランスネットワーク(MBN)と呼ばれるメタ学習アルゴリズムを提案する。
大規模な実験により、MBNは偏見を緩和し、顔認識において異なる肌のトーンを持つ人々に対してよりバランスの取れたパフォーマンスを学ぶことができた。
論文 参考訳(メタデータ) (2022-05-13T10:25:44Z) - Ethically aligned Deep Learning: Unbiased Facial Aesthetic Prediction [0.77477965522982]
我々は,現在最先端の魅力予測ネットワークであるAestheticNetを導入し,ピアソン相関0.9601で競合相手を著しく上回っている。
また,機械学習における公平性を改善するため,バイアスのないCNNを生成する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-09T13:53:32Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Investigating Bias in Deep Face Analysis: The KANFace Dataset and
Empirical Study [67.3961439193994]
現在までに最も包括的で大規模な顔画像とビデオのデータセットを導入している。
データは、アイデンティティ、正確な年齢、性別、親族関係の点で手動で注釈付けされる。
提案したベンチマークでネットワーク埋め込みをデバイアス化する手法を導入し,テストした。
論文 参考訳(メタデータ) (2020-05-15T00:14:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。