論文の概要: A Study of Fairness Concerns in AI-based Mobile App Reviews
- arxiv url: http://arxiv.org/abs/2401.08097v1
- Date: Tue, 16 Jan 2024 03:43:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 15:16:12.404336
- Title: A Study of Fairness Concerns in AI-based Mobile App Reviews
- Title(参考訳): AIに基づくモバイルアプリレビューにおける公平性に関する考察
- Authors: Ali Rezaei Nasab, Maedeh Dashti, Mojtaba Shahin, Mansooreh Zahedi,
Hourieh Khalajzadeh, Chetan Arora, Peng Liang
- Abstract要約: フェアネスは、AIベースのシステムで対処しなければならない社会技術的懸念の1つである。
不正なAIベースのシステム、特に不公平なAIベースのモバイルアプリは、世界の人口のかなりの割合で困難を引き起こす可能性がある。
本稿では、AIベースのアプリレビューにおける公平性に関する懸念を深く分析することを目的としている。
- 参考スコア(独自算出の注目度): 10.446921468117424
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the growing application of AI-based systems in our lives and society,
there is a rising need to ensure that AI-based systems are developed and used
in a responsible way. Fairness is one of the socio-technical concerns that must
be addressed in AI-based systems for this purpose. Unfair AI-based systems,
particularly, unfair AI-based mobile apps, can pose difficulties for a
significant proportion of the global populace. This paper aims to deeply
analyze fairness concerns in AI-based app reviews. We first manually
constructed a ground-truth dataset including a statistical sample of fairness
and non-fairness reviews. Leveraging the ground-truth dataset, we then
developed and evaluated a set of machine learning and deep learning classifiers
that distinguish fairness reviews from non-fairness reviews. Our experiments
show that our best-performing classifier can detect fairness reviews with a
precision of 94%. We then applied the best-performing classifier on
approximately 9.5M reviews collected from 108 AI-based apps and identified
around 92K fairness reviews. While the fairness reviews appear in 23 app
categories, we found that the 'communication' and 'social' app categories have
the highest percentage of fairness reviews. Next, applying the K-means
clustering technique to the 92K fairness reviews, followed by manual analysis,
led to the identification of six distinct types of fairness concerns (e.g.,
'receiving different quality of features and services in different platforms
and devices' and 'lack of transparency and fairness in dealing with
user-generated content'). Finally, the manual analysis of 2,248 app owners'
responses to the fairness reviews identified six root causes (e.g., 'copyright
issues', 'external factors', 'development cost') that app owners report to
justify fairness concerns.
- Abstract(参考訳): AIベースのシステムが私たちの生活や社会に浸透するにつれ、AIベースのシステムが開発され、責任ある方法で使用されることを保証する必要性が高まっています。
フェアネスは、この目的のためにAIベースのシステムで対処しなければならない社会技術的懸念の1つである。
不正なAIベースのシステム、特に不公平なAIベースのモバイルアプリは、世界の人口のかなりの割合で困難を引き起こす可能性がある。
本稿では,AIベースのアプリレビューにおける公平性の懸念を深く分析することを目的とする。
まず,フェアネスと非フェアネス評価の統計的サンプルを含む地上データセットを手作業で構築した。
そこで,本研究では,Fairnessレビューと非Fairnessレビューを区別する機械学習およびディープラーニング分類器の開発と評価を行った。
実験の結果,最善の分類器は94%の精度で公平性評価を検出できることがわかった。
次に、AIベースの108のアプリから収集された約950万のレビューに対して、最高のパフォーマンスの分類器を適用し、92万のフェアネスレビューを特定した。
フェアネスレビューは23のアプリカテゴリに表示されるが、"コミュニケーション"と"ソーシャル"アプリカテゴリはフェアネスレビューの比率が最も高いことがわかった。
次に,92kのフェアネス評価にk-meansクラスタリング手法を適用し,手作業による分析を行い,6種類のフェアネス問題(「異なるプラットフォームやデバイスにおける機能やサービスの異なる品質の認識」や「ユーザ生成コンテンツを扱う際の透明性とフェアネスの欠如」など)を特定した。
最後に、フェアネスレビューに対する2,248人のアプリオーナーの回答を手動で分析した結果、6つの根本原因(例えば、"copyright issues"、"external factors"、"development cost")が判明した。
関連論文リスト
- Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - A First Look at Fairness of Machine Learning Based Code Reviewer
Recommendation [14.50773969815661]
本稿では,ソフトウェア工学(SE)分野におけるMLアプリケーションの公平性に関する最初の研究を行う。
我々の実証研究は、現在最先端のMLベースのコードレビュアーレコメンデーション技術が不公平で差別的な行動を示すことを示している。
本稿では,MLベースのコードレビュアレコメンデーションシステムが不公平である理由についても論じ,不公平を緩和するための解決策を提供する。
論文 参考訳(メタデータ) (2023-07-21T01:57:51Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Counterpart Fairness -- Addressing Systematic between-group Differences
in Fairness Evaluation [18.372355677006965]
フェアネス評価が「オレンジ」と「アプルズ」とを比較することを防止する。
本稿では,機械学習モデルの公正度を評価するために,対向型統計公正度指数(Counterpart-Fairness,CFair)を提案する。
論文 参考訳(メタデータ) (2023-05-29T15:41:12Z) - Fair Spatial Indexing: A paradigm for Group Spatial Fairness [6.640563753223598]
機械学習における位置バイアスを軽減する手法を提案する。
本研究では,空間群フェアネスに着目し,空間群フェアネスを考慮に入れた空間インデックス化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-05T05:15:11Z) - Error Parity Fairness: Testing for Group Fairness in Regression Tasks [5.076419064097733]
この研究は、回帰フェアネスの概念としてエラーパリティを示し、グループフェアネスを評価するためのテスト手法を導入する。
続いて、いくつかの統計上のグループを比較し、格差を探索し、影響されたグループを特定するのに適した置換テストが実施される。
全体として、提案された回帰公正性テスト手法は、公正な機械学習文献のギャップを埋め、より大きなアカウンタビリティ評価とアルゴリズム監査の一部として機能する可能性がある。
論文 参考訳(メタデータ) (2022-08-16T17:47:20Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Improving Fairness of AI Systems with Lossless De-biasing [15.039284892391565]
AIシステムのバイアスを緩和して全体的な公正性を高めることが重要な課題となっている。
我々は,不利益グループにおけるデータの不足を対象とする情報損失のない脱バイアス手法を提案する。
論文 参考訳(メタデータ) (2021-05-10T17:38:38Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。