論文の概要: A Study of Fairness Concerns in AI-based Mobile App Reviews
- arxiv url: http://arxiv.org/abs/2401.08097v2
- Date: Wed, 14 Feb 2024 03:33:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 18:43:34.230571
- Title: A Study of Fairness Concerns in AI-based Mobile App Reviews
- Title(参考訳): AIに基づくモバイルアプリレビューにおける公平性に関する考察
- Authors: Ali Rezaei Nasab, Maedeh Dashti, Mojtaba Shahin, Mansooreh Zahedi,
Hourieh Khalajzadeh, Chetan Arora, Peng Liang
- Abstract要約: 不正なAIベースのシステム、特に不公平なAIベースのモバイルアプリは、世界の人口のかなりの割合に困難をもたらす可能性がある。
まず, フェアネスと非フェアネスレビューの統計サンプルを含む, 地上真実のデータセットを手作業で構築した。
フェアネスレビューとフェアネスレビューを区別する機械学習とディープラーニングの分類器を開発し,評価した。
- 参考スコア(独自算出の注目度): 10.446921468117424
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness is one of the socio-technical concerns that must be addressed in
AI-based systems. Unfair AI-based systems, particularly unfair AI-based mobile
apps, can pose difficulties for a significant proportion of the global
population. This paper aims to analyze fairness concerns in AI-based app
reviews.We first manually constructed a ground-truth dataset, including a
statistical sample of fairness and non-fairness reviews. Leveraging the
ground-truth dataset, we developed and evaluated a set of machine learning and
deep learning classifiers that distinguish fairness reviews from non-fairness
reviews. Our experiments show that our best-performing classifier can detect
fairness reviews with a precision of 94%. We then applied the best-performing
classifier on approximately 9.5M reviews collected from 108 AI-based apps and
identified around 92K fairness reviews. Next, applying the K-means clustering
technique to the 92K fairness reviews, followed by manual analysis, led to the
identification of six distinct types of fairness concerns (e.g., 'receiving
different quality of features and services in different platforms and devices'
and 'lack of transparency and fairness in dealing with user-generated
content'). Finally, the manual analysis of 2,248 app owners' responses to the
fairness reviews identified six root causes (e.g., 'copyright issues') that app
owners report to justify fairness concerns.
- Abstract(参考訳): フェアネスは、AIベースのシステムで対処しなければならない社会技術的懸念の1つである。
不正なAIベースのシステム、特に不公平なAIベースのモバイルアプリは、世界の人口のかなりの割合に困難をもたらす可能性がある。
本稿では,aiベースのアプリレビューにおける公平性に関する懸念を分析することを目的として,まず,公平性および非公正性レビューの統計的サンプルを含む地対地データセットを手作業で構築した。
本研究では,不公平なレビューと公平なレビューを区別する機械学習とディープラーニングの分類器のセットを開発し,評価した。
実験の結果,最善の分類器は94%の精度で公平性評価を検出できることがわかった。
次に、AIベースの108のアプリから収集された約950万のレビューに対して、最高のパフォーマンスの分類器を適用し、92万のフェアネスレビューを特定した。
次に,92kのフェアネス評価にk-meansクラスタリング手法を適用し,手作業による分析を行い,6種類のフェアネス問題(「異なるプラットフォームやデバイスにおける機能やサービスの異なる品質の認識」や「ユーザ生成コンテンツを扱う際の透明性とフェアネスの欠如」など)を特定した。
最後に、フェアネスレビューに対する2,248人のアプリオーナーの回答のマニュアル分析では、アプリオーナーがフェアネスの懸念を正当化するために報告する6つの根本原因(例:「コピーライト問題」)が特定された。
関連論文リスト
- Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - A First Look at Fairness of Machine Learning Based Code Reviewer
Recommendation [14.50773969815661]
本稿では,ソフトウェア工学(SE)分野におけるMLアプリケーションの公平性に関する最初の研究を行う。
我々の実証研究は、現在最先端のMLベースのコードレビュアーレコメンデーション技術が不公平で差別的な行動を示すことを示している。
本稿では,MLベースのコードレビュアレコメンデーションシステムが不公平である理由についても論じ,不公平を緩和するための解決策を提供する。
論文 参考訳(メタデータ) (2023-07-21T01:57:51Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Counterpart Fairness -- Addressing Systematic between-group Differences
in Fairness Evaluation [18.372355677006965]
フェアネス評価が「オレンジ」と「アプルズ」とを比較することを防止する。
本稿では,機械学習モデルの公正度を評価するために,対向型統計公正度指数(Counterpart-Fairness,CFair)を提案する。
論文 参考訳(メタデータ) (2023-05-29T15:41:12Z) - Fair Spatial Indexing: A paradigm for Group Spatial Fairness [6.640563753223598]
機械学習における位置バイアスを軽減する手法を提案する。
本研究では,空間群フェアネスに着目し,空間群フェアネスを考慮に入れた空間インデックス化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-05T05:15:11Z) - Error Parity Fairness: Testing for Group Fairness in Regression Tasks [5.076419064097733]
この研究は、回帰フェアネスの概念としてエラーパリティを示し、グループフェアネスを評価するためのテスト手法を導入する。
続いて、いくつかの統計上のグループを比較し、格差を探索し、影響されたグループを特定するのに適した置換テストが実施される。
全体として、提案された回帰公正性テスト手法は、公正な機械学習文献のギャップを埋め、より大きなアカウンタビリティ評価とアルゴリズム監査の一部として機能する可能性がある。
論文 参考訳(メタデータ) (2022-08-16T17:47:20Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Improving Fairness of AI Systems with Lossless De-biasing [15.039284892391565]
AIシステムのバイアスを緩和して全体的な公正性を高めることが重要な課題となっている。
我々は,不利益グループにおけるデータの不足を対象とする情報損失のない脱バイアス手法を提案する。
論文 参考訳(メタデータ) (2021-05-10T17:38:38Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。