論文の概要: Disparate Impact of Artificial Intelligence Bias in Ridehailing
Economy's Price Discrimination Algorithms
- arxiv url: http://arxiv.org/abs/2006.04599v6
- Date: Mon, 3 May 2021 20:35:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 01:16:34.073580
- Title: Disparate Impact of Artificial Intelligence Bias in Ridehailing
Economy's Price Discrimination Algorithms
- Title(参考訳): ライダリング経済の価格判別アルゴリズムにおける人工知能バイアスの異質な影響
- Authors: Akshat Pandey and Aylin Caliskan
- Abstract要約: 配車アプリケーションで使用される価格判別アルゴリズムの異なる影響を大規模に測定する。
シカゴ市からの1億回のライドシェアリングサンプルの分析は、AIバイアスによる近隣地域の運賃価格に大きな差があることを示唆している。
- 参考スコア(独自算出の注目度): 2.5690340428649323
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Ridehailing applications that collect mobility data from individuals to
inform smart city planning predict each trip's fare pricing with automated
algorithms that rely on artificial intelligence (AI). This type of AI
algorithm, namely a price discrimination algorithm, is widely used in the
industry's black box systems for dynamic individualized pricing. Lacking
transparency, studying such AI systems for fairness and disparate impact has
not been possible without access to data used in generating the outcomes of
price discrimination algorithms. Recently, in an effort to enhance transparency
in city planning, the city of Chicago regulation mandated that transportation
providers publish anonymized data on ridehailing. As a result, we present the
first large-scale measurement of the disparate impact of price discrimination
algorithms used by ridehailing applications.
The application of random effects models from the meta-analysis literature
combines the city-level effects of AI bias on fare pricing from census tract
attributes, aggregated from the American Community Survey. An analysis of 100
million ridehailing samples from the city of Chicago indicates a significant
disparate impact in fare pricing of neighborhoods due to AI bias learned from
ridehailing utilization patterns associated with demographic attributes.
Neighborhoods with larger non-white populations, higher poverty levels, younger
residents, and high education levels are significantly associated with higher
fare prices, with combined effect sizes, measured in Cohen's d, of -0.32,
-0.28, 0.69, and 0.24 for each demographic, respectively. Further, our methods
hold promise for identifying and addressing the sources of disparate impact in
AI algorithms learning from datasets that contain U.S. geolocations.
- Abstract(参考訳): 個人からモビリティデータを収集してスマートシティ計画に通知するライデハリングアプリケーションは、人工知能(AI)に依存する自動アルゴリズムを使用して、各旅行の運賃を予測します。
このタイプのAIアルゴリズム、すなわち価格判別アルゴリズムは、動的に個別化された価格設定のために業界のブラックボックスシステムで広く使われている。
透明性の欠如により、価格識別アルゴリズムの結果を生成するのに使用されるデータにアクセスしなければ、公平性と異なる影響のためのaiシステムの研究は不可能である。
近年、都市計画の透明性を高めるため、シカゴ市規制は、交通事業者が配車に関する匿名データを公開することを義務付けた。
そこで,本研究では,配車アプリケーションで使用される価格識別アルゴリズムの異種影響を大規模に測定する最初の方法を提案する。
メタアナリシス文献からのランダム効果モデルの適用は、アメリカ・コミュニティ・サーベイ(american community survey)が集計した国勢調査の属性の運賃価格に対するaiバイアスの市レベルの効果を組み合わせたものである。
シカゴ市からの1億回の配車サンプルの分析によると、人口統計学的属性に関連する配車利用パターンから得られたAIバイアスにより、近隣地域の運賃価格に大きな異なる影響が示されている。
非白人人口が多い地域、高い貧困層、若い住民、高い教育水準の地域は、それぞれ、コーエンのd、-0.32、-0.28、0.69、および0.24で測定された効果の合計で、より高い運賃と大きく関連している。
さらに、我々の手法は、米国位置情報を含むデータセットから学習するAIアルゴリズムの異なる影響源を特定し、対処する約束を持っている。
関連論文リスト
- Mean Estimation with User-Level Privacy for Spatio-Temporal IoT Datasets [5.34194012533815]
実世界のデータセット上での低い推定誤差を保証するために,ユーザレベルの差分プライベートアルゴリズムを開発した。
インド都市のITMS(Intelligent Traffic Management System)データを用いて,本アルゴリズムを検証した。
ファストケースデータセットにおける擬似ユーザ生成に基づくアルゴリズムの性能を,ミニマックスアプローチを用いて評価する。
論文 参考訳(メタデータ) (2024-01-29T06:21:29Z) - Your Room is not Private: Gradient Inversion Attack on Reinforcement
Learning [47.96266341738642]
プライバシーは、ロボットが実質的な個人情報にアクセスすることによって、具体化されたAIの領域における重要な関心事として浮上する。
本稿では, 状態, 行動, 監視信号の再構成に勾配インバージョンを利用する, 値ベースアルゴリズムと勾配ベースアルゴリズムに対する攻撃を提案する。
論文 参考訳(メタデータ) (2023-06-15T16:53:26Z) - Unsupervised Self-Driving Attention Prediction via Uncertainty Mining
and Knowledge Embedding [51.8579160500354]
本研究では、不確実性モデリングと知識統合の駆動による自動運転の注意を予測できる教師なし手法を提案する。
結果は、完全に教師された最先端のアプローチと比較して、同等またはさらに印象的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-03-17T00:28:33Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - IWA: Integrated Gradient based White-box Attacks for Fooling Deep Neural
Networks [4.739554342067529]
Adversarial White-box Adversarial Example Generation Algorithm (IWA): IFPAとIUA。
本稿では,2つの勾配に基づくWhite-box Adversarial Example Generationアルゴリズム(IWA:IFPAとIUA)を提案する。
我々は,提案アルゴリズムの有効性を構造化データセットと非構造化データセットの両方で検証し,それらを5つのベースライン生成アルゴリズムと比較した。
論文 参考訳(メタデータ) (2021-02-03T16:10:42Z) - Reducing Discrimination in Learning Algorithms for Social Good in
Sociotechnical Systems [0.0]
都市のスマートモビリティイニシアチブは、機械学習アルゴリズムを使って課題に対処する。
また、これらのアルゴリズムが社会経済的地位などの特徴に対して意図せず差別し、アルゴリズムフェアネスの重要性を動機付けている点についても論じる。
論文 参考訳(メタデータ) (2020-11-27T20:45:10Z) - FairCVtest Demo: Understanding Bias in Multimodal Learning with a
Testbed in Fair Automatic Recruitment [79.23531577235887]
このデモは、非構造化データから機密情報を抽出する採用ツールの背後にある人工知能(AI)の能力を示しています。
また、このデモには差別認識学習のための新しいアルゴリズムが含まれており、マルチモーダルAIフレームワークの機密情報を排除している。
論文 参考訳(メタデータ) (2020-09-12T17:45:09Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。