論文の概要: Testing software for non-discrimination: an updated and extended audit in the Italian car insurance domain
- arxiv url: http://arxiv.org/abs/2502.06439v1
- Date: Mon, 10 Feb 2025 13:16:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:36:27.511461
- Title: Testing software for non-discrimination: an updated and extended audit in the Italian car insurance domain
- Title(参考訳): 非差別のためのテストソフトウェア:イタリア自動車保険の更新および拡張監査
- Authors: Marco Rondina, Antonio Vetrò, Riccardo Coppola, Oumaima Regragrui, Alessandro Fabris, Gianmaria Silvello, Gian Antonio Susto, Juan Carlos De Martin,
- Abstract要約: 価格アルゴリズムの公正さは、保護された属性に基づいて差別することなく、基本サービスへの公平なアクセスを可能にする。
我々は、ブラックボックステストを使ってイタリアの自動車保険会社が使用している価格アルゴリズムを監査する以前の実証研究を再現した。
- 参考スコア(独自算出の注目度): 40.846175330181005
- License:
- Abstract: Context. As software systems become more integrated into society's infrastructure, the responsibility of software professionals to ensure compliance with various non-functional requirements increases. These requirements include security, safety, privacy, and, increasingly, non-discrimination. Motivation. Fairness in pricing algorithms grants equitable access to basic services without discriminating on the basis of protected attributes. Method. We replicate a previous empirical study that used black box testing to audit pricing algorithms used by Italian car insurance companies, accessible through a popular online system. With respect to the previous study, we enlarged the number of tests and the number of demographic variables under analysis. Results. Our work confirms and extends previous findings, highlighting the problematic permanence of discrimination across time: demographic variables significantly impact pricing to this day, with birthplace remaining the main discriminatory factor against individuals not born in Italian cities. We also found that driver profiles can determine the number of quotes available to the user, denying equal opportunities to all. Conclusion. The study underscores the importance of testing for non-discrimination in software systems that affect people's everyday lives. Performing algorithmic audits over time makes it possible to evaluate the evolution of such algorithms. It also demonstrates the role that empirical software engineering can play in making software systems more accountable.
- Abstract(参考訳): コンテキスト。
ソフトウェアシステムが社会のインフラに統合されるにつれて、ソフトウェア専門家の様々な非機能要件へのコンプライアンスを保証する責任が増大する。
これらの要件には、セキュリティ、安全性、プライバシー、そしてますます非差別化が含まれる。
モチベーション。
価格アルゴリズムの公正さは、保護された属性に基づいて差別することなく、基本サービスへの公平なアクセスを可能にする。
方法。
我々は、ブラックボックステストを使ってイタリアの自動車保険会社が利用した価格アルゴリズムを監査し、人気のあるオンラインシステムを通じてアクセスできるようにする、以前の実証的研究を再現した。
前回の研究では、分析対象の検査数と人口統計学的変数数を拡大した。
結果。
イタリアの都市で生まれていない個人に対して、出生地が主要な差別要因として残っており、人口統計学の変数は今日の価格に大きく影響している。
また、ドライバーのプロフィールが利用者に利用可能な引用回数を決定できることもわかりました。
結論。
この研究は、人々の日常生活に影響を与えるソフトウェアシステムにおける非差別テストの重要性を強調している。
時間とともにアルゴリズム監査を行うことで、そのようなアルゴリズムの進化を評価することができる。
また、経験的ソフトウェア工学がソフトウェアシステムをより説明しやすいものにする役割も示している。
関連論文リスト
- Exposing Algorithmic Discrimination and Its Consequences in Modern
Society: Insights from a Scoping Study [0.0]
この研究は、アルゴリズム的差別を報告している長年にわたる様々な研究を掘り下げている。
私たちはこの問題に対処するソフトウェア工学の研究者や実践者を支援することを目指しています。
論文 参考訳(メタデータ) (2023-12-08T05:09:00Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Discrimination in machine learning algorithms [0.0]
機械学習アルゴリズムは、例えば信用スコアリングアルゴリズムがローンを拒否するため、個人に直接影響を及ぼす可能性のあるビジネス上の決定に日常的に使用される。
そして、倫理的(かつ法的)の観点から、これらのアルゴリズムが(性や人種のような)センシティブな属性に基づいて識別しないことを保証する。
論文 参考訳(メタデータ) (2022-06-30T21:35:42Z) - Algorithmic Fairness and Vertical Equity: Income Fairness with IRS Tax
Audit Models [73.24381010980606]
本研究は、IRSによる税務監査選択を通知するシステムの文脈におけるアルゴリズムフェアネスの問題について検討する。
監査を選択するための柔軟な機械学習手法が、垂直エクイティにどのように影響するかを示す。
この結果は,公共セクター全体でのアルゴリズムツールの設計に影響を及ぼす。
論文 参考訳(メタデータ) (2022-06-20T16:27:06Z) - Evaluating Proposed Fairness Models for Face Recognition Algorithms [0.0]
本稿では,米国と欧州の科学者による顔認識アルゴリズムの公正度(公正度)の2つの尺度を特徴付ける。
本稿では,顔認識アルゴリズムの公正度測定において望ましい特性の集合を概説した,機能的公正度基準(FFMC)と呼ばれる解釈可能性基準を提案する。
これは現在、この種のオープンソースデータセットとしては最大のものだと考えています。
論文 参考訳(メタデータ) (2022-03-09T21:16:43Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - A Normative approach to Attest Digital Discrimination [6.372554934045607]
例えば、高利息ローンや低信用スコアを対象とする低所得地区や、オンラインマーケティングにおいて女性が21%過小評価されている例がある。
私たちは、デジタル差別につながる可能性のあるさまざまな状況を表現するために、規範を抽象化として使用しています。
特に、MLシステムの文脈における非差別規範を定式化し、MLシステムがこれらの規範に違反しているかどうかを確認するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-14T15:14:52Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - DeBayes: a Bayesian Method for Debiasing Network Embeddings [16.588468396705366]
DeBayes は,偏りの偏った埋め込みを学習できる概念的かつエレガントなベイズ的手法である。
実験の結果、これらの表現は、一般的なメトリクスの観点ではかなり公平なリンク予測を行うのに利用できることがわかった。
論文 参考訳(メタデータ) (2020-02-26T12:57:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。