論文の概要: Models and Mechanisms for Fairness in Location Data Processing
- arxiv url: http://arxiv.org/abs/2204.01880v1
- Date: Mon, 4 Apr 2022 22:57:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-06 23:43:36.827066
- Title: Models and Mechanisms for Fairness in Location Data Processing
- Title(参考訳): 位置データ処理における公平性モデルとメカニズム
- Authors: Sina Shaham, Gabriel Ghinita, Cyrus Shahabi
- Abstract要約: 位置情報の利用は、モバイルアプリの出現や、スマートヘルスやスマートシティといった新しい分野によって、この10年間で広く普及している。
同時に、データ処理の公平性に関して重要な懸念が浮かび上がっている。
本稿では、位置データと空間処理の特定の特性に適合する既存の公正度モデルを適用する。
- 参考スコア(独自算出の注目度): 6.640563753223598
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Location data use has become pervasive in the last decade due to the advent
of mobile apps, as well as novel areas such as smart health, smart cities, etc.
At the same time, significant concerns have surfaced with respect to fairness
in data processing. Individuals from certain population segments may be
unfairly treated when being considered for loan or job applications, access to
public resources, or other types of services. In the case of location data,
fairness is an important concern, given that an individual's whereabouts are
often correlated with sensitive attributes, e.g., race, income, education.
While fairness has received significant attention recently, e.g., in the case
of machine learning, there is little focus on the challenges of achieving
fairness when dealing with location data. Due to their characteristics and
specific type of processing algorithms, location data pose important fairness
challenges that must be addressed in a comprehensive and effective manner. In
this paper, we adapt existing fairness models to suit the specific properties
of location data and spatial processing. We focus on individual fairness, which
is more difficult to achieve, and more relevant for most location data
processing scenarios. First, we devise a novel building block to achieve
fairness in the form of fair polynomials. Then, we propose two mechanisms based
on fair polynomials that achieve individual fairness, corresponding to two
common interaction types based on location data. Extensive experimental results
on real data show that the proposed mechanisms achieve individual location
fairness without sacrificing utility.
- Abstract(参考訳): 位置情報の利用は、モバイルアプリの登場や、スマートヘルスやスマートシティといった新しい分野によって、過去10年間で広く普及しています。
同時に、データ処理の公平性に関して重要な懸念が浮かび上がっている。
特定の人口区分の個人は、ローンや求職、公共資源へのアクセス、その他の種類のサービスに対して不公平に扱われることがある。
場所データの場合、公正性は重要な関心事であり、例えば、人種、収入、教育など、個人の居場所は、しばしばセンシティブな属性と相関している。
機械学習の場合のように、近年フェアネスは大きな注目を集めているが、ロケーションデータを扱うフェアネスを達成するという課題にはほとんど焦点が当てられていない。
その特徴と特定の種類の処理アルゴリズムにより、位置データは包括的かつ効果的な方法で対処されなければならない重要な公平性の問題をもたらす。
本稿では,既存のフェアネスモデルを位置データと空間処理の特定の特性に適合させる。
我々は、より達成が難しく、ほとんどの位置データ処理シナリオに関連性が高い個別の公平性に焦点を当てる。
まず、フェア多項式の形で公平性を達成するために、新しいビルディングブロックを考案する。
そこで本研究では,位置データに基づく2つの共通相互作用タイプに対応する,公正な多項式に基づく2つのメカニズムを提案する。
実データを用いた広範囲な実験結果から,提案手法が有用性を犠牲にすることなく,個別の位置公平性を実現することが示された。
関連論文リスト
- FairJob: A Real-World Dataset for Fairness in Online Systems [2.3622884172290255]
広告における求人推薦のためのフェアネス対応データセットを提案する。
収集され、プライバシー基準とビジネス機密に準拠する準備が整った。
匿名化され、センシティブな属性のプロキシを含むにもかかわらず、データセットは予測力を保持します。
論文 参考訳(メタデータ) (2024-07-03T12:30:39Z) - Toward Fairer Face Recognition Datasets [69.04239222633795]
顔認識と検証は、ディープ表現の導入によってパフォーマンスが向上したコンピュータビジョンタスクである。
実際のトレーニングデータセットにおける顔データとバイアスのセンシティブな性格による倫理的、法的、技術的な課題は、彼らの開発を妨げる。
生成されたトレーニングデータセットに階層属性のバランス機構を導入することにより、公平性を促進する。
論文 参考訳(メタデータ) (2024-06-24T12:33:21Z) - Utility-Fairness Trade-Offs and How to Find Them [14.1278892335105]
データ・スペースとラベル・スペースのトレードオフという2つのユーティリティ・フェアネスのトレードオフを紹介します。
本稿では,データサンプルから与えられた予測タスクとグループフェアネス定義のトレードオフを数値的に定量化する方法であるU-FaTEを提案する。
1000以上の事前訓練されたモデルからのフェア表現学習手法と表現の広範な評価により、現在のほとんどのアプローチは、推定され、達成可能なフェアネスユーティリティトレードオフからかけ離れていることが明らかとなった。
論文 参考訳(メタデータ) (2024-04-15T04:43:53Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fair Spatial Indexing: A paradigm for Group Spatial Fairness [6.640563753223598]
機械学習における位置バイアスを軽減する手法を提案する。
本研究では,空間群フェアネスに着目し,空間群フェアネスを考慮に入れた空間インデックス化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-05T05:15:11Z) - Context matters for fairness -- a case study on the effect of spatial
distribution shifts [10.351739012146378]
本稿では,新たに発表された米国国勢調査データセットのケーススタディについて述べる。
空間分布の変化がモデルの性能および公平性にどのように影響するかを示す。
我々の研究は、別の文脈にモデルをデプロイする前に、分散シフトに対する堅牢性が必要であることを示唆している。
論文 参考訳(メタデータ) (2022-06-23T01:09:46Z) - FairVFL: A Fair Vertical Federated Learning Framework with Contrastive
Adversarial Learning [102.92349569788028]
本稿では,VFLモデルの公平性を改善するために,FairVFL( Fair vertical federated learning framework)を提案する。
FairVFLの中核となる考え方は、分散化された機能フィールドに基づいたサンプルの統一的で公正な表現を、プライバシ保護の方法で学習することである。
ユーザのプライバシ保護のために,サーバ内の統一表現からプライベート情報を除去する対向学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-07T11:43:32Z) - A survey on datasets for fairness-aware machine learning [6.962333053044713]
多くのフェアネス対応機械学習ソリューションが提案されている。
本稿では,フェアネスを意識した機械学習に使用される実世界のデータセットについて概説する。
データセットのバイアスと公平性についてより深く理解するために、探索分析を用いて興味深い関係を考察する。
論文 参考訳(メタデータ) (2021-10-01T16:54:04Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。