論文の概要: Neural Fair Collaborative Filtering
- arxiv url: http://arxiv.org/abs/2009.08955v1
- Date: Wed, 2 Sep 2020 05:11:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 19:02:58.293705
- Title: Neural Fair Collaborative Filtering
- Title(参考訳): ニューラルフェア協調フィルタリング
- Authors: Rashidul Islam, Kamrun Naher Keya, Ziqian Zeng, Shimei Pan, James
Foulds
- Abstract要約: 神経フェアコラボレーティブ・フィルタリング(NFCF)は、センシティブな項目を推奨する性別バイアスを軽減するためのフレームワークである。
性別非バイアスのキャリアに対する私たちの手法の有用性と、MovieLensデータセットとFacebookデータセットに関する大学の主要な推奨事項を示す。
- 参考スコア(独自算出の注目度): 8.8896707993459
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A growing proportion of human interactions are digitized on social media
platforms and subjected to algorithmic decision-making, and it has become
increasingly important to ensure fair treatment from these algorithms. In this
work, we investigate gender bias in collaborative-filtering recommender systems
trained on social media data. We develop neural fair collaborative filtering
(NFCF), a practical framework for mitigating gender bias in recommending
sensitive items (e.g. jobs, academic concentrations, or courses of study) using
a pre-training and fine-tuning approach to neural collaborative filtering,
augmented with bias correction techniques. We show the utility of our methods
for gender de-biased career and college major recommendations on the MovieLens
dataset and a Facebook dataset, respectively, and achieve better performance
and fairer behavior than several state-of-the-art models.
- Abstract(参考訳): 人的相互作用の割合はソーシャルメディアプラットフォーム上でデジタル化され、アルゴリズムによる意思決定の対象となり、これらのアルゴリズムから公平な扱いを確実にすることがますます重要になっている。
本研究では,ソーシャルメディアデータを用いた協調フィルタリング推薦システムにおける性別バイアスについて検討する。
ニューラルフェア協調フィルタリング (neural fair collaborative filtering, nfcf) は,神経協調フィルタリングに対する事前訓練と微調整のアプローチを用いて,敏感な項目 (仕事, 学術的集中, 研究コースなど) を推薦する上で, ジェンダーバイアスを緩和するための実用的なフレームワークである。
そこで本研究では,本手法の有用性を,映画レンスデータセットとfacebookデータセット上で評価し,いくつかの最新モデルよりも優れたパフォーマンスと公平な行動を実現する。
関連論文リスト
- Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Emergent Instabilities in Algorithmic Feedback Loops [3.4711828357576855]
教師-学生の学習シミュレーションを用いて,推薦アルゴリズムにおけるアルゴリズムの相違について検討する。
結果は、人とアルゴリズム間の相互作用から創発的な行動を説明する必要性を強調している。
論文 参考訳(メタデータ) (2022-01-18T18:58:03Z) - A Field Guide to Federated Optimization [161.3779046812383]
フェデレートされた学習と分析は、分散化されたデータからモデル(あるいは統計)を協調的に学習するための分散アプローチである。
本稿では、フェデレート最適化アルゴリズムの定式化、設計、評価、分析に関する勧告とガイドラインを提供する。
論文 参考訳(メタデータ) (2021-07-14T18:09:08Z) - Bias: Friend or Foe? User Acceptance of Gender Stereotypes in Automated
Career Recommendations [8.44485053836748]
我々は、公正なAIアルゴリズムが現実の世界でその意図した結果を達成するには不十分であることを示した。
キャリアレコメンデーションをケーススタディとして利用し、ジェンダーの偏りを抑える機械学習技術を用いて、公正なAIキャリアレコメンデーターを構築する。
論文 参考訳(メタデータ) (2021-06-13T23:27:45Z) - Fair Representation Learning for Heterogeneous Information Networks [35.80367469624887]
公平なHIN表現学習のための包括的非バイアス化手法を提案する。
これらのアルゴリズムの挙動,特にフェアネスと予測精度のトレードオフをバランスさせる能力について検討した。
キャリアカウンセリングの自動化アプリケーションにおいて,提案手法の性能を評価する。
論文 参考訳(メタデータ) (2021-04-18T08:28:18Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Towards causal benchmarking of bias in face analysis algorithms [54.19499274513654]
顔分析アルゴリズムのアルゴリズムバイアスを測定する実験手法を開発した。
提案手法は,一致したサンプル画像の合成トランスクター'を生成することに基づく。
性別分類アルゴリズムの偏見を従来の観察法を用いて分析することにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-07-13T17:10:34Z) - Human Trajectory Forecasting in Crowds: A Deep Learning Perspective [89.4600982169]
本稿では,既存の深層学習に基づくソーシャルインタラクションのモデル化手法について詳細に分析する。
本稿では、これらの社会的相互作用を効果的に捉えるための知識に基づく2つのデータ駆動手法を提案する。
我々は,人間の軌道予測分野において,重要かつ欠落したコンポーネントであるTrajNet++を大規模に開発する。
論文 参考訳(メタデータ) (2020-07-07T17:19:56Z) - Mitigating Gender Bias in Machine Learning Data Sets [5.075506385456811]
ジェンダーバイアスは雇用広告や採用ツールの文脈で特定されている。
本稿では,機械学習のためのトレーニングデータにおける性別バイアスの同定のための枠組みを提案する。
論文 参考訳(メタデータ) (2020-05-14T12:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。