論文の概要: Fair Representation Learning for Heterogeneous Information Networks
- arxiv url: http://arxiv.org/abs/2104.08769v1
- Date: Sun, 18 Apr 2021 08:28:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 09:25:00.398235
- Title: Fair Representation Learning for Heterogeneous Information Networks
- Title(参考訳): 不均一情報ネットワークのための公正表現学習
- Authors: Ziqian Zeng, Rashidul Islam, Kamrun Naher Keya, James Foulds, Yangqiu
Song, Shimei Pan
- Abstract要約: 公平なHIN表現学習のための包括的非バイアス化手法を提案する。
これらのアルゴリズムの挙動,特にフェアネスと予測精度のトレードオフをバランスさせる能力について検討した。
キャリアカウンセリングの自動化アプリケーションにおいて,提案手法の性能を評価する。
- 参考スコア(独自算出の注目度): 35.80367469624887
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, much attention has been paid to the societal impact of AI,
especially concerns regarding its fairness. A growing body of research has
identified unfair AI systems and proposed methods to debias them, yet many
challenges remain. Representation learning for Heterogeneous Information
Networks (HINs), a fundamental building block used in complex network mining,
has socially consequential applications such as automated career counseling,
but there have been few attempts to ensure that it will not encode or amplify
harmful biases, e.g. sexism in the job market. To address this gap, in this
paper we propose a comprehensive set of de-biasing methods for fair HINs
representation learning, including sampling-based, projection-based, and graph
neural networks (GNNs)-based techniques. We systematically study the behavior
of these algorithms, especially their capability in balancing the trade-off
between fairness and prediction accuracy. We evaluate the performance of the
proposed methods in an automated career counseling application where we
mitigate gender bias in career recommendation. Based on the evaluation results
on two datasets, we identify the most effective fair HINs representation
learning techniques under different conditions.
- Abstract(参考訳): 近年、AIの社会的影響、特にその公正性に対する懸念に多くの注意が払われている。
研究機関が不公平なAIシステムを特定し、それらを嫌う方法を提案したが、多くの課題が残っている。
Heterogeneous Information Networks (HINs) の表現学習は、複雑なネットワークマイニングに使用される基本的なビルディングブロックであり、自動キャリアカウンセリングのような社会的に連続した応用があるが、有害なバイアスをエンコードまたは増幅しないようにするための試みは少ない。
職業市場での性差別です
本稿では,サンプルベース,プロジェクションベース,グラフニューラルネットワーク(GNN)に基づく手法を含む,公平なHIN表現学習のための包括的デバイアス手法を提案する。
我々は,これらのアルゴリズムの挙動,特にフェアネスと予測精度のトレードオフをバランスさせる能力について体系的に研究する。
我々は,職業推薦における性別バイアスを軽減する自動キャリアカウンセリングアプリケーションにおいて,提案手法の性能を評価する。
2つのデータセットの評価結果に基づいて、異なる条件下で最も有効なHIN表現学習手法を同定する。
関連論文リスト
- Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Debiasing Methods for Fairer Neural Models in Vision and Language
Research: A Survey [3.4767443062432326]
フェアネスを意識したニューラルネットワークの主なデバイアス法について,詳細な概要を述べる。
本研究では,公平性に関する嫌悪法に関する文献を整理する新しい分類法を提案する。
論文 参考訳(メタデータ) (2022-11-10T14:42:46Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - A Framework for Fairness: A Systematic Review of Existing Fair AI
Solutions [4.594159253008448]
公正性の研究の大部分は、機械学習の実践者がアルゴリズムを設計しながらバイアスを監査するために使用できるツールの開発に費やされている。
実際には、これらの公平性ソリューションの応用例が欠如している。
このレビューでは、定義されたアルゴリズムバイアス問題と提案された公正解空間の詳細な概要について述べる。
論文 参考訳(メタデータ) (2021-12-10T17:51:20Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Improving Fairness of AI Systems with Lossless De-biasing [15.039284892391565]
AIシステムのバイアスを緩和して全体的な公正性を高めることが重要な課題となっている。
我々は,不利益グループにおけるデータの不足を対象とする情報損失のない脱バイアス手法を提案する。
論文 参考訳(メタデータ) (2021-05-10T17:38:38Z) - FairCVtest Demo: Understanding Bias in Multimodal Learning with a
Testbed in Fair Automatic Recruitment [79.23531577235887]
このデモは、非構造化データから機密情報を抽出する採用ツールの背後にある人工知能(AI)の能力を示しています。
また、このデモには差別認識学習のための新しいアルゴリズムが含まれており、マルチモーダルAIフレームワークの機密情報を排除している。
論文 参考訳(メタデータ) (2020-09-12T17:45:09Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - No computation without representation: Avoiding data and algorithm
biases through diversity [11.12971845021808]
学術的および専門的なコンピューティング分野における多様性の欠如と、データセットで発生するバイアスのタイプと幅の関連性を引き合いに出す。
これらの教訓を利用して、コンピューティングコミュニティが多様性を高めるための具体的なステップを提供するレコメンデーションを開発する。
論文 参考訳(メタデータ) (2020-02-26T23:07:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。