論文の概要: Visual Analysis of Discrimination in Machine Learning
- arxiv url: http://arxiv.org/abs/2007.15182v1
- Date: Thu, 30 Jul 2020 02:07:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 14:50:43.823314
- Title: Visual Analysis of Discrimination in Machine Learning
- Title(参考訳): 機械学習における識別の視覚的分析
- Authors: Qianwen Wang, Zhenhua Xu, Zhutian Chen, Yong Wang, Shixia Liu, and
Huamin Qu
- Abstract要約: 機械学習における識別のより包括的な分析を支援するために,インタラクティブな可視化ツールであるDiscriLensを提案する。
拡張されたオイラー図と行列に基づく可視化を組み合わせることで、識別項目の探索と解釈を容易にする新しい集合の可視化を開発する。
ユーザスタディでは、視覚的に符号化された情報をDiscriLensで迅速かつ正確に解釈できることが示されている。
- 参考スコア(独自算出の注目度): 40.678688013911994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The growing use of automated decision-making in critical applications, such
as crime prediction and college admission, has raised questions about fairness
in machine learning. How can we decide whether different treatments are
reasonable or discriminatory? In this paper, we investigate discrimination in
machine learning from a visual analytics perspective and propose an interactive
visualization tool, DiscriLens, to support a more comprehensive analysis. To
reveal detailed information on algorithmic discrimination, DiscriLens
identifies a collection of potentially discriminatory itemsets based on causal
modeling and classification rules mining. By combining an extended Euler
diagram with a matrix-based visualization, we develop a novel set visualization
to facilitate the exploration and interpretation of discriminatory itemsets. A
user study shows that users can interpret the visually encoded information in
DiscriLens quickly and accurately. Use cases demonstrate that DiscriLens
provides informative guidance in understanding and reducing algorithmic
discrimination.
- Abstract(参考訳): 犯罪予測や大学入学など、重要なアプリケーションにおける自動意思決定の利用の増加は、機械学習における公正性に関する疑問を提起している。
異なる治療法が合理的か差別的であるかをどう判断するか。
本稿では,視覚分析の観点から機械学習の識別を調査し,より包括的な解析を支援するインタラクティブ可視化ツールdiscrilensを提案する。
アルゴリズムの識別に関する詳細な情報を明らかにするため、識別は因果モデルと分類規則のマイニングに基づいて、潜在的に識別可能な項目の集合を識別する。
拡張eulerダイアグラムと行列ベースの可視化を組み合わせることで,識別項目セットの探索と解釈を容易にする新しい可視化手法を開発した。
ユーザ調査の結果,視覚的に符号化された情報を迅速かつ正確に解釈できることがわかった。
ユースケースは、DiscriLensがアルゴリズムの識別の理解と削減に有益なガイダンスを提供することを示している。
関連論文リスト
- Learning Common Rationale to Improve Self-Supervised Representation for
Fine-Grained Visual Recognition Problems [61.11799513362704]
我々は、インスタンスやクラスでよく見られる差別的手がかりを識別するための、追加のスクリーニングメカニズムの学習を提案する。
SSL目標から誘導されるGradCAMを単純に利用することで、共通な有理性検出器が学習可能であることを示す。
論文 参考訳(メタデータ) (2023-03-03T02:07:40Z) - Self-Supervised Visual Representation Learning with Semantic Grouping [50.14703605659837]
我々は、未ラベルのシーン中心のデータから視覚表現を学習する問題に取り組む。
本研究では,データ駆動型セマンティックスロット,すなわちSlotConによる協調型セマンティックグルーピングと表現学習のためのコントラスト学習を提案する。
論文 参考訳(メタデータ) (2022-05-30T17:50:59Z) - CAiD: Context-Aware Instance Discrimination for Self-supervised Learning
in Medical Imaging [7.137224324997715]
コンテキスト対応インスタンス識別(CAiD)は、医療画像におけるインスタンス識別学習を改善することを目的としている。
CAiDは、様々なローカルコンテキストから符号化された、より細分化した情報を提供する。
オープンサイエンスとして、すべてのコードと事前トレーニングされたモデルは、GitHubのページで利用可能です。
論文 参考訳(メタデータ) (2022-04-15T06:45:10Z) - fairadapt: Causal Reasoning for Fair Data Pre-processing [2.1915057426589746]
因果推論前処理方式を実装したR-package fairadaptについて記述する。
結果に対する感度特性から特定の因果経路が識別できないと仮定する適切な緩和について論じる。
論文 参考訳(メタデータ) (2021-10-19T18:48:28Z) - Adversarial Stacked Auto-Encoders for Fair Representation Learning [1.061960673667643]
そこで本稿では,データ表現のさまざまなレベルを活用して,学習した表現の公平性境界を厳格化するための,新しい公正表現学習手法を提案する。
その結果、異なる自動エンコーダを積み重ね、異なる潜在空間でフェアネスを強制すると、他の既存手法と比較してフェアネスが向上することがわかった。
論文 参考訳(メタデータ) (2021-07-27T13:49:18Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Interpretable Representations in Explainable AI: From Theory to Practice [7.031336702345381]
解釈可能な表現は、ブラックボックス予測システムをターゲットにした多くの説明器のバックボーンである。
人間の理解可能な概念の存在と欠如をエンコードする解釈可能な表現の特性について検討する。
論文 参考訳(メタデータ) (2020-08-16T21:44:03Z) - Self-supervised Learning from a Multi-view Perspective [121.63655399591681]
自己教師型表現はタスク関連情報を抽出し,タスク関連情報を破棄することができることを示す。
我々の理論的枠組みは、自己教師型学習目標設計のより広い空間への道を開くものである。
論文 参考訳(メタデータ) (2020-06-10T00:21:35Z) - Fairness by Learning Orthogonal Disentangled Representations [50.82638766862974]
不変表現問題に対する新しい非絡み合い手法を提案する。
エントロピーによりセンシティブな情報に依存しない有意義な表現を強制する。
提案手法は5つの公開データセットで評価される。
論文 参考訳(メタデータ) (2020-03-12T11:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。