論文の概要: The Impact of Presentation Style on Human-In-The-Loop Detection of
Algorithmic Bias
- arxiv url: http://arxiv.org/abs/2004.12388v3
- Date: Sat, 9 May 2020 22:30:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 14:04:44.295220
- Title: The Impact of Presentation Style on Human-In-The-Loop Detection of
Algorithmic Bias
- Title(参考訳): アルゴリズムバイアスの検出におけるプレゼンテーションスタイルの影響
- Authors: Po-Ming Law, Sana Malik, Fan Du, Moumita Sinha
- Abstract要約: 半自動バイアス検出ツールは、リコメンデーションリストやビジュアルキューを使用して自動的に検出されたバイアスのレポートを表示することが多い。
バイアスレポートのレビューにおいて,プレゼンテーションスタイルがユーザの行動に与える影響について検討した。
バイアス検出タスクを特徴付ける2つの軸として,情報負荷と包括性を提案する。
- 参考スコア(独自算出の注目度): 18.05880738470364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While decision makers have begun to employ machine learning, machine learning
models may make predictions that bias against certain demographic groups.
Semi-automated bias detection tools often present reports of
automatically-detected biases using a recommendation list or visual cues.
However, there is a lack of guidance concerning which presentation style to use
in what scenarios. We conducted a small lab study with 16 participants to
investigate how presentation style might affect user behaviors in reviewing
bias reports. Participants used both a prototype with a recommendation list and
a prototype with visual cues for bias detection. We found that participants
often wanted to investigate the performance measures that were not
automatically detected as biases. Yet, when using the prototype with a
recommendation list, they tended to give less consideration to such measures.
Grounded in the findings, we propose information load and comprehensiveness as
two axes for characterizing bias detection tasks and illustrate how the two
axes could be adopted to reason about when to use a recommendation list or
visual cues.
- Abstract(参考訳): 意思決定者は機械学習を採用し始めているが、機械学習モデルは特定の人口集団に偏る予測をするかもしれない。
半自動バイアス検出ツールは、推奨リストまたは視覚手がかりを使用して自動的に検出されたバイアスの報告を表示することが多い。
しかし、どのシナリオでどのプレゼンテーションスタイルを使うべきかについては、ガイダンスがない。
16名を対象に小実験を行い, バイアスレポートのレビューにおいて, プレゼンテーションスタイルがユーザ行動に与える影響について検討した。
参加者は推奨リストを持つプロトタイプと、バイアス検出のための視覚的手がかりを持つプロトタイプの両方を使用した。
その結果、参加者はバイアスとして自動的に検出されないパフォーマンス対策を調査したいとしばしば思っていた。
しかし、レコメンデーションリストを持つプロトタイプを使用する場合には、そのような対策への考慮が減る傾向があった。
そこで本研究では,バイアス検出タスクを特徴付けるための2つの軸としての情報負荷と包括性を提案し,これら2つの軸をどのように採用してレコメンデーションリストや視覚的手がかりをいつ使うかを説明する。
関連論文リスト
- Counterfactual Augmentation for Multimodal Learning Under Presentation
Bias [48.372326930638025]
機械学習システムでは、ユーザとモデル間のフィードバックループが将来のユーザの振る舞いをバイアスし、ラベルのプレゼンテーションバイアスを引き起こす。
生成した反事実ラベルを用いてプレゼンテーションバイアスを補正する新しい因果的手法である反事実拡張を提案する。
論文 参考訳(メタデータ) (2023-05-23T14:09:47Z) - Whole Page Unbiased Learning to Rank [59.52040055543542]
アンバイアスド・ラーニング・トゥ・ランク(ULTR)アルゴリズムは、バイアスド・クリックデータを用いたアンバイアスド・ランキングモデルを学ぶために提案される。
本稿では,BALというアルゴリズムをランク付けするバイアス非依存学習を提案する。
実世界のデータセットによる実験結果から,BALの有効性が検証された。
論文 参考訳(メタデータ) (2022-10-19T16:53:08Z) - BiaScope: Visual Unfairness Diagnosis for Graph Embeddings [8.442750346008431]
本稿では,グラフ埋め込みにおけるエンドツーエンドの視覚不公平性診断を支援するインタラクティブな可視化ツールであるBiaScopeを紹介する。
これは、(すなわち、公正性に関して2つの埋め込みを視覚的に比較し、(ii)不公平に埋め込まれたノードやグラフのコミュニティを特定し、(iii)関連する埋め込みサブスペースと対応するグラフトポロジーとを対話的にリンクすることによってバイアスの源を理解することを可能にする。
論文 参考訳(メタデータ) (2022-10-12T17:12:19Z) - MRCLens: an MRC Dataset Bias Detection Toolkit [82.44296974850639]
MRCLensは,ユーザがフルモデルをトレーニングする前に,バイアスが存在するかどうかを検出するツールキットである。
ツールキットの導入の便宜のために,MDCにおける共通バイアスの分類も提供する。
論文 参考訳(メタデータ) (2022-07-18T21:05:39Z) - More Data Can Lead Us Astray: Active Data Acquisition in the Presence of
Label Bias [7.506786114760462]
提案されたバイアス緩和戦略は、一般的に観察されたラベルに示されるバイアスを見落としている。
まず,教師あり学習システムのコンテキストにおけるラベルバイアスについて概説する。
次に、ラベルバイアスを見渡すと、より多くのデータを集めることでバイアスが増大し、データ収集プロセスで観測されたラベルに依存する公正な制約が問題に対処できないことを実証的に示します。
論文 参考訳(メタデータ) (2022-07-15T19:30:50Z) - Information-Theoretic Bias Reduction via Causal View of Spurious
Correlation [71.9123886505321]
本稿では,スプリアス相関の因果的解釈による情報理論バイアス測定手法を提案する。
本稿では,バイアス正規化損失を含むアルゴリズムバイアスに対する新しいデバイアスフレームワークを提案する。
提案したバイアス測定とデバイアス法は、多様な現実シナリオで検証される。
論文 参考訳(メタデータ) (2022-01-10T01:19:31Z) - Learning Debiased Models with Dynamic Gradient Alignment and
Bias-conflicting Sample Mining [39.00256193731365]
ディープニューラルネットワークは、堅牢性、一般化、公正性をモデル化するのに有害なデータセットバイアスに悩まされている。
難解な未知のバイアスと戦うための2段階のデバイアス方式を提案する。
論文 参考訳(メタデータ) (2021-11-25T14:50:10Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Just Label What You Need: Fine-Grained Active Selection for Perception
and Prediction through Partially Labeled Scenes [78.23907801786827]
提案手法は,コストに配慮した手法と,部分的にラベル付けされたシーンを通じて詳細なサンプル選択を可能にする一般化を導入している。
実世界の大規模自動運転データセットに関する我々の実験は、微粒な選択が知覚、予測、下流計画タスクのパフォーマンスを向上させることを示唆している。
論文 参考訳(メタデータ) (2021-04-08T17:57:41Z) - A survey of bias in Machine Learning through the prism of Statistical
Parity for the Adult Data Set [5.277804553312449]
偏見を自動決定にどのように導入できるかを理解することの重要性を示す。
まず、公正学習問題、特に二項分類設定における数学的枠組みについて述べる。
そこで,本研究では,現実およびよく知られた成人所得データセットの標準差分効果指標を用いて,偏見の有無を定量化することを提案する。
論文 参考訳(メタデータ) (2020-03-31T14:48:36Z) - Designing Tools for Semi-Automated Detection of Machine Learning Biases:
An Interview Study [18.05880738470364]
半自動バイアス検出ツールに関するニーズを調査するため,11人の機械学習実践者とのインタビュー研究について報告する。
本研究は, バイアス検出のための将来のツール開発を目指すシステムデザイナを指導する上で, 設計における4つの考慮点を強調した。
論文 参考訳(メタデータ) (2020-03-13T00:18:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。