論文の概要: Designing Tools for Semi-Automated Detection of Machine Learning Biases:
An Interview Study
- arxiv url: http://arxiv.org/abs/2003.07680v2
- Date: Wed, 18 Mar 2020 01:41:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 01:31:39.722241
- Title: Designing Tools for Semi-Automated Detection of Machine Learning Biases:
An Interview Study
- Title(参考訳): 機械学習バイアスの半自動検出のための設計ツール:インタビュー研究
- Authors: Po-Ming Law, Sana Malik, Fan Du, Moumita Sinha
- Abstract要約: 半自動バイアス検出ツールに関するニーズを調査するため,11人の機械学習実践者とのインタビュー研究について報告する。
本研究は, バイアス検出のための将来のツール開発を目指すシステムデザイナを指導する上で, 設計における4つの考慮点を強調した。
- 参考スコア(独自算出の注目度): 18.05880738470364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models often make predictions that bias against certain
subgroups of input data. When undetected, machine learning biases can
constitute significant financial and ethical implications. Semi-automated tools
that involve humans in the loop could facilitate bias detection. Yet, little is
known about the considerations involved in their design. In this paper, we
report on an interview study with 11 machine learning practitioners for
investigating the needs surrounding semi-automated bias detection tools. Based
on the findings, we highlight four considerations in designing to guide system
designers who aim to create future tools for bias detection.
- Abstract(参考訳): 機械学習モデルは、入力データの特定のサブグループに対するバイアスを予測します。
検出されない場合、機械学習のバイアスは、重要な経済的および倫理的影響を構成する可能性がある。
ループに人間を巻き込む半自動ツールは、バイアス検出を容易にする。
しかし、その設計にかかわる考慮事項についてはほとんど分かっていない。
本稿では,機械学習の実践者11人とのインタビューで,半自動バイアス検出ツールに関するニーズを調査した。
この結果に基づき,バイアス検出のための将来のツール開発を目指すシステム設計者の指導を行うための設計上の4つの考察を強調する。
関連論文リスト
- A Multimodal Automated Interpretability Agent [63.8551718480664]
MAIAは、ニューラルモデルを使用して、ニューラルモデル理解タスクを自動化するシステムである。
まず、画像の学習表現における(ニューロンレベルの)特徴を記述できるMAIAの能力を特徴付ける。
次に、MAIAは、刺激的な特徴に対する感度の低下と、誤分類される可能性のある入力を自動的に識別する2つの追加の解釈可能性タスクに役立てることができることを示す。
論文 参考訳(メタデータ) (2024-04-22T17:55:11Z) - Democratize with Care: The need for fairness specific features in
user-interface based open source AutoML tools [0.0]
Automated Machine Learning (AutoML)は、機械学習モデル開発プロセスを効率化する。
この民主化により、多くのユーザー(非専門家を含む)が最先端の機械学習の専門知識にアクセスし利用できるようになる。
しかし、AutoMLツールはまた、これらのツールがデータを処理する方法、モデル選択、そして採用される最適化アプローチのバイアスを伝播する可能性がある。
論文 参考訳(メタデータ) (2023-12-16T19:54:00Z) - A survey on bias in machine learning research [0.0]
機械学習におけるバイアスに関する現在の研究は、しばしば公正に焦点を当て、バイアスの根源や原因を見下ろしている。
本稿は、データやモデルにおけるバイアスやエラーの潜在的な源として分類を提供することによって、研究におけるバイアスに関する過去の文献間のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2023-08-22T07:56:57Z) - Tool Learning with Foundation Models [158.8640687353623]
基礎モデルの出現により、AIシステムは、人間としてのツールの使用に等しく適応できる可能性がある。
その大きな可能性にもかかわらず、この分野における重要な課題、機会、そして将来の取り組みに関する包括的な理解はいまだに欠けている。
論文 参考訳(メタデータ) (2023-04-17T15:16:10Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Investigating Bias with a Synthetic Data Generator: Empirical Evidence
and Philosophical Interpretation [66.64736150040093]
機械学習の応用は、私たちの社会でますます広まりつつある。
リスクは、データに埋め込まれたバイアスを体系的に広めることである。
本稿では,特定の種類のバイアスとその組み合わせで合成データを生成するフレームワークを導入することにより,バイアスを分析することを提案する。
論文 参考訳(メタデータ) (2022-09-13T11:18:50Z) - Using Personality Detection Tools for Software Engineering Research: How
Far Can We Go? [12.56413718364189]
自己評価アンケートは、大規模に複数の観察を収集するための実践的な解決策ではない。
非技術的コーパスでトレーニングされたオフザシェルフソリューションは、ソフトウェア工学のような技術的な領域では、容易には適用できないかもしれない。
論文 参考訳(メタデータ) (2021-10-11T07:02:34Z) - The Impact of Presentation Style on Human-In-The-Loop Detection of
Algorithmic Bias [18.05880738470364]
半自動バイアス検出ツールは、リコメンデーションリストやビジュアルキューを使用して自動的に検出されたバイアスのレポートを表示することが多い。
バイアスレポートのレビューにおいて,プレゼンテーションスタイルがユーザの行動に与える影響について検討した。
バイアス検出タスクを特徴付ける2つの軸として,情報負荷と包括性を提案する。
論文 参考訳(メタデータ) (2020-04-26T14:05:23Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - A survey of bias in Machine Learning through the prism of Statistical
Parity for the Adult Data Set [5.277804553312449]
偏見を自動決定にどのように導入できるかを理解することの重要性を示す。
まず、公正学習問題、特に二項分類設定における数学的枠組みについて述べる。
そこで,本研究では,現実およびよく知られた成人所得データセットの標準差分効果指標を用いて,偏見の有無を定量化することを提案する。
論文 参考訳(メタデータ) (2020-03-31T14:48:36Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。