論文の概要: FairTargetSim: An Interactive Simulator for Understanding and Explaining
the Fairness Effects of Target Variable Definition
- arxiv url: http://arxiv.org/abs/2403.06031v1
- Date: Sat, 9 Mar 2024 22:41:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 09:13:12.438671
- Title: FairTargetSim: An Interactive Simulator for Understanding and Explaining
the Fairness Effects of Target Variable Definition
- Title(参考訳): FairTargetSim: 目標変数定義の公正性効果の理解と説明のための対話型シミュレータ
- Authors: Dalia Gala, Milo Phillips-Brown, Naman Goel, Carinal Prunkl, Laura
Alvarez Jubete, medb corcoran, Ray Eitel-Porter
- Abstract要約: 機械学習は、予測や決定のためにターゲット変数を定義する必要がある。
バイアスは、データ収集やトレーニングの前に、ターゲット変数定義自体にエンコードされることが多い。
対象変数定義が公平性にどのように影響するかを示す対話型シミュレータであるFairTargetSimを提案する。
- 参考スコア(独自算出の注目度): 4.174068680168276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning requires defining one's target variable for predictions or
decisions, a process that can have profound implications on fairness: biases
are often encoded in target variable definition itself, before any data
collection or training. We present an interactive simulator, FairTargetSim
(FTS), that illustrates how target variable definition impacts fairness. FTS is
a valuable tool for algorithm developers, researchers, and non-technical
stakeholders. FTS uses a case study of algorithmic hiring, using real-world
data and user-defined target variables. FTS is open-source and available at:
http://tinyurl.com/ftsinterface. The video accompanying this paper is here:
http://tinyurl.com/ijcaifts.
- Abstract(参考訳): 機械学習は、予測や決定のためにターゲット変数を定義する必要があり、公正性に深い影響を持つプロセスである:バイアスは、データ収集やトレーニングの前に、ターゲット変数定義自体にエンコードされることが多い。
本稿では,対象変数定義が公平性に与える影響を示す対話型シミュレータFairTargetSim(FTS)を提案する。
FTSは、アルゴリズム開発者、研究者、非技術ステークホルダーにとって貴重なツールである。
FTSは、実世界のデータとユーザ定義のターゲット変数を使用して、アルゴリズム採用のケーススタディを使用する。
FTSはオープンソースで、http://tinyurl.com/ftsinterface.comで入手できる。
この論文に付随するビデオは以下のとおりである。
関連論文リスト
- Learning Manipulation by Predicting Interaction [85.57297574510507]
本稿では,インタラクションを予測して操作を学習する一般的な事前学習パイプラインを提案する。
実験の結果,MPIは従来のロボットプラットフォームと比較して10%から64%向上していることがわかった。
論文 参考訳(メタデータ) (2024-06-01T13:28:31Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - Deceptive Fairness Attacks on Graphs via Meta Learning [102.53029537886314]
グラフ学習モデルにおいて、どのようにして有害な攻撃を達成すれば、バイアスを欺いて悪化させることができるのか?
本稿では,FATEというメタラーニングに基づくフレームワークを提案し,様々なフェアネス定義やグラフ学習モデルに対処する。
半教師付きノード分類のタスクにおいて,実世界のデータセットに関する広範な実験的な評価を行う。
論文 参考訳(メタデータ) (2023-10-24T09:10:14Z) - Robust Visual Sim-to-Real Transfer for Robotic Manipulation [79.66851068682779]
シミュレーションにおけるビジュモータポリシーの学習は、現実世界よりも安全で安価である。
しかし、シミュレーションデータと実データとの相違により、シミュレータ訓練されたポリシーは実際のロボットに転送されると失敗することが多い。
視覚的なsim-to-real領域ギャップを埋める一般的なアプローチは、ドメインランダム化(DR)である。
論文 参考訳(メタデータ) (2023-07-28T05:47:24Z) - Reinforcement Learning from Passive Data via Latent Intentions [86.4969514480008]
我々は、下流RLを加速する機能を学ぶために、受動的データが引き続き使用できることを示す。
我々のアプローチは、意図をモデル化することで受動的データから学習する。
実験では、クロス・エボディメント・ビデオデータやYouTubeビデオなど、さまざまな形式の受動的データから学習できることを実証した。
論文 参考訳(メタデータ) (2023-04-10T17:59:05Z) - How Biased are Your Features?: Computing Fairness Influence Functions
with Global Sensitivity Analysis [38.482411134083236]
機械学習の公正性は、ハイテイクな意思決定タスクに広く適用されているため、大きな焦点をあてている。
本稿では,各特徴の偏りを個々の特徴と複数の特徴の交叉に分解するFairness Influence Function (FIF)を紹介する。
実験により、FairXplainerは個々の特徴と交叉特徴のFIFをキャプチャし、FIFに基づくバイアスのより優れた近似を提供し、FIFと公平な介入の相関を高く示し、また、分類器における公正肯定的/疑似的行動によるバイアスの変化を検出する。
論文 参考訳(メタデータ) (2022-06-01T04:02:16Z) - Keep Your Friends Close and Your Counterfactuals Closer: Improved
Learning From Closest Rather Than Plausible Counterfactual Explanations in an
Abstract Setting [6.883906273999368]
対実的説明(CFE)は、モデル入力の変更が特定の方法でその予測を変更したことを強調している。
近年の革新は、自動生成されたCFEに対する計算可能性の概念を導入している。
初級ユーザを対象とした反復学習設計において,計算可能なCFEの客観的および主観的ユーザビリティを評価する。
論文 参考訳(メタデータ) (2022-05-11T14:07:57Z) - Deep transfer learning for partial differential equations under
conditional shift with DeepONet [0.0]
深層演算子ネットワーク(DeepONet)を用いた条件シフト下でのタスク固有学習のための新しいTLフレームワークを提案する。
条件埋め込み演算子理論に触発されて、ソース領域とターゲット特徴領域の間の統計的距離を測定する。
提案するTLフレームワークは,ソースドメインとターゲットドメインの間に大きな違いがあるにも関わらず,高速かつ効率的なマルチタスク演算子学習を可能にする。
論文 参考訳(メタデータ) (2022-04-20T23:23:38Z) - FARF: A Fair and Adaptive Random Forests Classifier [34.94595588778864]
オンライン設定の進化というより困難な状況下で,公平な意思決定のためのフレキシブルアンサンブルアルゴリズムを提案する。
このアルゴリズムはFARF(Fair and Adaptive Random Forests)と呼ばれ、オンラインコンポーネント分類器を使用して現在の分布に従って更新する。
実世界の識別データストリームの実験はFARFの有用性を実証している。
論文 参考訳(メタデータ) (2021-08-17T02:06:54Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。