論文の概要: FairTargetSim: An Interactive Simulator for Understanding and Explaining
the Fairness Effects of Target Variable Definition
- arxiv url: http://arxiv.org/abs/2403.06031v1
- Date: Sat, 9 Mar 2024 22:41:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-03-13 09:13:12.438671
- Title: FairTargetSim: An Interactive Simulator for Understanding and Explaining
the Fairness Effects of Target Variable Definition
- Title(参考訳): FairTargetSim: 目標変数定義の公正性効果の理解と説明のための対話型シミュレータ
- Authors: Dalia Gala, Milo Phillips-Brown, Naman Goel, Carinal Prunkl, Laura
Alvarez Jubete, medb corcoran, Ray Eitel-Porter
- Abstract要約: 機械学習は、予測や決定のためにターゲット変数を定義する必要がある。
バイアスは、データ収集やトレーニングの前に、ターゲット変数定義自体にエンコードされることが多い。
対象変数定義が公平性にどのように影響するかを示す対話型シミュレータであるFairTargetSimを提案する。
- 参考スコア(独自算出の注目度): 4.174068680168276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning requires defining one's target variable for predictions or
decisions, a process that can have profound implications on fairness: biases
are often encoded in target variable definition itself, before any data
collection or training. We present an interactive simulator, FairTargetSim
(FTS), that illustrates how target variable definition impacts fairness. FTS is
a valuable tool for algorithm developers, researchers, and non-technical
stakeholders. FTS uses a case study of algorithmic hiring, using real-world
data and user-defined target variables. FTS is open-source and available at:
http://tinyurl.com/ftsinterface. The video accompanying this paper is here:
http://tinyurl.com/ijcaifts.
- Abstract(参考訳): 機械学習は、予測や決定のためにターゲット変数を定義する必要があり、公正性に深い影響を持つプロセスである:バイアスは、データ収集やトレーニングの前に、ターゲット変数定義自体にエンコードされることが多い。
本稿では,対象変数定義が公平性に与える影響を示す対話型シミュレータFairTargetSim(FTS)を提案する。
FTSは、アルゴリズム開発者、研究者、非技術ステークホルダーにとって貴重なツールである。
FTSは、実世界のデータとユーザ定義のターゲット変数を使用して、アルゴリズム採用のケーススタディを使用する。
FTSはオープンソースで、http://tinyurl.com/ftsinterface.comで入手できる。
この論文に付随するビデオは以下のとおりである。
関連論文リスト
- Evaluating Membership Inference Attacks in heterogeneous-data setups [3.7619101673213664]
メンバーシップ推論攻撃 (MIA) が最も注目を集めた。
これらの攻撃では、攻撃者にはMLモデルとデータポイントが与えられ、データポイントがトレーニングに使用されたかどうかを推測する必要がある。
攻撃論文は通常、攻撃者とターゲットのデータセットが同じ分布からサンプリングされる設定をシミュレートする。
この設定は実験には便利だが、実際に行うことは滅多にない。
論文 参考訳(メタデータ) (2025-02-26T09:47:16Z) - Learning Manipulation by Predicting Interaction [85.57297574510507]
本稿では,インタラクションを予測して操作を学習する一般的な事前学習パイプラインを提案する。
実験の結果,MPIは従来のロボットプラットフォームと比較して10%から64%向上していることがわかった。
論文 参考訳(メタデータ) (2024-06-01T13:28:31Z) - Genetic Learning for Designing Sim-to-Real Data Augmentations [1.03590082373586]
データ拡張は、合成データのトレーニングにおいて、sim-to-realドメインギャップを閉じるのに有用である。
多くの画像増強技術があり、強度や確率などの異なる設定でパラメータ化されている。
本稿では、特定のsim-to-real設定に対して、ある拡張ポリシーがどの程度うまく機能するかを予測するために、組み合わせられる2つの異なる解釈可能な指標を提案する。
論文 参考訳(メタデータ) (2024-03-11T15:00:56Z) - Gaussian Mixture Models for Affordance Learning using Bayesian Networks [50.18477618198277]
Affordancesはアクション、オブジェクト、エフェクト間の関係の基本的な記述である。
本稿では,世界を探究し,その感覚経験から自律的にこれらの余裕を学習するエンボディエージェントの問題にアプローチする。
論文 参考訳(メタデータ) (2024-02-08T22:05:45Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - Deceptive Fairness Attacks on Graphs via Meta Learning [102.53029537886314]
グラフ学習モデルにおいて、どのようにして有害な攻撃を達成すれば、バイアスを欺いて悪化させることができるのか?
本稿では,FATEというメタラーニングに基づくフレームワークを提案し,様々なフェアネス定義やグラフ学習モデルに対処する。
半教師付きノード分類のタスクにおいて,実世界のデータセットに関する広範な実験的な評価を行う。
論文 参考訳(メタデータ) (2023-10-24T09:10:14Z) - Robust Visual Sim-to-Real Transfer for Robotic Manipulation [79.66851068682779]
シミュレーションにおけるビジュモータポリシーの学習は、現実世界よりも安全で安価である。
しかし、シミュレーションデータと実データとの相違により、シミュレータ訓練されたポリシーは実際のロボットに転送されると失敗することが多い。
視覚的なsim-to-real領域ギャップを埋める一般的なアプローチは、ドメインランダム化(DR)である。
論文 参考訳(メタデータ) (2023-07-28T05:47:24Z) - Reinforcement Learning from Passive Data via Latent Intentions [86.4969514480008]
我々は、下流RLを加速する機能を学ぶために、受動的データが引き続き使用できることを示す。
我々のアプローチは、意図をモデル化することで受動的データから学習する。
実験では、クロス・エボディメント・ビデオデータやYouTubeビデオなど、さまざまな形式の受動的データから学習できることを実証した。
論文 参考訳(メタデータ) (2023-04-10T17:59:05Z) - Goal-Conditioned Imitation Learning using Score-based Diffusion Policies [3.49482137286472]
スコアベース拡散モデル(SDM)に基づく新しいポリシー表現を提案する。
我々はゴール・コンディションド・イミテーション・ラーニング(GCIL)の領域に新しい政策表現を適用した。
直感的なガイダンスを用いて,遊びデータから目標に依存しないポリシーを学習するためにBESOをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2023-04-05T15:52:34Z) - Multi-Task Imitation Learning for Linear Dynamical Systems [50.124394757116605]
線形システム上での効率的な模倣学習のための表現学習について検討する。
学習対象ポリシーによって生成された軌道上の模倣ギャップは、$tildeOleft(frack n_xHN_mathrmshared + frack n_uN_mathrmtargetright)$で制限されている。
論文 参考訳(メタデータ) (2022-12-01T00:14:35Z) - TarGF: Learning Target Gradient Field for Object Rearrangement [8.49306925839127]
我々は、オブジェクト配置のより実用的な設定、すなわち、シャッフルされたレイアウトから規範的なターゲット分布へオブジェクトを並べ替えることに焦点を当てる。
報酬工学の目標分布(目標仕様)を記述したり、専門家の軌跡を実証として収集することは困難である。
我々は、目標勾配場(TarGF)の学習にスコアマッチングの目的を用い、目標分布の可能性を高めるために各対象の方向を示す。
論文 参考訳(メタデータ) (2022-09-02T07:20:34Z) - How Biased are Your Features?: Computing Fairness Influence Functions
with Global Sensitivity Analysis [38.482411134083236]
機械学習の公正性は、ハイテイクな意思決定タスクに広く適用されているため、大きな焦点をあてている。
本稿では,各特徴の偏りを個々の特徴と複数の特徴の交叉に分解するFairness Influence Function (FIF)を紹介する。
実験により、FairXplainerは個々の特徴と交叉特徴のFIFをキャプチャし、FIFに基づくバイアスのより優れた近似を提供し、FIFと公平な介入の相関を高く示し、また、分類器における公正肯定的/疑似的行動によるバイアスの変化を検出する。
論文 参考訳(メタデータ) (2022-06-01T04:02:16Z) - Keep Your Friends Close and Your Counterfactuals Closer: Improved
Learning From Closest Rather Than Plausible Counterfactual Explanations in an
Abstract Setting [6.883906273999368]
対実的説明(CFE)は、モデル入力の変更が特定の方法でその予測を変更したことを強調している。
近年の革新は、自動生成されたCFEに対する計算可能性の概念を導入している。
初級ユーザを対象とした反復学習設計において,計算可能なCFEの客観的および主観的ユーザビリティを評価する。
論文 参考訳(メタデータ) (2022-05-11T14:07:57Z) - Deep transfer learning for partial differential equations under
conditional shift with DeepONet [0.0]
深層演算子ネットワーク(DeepONet)を用いた条件シフト下でのタスク固有学習のための新しいTLフレームワークを提案する。
条件埋め込み演算子理論に触発されて、ソース領域とターゲット特徴領域の間の統計的距離を測定する。
提案するTLフレームワークは,ソースドメインとターゲットドメインの間に大きな違いがあるにも関わらず,高速かつ効率的なマルチタスク演算子学習を可能にする。
論文 参考訳(メタデータ) (2022-04-20T23:23:38Z) - FARF: A Fair and Adaptive Random Forests Classifier [34.94595588778864]
オンライン設定の進化というより困難な状況下で,公平な意思決定のためのフレキシブルアンサンブルアルゴリズムを提案する。
このアルゴリズムはFARF(Fair and Adaptive Random Forests)と呼ばれ、オンラインコンポーネント分類器を使用して現在の分布に従って更新する。
実世界の識別データストリームの実験はFARFの有用性を実証している。
論文 参考訳(メタデータ) (2021-08-17T02:06:54Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。