論文の概要: FairLay-ML: Intuitive Remedies for Unfairness in Data-Driven
Social-Critical Algorithms
- arxiv url: http://arxiv.org/abs/2307.05029v1
- Date: Tue, 11 Jul 2023 06:05:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-12 16:11:15.170921
- Title: FairLay-ML: Intuitive Remedies for Unfairness in Data-Driven
Social-Critical Algorithms
- Title(参考訳): FairLay-ML: データ駆動型社会批判アルゴリズムの不公平対策
- Authors: Normen Yu, Gang Tan, Saeid Tizpaz-Niari
- Abstract要約: この論文は、機械学習(ML)モデル説明ツールが、機械学習ベースの意思決定支援システムにおける不公平さを、レイマンが可視化し、理解し、直感的に改善できるかどうかを探求する。
この論文では、概念実証のGUIであるFairLay-MLを紹介し、最も有望なツールを統合し、MLモデルにおける不公平なロジックの直感的な説明を提供する。
- 参考スコア(独自算出の注目度): 13.649336187121095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This thesis explores open-sourced machine learning (ML) model explanation
tools to understand whether these tools can allow a layman to visualize,
understand, and suggest intuitive remedies to unfairness in ML-based
decision-support systems. Machine learning models trained on datasets biased
against minority groups are increasingly used to guide life-altering social
decisions, prompting the urgent need to study their logic for unfairness. Due
to this problem's impact on vast populations of the general public, it is
critical for the layperson -- not just subject matter experts in social justice
or machine learning experts -- to understand the nature of unfairness within
these algorithms and the potential trade-offs. Existing research on fairness in
machine learning focuses mostly on the mathematical definitions and tools to
understand and remedy unfair models, with some directly citing user-interactive
tools as necessary for future work. This thesis presents FairLay-ML, a
proof-of-concept GUI integrating some of the most promising tools to provide
intuitive explanations for unfair logic in ML models by integrating existing
research tools (e.g. Local Interpretable Model-Agnostic Explanations) with
existing ML-focused GUI (e.g. Python Streamlit). We test FairLay-ML using
models of various accuracy and fairness generated by an unfairness detector
tool, Parfait-ML, and validate our results using Themis. Our study finds that
the technology stack used for FairLay-ML makes it easy to install and provides
real-time black-box explanations of pre-trained models to users. Furthermore,
the explanations provided translate to actionable remedies.
- Abstract(参考訳): この論文では、機械学習(ML)モデル説明ツールをオープンソースにすることで、機械学習ベースの意思決定支援システムにおいて、レイマンが不公平を可視化し、理解し、直感的に改善できるかどうかを理解する。
マイノリティグループに偏りのあるデータセットでトレーニングされた機械学習モデルは、人生を変える社会的決定を導くためにますます使われており、不公平さの論理を急務的に研究する必要がある。
この問題が一般大衆に与えた影響から、社会正義や機械学習の専門家だけでなく、一般大衆にとって、これらのアルゴリズムにおける不公平の性質と潜在的なトレードオフを理解することは重要である。
機械学習における公正性に関する既存の研究は、主に不公平なモデルを理解し、治療するための数学的定義とツールに焦点を当てている。
この論文では、FairLay-MLについて紹介する。FairLay-MLは、既存の研究ツール(Local Interpretable Model-Agnostic Explanationsなど)と既存のML中心のGUI(Python Streamlitなど)を統合することで、MLモデルで不公平なロジックの直感的な説明を提供する、最も有望なツールを統合した概念実証GUIである。
本研究では,不公平検出ツールであるParfait-MLが生成した様々な精度と公平性のモデルを用いてFairLay-MLをテストする。
本研究は,FairLay-MLで使用される技術スタックによって,事前学習したモデルのリアルタイムなブラックボックス説明をユーザに提供する。
さらに、説明は実行可能な治療に翻訳された。
関連論文リスト
- Democratize with Care: The need for fairness specific features in
user-interface based open source AutoML tools [0.0]
Automated Machine Learning (AutoML)は、機械学習モデル開発プロセスを効率化する。
この民主化により、多くのユーザー(非専門家を含む)が最先端の機械学習の専門知識にアクセスし利用できるようになる。
しかし、AutoMLツールはまた、これらのツールがデータを処理する方法、モデル選択、そして採用される最適化アプローチのバイアスを伝播する可能性がある。
論文 参考訳(メタデータ) (2023-12-16T19:54:00Z) - Machine Vision Therapy: Multimodal Large Language Models Can Enhance Visual Robustness via Denoising In-Context Learning [67.0609518552321]
本稿では,視覚モデルからノイズ予測を補正するマシンビジョンセラピーを提案する。
復調ラベルを微調整することにより、教師なしの方法で学習モデルの性能を高めることができる。
論文 参考訳(メタデータ) (2023-12-05T07:29:14Z) - Transparency challenges in policy evaluation with causal machine learning -- improving usability and accountability [0.0]
モデルがどのように見積を行うかを理解するには、グローバルに解釈可能な方法はない。
因果機械学習モデルが公正な方法で機能しているかどうかを理解するのは難しい。
本稿では,透明性の問題が公共政策評価アプリケーションにおける因果的機械学習の課題である理由を考察する。
論文 参考訳(メタデータ) (2023-10-20T02:48:29Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Evaluating Language Models for Mathematics through Interactions [116.67206980096513]
大型言語モデル(LLM)と対話し,評価するためのプロトタイププラットフォームであるCheckMateを紹介した。
我々はCheckMateと共同で3つの言語モデル(InstructGPT, ChatGPT, GPT-4)を、学部レベルの数学の証明支援として評価する研究を行った。
我々は、人間の行動の分類を導き、概して肯定的な相関にもかかわらず、正しさと知覚的有用性の間に顕著な相違点があることを明らかにする。
論文 参考訳(メタデータ) (2023-06-02T17:12:25Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - Fair Classification via Transformer Neural Networks: Case Study of an
Educational Domain [0.0913755431537592]
本稿では,Law Schoolのニューラルネットワークを用いた変圧器ネットワークにおけるフェアネス制約の予備的検討を行う。
フェアネス指標を用いて評価を行い、フェアネスと精度のトレードオフを確認しました。
論文 参考訳(メタデータ) (2022-06-03T06:34:16Z) - MAML is a Noisy Contrastive Learner [72.04430033118426]
モデルに依存しないメタラーニング(MAML)は、今日では最も人気があり広く採用されているメタラーニングアルゴリズムの1つである。
我々は、MAMLの動作メカニズムに対する新たな視点を提供し、以下に示すように、MAMLは、教師付きコントラスト目的関数を用いたメタラーナーに類似している。
このような干渉を軽減するため, 単純だが効果的な手法であるゼロ化手法を提案する。
論文 参考訳(メタデータ) (2021-06-29T12:52:26Z) - Towards Model-informed Precision Dosing with Expert-in-the-loop Machine
Learning [0.0]
モデル学習ループに人的専門家を取り入れることで、モデル学習を加速し、解釈可能性を向上させるMLフレームワークを検討する。
本稿では,データアノテーションのコストが高い学習問題に対処することを目的とした,新たなヒューマン・イン・ザ・ループMLフレームワークを提案する。
精度測定への応用により,本手法はデータから解釈可能なルールを学習し,専門家の作業負荷を低減できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-28T03:45:09Z) - LiFT: A Scalable Framework for Measuring Fairness in ML Applications [18.54302159142362]
本稿では、大規模なMLシステムの一部として、フェアネスメトリクスのスケーラブルな計算のためのフレームワークであるLinkedIn Fairness Toolkit(LiFT)を紹介する。
フェアネスツールを実際に導入する際の課題と、LinkedInでのデプロイメント中に学んだ教訓について論じる。
論文 参考訳(メタデータ) (2020-08-14T03:55:31Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。