論文の概要: FairPilot: An Explorative System for Hyperparameter Tuning through the
Lens of Fairness
- arxiv url: http://arxiv.org/abs/2304.04679v1
- Date: Mon, 10 Apr 2023 15:54:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 14:22:43.093855
- Title: FairPilot: An Explorative System for Hyperparameter Tuning through the
Lens of Fairness
- Title(参考訳): FairPilot: フェアネスレンズによるハイパーパラメータチューニングのための探索システム
- Authors: Francesco Di Carlo, Nazanin Nezami, Hadis Anahideh, Abolfazl Asudeh
- Abstract要約: 機械学習モデルの責任ある開発を促進するために設計された対話型システムであるFairPilotを紹介する。
ベストなMLモデルを選択することの課題を強調し,FairPilotがユーザに対して,評価基準のセットを選択する方法を示す。
- 参考スコア(独自算出の注目度): 6.8845004288932365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the potential benefits of machine learning (ML) in high-risk
decision-making domains, the deployment of ML is not accessible to
practitioners, and there is a risk of discrimination. To establish trust and
acceptance of ML in such domains, democratizing ML tools and fairness
consideration are crucial. In this paper, we introduce FairPilot, an
interactive system designed to promote the responsible development of ML models
by exploring a combination of various models, different hyperparameters, and a
wide range of fairness definitions. We emphasize the challenge of selecting the
``best" ML model and demonstrate how FairPilot allows users to select a set of
evaluation criteria and then displays the Pareto frontier of models and
hyperparameters as an interactive map. FairPilot is the first system to combine
these features, offering a unique opportunity for users to responsibly choose
their model.
- Abstract(参考訳): リスクの高い意思決定ドメインにおける機械学習(ML)の潜在的なメリットにもかかわらず、MLのデプロイは実践者にとってアクセスできないため、差別のリスクがある。
このような領域におけるMLの信頼と受容を確立するためには、MLツールの民主化と公平性の考慮が不可欠である。
本稿では、さまざまなモデル、異なるハイパーパラメータ、幅広いフェアネス定義の組み合わせを探索することにより、MLモデルの責任ある開発を促進するためのインタラクティブシステムであるFairPilotを紹介する。
本研究では,<best>MLモデルを選択する上での課題を強調し,FairPilotが評価基準のセットを選択し,モデルとハイパーパラメータのParetoフロンティアをインタラクティブマップとして表示する。
FairPilotは、これらの機能を結合した最初のシステムであり、ユーザが自分のモデルを責任を持って選択するユニークな機会を提供する。
関連論文リスト
- Procedural Fairness in Machine Learning [8.034966749391902]
まず、MLモデルの手続き的公正性を定義し、その後、個人的およびグループ的手続き的公正性の形式的定義を与える。
本稿では,GPF_FAE$と呼ばれるMLモデルの群手続き的公正性を評価するための新しい指標を提案する。
論文 参考訳(メタデータ) (2024-04-02T12:05:02Z) - Automated discovery of trade-off between utility, privacy and fairness
in machine learning models [8.328861861105889]
手動制約設定プロセスによって達成された既知の結果の再現にPFairDPをどのように利用できるかを示す。
さらに,複数のモデルとデータセットを用いたPFairDPの有効性を示す。
論文 参考訳(メタデータ) (2023-11-27T10:28:44Z) - Seeking Neural Nuggets: Knowledge Transfer in Large Language Models from a Parametric Perspective [106.92016199403042]
パラメトリック・パースペクティブを用いて,大規模モデルから小規模モデルへの知識伝達を実証的に検討する。
感性に基づく手法を用いて、異なる大言語モデル間で知識固有のパラメータを抽出・調整する。
本研究は,パラメトリックな知識伝達の過程に寄与する重要な要因を明らかにする。
論文 参考訳(メタデータ) (2023-10-17T17:58:34Z) - Interactive Hyperparameter Optimization in Multi-Objective Problems via
Preference Learning [65.51668094117802]
我々は多目的機械学習(ML)に適した人間中心型対話型HPO手法を提案する。
ユーザが自分のニーズに最も適した指標を推測する代わりに、私たちのアプローチは自動的に適切な指標を学習します。
論文 参考訳(メタデータ) (2023-09-07T09:22:05Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - A Non-isotropic Probabilistic Take on Proxy-based Deep Metric Learning [49.999268109518255]
プロキシベースのDeep Metric Learningは、クラス代表者(プロキシ)に画像を埋め込むことで学習する
さらに、プロキシベースのDMLは、クラス内部構造を学ぶのに苦労している。
両問題に対処するために,非等方的確率的プロキシベースDMLを導入する。
論文 参考訳(メタデータ) (2022-07-08T09:34:57Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Identification of Probability weighted ARX models with arbitrary domains [75.91002178647165]
PieceWise Affineモデルは、ハイブリッドシステムの他のクラスに対する普遍近似、局所線型性、同値性を保証する。
本研究では,任意の領域を持つ固有入力モデル(NPWARX)を用いたPieceWise Auto Regressiveの同定に着目する。
このアーキテクチャは、機械学習の分野で開発されたMixture of Expertの概念に従って考案された。
論文 参考訳(メタデータ) (2020-09-29T12:50:33Z) - HyperFair: A Soft Approach to Integrating Fairness Criteria [17.770533330914102]
我々は,ハイブリッドレコメンデータシステムにおいて,ソフトフェアネス制約を強制するフレームワークであるHyperFairを紹介する。
まず,確率的ソフトロジックレコメンデータシステムテンプレートの拡張として提案する手法を提案する。
複数のHyperFairハイブリッドレコメンデータを実装することで,私たちのアプローチを実証的に検証し,最先端のフェアレコメンデータと比較する。
論文 参考訳(メタデータ) (2020-09-05T05:00:06Z) - LiFT: A Scalable Framework for Measuring Fairness in ML Applications [18.54302159142362]
本稿では、大規模なMLシステムの一部として、フェアネスメトリクスのスケーラブルな計算のためのフレームワークであるLinkedIn Fairness Toolkit(LiFT)を紹介する。
フェアネスツールを実際に導入する際の課題と、LinkedInでのデプロイメント中に学んだ教訓について論じる。
論文 参考訳(メタデータ) (2020-08-14T03:55:31Z) - Fair Bayesian Optimization [25.80374249896801]
機械学習(ML)モデルの性能を最適化するために、一般的な制約付きベイズ最適化フレームワークを導入する。
我々は、ランダムな森林、ブースティング、ニューラルネットワークなど、さまざまな人気モデルに公平性制約のあるBOを適用した。
提案手法は,モデル固有の公正性制約を強制する特殊な手法と競合することを示す。
論文 参考訳(メタデータ) (2020-06-09T08:31:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。