論文の概要: Can Fairness be Automated? Guidelines and Opportunities for
Fairness-aware AutoML
- arxiv url: http://arxiv.org/abs/2303.08485v1
- Date: Wed, 15 Mar 2023 09:40:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 14:07:47.082748
- Title: Can Fairness be Automated? Guidelines and Opportunities for
Fairness-aware AutoML
- Title(参考訳): フェアネスは自動化できるか?
フェアネスアウェアオートmlのガイドラインと機会
- Authors: Hilde Weerts, Florian Pfisterer, Matthias Feurer, Katharina
Eggensperger, Edward Bergman, Noor Awad, Joaquin Vanschoren, Mykola
Pechenizkiy, Bernd Bischl, Frank Hutter
- Abstract要約: フェアネスにまつわる害を発生させる様々な方法と、それに続くフェアネスを意識したAutoMLの設計について論じる。
フェアネスは自動化できないが、フェアネスを意識したAutoMLは、ML実践者のツールボックスにおいて重要な役割を果たす可能性がある、と結論付けている。
- 参考スコア(独自算出の注目度): 30.960166479365792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The field of automated machine learning (AutoML) introduces techniques that
automate parts of the development of machine learning (ML) systems,
accelerating the process and reducing barriers for novices. However, decisions
derived from ML models can reproduce, amplify, or even introduce unfairness in
our societies, causing harm to (groups of) individuals. In response,
researchers have started to propose AutoML systems that jointly optimize
fairness and predictive performance to mitigate fairness-related harm. However,
fairness is a complex and inherently interdisciplinary subject, and solely
posing it as an optimization problem can have adverse side effects. With this
work, we aim to raise awareness among developers of AutoML systems about such
limitations of fairness-aware AutoML, while also calling attention to the
potential of AutoML as a tool for fairness research. We present a comprehensive
overview of different ways in which fairness-related harm can arise and the
ensuing implications for the design of fairness-aware AutoML. We conclude that
while fairness cannot be automated, fairness-aware AutoML can play an important
role in the toolbox of an ML practitioner. We highlight several open technical
challenges for future work in this direction. Additionally, we advocate for the
creation of more user-centered assistive systems designed to tackle challenges
encountered in fairness work.
- Abstract(参考訳): 自動機械学習(AutoML)の分野は、機械学習(ML)システムの開発を自動化し、プロセスを加速し、初心者の障壁を減らす技術を導入している。
しかし、MLモデルから導かれる決定は、我々の社会において不公平さを再現、増幅、あるいは導入し、個人(グループの)に害を与えます。
これに対し、研究者たちは公正度と予測性能を共同で最適化し、公正度に関連する害を軽減するAutoMLシステムを提案し始めている。
しかし、公平性は複雑で本質的に学際的な主題であり、単に最適化問題として捉えるだけでは副作用がある。
本研究は、フェアネスを意識したAutoMLの限界に対する認識を高めるとともに、フェアネス研究のツールとしてのAutoMLの可能性に注意を払うことを目的としている。
本稿では,フェアネス関連害の発生方法と,それに伴うフェアネス対応オートmlの設計への影響について概観する。
フェアネスは自動化できないが、フェアネスを意識したAutoMLは、ML実践者のツールボックスにおいて重要な役割を果たす。
我々は、この方向における今後の作業に対するいくつかのオープン技術的課題を強調する。
さらに,公平な作業で直面する課題に対処するために,よりユーザ中心の支援システムの開発を提唱する。
関連論文リスト
- Automated Imbalanced Learning [4.035753155957698]
本稿では,ラベルの不均衡によって異なるAutoML手法がどう影響するかを,新しいベンチマークで検討する。
次に、不均衡に対処し、それらを既存のAutoMLフレームワークに統合するための戦略を提案します。
論文 参考訳(メタデータ) (2022-11-01T10:43:48Z) - Detecting and Preventing Shortcut Learning for Fair Medical AI using
Shortcut Testing (ShorT) [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - The Roles and Modes of Human Interactions with Automated Machine
Learning Systems [7.670270099306412]
自動機械学習(AutoML)システムは、洗練とパフォーマンスの両面で進歩を続けている。
これらのフレームワーク内でのヒューマン・コンピュータ・インタラクション(HCI)の方法と理由を理解することが重要である。
このレビューは、現在のAutoMLシステムと将来のAutoMLシステムの両方におけるヒューマンインタラクションの役割とモードの促進を目的とした、重要な研究方向を特定するのに役立つ。
論文 参考訳(メタデータ) (2022-05-09T09:28:43Z) - Towards Green Automated Machine Learning: Status Quo and Future
Directions [55.41644538483948]
AutoMLは数百のコントリビューションでホットな研究トピックになっている。
非常に資源集約的であることも知られており、批判の要点の1つである。
本稿では,この問題に対するAutoML研究者の意識を高め,治療の可能性について詳しく述べる。
論文 参考訳(メタデータ) (2021-11-10T18:57:27Z) - LightAutoML: AutoML Solution for a Large Financial Services Ecosystem [108.09104876115428]
本稿では、ヨーロッパ大手金融サービス会社向けに開発されたLightAutoMLと呼ばれるAutoMLシステムについて述べる。
当社のフレームワークは、多数のアプリケーションに試験的にデプロイされ、経験豊富なデータサイエンティストのレベルで実行されました。
論文 参考訳(メタデータ) (2021-09-03T13:52:32Z) - Naive Automated Machine Learning -- A Late Baseline for AutoML [0.0]
AutoML(Automated Machine Learning)は、特定のデータセット上で最高の一般化パフォーマンスを持つパイプラインを自動的に見つける問題です。
機械学習の問題に関する重要なメタ知識を利用するAutoMLの非常に単純なソリューションであるNaive AutoMLを紹介します。
論文 参考訳(メタデータ) (2021-03-18T19:52:12Z) - Understanding the Usability Challenges of Machine Learning In
High-Stakes Decision Making [67.72855777115772]
機械学習(ML)は、多種多様な成長を続ける一連のドメインに適用されている。
多くの場合、MLやデータサイエンスの専門知識を持たないドメインの専門家は、ML予測を使用してハイステークな意思決定を行うように求められます。
児童福祉スクリーニングにおけるMLユーザビリティの課題について,児童福祉スクリーニング者との一連のコラボレーションを通じて検討する。
論文 参考訳(メタデータ) (2021-03-02T22:50:45Z) - Whither AutoML? Understanding the Role of Automation in Machine Learning
Workflows [10.309305727686326]
機械学習をより広くアクセス可能にする取り組みは、機械学習のトレーニングとデプロイのプロセスを自動化することを目的としたAuto-MLツールの急速な増加をもたらしました。
今日、Auto-MLツールが実際にどのように使われているかを理解するために、初心者ホビーストからAuto-MLツールを使用する業界研究者まで、参加者と質的研究を行った。
私たちは、既存のツールのメリットと欠陥、およびMLにおける人間と自動化の役割に関する洞察を提示します。
論文 参考訳(メタデータ) (2021-01-13T02:12:46Z) - Ensemble Squared: A Meta AutoML System [13.062016289815054]
本稿では,AutoMLシステムのレベルをアンサンブルする「メタ」オートMLシステムを提案する。
Ensemble Squaredは、既存の競合するAutoMLシステムの多様性を活用して、それらのセットによって同時に生成されたトップパフォーマンスモデルをアンサンブルする。
論文 参考訳(メタデータ) (2020-12-10T01:09:00Z) - Technology Readiness Levels for AI & ML [79.22051549519989]
機械学習システムの開発は、現代的なツールで容易に実行できるが、プロセスは通常急いで、エンドツーエンドで実行される。
エンジニアリングシステムは、高品質で信頼性の高い結果の開発を効率化するために、明確に定義されたプロセスとテスト標準に従います。
我々は、機械学習の開発と展開のための実証されたシステムエンジニアリングアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-21T17:14:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。