論文の概要: Towards Integrating Fairness Transparently in Industrial Applications
- arxiv url: http://arxiv.org/abs/2006.06082v3
- Date: Sat, 13 Feb 2021 23:23:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 04:56:46.587856
- Title: Towards Integrating Fairness Transparently in Industrial Applications
- Title(参考訳): 産業応用における公正な統合に向けて
- Authors: Emily Dodwell, Cheryl Flynn, Balachander Krishnamurthy, Subhabrata
Majumdar, Ritwik Mitra
- Abstract要約: 本稿では,機械学習プロジェクトのバイアス検出,緩和,ドキュメント化において,機械的および人為的コンポーネントを統合するための体系的アプローチを提案する。
構造的プリミティブを実世界のユースケースの例として提示し、潜在的なバイアスを特定し、適切な緩和戦略を決定する方法について説明する。
- 参考スコア(独自算出の注目度): 3.478469381434812
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Numerous Machine Learning (ML) bias-related failures in recent years have led
to scrutiny of how companies incorporate aspects of transparency and
accountability in their ML lifecycles. Companies have a responsibility to
monitor ML processes for bias and mitigate any bias detected, ensure business
product integrity, preserve customer loyalty, and protect brand image.
Challenges specific to industry ML projects can be broadly categorized into
principled documentation, human oversight, and need for mechanisms that enable
information reuse and improve cost efficiency. We highlight specific roadblocks
and propose conceptual solutions on a per-category basis for ML practitioners
and organizational subject matter experts. Our systematic approach tackles
these challenges by integrating mechanized and human-in-the-loop components in
bias detection, mitigation, and documentation of projects at various stages of
the ML lifecycle. To motivate the implementation of our system -- SIFT (System
to Integrate Fairness Transparently) -- we present its structural primitives
with an example real-world use case on how it can be used to identify potential
biases and determine appropriate mitigation strategies in a participatory
manner.
- Abstract(参考訳): 近年の機械学習(ML)のバイアス関連障害は、企業がMLライフサイクルに透明性と説明責任の側面をどのように取り入れるかを精査している。
企業は、バイアスのためにmlプロセスを監視し、検出されたバイアスを軽減し、ビジネスプロダクトの完全性を確保し、顧客の忠誠を守り、ブランドイメージを保護する責任がある。
業界MLプロジェクトに特有の課題は、原則化されたドキュメント、人間の監視、情報の再利用とコスト効率の向上を可能にするメカニズムの必要性に広く分類することができる。
我々は,特定の道路ブロックを強調し,ML実践者や組織分野の専門家を対象に,カテゴリごとの概念的ソリューションを提案する。
私たちの体系的なアプローチは、MLライフサイクルのさまざまな段階におけるプロジェクトのバイアス検出、緩和、ドキュメントに、機械的および人為的コンポーネントを統合することで、これらの課題に取り組みます。
sift(system to integrate fairness transparently)システムの実装を動機付けるために,我々は,その構造的プリミティブを,潜在的なバイアスを特定し,適切な緩和戦略を参加的な方法で決定するためにどのように使用できるかという実例で提示する。
関連論文リスト
- Towards Trustworthy Machine Learning in Production: An Overview of the Robustness in MLOps Approach [0.0]
近年、AI研究者や実践家は、信頼性と信頼性のある意思決定を行うシステムを構築するための原則とガイドラインを導入している。
実際には、システムが運用され、実際の環境で継続的に進化し、運用するためにデプロイされる必要がある場合に、根本的な課題が発生する。
この課題に対処するため、MLOps(Machine Learning Operations)は、デプロイメントにおけるMLソリューションを標準化するための潜在的なレシピとして登場した。
論文 参考訳(メタデータ) (2024-10-28T09:34:08Z) - SafeBench: A Safety Evaluation Framework for Multimodal Large Language Models [75.67623347512368]
MLLMの安全性評価を行うための総合的なフレームワークであるツールンを提案する。
我々のフレームワークは、包括的な有害なクエリデータセットと自動評価プロトコルで構成されています。
本研究では,広く利用されている15のオープンソースMLLMと6つの商用MLLMの大規模実験を行った。
論文 参考訳(メタデータ) (2024-10-24T17:14:40Z) - Unbiasing on the Fly: Explanation-Guided Human Oversight of Machine Learning System Decisions [4.24106429730184]
本稿では,デプロイされたMLシステムにおいて,オンザフライトラッキングと識別の補正のための新しいフレームワークを提案する。
このフレームワークは、MLシステムによる予測を継続的に監視し、差別的な結果をフラグ付けする。
このHuman-in-the-loopアプローチは、レビュアーがMLシステム決定を受け入れたり、無効にしたりすることを可能にする。
論文 参考訳(メタデータ) (2024-06-25T19:40:55Z) - The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Identifying Concerns When Specifying Machine Learning-Enabled Systems: A
Perspective-Based Approach [1.2184324428571227]
PerSpecMLは、ML対応システムを指定するためのパースペクティブベースのアプローチである。
MLや非MLコンポーネントを含むどの属性がシステム全体の品質に寄与するかを、実践者が特定するのに役立つ。
論文 参考訳(メタデータ) (2023-09-14T18:31:16Z) - Can Fairness be Automated? Guidelines and Opportunities for
Fairness-aware AutoML [52.86328317233883]
本報告では、公平性に関連する害が発生する様々な方法の概要を概説する。
この方向に進むためには、いくつかのオープンな技術的課題を強調します。
論文 参考訳(メタデータ) (2023-03-15T09:40:08Z) - Uncertainty-aware predictive modeling for fair data-driven decisions [5.371337604556311]
フェアMLシステムは安全なMLシステムであることを示す。
公平な判断については、不確実な分類を持つ個人に対して、安全なフェールオプションを使用することを議論する。
論文 参考訳(メタデータ) (2022-11-04T20:04:39Z) - MMRNet: Improving Reliability for Multimodal Object Detection and
Segmentation for Bin Picking via Multimodal Redundancy [68.7563053122698]
マルチモーダル冗長性(MMRNet)を用いた信頼度の高いオブジェクト検出・分割システムを提案する。
これは、マルチモーダル冗長の概念を導入し、デプロイ中のセンサ障害問題に対処する最初のシステムである。
システム全体の出力信頼性と不確実性を測定するために,すべてのモダリティからの出力を利用する新しいラベルフリーマルチモーダル整合性(MC)スコアを提案する。
論文 参考訳(メタデータ) (2022-10-19T19:15:07Z) - Panoramic Learning with A Standardized Machine Learning Formalism [116.34627789412102]
本稿では,多様なMLアルゴリズムの統一的な理解を提供する学習目的の標準化された方程式を提案する。
また、新しいMLソリューションのメカニック設計のガイダンスも提供し、すべての経験を持つパノラマ学習に向けた有望な手段として機能する。
論文 参考訳(メタデータ) (2021-08-17T17:44:38Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - LiFT: A Scalable Framework for Measuring Fairness in ML Applications [18.54302159142362]
本稿では、大規模なMLシステムの一部として、フェアネスメトリクスのスケーラブルな計算のためのフレームワークであるLinkedIn Fairness Toolkit(LiFT)を紹介する。
フェアネスツールを実際に導入する際の課題と、LinkedInでのデプロイメント中に学んだ教訓について論じる。
論文 参考訳(メタデータ) (2020-08-14T03:55:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。