論文の概要: MLOps: A Primer for Policymakers on a New Frontier in Machine Learning
- arxiv url: http://arxiv.org/abs/2301.05775v1
- Date: Fri, 13 Jan 2023 22:18:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 19:02:25.766308
- Title: MLOps: A Primer for Policymakers on a New Frontier in Machine Learning
- Title(参考訳): MLOps: 機械学習の新しいフロンティアにおける政策立案者のためのプライマー
- Authors: Jazmia Henry
- Abstract要約: この章はデータサイエンティストやMLOpsの専門家を念頭に置いて書かれています。
政策立案者、改革主義者、AI倫理学者、社会学者などのリソースとして使用できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This chapter is written with the Data Scientist or MLOps professional in mind
but can be used as a resource for policy makers, reformists, AI Ethicists,
sociologists, and others interested in finding methods that help reduce bias in
algorithms. I will take a deployment centered approach with the assumption that
the professionals reading this work have already read the amazing work on the
implications of algorithms on historically marginalized groups by Gebru,
Buolamwini, Benjamin and Shane to name a few. If you have not read those works,
I refer you to the "Important Reading for Ethical Model Building" list at the
end of this paper as it will help give you a framework on how to think about
Machine Learning models more holistically taking into account their effect on
marginalized people. In the Introduction to this chapter, I root the
significance of their work in real world examples of what happens when models
are deployed without transparent data collected for the training process and
are deployed without the practitioners paying special attention to what happens
to models that adapt to exploit gaps between their training environment and the
real world. The rest of this chapter builds on the work of the aforementioned
researchers and discusses the reality of models performing post production and
details ways ML practitioners can identify bias using tools during the MLOps
lifecycle to mitigate bias that may be introduced to models in the real world.
- Abstract(参考訳): この章はデータサイエンティストやMLOpsの専門家を念頭に置いて書かれているが、アルゴリズムのバイアスを減らす方法を見つけることに関心のある政策立案者、改革主義者、AI倫理学者、社会学者のリソースとして使用できる。
この記事を読んでいるプロフェッショナルが、gebru、buolamwini、benjamin、shaneによる歴史的辺境化グループにおけるアルゴリズムの意味に関する素晴らしい研究を、いくつか挙げて読んでいると仮定して、デプロイメント中心のアプローチを取りたいと思います。
この論文の最後に掲載されている"Important Reading for Ethical Model Building"リストを参照すると、機械学習モデルについてもっと全体論的に考慮して考えるためのフレームワークが提供されます。
この章の序文では、トレーニングプロセスのために透明なデータを収集せずにモデルがデプロイされ、実践者がトレーニング環境と実世界のギャップを生かしたモデルに何が起こるかに特別な注意を払わずにデプロイされた場合の、実際の例における彼らの作業の重要性について述べています。
この章の残りは、前述の研究者の作業に基づいて、ポストプロダクションを実行するモデルの現実と、MLOpsライフサイクル中にツールを使用してバイアスを識別し、現実のモデルに導入される可能性のあるバイアスを軽減する方法について論じている。
関連論文リスト
- LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - Self-Debiasing Large Language Models: Zero-Shot Recognition and
Reduction of Stereotypes [73.12947922129261]
ステレオタイピングを減らすために,大規模言語モデルのゼロショット機能を活用している。
自己嫌悪は、9つの異なる社会集団におけるステレオタイピングの度合いを著しく低下させることが示される。
この研究が、バイアス軽減のための他のゼロショット技術に関する調査をオープンにすることを願っている。
論文 参考訳(メタデータ) (2024-02-03T01:40:11Z) - Learn From Model Beyond Fine-Tuning: A Survey [78.80920533793595]
Learn From Model (LFM) は、モデルインターフェースに基づいた基礎モデル(FM)の研究、修正、設計に焦点を当てている。
LFM技術の研究は、モデルチューニング、モデル蒸留、モデル再利用、メタラーニング、モデル編集の5つの分野に大別できる。
本稿では, LFM の観点から, FM に基づく現在の手法を概観する。
論文 参考訳(メタデータ) (2023-10-12T10:20:36Z) - Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning [79.53130089003986]
大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:09:44Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Disembodied Machine Learning: On the Illusion of Objectivity in NLP [21.169778613387827]
バイアスに対処し緩和することはほぼ不可能である、と我々は主張する。
偏見制限の一般的な言説は、社会的限界化に対処する能力にある。
我々は、これに精通し、偏見の方法が一部のバイアスに対してのみ正しいことを受け入れることを推奨する。
論文 参考訳(メタデータ) (2021-01-28T12:58:39Z) - Principles and Practice of Explainable Machine Learning [12.47276164048813]
本稿では、特に機械学習(ML)とパターン認識モデルに関するデータ駆動手法に焦点を当てる。
メソッドの頻度と複雑さが増すにつれて、少なくともビジネスの利害関係者はモデルの欠点に懸念を抱いている。
我々は、業界実践者が説明可能な機械学習の分野をよりよく理解するための調査を実施した。
論文 参考訳(メタデータ) (2020-09-18T14:50:27Z) - FairALM: Augmented Lagrangian Method for Training Fair Models with
Little Regret [42.66567001275493]
現在、我々がモデルに提示するデータセットのバイアスのため、公正な公開トレーニングが不公平なモデルにつながることは受け入れられている。
そこで本研究では,モデルのトレーニング中に公平性を同時に課すメカニズムについて検討する。
論文 参考訳(メタデータ) (2020-04-03T03:18:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。