論文の概要: Runtime Monitoring of Human-centric Requirements in Machine Learning
Components: A Model-driven Engineering Approach
- arxiv url: http://arxiv.org/abs/2310.06219v1
- Date: Tue, 10 Oct 2023 00:23:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 03:41:43.694802
- Title: Runtime Monitoring of Human-centric Requirements in Machine Learning
Components: A Model-driven Engineering Approach
- Title(参考訳): 機械学習コンポーネントにおける人中心要求のランタイムモニタリング:モデル駆動エンジニアリングアプローチ
- Authors: Hira Naveed
- Abstract要約: 機械学習(ML)コンポーネントがソフトウェアシステムに統合されるにつれて、それらの使用の倫理的側面や責任的な側面に重点が置かれるようになる。
これには、公正性、プライバシ、説明可能性、幸福、透明性、人間の価値など、人間中心の要件に準拠するMLベースのシステムの構築が含まれる。
これらの人間中心の要件を満たすことは、公的な信頼を維持するために必要であるだけでなく、MLベースのシステムの成功を決定する重要な要因でもある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As machine learning (ML) components become increasingly integrated into
software systems, the emphasis on the ethical or responsible aspects of their
use has grown significantly. This includes building ML-based systems that
adhere to human-centric requirements, such as fairness, privacy,
explainability, well-being, transparency and human values. Meeting these
human-centric requirements is not only essential for maintaining public trust
but also a key factor determining the success of ML-based systems. However, as
these requirements are dynamic in nature and continually evolve, pre-deployment
monitoring of these models often proves insufficient to establish and sustain
trust in ML components. Runtime monitoring approaches for ML are potentially
valuable solutions to this problem. Existing state-of-the-art techniques often
fall short as they seldom consider more than one human-centric requirement,
typically focusing on fairness, safety, and trust. The technical expertise and
effort required to set up a monitoring system are also challenging. In my PhD
research, I propose a novel approach for the runtime monitoring of multiple
human-centric requirements. This approach leverages model-driven engineering to
more comprehensively monitor ML components. This doctoral symposium paper
outlines the motivation for my PhD work, a potential solution, progress so far
and future plans.
- Abstract(参考訳): 機械学習(ML)コンポーネントがソフトウェアシステムに統合されるにつれて、それらの使用の倫理的側面や責任的な側面に重点が置かれるようになる。
これには、公正性、プライバシ、説明可能性、幸福、透明性、人間の価値など、人間中心の要件に従うMLベースのシステムの構築が含まれる。
これらの人間中心の要件を満たすことは、公的な信頼を維持するために必要であるだけでなく、MLベースのシステムの成功を決定する重要な要因でもある。
しかしながら、これらの要件は本質的に動的であり、継続的に進化するので、これらのモデルの事前デプロイ監視はMLコンポーネントの信頼性を確立し維持するには不十分であることがしばしば証明される。
MLのランタイムモニタリングアプローチは、この問題に対する潜在的に価値のある解決策である。
既存の最先端技術は、通常、公正さ、安全性、信頼に焦点を当てた、複数の人間中心の要件をほとんど考慮しないため、しばしば不足する。
監視システムをセットアップするために必要な技術的専門知識と労力も困難である。
博士論文では、複数の人間中心の要求をランタイム監視するための新しいアプローチを提案する。
このアプローチでは、モデル駆動エンジニアリングを活用して、MLコンポーネントをより包括的に監視する。
本論文では,博士号取得の動機,潜在的な解決策,これまでの進歩,今後の計画について概説する。
関連論文リスト
- Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - One-way Explainability Isn't The Message [2.618757282404254]
この文脈における人間と機械の両方の要件は、かなり異なると我々は主張する。
このようなヒューマン・マシン・システムの設計は、情報の2方向の繰り返しの可視性によって駆動されるべきである。
我々は、協調的な意思決定支援システムの設計を導くために、運用原則、すなわち、知性公理(Intelligibility Axioms)を提案します。
論文 参考訳(メタデータ) (2022-05-05T09:15:53Z) - Which priors matter? Benchmarking models for learning latent dynamics [70.88999063639146]
古典力学の先行概念を機械学習モデルに統合する手法が提案されている。
これらのモデルの現在の機能について、精査する。
連続的および時間的可逆的ダイナミクスの使用は、すべてのクラスのモデルに恩恵をもたらす。
論文 参考訳(メタデータ) (2021-11-09T23:48:21Z) - SoK: Machine Learning Governance [16.36671448193025]
このような利益とリスクのバランスをとるため、MLガバナンスの概念を開発します。
私たちは、MLシステムの障害の原因となるプリンシパルを保持するためにアイデンティティを使用します。
私たちは、モデルオーナーがシステムのライフサイクルを管理することができる技術の必要性を強調します。
論文 参考訳(メタデータ) (2021-09-20T17:56:22Z) - Multi Agent System for Machine Learning Under Uncertainty in Cyber
Physical Manufacturing System [78.60415450507706]
近年の予測機械学習の進歩は、製造における様々なユースケースに応用されている。
ほとんどの研究は、それに関連する不確実性に対処することなく予測精度を最大化することに焦点を当てた。
本稿では,機械学習における不確実性の原因を特定し,不確実性下での機械学習システムの成功基準を確立する。
論文 参考訳(メタデータ) (2021-07-28T10:28:05Z) - Declarative Machine Learning Systems [7.5717114708721045]
機械学習(ML)は、学術的な取り組みから、コンピューティングのほぼすべての側面で採用されている普及した技術へと移行してきた。
近年の自然科学におけるMLの適用の成功により、MLは人類が直面する最も困難な現実世界問題に対処するために利用できることが明らかとなった。
MLシステムの次の波は、おそらくコーディングスキルなしで、より多くの人が同じタスクを実行できると信じています。
論文 参考訳(メタデータ) (2021-07-16T23:57:57Z) - Technology Readiness Levels for Machine Learning Systems [107.56979560568232]
機械学習システムの開発とデプロイは、現代のツールで簡単に実行できますが、プロセスは一般的に急ぎ、エンドツーエンドです。
私たちは、機械学習の開発と展開のための実証済みのシステムエンジニアリングアプローチを開発しました。
当社の「機械学習技術準備レベル」フレームワークは、堅牢で信頼性が高く、責任あるシステムを確保するための原則的なプロセスを定義します。
論文 参考訳(メタデータ) (2021-01-11T15:54:48Z) - Towards a Robust and Trustworthy Machine Learning System Development [0.09236074230806578]
最新のML信頼性と技術に関する最近の調査をセキュリティエンジニアリングの視点から紹介します。
次に、ML実践者のための標準的かつ視覚化された方法で知識の体を表すメタモデルを記述することによって、調査の前後に研究を進めます。
本稿では,堅牢で信頼性の高いMLシステムの開発を進めるための今後の研究方向性を提案する。
論文 参考訳(メタデータ) (2021-01-08T14:43:58Z) - AutonoML: Towards an Integrated Framework for Autonomous Machine
Learning [9.356870107137095]
Reviewは、自動化された自動MLシステムを構成するものに関して、より広範な視点を動機付けようとしている。
その上で、以下の研究領域の開発状況を調査します。
我々は、各トピックによって拡張されたレビューを通して概念的枠組みを開発し、高レベルなメカニズムを自律mlシステムに融合する方法を1つ紹介する。
論文 参考訳(メタデータ) (2020-12-23T11:01:10Z) - Technology Readiness Levels for AI & ML [79.22051549519989]
機械学習システムの開発は、現代的なツールで容易に実行できるが、プロセスは通常急いで、エンドツーエンドで実行される。
エンジニアリングシステムは、高品質で信頼性の高い結果の開発を効率化するために、明確に定義されたプロセスとテスト標準に従います。
我々は、機械学習の開発と展開のための実証されたシステムエンジニアリングアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-21T17:14:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。