論文の概要: Runtime Monitoring of Human-centric Requirements in Machine Learning
Components: A Model-driven Engineering Approach
- arxiv url: http://arxiv.org/abs/2310.06219v1
- Date: Tue, 10 Oct 2023 00:23:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 03:41:43.694802
- Title: Runtime Monitoring of Human-centric Requirements in Machine Learning
Components: A Model-driven Engineering Approach
- Title(参考訳): 機械学習コンポーネントにおける人中心要求のランタイムモニタリング:モデル駆動エンジニアリングアプローチ
- Authors: Hira Naveed
- Abstract要約: 機械学習(ML)コンポーネントがソフトウェアシステムに統合されるにつれて、それらの使用の倫理的側面や責任的な側面に重点が置かれるようになる。
これには、公正性、プライバシ、説明可能性、幸福、透明性、人間の価値など、人間中心の要件に準拠するMLベースのシステムの構築が含まれる。
これらの人間中心の要件を満たすことは、公的な信頼を維持するために必要であるだけでなく、MLベースのシステムの成功を決定する重要な要因でもある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As machine learning (ML) components become increasingly integrated into
software systems, the emphasis on the ethical or responsible aspects of their
use has grown significantly. This includes building ML-based systems that
adhere to human-centric requirements, such as fairness, privacy,
explainability, well-being, transparency and human values. Meeting these
human-centric requirements is not only essential for maintaining public trust
but also a key factor determining the success of ML-based systems. However, as
these requirements are dynamic in nature and continually evolve, pre-deployment
monitoring of these models often proves insufficient to establish and sustain
trust in ML components. Runtime monitoring approaches for ML are potentially
valuable solutions to this problem. Existing state-of-the-art techniques often
fall short as they seldom consider more than one human-centric requirement,
typically focusing on fairness, safety, and trust. The technical expertise and
effort required to set up a monitoring system are also challenging. In my PhD
research, I propose a novel approach for the runtime monitoring of multiple
human-centric requirements. This approach leverages model-driven engineering to
more comprehensively monitor ML components. This doctoral symposium paper
outlines the motivation for my PhD work, a potential solution, progress so far
and future plans.
- Abstract(参考訳): 機械学習(ML)コンポーネントがソフトウェアシステムに統合されるにつれて、それらの使用の倫理的側面や責任的な側面に重点が置かれるようになる。
これには、公正性、プライバシ、説明可能性、幸福、透明性、人間の価値など、人間中心の要件に従うMLベースのシステムの構築が含まれる。
これらの人間中心の要件を満たすことは、公的な信頼を維持するために必要であるだけでなく、MLベースのシステムの成功を決定する重要な要因でもある。
しかしながら、これらの要件は本質的に動的であり、継続的に進化するので、これらのモデルの事前デプロイ監視はMLコンポーネントの信頼性を確立し維持するには不十分であることがしばしば証明される。
MLのランタイムモニタリングアプローチは、この問題に対する潜在的に価値のある解決策である。
既存の最先端技術は、通常、公正さ、安全性、信頼に焦点を当てた、複数の人間中心の要件をほとんど考慮しないため、しばしば不足する。
監視システムをセットアップするために必要な技術的専門知識と労力も困難である。
博士論文では、複数の人間中心の要求をランタイム監視するための新しいアプローチを提案する。
このアプローチでは、モデル駆動エンジニアリングを活用して、MLコンポーネントをより包括的に監視する。
本論文では,博士号取得の動機,潜在的な解決策,これまでの進歩,今後の計画について概説する。
関連論文リスト
- Towards Trustworthy Machine Learning in Production: An Overview of the Robustness in MLOps Approach [0.0]
近年、AI研究者や実践家は、信頼性と信頼性のある意思決定を行うシステムを構築するための原則とガイドラインを導入している。
実際には、システムが運用され、実際の環境で継続的に進化し、運用するためにデプロイされる必要がある場合に、根本的な課題が発生する。
この課題に対処するため、MLOps(Machine Learning Operations)は、デプロイメントにおけるMLソリューションを標準化するための潜在的なレシピとして登場した。
論文 参考訳(メタデータ) (2024-10-28T09:34:08Z) - Human-In-The-Loop Machine Learning for Safe and Ethical Autonomous Vehicles: Principles, Challenges, and Opportunities [33.853994070508485]
我々は、カリキュラム学習(CL)、ヒューマン・イン・ザ・ループ強化学習(HITL-RL)、アクティブ・ラーニング(AL)、倫理的原則に焦点を当てる。
CLでは、人間の専門家が単純なタスクから始めて、より難しいタスクへと徐々に進むことで、MLモデルを体系的に訓練する。
HITL-RLは報酬形成、アクションインジェクション、対話型学習といった技術を通じて人間の入力を組み込むことで、RLプロセスを大幅に強化する。
ALは、人間の監視でラベル付けする必要がある特定のインスタンスをターゲットにすることで、アノテーションプロセスを合理化する。
論文 参考訳(メタデータ) (2024-08-22T17:02:29Z) - Benchmarks as Microscopes: A Call for Model Metrology [76.64402390208576]
現代の言語モデル(LM)は、能力評価において新たな課題を提起する。
メトリクスに自信を持つためには、モデルミアロジの新たな規律が必要です。
論文 参考訳(メタデータ) (2024-07-22T17:52:12Z) - Assurance of AI Systems From a Dependability Perspective [0.0]
リスクの高いコンピュータベースのシステムに対する古典的保証の原則を概説する。
次に、人工知能(AI)と機械学習(ML)を用いたシステムへのこれらの原則の適用を検討する。
論文 参考訳(メタデータ) (2024-07-18T23:55:43Z) - The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - Which priors matter? Benchmarking models for learning latent dynamics [70.88999063639146]
古典力学の先行概念を機械学習モデルに統合する手法が提案されている。
これらのモデルの現在の機能について、精査する。
連続的および時間的可逆的ダイナミクスの使用は、すべてのクラスのモデルに恩恵をもたらす。
論文 参考訳(メタデータ) (2021-11-09T23:48:21Z) - SoK: Machine Learning Governance [16.36671448193025]
このような利益とリスクのバランスをとるため、MLガバナンスの概念を開発します。
私たちは、MLシステムの障害の原因となるプリンシパルを保持するためにアイデンティティを使用します。
私たちは、モデルオーナーがシステムのライフサイクルを管理することができる技術の必要性を強調します。
論文 参考訳(メタデータ) (2021-09-20T17:56:22Z) - Technology Readiness Levels for Machine Learning Systems [107.56979560568232]
機械学習システムの開発とデプロイは、現代のツールで簡単に実行できますが、プロセスは一般的に急ぎ、エンドツーエンドです。
私たちは、機械学習の開発と展開のための実証済みのシステムエンジニアリングアプローチを開発しました。
当社の「機械学習技術準備レベル」フレームワークは、堅牢で信頼性が高く、責任あるシステムを確保するための原則的なプロセスを定義します。
論文 参考訳(メタデータ) (2021-01-11T15:54:48Z) - Towards a Robust and Trustworthy Machine Learning System Development [0.09236074230806578]
最新のML信頼性と技術に関する最近の調査をセキュリティエンジニアリングの視点から紹介します。
次に、ML実践者のための標準的かつ視覚化された方法で知識の体を表すメタモデルを記述することによって、調査の前後に研究を進めます。
本稿では,堅牢で信頼性の高いMLシステムの開発を進めるための今後の研究方向性を提案する。
論文 参考訳(メタデータ) (2021-01-08T14:43:58Z) - Technology Readiness Levels for AI & ML [79.22051549519989]
機械学習システムの開発は、現代的なツールで容易に実行できるが、プロセスは通常急いで、エンドツーエンドで実行される。
エンジニアリングシステムは、高品質で信頼性の高い結果の開発を効率化するために、明確に定義されたプロセスとテスト標準に従います。
我々は、機械学習の開発と展開のための実証されたシステムエンジニアリングアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-21T17:14:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。