論文の概要: Usable Security for ML Systems in Mental Health: A Framework
- arxiv url: http://arxiv.org/abs/2008.07738v1
- Date: Tue, 18 Aug 2020 04:44:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 22:25:04.854910
- Title: Usable Security for ML Systems in Mental Health: A Framework
- Title(参考訳): メンタルヘルスにおけるMLシステムの使用可能なセキュリティ:フレームワーク
- Authors: Helen Jiang, Erwen Senge
- Abstract要約: 本稿では、メンタルヘルスにおける機械学習システムのセキュリティ関連の設計、実装、展開をガイドし、評価するためのフレームワークを紹介する。
我々は、メンタルヘルスにおけるこれらのMLシステムのエンドユーザーに対して、セキュリティメカニズムを利用できるようにするための新しい原則と要件を提案する。
本稿では、メンタルヘルスアプリケーションにおけるMLシステムにおけるさまざまなセキュリティケースとプロファイルを検査し、評価する、いくつかの具体的なシナリオについて述べる。
- 参考スコア(独自算出の注目度): 2.436681150766912
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While the applications and demands of Machine learning (ML) systems in mental
health are growing, there is little discussion nor consensus regarding a
uniquely challenging aspect: building security methods and requirements into
these ML systems, and keep the ML system usable for end-users. This question of
usable security is very important, because the lack of consideration in either
security or usability would hinder large-scale user adoption and active usage
of ML systems in mental health applications.
In this short paper, we introduce a framework of four pillars, and a set of
desired properties which can be used to systematically guide and evaluate
security-related designs, implementations, and deployments of ML systems for
mental health. We aim to weave together threads from different domains,
incorporate existing views, and propose new principles and requirements, in an
effort to lay out a clear framework where criteria and expectations are
established, and are used to make security mechanisms usable for end-users of
those ML systems in mental health. Together with this framework, we present
several concrete scenarios where different usable security cases and profiles
in ML-systems in mental health applications are examined and evaluated.
- Abstract(参考訳): メンタルヘルスにおける機械学習(ML)システムの適用と要求は増加しているが、セキュリティメソッドと要件をこれらのMLシステム内に構築し、エンドユーザが使用可能なMLシステムを維持するという、ユニークな課題に関する議論や合意はほとんどない。
セキュリティとユーザビリティのいずれにおいても考慮の欠如は、メンタルヘルスアプリケーションにおけるmlシステムの大規模ユーザ採用とアクティブな使用を妨げているため、この利用可能なセキュリティに関する疑問は非常に重要である。
本稿では,4つの柱からなる枠組みと,セキュリティ関連設計,実装,メンタルヘルスのためのMLシステムの展開を体系的にガイドし,評価するために使用できる,望ましい特性のセットを紹介する。
我々は、異なるドメインからスレッドをまとめ、既存の見解を取り入れ、新しい原則と要件を提案し、基準と期待が確立された明確なフレームワークを構築することを目的としており、メンタルヘルスにおけるこれらのMLシステムのエンドユーザにセキュリティメカニズムを使用できるようにする。
この枠組みとともに、メンタルヘルスアプリケーションにおけるMLシステムにおけるさまざまなセキュリティケースとプロファイルを検査し、評価するいくつかの具体的なシナリオを提示する。
関連論文リスト
- SafeBench: A Safety Evaluation Framework for Multimodal Large Language Models [75.67623347512368]
MLLMの安全性評価を行うための総合的なフレームワークであるツールンを提案する。
我々のフレームワークは、包括的な有害なクエリデータセットと自動評価プロトコルで構成されています。
本研究では,広く利用されている15のオープンソースMLLMと6つの商用MLLMの大規模実験を行った。
論文 参考訳(メタデータ) (2024-10-24T17:14:40Z) - SALAD-Bench: A Hierarchical and Comprehensive Safety Benchmark for Large Language Models [107.82336341926134]
SALAD-Benchは、大規模言語モデル(LLM)を評価するために特別に設計された安全ベンチマークである。
それは、その大規模な、豊富な多様性、三つのレベルにまたがる複雑な分類、多目的機能を通じて、従来のベンチマークを超越している。
論文 参考訳(メタデータ) (2024-02-07T17:33:54Z) - Vulnerability of Machine Learning Approaches Applied in IoT-based Smart Grid: A Review [51.31851488650698]
機械学習(ML)は、IoT(Internet-of-Things)ベースのスマートグリッドでの使用頻度が高まっている。
電力信号に注入された逆方向の歪みは システムの正常な制御と操作に大きな影響を及ぼす
安全クリティカルパワーシステムに適用されたMLsgAPPの脆弱性評価を行うことが不可欠である。
論文 参考訳(メタデータ) (2023-08-30T03:29:26Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z) - Concrete Safety for ML Problems: System Safety for ML Development and
Assessment [0.758305251912708]
信頼感、意図しない社会的危害、容認できない社会的および倫理的違反に対する懸念は、MLの進歩の約束を損なう。
システム安全工学は、複雑度の高い社会技術システムにおいても、リスクを特定し管理する実績のある、確立された分野である。
論文 参考訳(メタデータ) (2023-02-06T18:02:07Z) - Review of the AMLAS Methodology for Application in Healthcare [2.6072209210124675]
患者の安全が損なわれないように、MLの安全性を積極的に保証する必要がある。
Assurance of Machine Learning for use in autonomous Systems methodは、Assuring Autonomy International Programmeによって開発された。
本総説では,ML製造業者に対して,現行の安全保証プラクティスから収束するか,逸脱するかを判断するため,方法論を査定した。
論文 参考訳(メタデータ) (2022-09-01T13:00:36Z) - Reliability Assessment and Safety Arguments for Machine Learning
Components in Assuring Learning-Enabled Autonomous Systems [19.65793237440738]
LES(Learning-Enabled Systems)のための総合保証フレームワークを提案する。
次に、ML分類器のための新しいモデルに依存しない信頼性評価モデル(RAM)を提案する。
モデル仮定と、我々のRAMが発見したML信頼性を評価するための固有の課題について論じる。
論文 参考訳(メタデータ) (2021-11-30T14:39:22Z) - Practical Machine Learning Safety: A Survey and Primer [81.73857913779534]
自動運転車のような安全クリティカルなアプリケーションにおける機械学習アルゴリズムのオープンワールド展開は、さまざまなML脆弱性に対処する必要がある。
一般化エラーを低減し、ドメイン適応を実現し、外乱例や敵攻撃を検出するための新しいモデルと訓練技術。
我々の組織は、MLアルゴリズムの信頼性を異なる側面から向上するために、最先端のML技術を安全戦略にマッピングする。
論文 参考訳(メタデータ) (2021-06-09T05:56:42Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Guidance on the Assurance of Machine Learning in Autonomous Systems
(AMLAS) [16.579772998870233]
自律システム(AMLAS)における機械学習の保証手法について紹介する。
AMLASは、一連の安全ケースパターンと、MLコンポーネントの開発に安全保証を統合するプロセスから構成される。
論文 参考訳(メタデータ) (2021-02-02T15:41:57Z) - Safety design concepts for statistical machine learning components
toward accordance with functional safety standards [0.38073142980732994]
近年,統計機械学習の誤判定により,キュリアルな事故や事故が報告されている。
本稿では,機能安全基準に従って,コンポーネントに対する5種類の技術安全概念(TSC)を整理する。
論文 参考訳(メタデータ) (2020-08-04T01:01:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。