論文の概要: Machine Learning Models Disclosure from Trusted Research Environments
(TRE), Challenges and Opportunities
- arxiv url: http://arxiv.org/abs/2111.05628v1
- Date: Wed, 10 Nov 2021 10:35:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-11 18:25:34.986741
- Title: Machine Learning Models Disclosure from Trusted Research Environments
(TRE), Challenges and Opportunities
- Title(参考訳): 信頼できる研究環境(tre)と課題と機会からの機械学習モデル開示
- Authors: Esma Mansouri-Benssassi (1), Simon Rogers (2), Jim Smith (3), Felix
Ritchie (3), Emily Jefferson (1) (1) University of Dundee (2) NHS National
Services Scotland (3) University of the West of England
- Abstract要約: 我々は、AIの導入がTRE(Trusted Research Environment)にもたらす様々な脆弱性について説明する。
また、トレーニングされた機械学習モデルの開示に関連するさまざまなタイプやリスクレベルについても紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Trusted Research environments (TRE)s are safe and secure environments in
which researchers can access sensitive data. With the growth and diversity of
medical data such as Electronic Health Records (EHR), Medical Imaging and
Genomic data, there is an increase in the use of Artificial Intelligence (AI)
in general and the subfield of Machine Learning (ML) in particular in the
healthcare domain. This generates the desire to disclose new types of outputs
from TREs, such as trained machine learning models. Although specific
guidelines and policies exists for statistical disclosure controls in TREs,
they do not satisfactorily cover these new types of output request. In this
paper, we define some of the challenges around the application and disclosure
of machine learning for healthcare within TREs. We describe various
vulnerabilities the introduction of AI brings to TREs. We also provide an
introduction to the different types and levels of risks associated with the
disclosure of trained ML models. We finally describe the new research
opportunities in developing and adapting policies and tools for safely
disclosing machine learning outputs from TREs.
- Abstract(参考訳): trusted research environment (tre)は、研究者が機密データにアクセスできる安全で安全な環境である。
電子健康記録(EHR)、医用画像、ゲノムデータなどの医療データの成長と多様性により、一般の人工知能(AI)の利用が増加し、特に医療領域における機械学習(ML)のサブフィールドが拡大する。
これにより、トレーニングされた機械学習モデルなど、TREからの新しいタイプのアウトプットを開示したいという願望が生まれます。
TREの統計開示制御のための具体的なガイドラインやポリシーは存在するが、これらの新しいタイプの出力要求を十分にカバーしていない。
本稿では,TREにおける医療分野における機械学習の適用と公開に関する課題について述べる。
AIの導入がTREにもたらすさまざまな脆弱性について説明する。
また、トレーニングされたMLモデルの開示に関連するさまざまなタイプやリスクレベルについても紹介する。
最終的に、TREから機械学習出力を安全に開示するためのポリシーとツールを開発し、適応する新たな研究機会について説明する。
関連論文リスト
- Procedural Content Generation via Generative Artificial Intelligence [1.437446768735628]
生成的人工知能(AI)は2010年代半ばに大きな関心を寄せた。
生成AIはPCGに有効であるが、高性能AIの構築には膨大なトレーニングデータが必要である。
PCG研究をさらに進めるためには、限られたトレーニングデータに関連する問題を克服する必要がある。
論文 参考訳(メタデータ) (2024-07-12T06:03:38Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - Machine Learning for Leaf Disease Classification: Data, Techniques and
Applications [14.73818032506552]
近年、機械学習は、学術研究と産業応用の両方において葉病分類に採用されている。
この研究は、データ、技術、アプリケーションを含むトピックのさまざまな側面に関する調査を提供する。
論文 参考訳(メタデータ) (2023-10-19T06:21:21Z) - Introduction to Machine Learning for Physicians: A Survival Guide for
Data Deluge [9.152759278163954]
現代の研究分野は、大規模な、しばしば構造化されていない、不安定なデータセットの収集と分析にますます依存している。
このデータルージュを活用できる機械学習や人工知能アプリケーションへの関心が高まっている。
この幅広い非技術的概要は、医学的および生物学的応用に特に焦点をあてた、機械学習への穏やかな紹介を提供する。
論文 参考訳(メタデータ) (2022-12-23T13:08:59Z) - GRAIMATTER Green Paper: Recommendations for disclosure control of
trained Machine Learning (ML) models from Trusted Research Environments
(TREs) [4.803669015024322]
TREでAIモデルをトレーニングしたいという学界や業界からの要望が増えている。
これらの複雑なAIモデルは、説明と再現のためにより多くの情報を必要とし、機密性の高い個人データがそのような記述から推測される可能性を高める。
TREは、これらのリスクに対して成熟したプロセスやコントロールを持っていません。
GRAIMATTERは、TREからトレーニング済みAIモデルを開示する際の追加リスクを回避するために、TREに有用な推奨案のドラフトセットを開発した。
論文 参考訳(メタデータ) (2022-11-03T09:00:57Z) - ImDrug: A Benchmark for Deep Imbalanced Learning in AI-aided Drug
Discovery [79.08833067391093]
現実世界の医薬品のデータセットは、しばしば高度に不均衡な分布を示す。
ImDrugはオープンソースのPythonライブラリを備えたベンチマークで、4つの不均衡設定、11のAI対応データセット、54の学習タスク、16のベースラインアルゴリズムで構成されています。
ドラッグ発見パイプラインの幅広い範囲にまたがる問題やソリューションに対して、アクセス可能でカスタマイズ可能なテストベッドを提供する。
論文 参考訳(メタデータ) (2022-09-16T13:35:57Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - Retrieval-Enhanced Machine Learning [110.5237983180089]
本稿では,いくつかの既存モデルを含む汎用的な検索強化機械学習フレームワークについて述べる。
REMLは情報検索の慣例に挑戦し、最適化を含む中核領域における新たな進歩の機会を提示している。
REMLリサーチアジェンダは、情報アクセス研究の新しいスタイルの基礎を築き、機械学習と人工知能の進歩への道を開く。
論文 参考訳(メタデータ) (2022-05-02T21:42:45Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Machine Learning in Nano-Scale Biomedical Engineering [77.75587007080894]
ナノスケールバイオメディカルエンジニアリングにおける機械学習の利用に関する既存の研究について概説する。
ML問題として定式化できる主な課題は、3つの主要なカテゴリに分類される。
提示された方法論のそれぞれについて、その原則、応用、制限に特に重点を置いている。
論文 参考訳(メタデータ) (2020-08-05T15:45:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。