論文の概要: Machine Learning Models Disclosure from Trusted Research Environments
(TRE), Challenges and Opportunities
- arxiv url: http://arxiv.org/abs/2111.05628v1
- Date: Wed, 10 Nov 2021 10:35:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-11 18:25:34.986741
- Title: Machine Learning Models Disclosure from Trusted Research Environments
(TRE), Challenges and Opportunities
- Title(参考訳): 信頼できる研究環境(tre)と課題と機会からの機械学習モデル開示
- Authors: Esma Mansouri-Benssassi (1), Simon Rogers (2), Jim Smith (3), Felix
Ritchie (3), Emily Jefferson (1) (1) University of Dundee (2) NHS National
Services Scotland (3) University of the West of England
- Abstract要約: 我々は、AIの導入がTRE(Trusted Research Environment)にもたらす様々な脆弱性について説明する。
また、トレーニングされた機械学習モデルの開示に関連するさまざまなタイプやリスクレベルについても紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Trusted Research environments (TRE)s are safe and secure environments in
which researchers can access sensitive data. With the growth and diversity of
medical data such as Electronic Health Records (EHR), Medical Imaging and
Genomic data, there is an increase in the use of Artificial Intelligence (AI)
in general and the subfield of Machine Learning (ML) in particular in the
healthcare domain. This generates the desire to disclose new types of outputs
from TREs, such as trained machine learning models. Although specific
guidelines and policies exists for statistical disclosure controls in TREs,
they do not satisfactorily cover these new types of output request. In this
paper, we define some of the challenges around the application and disclosure
of machine learning for healthcare within TREs. We describe various
vulnerabilities the introduction of AI brings to TREs. We also provide an
introduction to the different types and levels of risks associated with the
disclosure of trained ML models. We finally describe the new research
opportunities in developing and adapting policies and tools for safely
disclosing machine learning outputs from TREs.
- Abstract(参考訳): trusted research environment (tre)は、研究者が機密データにアクセスできる安全で安全な環境である。
電子健康記録(EHR)、医用画像、ゲノムデータなどの医療データの成長と多様性により、一般の人工知能(AI)の利用が増加し、特に医療領域における機械学習(ML)のサブフィールドが拡大する。
これにより、トレーニングされた機械学習モデルなど、TREからの新しいタイプのアウトプットを開示したいという願望が生まれます。
TREの統計開示制御のための具体的なガイドラインやポリシーは存在するが、これらの新しいタイプの出力要求を十分にカバーしていない。
本稿では,TREにおける医療分野における機械学習の適用と公開に関する課題について述べる。
AIの導入がTREにもたらすさまざまな脆弱性について説明する。
また、トレーニングされたMLモデルの開示に関連するさまざまなタイプやリスクレベルについても紹介する。
最終的に、TREから機械学習出力を安全に開示するためのポリシーとツールを開発し、適応する新たな研究機会について説明する。
関連論文リスト
- OpenMEDLab: An Open-source Platform for Multi-modality Foundation Models
in Medicine [55.29668193415034]
マルチモダリティ基盤モデルのためのオープンソースプラットフォームであるOpenMEDLabについて紹介する。
これは、最前線臨床および生体情報学応用のための大規模言語とビジョンモデルを刺激し、微調整する先駆的な試みの解決策をカプセル化する。
様々な医用画像のモダリティ、臨床テキスト、タンパク質工学など、事前訓練された基礎モデル群へのアクセスが可能である。
論文 参考訳(メタデータ) (2024-02-28T03:51:02Z) - Machine Learning for Leaf Disease Classification: Data, Techniques and
Applications [14.73818032506552]
近年、機械学習は、学術研究と産業応用の両方において葉病分類に採用されている。
この研究は、データ、技術、アプリケーションを含むトピックのさまざまな側面に関する調査を提供する。
論文 参考訳(メタデータ) (2023-10-19T06:21:21Z) - Deep Learning in Healthcare: An In-Depth Analysis [1.892561703051693]
本稿では,Deep Learningモデルとそのバイオインフォマティクスおよび医療への応用について概説する。
また、DL研究の実施中に現われうるいくつかの重要な課題についても検討する。
論文 参考訳(メタデータ) (2023-02-12T20:55:34Z) - Introduction to Machine Learning for Physicians: A Survival Guide for
Data Deluge [9.152759278163954]
現代の研究分野は、大規模な、しばしば構造化されていない、不安定なデータセットの収集と分析にますます依存している。
このデータルージュを活用できる機械学習や人工知能アプリケーションへの関心が高まっている。
この幅広い非技術的概要は、医学的および生物学的応用に特に焦点をあてた、機械学習への穏やかな紹介を提供する。
論文 参考訳(メタデータ) (2022-12-23T13:08:59Z) - GRAIMATTER Green Paper: Recommendations for disclosure control of
trained Machine Learning (ML) models from Trusted Research Environments
(TREs) [4.803669015024322]
TREでAIモデルをトレーニングしたいという学界や業界からの要望が増えている。
これらの複雑なAIモデルは、説明と再現のためにより多くの情報を必要とし、機密性の高い個人データがそのような記述から推測される可能性を高める。
TREは、これらのリスクに対して成熟したプロセスやコントロールを持っていません。
GRAIMATTERは、TREからトレーニング済みAIモデルを開示する際の追加リスクを回避するために、TREに有用な推奨案のドラフトセットを開発した。
論文 参考訳(メタデータ) (2022-11-03T09:00:57Z) - ImDrug: A Benchmark for Deep Imbalanced Learning in AI-aided Drug
Discovery [79.08833067391093]
現実世界の医薬品のデータセットは、しばしば高度に不均衡な分布を示す。
ImDrugはオープンソースのPythonライブラリを備えたベンチマークで、4つの不均衡設定、11のAI対応データセット、54の学習タスク、16のベースラインアルゴリズムで構成されています。
ドラッグ発見パイプラインの幅広い範囲にまたがる問題やソリューションに対して、アクセス可能でカスタマイズ可能なテストベッドを提供する。
論文 参考訳(メタデータ) (2022-09-16T13:35:57Z) - Retrieval-Enhanced Machine Learning [110.5237983180089]
本稿では,いくつかの既存モデルを含む汎用的な検索強化機械学習フレームワークについて述べる。
REMLは情報検索の慣例に挑戦し、最適化を含む中核領域における新たな進歩の機会を提示している。
REMLリサーチアジェンダは、情報アクセス研究の新しいスタイルの基礎を築き、機械学習と人工知能の進歩への道を開く。
論文 参考訳(メタデータ) (2022-05-02T21:42:45Z) - Artificial Intelligence in Drug Discovery: Applications and Techniques [33.59138543942538]
仮想スクリーニングやドラッグデザインなど、さまざまなAI技術が幅広い用途で使用されている。
まず、薬物発見の概要を説明し、関連するアプリケーションについて議論し、2つの主要なタスクに還元することができる。
次に、一般的なデータリソース、分子表現、ベンチマークプラットフォームについて議論する。
論文 参考訳(メタデータ) (2021-06-09T20:46:44Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Select-ProtoNet: Learning to Select for Few-Shot Disease Subtype
Prediction [55.94378672172967]
本研究は, 類似患者のサブグループを同定し, 数発の疾患のサブタイプ予測問題に焦点を当てた。
新しいモデルを開発するためにメタラーニング技術を導入し、関連する臨床課題から共通の経験や知識を抽出する。
我々の新しいモデルは、単純だが効果的なメタ学習マシンであるPrototypeal Networkと呼ばれる、慎重に設計されたメタラーナーに基づいて構築されている。
論文 参考訳(メタデータ) (2020-09-02T02:50:30Z) - Machine Learning in Nano-Scale Biomedical Engineering [77.75587007080894]
ナノスケールバイオメディカルエンジニアリングにおける機械学習の利用に関する既存の研究について概説する。
ML問題として定式化できる主な課題は、3つの主要なカテゴリに分類される。
提示された方法論のそれぞれについて、その原則、応用、制限に特に重点を置いている。
論文 参考訳(メタデータ) (2020-08-05T15:45:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。