論文の概要: GRAIMATTER Green Paper: Recommendations for disclosure control of
trained Machine Learning (ML) models from Trusted Research Environments
(TREs)
- arxiv url: http://arxiv.org/abs/2211.01656v1
- Date: Thu, 3 Nov 2022 09:00:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 12:50:33.999210
- Title: GRAIMATTER Green Paper: Recommendations for disclosure control of
trained Machine Learning (ML) models from Trusted Research Environments
(TREs)
- Title(参考訳): GRAIMATTER Green Paper:TRE(Trusted Research Environments)から学習した機械学習(ML)モデルの開示制御に関する勧告
- Authors: Emily Jefferson, James Liley, Maeve Malone, Smarti Reel, Alba
Crespi-Boixader, Xaroula Kerasidou, Francesco Tava, Andrew McCarthy, Richard
Preen, Alberto Blanco-Justicia, Esma Mansouri-Benssassi, Josep
Domingo-Ferrer, Jillian Beggs, Antony Chuter, Christian Cole, Felix Ritchie,
Angela Daly, Simon Rogers, Jim Smith
- Abstract要約: TREでAIモデルをトレーニングしたいという学界や業界からの要望が増えている。
これらの複雑なAIモデルは、説明と再現のためにより多くの情報を必要とし、機密性の高い個人データがそのような記述から推測される可能性を高める。
TREは、これらのリスクに対して成熟したプロセスやコントロールを持っていません。
GRAIMATTERは、TREからトレーニング済みAIモデルを開示する際の追加リスクを回避するために、TREに有用な推奨案のドラフトセットを開発した。
- 参考スコア(独自算出の注目度): 4.803669015024322
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: TREs are widely, and increasingly used to support statistical analysis of
sensitive data across a range of sectors (e.g., health, police, tax and
education) as they enable secure and transparent research whilst protecting
data confidentiality. There is an increasing desire from academia and industry
to train AI models in TREs. The field of AI is developing quickly with
applications including spotting human errors, streamlining processes, task
automation and decision support. These complex AI models require more
information to describe and reproduce, increasing the possibility that
sensitive personal data can be inferred from such descriptions. TREs do not
have mature processes and controls against these risks. This is a complex
topic, and it is unreasonable to expect all TREs to be aware of all risks or
that TRE researchers have addressed these risks in AI-specific training.
GRAIMATTER has developed a draft set of usable recommendations for TREs to
guard against the additional risks when disclosing trained AI models from TREs.
The development of these recommendations has been funded by the GRAIMATTER UKRI
DARE UK sprint research project. This version of our recommendations was
published at the end of the project in September 2022. During the course of the
project, we have identified many areas for future investigations to expand and
test these recommendations in practice. Therefore, we expect that this document
will evolve over time.
- Abstract(参考訳): TREは、データ機密性を保護しながら、安全で透明な研究を可能にするため、様々な分野(健康、警察、税務、教育など)にわたる機密データの統計分析を支援するために、広く使われている。
TREでAIモデルをトレーニングしたいという学界や業界からの要望が増えている。
AIの分野は、ヒューマンエラーの発見、プロセスの合理化、タスク自動化、意思決定支援などのアプリケーションで急速に発展している。
これらの複雑なaiモデルは、記述と再現のためにより多くの情報を必要とし、そのような記述からセンシティブな個人データが推測される可能性を高めている。
TREは、これらのリスクに対して成熟したプロセスやコントロールを持っていません。
これは複雑なトピックであり、すべてのTREがすべてのリスクを認識している、あるいはTRE研究者がAI固有のトレーニングにおけるこれらのリスクに対処していると期待することは理にかなっている。
GRAIMATTERは、TREからトレーニング済みAIモデルを開示する際の追加リスクを回避するために、TREに有用な推奨案のドラフトセットを開発した。
これらの勧告の開発は、GRAIMATTER UKRI DARE UKスプリント研究プロジェクトによって資金提供された。
このリコメンデーションのこのバージョンは2022年9月にプロジェクトの終わりに公開された。
プロジェクト期間中に、これらの推奨事項を実際に拡張およびテストするために、今後の調査を行うための多くの領域を特定しました。
したがって、この文書は時間とともに進化することを期待している。
関連論文リスト
- The WMDP Benchmark: Measuring and Reducing Malicious Use With Unlearning [88.26832208495078]
ホワイトハウス人工知能に関する大統領令は、生物、サイバー、化学兵器の開発において悪意あるアクターに力を与える大きな言語モデル(LLM)のリスクを強調している。
現在の評価は非公開であり、リスク軽減のさらなる研究を妨げている。
Weapons of Mass Destruction Proxyベンチマークを公開しています。
論文 参考訳(メタデータ) (2024-03-05T18:59:35Z) - Generative AI in Writing Research Papers: A New Type of Algorithmic Bias
and Uncertainty in Scholarly Work [0.38850145898707145]
大規模言語モデル(LLM)と生成AIツールは、バイアスを特定し、対処する上での課題を提示している。
生成型AIツールは、不正な一般化、幻覚、レッド・チーム・プロンプトのような敵攻撃を目標とする可能性がある。
研究原稿の執筆過程に生成AIを組み込むことで,新しいタイプの文脈依存型アルゴリズムバイアスがもたらされることがわかった。
論文 参考訳(メタデータ) (2023-12-04T04:05:04Z) - Towards a Responsible AI Metrics Catalogue: A Collection of Metrics for
AI Accountability [28.67753149592534]
本研究は,包括的メトリクスカタログへの取り組みを導入することで,説明責任のギャップを埋めるものである。
我々のカタログは、手続き的整合性を支えるプロセスメトリクス、必要なツールやフレームワークを提供するリソースメトリクス、AIシステムのアウトプットを反映する製品メトリクスを記述しています。
論文 参考訳(メタデータ) (2023-11-22T04:43:16Z) - Towards more Practical Threat Models in Artificial Intelligence Security [71.53333444240076]
我々は、AIセキュリティ研究で最も研究されている6つの攻撃の脅威モデルを再検討し、実際にAIの使用と一致させる。
我々の論文は、人工知能のセキュリティにおけるより実用的な脅威モデルを研究するための行動である。
論文 参考訳(メタデータ) (2023-11-16T16:09:44Z) - On Responsible Machine Learning Datasets with Fairness, Privacy, and
Regulatory Norms [58.93352076927003]
AI技術の信頼性に関する深刻な懸念があった。
機械学習とディープラーニングのアルゴリズムは、開発に使用されるデータに大きく依存する。
本稿では,責任あるルーブリックを用いてデータセットを評価するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T14:01:53Z) - Towards Possibilities & Impossibilities of AI-generated Text Detection:
A Survey [97.33926242130732]
大規模言語モデル(LLM)は、自然言語処理(NLP)の領域に革命をもたらし、人間のようなテキスト応答を生成する能力を持つ。
これらの進歩にもかかわらず、既存の文献のいくつかは、LLMの潜在的な誤用について深刻な懸念を提起している。
これらの懸念に対処するために、研究コミュニティのコンセンサスは、AI生成テキストを検出するアルゴリズムソリューションを開発することである。
論文 参考訳(メタデータ) (2023-10-23T18:11:32Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - A LLM Assisted Exploitation of AI-Guardian [57.572998144258705]
IEEE S&P 2023で発表された敵に対する最近の防衛であるAI-Guardianの堅牢性を評価する。
我々は、このモデルを攻撃するためのコードを書かず、代わりに、GPT-4に命令とガイダンスに従って全ての攻撃アルゴリズムを実装するよう促します。
このプロセスは驚くほど効果的で効率的であり、言語モデルでは、この論文の著者が実行したよりも高速に曖昧な命令からコードを生成することもあった。
論文 参考訳(メタデータ) (2023-07-20T17:33:25Z) - XAI for Cybersecurity: State of the Art, Challenges, Open Issues and
Future Directions [16.633632244131775]
AIモデルは、開発者が特定の決定の背後にある理由の説明や追跡ができないブラックボックスとして現れることが多い。
説明可能なAI(XAI)は、情報を抽出し、結果を視覚化するのに役立つ、急速に成長する研究分野である。
本報告では,サイバーセキュリティと攻撃形態について概説する。
次に、従来のAI技術の使用とその関連する課題について議論し、様々なアプリケーションでXAIを使用するための扉を開く。
論文 参考訳(メタデータ) (2022-06-03T02:15:30Z) - Choices, Risks, and Reward Reports: Charting Public Policy for
Reinforcement Learning Systems [4.104100616661016]
強化学習(Reinforcement Learning, RL)は多くのAI理論家によって、人工知能への最も有望な道であると考えられている。
このホワイトペーパーでは、この可能性と、エネルギーインフラ、ソーシャルメディアレコメンデーターシステム、輸送といった分野において技術的にどのように実現されるかを説明します。
RL設計選択から生じるリスクの新たなタイプは、水平線をスコーピングし、報酬を定義し、情報を抽出し、複数のエージェントを訓練する4つのカテゴリに分類される。
論文 参考訳(メタデータ) (2022-02-11T15:54:33Z) - Machine Learning Models Disclosure from Trusted Research Environments
(TRE), Challenges and Opportunities [0.0]
我々は、AIの導入がTRE(Trusted Research Environment)にもたらす様々な脆弱性について説明する。
また、トレーニングされた機械学習モデルの開示に関連するさまざまなタイプやリスクレベルについても紹介する。
論文 参考訳(メタデータ) (2021-11-10T10:35:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。