論文の概要: GRAIMATTER Green Paper: Recommendations for disclosure control of
trained Machine Learning (ML) models from Trusted Research Environments
(TREs)
- arxiv url: http://arxiv.org/abs/2211.01656v1
- Date: Thu, 3 Nov 2022 09:00:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 12:50:33.999210
- Title: GRAIMATTER Green Paper: Recommendations for disclosure control of
trained Machine Learning (ML) models from Trusted Research Environments
(TREs)
- Title(参考訳): GRAIMATTER Green Paper:TRE(Trusted Research Environments)から学習した機械学習(ML)モデルの開示制御に関する勧告
- Authors: Emily Jefferson, James Liley, Maeve Malone, Smarti Reel, Alba
Crespi-Boixader, Xaroula Kerasidou, Francesco Tava, Andrew McCarthy, Richard
Preen, Alberto Blanco-Justicia, Esma Mansouri-Benssassi, Josep
Domingo-Ferrer, Jillian Beggs, Antony Chuter, Christian Cole, Felix Ritchie,
Angela Daly, Simon Rogers, Jim Smith
- Abstract要約: TREでAIモデルをトレーニングしたいという学界や業界からの要望が増えている。
これらの複雑なAIモデルは、説明と再現のためにより多くの情報を必要とし、機密性の高い個人データがそのような記述から推測される可能性を高める。
TREは、これらのリスクに対して成熟したプロセスやコントロールを持っていません。
GRAIMATTERは、TREからトレーニング済みAIモデルを開示する際の追加リスクを回避するために、TREに有用な推奨案のドラフトセットを開発した。
- 参考スコア(独自算出の注目度): 4.803669015024322
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: TREs are widely, and increasingly used to support statistical analysis of
sensitive data across a range of sectors (e.g., health, police, tax and
education) as they enable secure and transparent research whilst protecting
data confidentiality. There is an increasing desire from academia and industry
to train AI models in TREs. The field of AI is developing quickly with
applications including spotting human errors, streamlining processes, task
automation and decision support. These complex AI models require more
information to describe and reproduce, increasing the possibility that
sensitive personal data can be inferred from such descriptions. TREs do not
have mature processes and controls against these risks. This is a complex
topic, and it is unreasonable to expect all TREs to be aware of all risks or
that TRE researchers have addressed these risks in AI-specific training.
GRAIMATTER has developed a draft set of usable recommendations for TREs to
guard against the additional risks when disclosing trained AI models from TREs.
The development of these recommendations has been funded by the GRAIMATTER UKRI
DARE UK sprint research project. This version of our recommendations was
published at the end of the project in September 2022. During the course of the
project, we have identified many areas for future investigations to expand and
test these recommendations in practice. Therefore, we expect that this document
will evolve over time.
- Abstract(参考訳): TREは、データ機密性を保護しながら、安全で透明な研究を可能にするため、様々な分野(健康、警察、税務、教育など)にわたる機密データの統計分析を支援するために、広く使われている。
TREでAIモデルをトレーニングしたいという学界や業界からの要望が増えている。
AIの分野は、ヒューマンエラーの発見、プロセスの合理化、タスク自動化、意思決定支援などのアプリケーションで急速に発展している。
これらの複雑なaiモデルは、記述と再現のためにより多くの情報を必要とし、そのような記述からセンシティブな個人データが推測される可能性を高めている。
TREは、これらのリスクに対して成熟したプロセスやコントロールを持っていません。
これは複雑なトピックであり、すべてのTREがすべてのリスクを認識している、あるいはTRE研究者がAI固有のトレーニングにおけるこれらのリスクに対処していると期待することは理にかなっている。
GRAIMATTERは、TREからトレーニング済みAIモデルを開示する際の追加リスクを回避するために、TREに有用な推奨案のドラフトセットを開発した。
これらの勧告の開発は、GRAIMATTER UKRI DARE UKスプリント研究プロジェクトによって資金提供された。
このリコメンデーションのこのバージョンは2022年9月にプロジェクトの終わりに公開された。
プロジェクト期間中に、これらの推奨事項を実際に拡張およびテストするために、今後の調査を行うための多くの領域を特定しました。
したがって、この文書は時間とともに進化することを期待している。
関連論文リスト
- Deploying Large Language Models With Retrieval Augmented Generation [0.21485350418225244]
Retrieval Augmented Generationは、大規模言語モデルのトレーニングセット外のデータソースからの知識を統合するための重要なアプローチとして登場した。
本稿では,LLMとRAGを統合して情報検索を行うパイロットプロジェクトの開発とフィールドテストから得られた知見について述べる。
論文 参考訳(メタデータ) (2024-11-07T22:11:51Z) - Risks and NLP Design: A Case Study on Procedural Document QA [52.557503571760215]
より具体的なアプリケーションやユーザに対して分析を専門化すれば,ユーザに対するリスクや害の明確な評価が可能になる,と我々は主張する。
リスク指向のエラー分析を行い、リスクの低減とパフォーマンスの向上を図り、将来のシステムの設計を通知する。
論文 参考訳(メタデータ) (2024-08-16T17:23:43Z) - Procedural Content Generation via Generative Artificial Intelligence [1.437446768735628]
生成的人工知能(AI)は2010年代半ばに大きな関心を寄せた。
生成AIはPCGに有効であるが、高性能AIの構築には膨大なトレーニングデータが必要である。
PCG研究をさらに進めるためには、限られたトレーニングデータに関連する問題を克服する必要がある。
論文 参考訳(メタデータ) (2024-07-12T06:03:38Z) - Robust Neural Information Retrieval: An Adversarial and Out-of-distribution Perspective [111.58315434849047]
ニューラルネットワーク検索モデル(IR)モデルの堅牢性は、大きな注目を集めている。
我々は、IRの堅牢性を多面的概念とみなし、敵攻撃、アウト・オブ・ディストリビューション(OOD)シナリオ、パフォーマンスのばらつきに対してその必要性を強調している。
我々は,既存の手法,データセット,評価指標について詳細な議論を行い,大規模言語モデルの時代における課題や今後の方向性に光を当てる。
論文 参考訳(メタデータ) (2024-07-09T16:07:01Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - A LLM Assisted Exploitation of AI-Guardian [57.572998144258705]
IEEE S&P 2023で発表された敵に対する最近の防衛であるAI-Guardianの堅牢性を評価する。
我々は、このモデルを攻撃するためのコードを書かず、代わりに、GPT-4に命令とガイダンスに従って全ての攻撃アルゴリズムを実装するよう促します。
このプロセスは驚くほど効果的で効率的であり、言語モデルでは、この論文の著者が実行したよりも高速に曖昧な命令からコードを生成することもあった。
論文 参考訳(メタデータ) (2023-07-20T17:33:25Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - XAI for Cybersecurity: State of the Art, Challenges, Open Issues and
Future Directions [16.633632244131775]
AIモデルは、開発者が特定の決定の背後にある理由の説明や追跡ができないブラックボックスとして現れることが多い。
説明可能なAI(XAI)は、情報を抽出し、結果を視覚化するのに役立つ、急速に成長する研究分野である。
本報告では,サイバーセキュリティと攻撃形態について概説する。
次に、従来のAI技術の使用とその関連する課題について議論し、様々なアプリケーションでXAIを使用するための扉を開く。
論文 参考訳(メタデータ) (2022-06-03T02:15:30Z) - Choices, Risks, and Reward Reports: Charting Public Policy for
Reinforcement Learning Systems [4.104100616661016]
強化学習(Reinforcement Learning, RL)は多くのAI理論家によって、人工知能への最も有望な道であると考えられている。
このホワイトペーパーでは、この可能性と、エネルギーインフラ、ソーシャルメディアレコメンデーターシステム、輸送といった分野において技術的にどのように実現されるかを説明します。
RL設計選択から生じるリスクの新たなタイプは、水平線をスコーピングし、報酬を定義し、情報を抽出し、複数のエージェントを訓練する4つのカテゴリに分類される。
論文 参考訳(メタデータ) (2022-02-11T15:54:33Z) - Machine Learning Models Disclosure from Trusted Research Environments
(TRE), Challenges and Opportunities [0.0]
我々は、AIの導入がTRE(Trusted Research Environment)にもたらす様々な脆弱性について説明する。
また、トレーニングされた機械学習モデルの開示に関連するさまざまなタイプやリスクレベルについても紹介する。
論文 参考訳(メタデータ) (2021-11-10T10:35:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。