論文の概要: Expanding ML-Documentation Standards For Better Security
- arxiv url: http://arxiv.org/abs/2507.12003v1
- Date: Wed, 16 Jul 2025 07:57:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.289274
- Title: Expanding ML-Documentation Standards For Better Security
- Title(参考訳): セキュリティ向上のためのMLドキュメント標準の拡張
- Authors: Cara Ellen Appel,
- Abstract要約: ML実践者や組織間のセキュリティ面に対する認識は概して低い。
既存の標準は定期的に採用されておらず、ITセキュリティの側面はドキュメントに含まれないことが多い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This article presents the current state of ML-security and of the documentation of ML-based systems, models and datasets in research and practice based on an extensive review of the existing literature. It shows a generally low awareness of security aspects among ML-practitioners and organizations and an often unstandardized approach to documentation, leading to overall low quality of ML-documentation. Existing standards are not regularly adopted in practice and IT-security aspects are often not included in documentation. Due to these factors, there is a clear need for improved security documentation in ML, as one step towards addressing the existing gaps in ML-security. To achieve this, we propose expanding existing documentation standards for ML-documentation to include a security section with specific security relevant information. Implementing this, a novel expanded method of documenting security requirements in ML-documentation is presented, based on the existing Model Cards and Datasheets for Datasets standards, but with the recommendation to adopt these findings in all ML-documentation.
- Abstract(参考訳): 本稿では、MLセキュリティの現状と、既存の文献の広範なレビューに基づいて、研究および実践におけるMLベースのシステム、モデル、データセットのドキュメンテーションについて述べる。
これは一般的に、ML実践者や組織間のセキュリティ面に対する認識が低く、文書化に対する標準化されていないアプローチがしばしばあり、ML文書の全体的な品質が低下することを示している。
既存の標準は定期的に採用されておらず、ITセキュリティの側面はドキュメントに含まれないことが多い。
これらの要因により、MLセキュリティの既存のギャップに対処する第一歩として、MLのセキュリティドキュメントの改善が明確に求められている。
そこで本稿では,ML文書作成のための既存のドキュメント標準を拡張して,特定のセキュリティ関連情報を含むセキュリティセクションを含めることを提案する。
これを実装するために、既存のモデルカードとデータセット標準に基づいた、ML文書化におけるセキュリティ要件を文書化する新たな方法が提示されるが、ML文書化にこれらの知見を採用することを推奨する。
関連論文リスト
- DocMIA: Document-Level Membership Inference Attacks against DocVQA Models [52.13818827581981]
DocVQAモデルに特化された2つの新しいメンバーシップ推論攻撃を導入する。
提案手法は,さまざまなDocVQAモデルやデータセットに対して,既存の最先端メンバシップ推論よりも優れている。
論文 参考訳(メタデータ) (2025-02-06T00:58:21Z) - SafeBench: A Safety Evaluation Framework for Multimodal Large Language Models [75.67623347512368]
MLLMの安全性評価を行うための総合的なフレームワークであるツールンを提案する。
我々のフレームワークは、包括的な有害なクエリデータセットと自動評価プロトコルで構成されています。
本研究では,広く利用されている15のオープンソースMLLMと6つの商用MLLMの大規模実験を行った。
論文 参考訳(メタデータ) (2024-10-24T17:14:40Z) - DOCBENCH: A Benchmark for Evaluating LLM-based Document Reading Systems [99.17123445211115]
本稿では,大規模言語モデル(LLM)に基づく文書読解システムを評価するベンチマークであるDocBenchを紹介する。
我々のベンチマークには、人間のアノテーションの募集と、合成質問の生成が含まれる。
実際の文書は229件、質問は1,102件で、5つのドメインにまたがって4種類の質問がある。
論文 参考訳(メタデータ) (2024-07-15T13:17:42Z) - A Simple Architecture for Enterprise Large Language Model Applications based on Role based security and Clearance Levels using Retrieval-Augmented Generation or Mixture of Experts [0.0]
提案したアーキテクチャは、検索型拡張生成(RAG)とMixture of Expert Model(MoE)の微調整を併用して利用できる。
ユーザのロールとセキュリティクリアランスレベルを使用して、RAGのドキュメントとMoEの専門家がフィルタリングされる。
論文 参考訳(メタデータ) (2024-07-09T09:46:23Z) - ML-On-Rails: Safeguarding Machine Learning Models in Software Systems A
Case Study [4.087995998278127]
機械学習モデルを保護するためのプロトコルであるML-On-Railsを紹介する。
ML-On-Railsは、さまざまなMLタスクのための明確に定義されたエンドポイントインターフェースを確立し、MLプロバイダとMLコンシューマ間のコミュニケーションを明確にする。
実世界のMoveReminderアプリケーションのケーススタディを通じてプロトコルを評価する。
論文 参考訳(メタデータ) (2024-01-12T11:27:15Z) - LM-Polygraph: Uncertainty Estimation for Language Models [71.21409522341482]
不確実性推定(UE)手法は、大規模言語モデル(LLM)の安全性、責任性、効果的な利用のための1つの経路である。
テキスト生成タスクにおけるLLMの最先端UEメソッドのバッテリを実装したフレームワークであるLM-PolygraphをPythonで統一したプログラムインタフェースで導入する。
研究者によるUEテクニックの一貫した評価のための拡張可能なベンチマークと、信頼スコア付き標準チャットダイアログを強化するデモWebアプリケーションを導入している。
論文 参考訳(メタデータ) (2023-11-13T15:08:59Z) - MLGuard: Defend Your Machine Learning Model! [3.4069804433026314]
機械学習アプリケーションのコントラクトを指定する新しいアプローチであるMLGuardを提案する。
私たちの仕事は、MLアプリケーションの構築と安全性の監視に必要な、包括的なフレームワークを提供することを目的としています。
論文 参考訳(メタデータ) (2023-09-04T06:08:11Z) - Vulnerability of Machine Learning Approaches Applied in IoT-based Smart Grid: A Review [51.31851488650698]
機械学習(ML)は、IoT(Internet-of-Things)ベースのスマートグリッドでの使用頻度が高まっている。
電力信号に注入された逆方向の歪みは システムの正常な制御と操作に大きな影響を及ぼす
安全クリティカルパワーシステムに適用されたMLsgAPPの脆弱性評価を行うことが不可欠である。
論文 参考訳(メタデータ) (2023-08-30T03:29:26Z) - Safety Case Templates for Autonomous Systems [0.0]
本報告では、機械学習(ML)コンポーネントを含む自律システムのデプロイと運用を支援する安全保証引数テンプレートについて述べる。
レポートはまた、必要に応じてテンプレートを強化し、レビューし、適応するために使用できる、議論の敗者に対する一般的なテンプレートと証拠の信頼を示す。
論文 参考訳(メタデータ) (2021-01-29T15:49:37Z) - Document-level Neural Machine Translation with Document Embeddings [82.4684444847092]
この研究は、複数の形式の文書埋め込みの観点から、詳細な文書レベルのコンテキストを活用することに重点を置いている。
提案する文書認識NMTは,大域的および局所的な文書レベルの手がかりをソース端に導入することにより,Transformerベースラインを強化するために実装されている。
論文 参考訳(メタデータ) (2020-09-16T19:43:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。