論文の概要: The Need for Standardized Evidence Sampling in CMMC Assessments: A Survey-Based Analysis of Assessor Practices
- arxiv url: http://arxiv.org/abs/2602.09905v1
- Date: Tue, 10 Feb 2026 15:40:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.652366
- Title: The Need for Standardized Evidence Sampling in CMMC Assessments: A Survey-Based Analysis of Assessor Practices
- Title(参考訳): CMMCアセスメントにおける標準化エビデンスサンプリングの必要性:評価の実践に関する調査に基づく分析
- Authors: Logan Therrien, John Hastings,
- Abstract要約: 本研究では,サイバーセキュリティ成熟度モデル認定エコシステム内にエビデンスサンプリングプラクティスの不整合が存在するかどうかを検討する。
その結果,エビデンスサンプリングの実践は,形式化された基準ではなく,評価者の判断,認識されたリスク,環境の複雑さによって引き起こされていることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Cybersecurity Maturity Model Certification (CMMC) framework provides a common standard for protecting sensitive unclassified information in defense contracting. While CMMC defines assessment objectives and control requirements, limited formal guidance exists regarding evidence sampling, the process by which assessors select, review, and validate artifacts to substantiate compliance. Analyzing data collected through an anonymous survey of CMMC-certified assessors and lead assessors, this exploratory study investigates whether inconsistencies in evidence sampling practices exist within the CMMC assessment ecosystem and evaluates the need for a risk-informed standardized sampling methodology. Across 17 usable survey responses, results indicate that evidence sampling practices are predominantly driven by assessor judgment, perceived risk, and environmental complexity rather than formalized standards, with formal statistical sampling models rarely referenced. Participants frequently reported inconsistencies across assessments and expressed broad support for the development of standardized guidance, while generally opposing rigid percentage-based requirements. The findings support the conclusion that the absence of a uniform evidence sampling framework introduces variability that may affect assessment reliability and confidence in certification outcomes. Recommendations are provided to inform future CMMC assessment methodology development and further empirical research.
- Abstract(参考訳): サイバーセキュリティ成熟度モデル認証(CMMC)フレームワークは、防衛契約において機密性のない機密情報を保護するための共通の標準を提供する。
CMMCは評価対象と制御要件を定義しているが、証拠サンプリングに関する限定的な正式なガイダンスが存在する。
本研究は,CMMC認定アセスメントとリードアセスメントの匿名調査を通じて収集したデータを分析し,CMMC評価エコシステム内にエビデンスサンプリングプラクティスの不整合が存在するかどうかを調査し,リスクインフォーム化された標準化サンプリング手法の必要性を評価する。
17件以上の調査結果から, 証拠サンプリングの実践は, 形式化された基準ではなく, 評価者による判断, 認識されたリスク, 環境の複雑さが主体であり, 公式な統計的サンプリングモデルはほとんど言及されていないことが示唆された。
参加者は、評価における不整合を頻繁に報告し、標準化されたガイダンスの開発に対する幅広い支持を表明し、概して厳格なパーセンテージベースの要求に反対した。
この結果は、一様証拠サンプリングフレームワークが存在しないことは、評価の信頼性と認定結果の信頼性に影響を与える可能性のある変動をもたらすという結論を支持している。
今後のCMMC評価方法論開発およびさらなる実証研究を通知するための勧告が提供される。
関連論文リスト
- Evaluating Medical LLMs by Levels of Autonomy: A Survey Moving from Benchmarks to Applications [14.979261906851036]
自律度レンズ(L0-L3)による評価の再検討
既存のベンチマークとメトリクスを、各レベルで許容されるアクションとその関連するリスクと整合させ、評価対象を明確にします。
論文 参考訳(メタデータ) (2025-10-20T17:22:32Z) - Towards Real-Time Fake News Detection under Evidence Scarcity [66.58597356379907]
本稿では,リアルタイムフェイクニュース検出のための新しいフレームワークである評価アウェア・セレクション・オブ・エキスパートズ(EASE)を提案する。
EASEは、利用可能な証拠の十分性を評価した意思決定プロセスに適合する。
本稿では,新興ニュースのモデル一般化を限られた証拠で評価するための新しいベンチマークであるRealTimeNews-25を紹介する。
論文 参考訳(メタデータ) (2025-10-13T11:11:46Z) - RADAR: A Risk-Aware Dynamic Multi-Agent Framework for LLM Safety Evaluation via Role-Specialized Collaboration [81.38705556267917]
大規模言語モデル(LLM)の既存の安全性評価手法は、固有の制約に悩まされている。
リスク概念空間を再構築する理論的枠組みを導入する。
マルチエージェント協調評価フレームワークRADARを提案する。
論文 参考訳(メタデータ) (2025-09-28T09:35:32Z) - Beyond the Leaderboard: Rethinking Medical Benchmarks for Large Language Models [46.81512544528928]
MedCheckは、医療ベンチマーク用に設計された最初のライフサイクル指向アセスメントフレームワークである。
我々のフレームワークは、設計からガバナンスまで、ベンチマークの開発を5つの連続的な段階に分解し、46の医学的基準の包括的なチェックリストを提供する。
本分析では,臨床実践からの深い切り離し,無害な汚染リスクによるデータの整合性の危機,モデルロバスト性や不確実性認識といった安全クリティカルな評価の側面を体系的に無視することなど,全身的な問題を明らかにする。
論文 参考訳(メタデータ) (2025-08-06T11:11:40Z) - Doing Audits Right? The Role of Sampling and Legal Content Analysis in Systemic Risk Assessments and Independent Audits in the Digital Services Act [0.0]
欧州連合のデジタルサービス法(DSA)では、オンラインプラットフォームが内部および外部監査を受ける必要がある。
本稿では,システムリスクを監査するための質的,定量的な方法の長所と短所について検討する。
我々は、コンテンツサンプリングと法的および実証的な分析を組み合わせることで、リスク特異的監査のための実行可能な方法を提供すると論じている。
論文 参考訳(メタデータ) (2025-05-06T15:02:54Z) - Evaluating Step-by-step Reasoning Traces: A Survey [8.279021694489462]
ステップバイステップ推論は、複雑な問題における大規模言語モデル(LLM)の推論能力を高めるために広く用いられている。
既存の評価プラクティスは非常に一貫性がなく、その結果、評価器の設計とベンチマーク開発の間に断片的な進歩をもたらす。
本調査は,4つのトップレベルカテゴリー(実効性,妥当性,一貫性,実用性)による評価基準の分類について提案する。
論文 参考訳(メタデータ) (2025-02-17T19:58:31Z) - The simulation of judgment in LLMs [32.57692724251287]
大規模言語モデル(LLM)は、情報フィルタリングから説明と信頼性の判断を通じて知識ギャップの評価と対処に至るまで、評価プロセスに組み込まれている。
これにより、このような評価がどのように構築されるのか、どのような仮定に依存しているのか、その戦略が人間のものとどのように異なるのかを調べる必要が生じる。
我々は、専門家の評価に対して、6つのLCM(NewsGuardとMedia Bias/Fact Check)と、制御された実験を通して収集された人間の判断に対してベンチマークを行った。
論文 参考訳(メタデータ) (2025-02-06T18:52:10Z) - The Lessons of Developing Process Reward Models in Mathematical Reasoning [62.165534879284735]
Process Reward Models (PRM) は、推論プロセスにおける中間エラーを特定し、緩和することを目的としている。
我々は,モンテカルロ (MC) 推定とLarge Language Models (LLM) を効果的に統合するコンセンサスフィルタリング機構を開発した。
私たちは、既存のオープンソース代替品よりも優れた、最先端のPRMを新たにリリースしています。
論文 参考訳(メタデータ) (2025-01-13T13:10:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。