論文の概要: Towards a Principled Framework for Disclosure Avoidance
- arxiv url: http://arxiv.org/abs/2502.07105v1
- Date: Mon, 10 Feb 2025 22:58:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:08:24.112266
- Title: Towards a Principled Framework for Disclosure Avoidance
- Title(参考訳): 開示回避のための原則的枠組みを目指して
- Authors: Michael B Hawes, Evan M Brassell, Anthony Caruso, Ryan Cumings-Menon, Jason Devine, Cassandra Dorius, David Evans, Kenneth Haase, Michele C Hedrick, Alexandra Krause, Philip Leclerc, James Livsey, Rolando A Rodriguez, Luke T Rogers, Matthew Spence, Victoria Velkoff, Michael Walsh, James Whitehorne, Sallie Ann Keller,
- Abstract要約: データ利用者のニーズが変わるにつれて、機関は使用する開示回避システムを再設計する必要がある。
データの開示リスクに対応するために保護の強度を調整できるシステムの能力は、価値のある特徴である。
本稿では,これらの特徴を,選択したシステムから独立して行う必要がある実装決定とを区別する枠組みを提案する。
- 参考スコア(独自算出の注目度): 36.57924530885649
- License:
- Abstract: Responsible disclosure limitation is an iterative exercise in risk assessment and mitigation. From time to time, as disclosure risks grow and evolve and as data users' needs change, agencies must consider redesigning the disclosure avoidance system(s) they use. Discussions about candidate systems often conflate inherent features of those systems with implementation decisions independent of those systems. For example, a system's ability to calibrate the strength of protection to suit the underlying disclosure risk of the data (e.g., by varying suppression thresholds), is a worthwhile feature regardless of the independent decision about how much protection is actually necessary. Having a principled discussion of candidate disclosure avoidance systems requires a framework for distinguishing these inherent features of the systems from the implementation decisions that need to be made independent of the system selected. For statistical agencies, this framework must also reflect the applied nature of these systems, acknowledging that candidate systems need to be adaptable to requirements stemming from the legal, scientific, resource, and stakeholder environments within which they would be operating. This paper proposes such a framework. No approach will be perfectly adaptable to every potential system requirement. Because the selection of some methodologies over others may constrain the resulting systems' efficiency and flexibility to adapt to particular statistical product specifications, data user needs, or disclosure risks, agencies may approach these choices in an iterative fashion, adapting system requirements, product specifications, and implementation parameters as necessary to ensure the resulting quality of the statistical product.
- Abstract(参考訳): 責任のある開示制限は、リスク評価と緩和の反復的なエクササイズである。
情報開示のリスクが増大し進化するにつれて、データ利用者のニーズが変化するにつれて、政府機関は情報開示回避システムの再設計を検討する必要がある。
候補システムに関する議論は、しばしばそれらのシステム固有の特徴を、それらのシステムとは独立して実装決定で説明する。
例えば、データの開示リスク(例えば、様々な抑制しきい値によって)に合うように保護の強度を調整できるシステムの能力は、実際どれだけの保護が必要かという独立した決定に拘わらず、価値のある特徴である。
候補開示回避システムに関する原則的な議論を行うには、選択されたシステムから独立して行う必要がある実装決定と、これらのシステム固有の特徴を区別するためのフレームワークが必要である。
統計機関にとって、この枠組みは、これらのシステムの適用性も反映し、候補システムは、運用される法、科学、資源、利害関係者の環境から生じる要件に適応する必要があることを認めなければならない。
本稿ではそのような枠組みを提案する。
あらゆる潜在的なシステム要件に完全に適合するアプローチは存在しない。
特定の統計製品仕様、データユーザのニーズ、あるいは開示リスクに適応するために、システムの結果の効率と柔軟性を他よりも選択することで、機関はこれらの選択を反復的にアプローチし、システム要件、製品仕様、実装パラメータを必要に応じて適用し、統計製品の品質を保証することができる。
関連論文リスト
- Data-Driven Distributionally Robust Safety Verification Using Barrier Certificates and Conditional Mean Embeddings [0.24578723416255752]
問題を非現実的な仮定にシフトすることなく,スケーラブルな形式検証アルゴリズムを開発する。
問題を非現実的な仮定にシフトさせることなく,スケーラブルな形式検証アルゴリズムを開発するためには,バリア証明書の概念を用いる。
本稿では,2乗法最適化とガウス過程エンベロープを用いて効率よくプログラムを解く方法を示す。
論文 参考訳(メタデータ) (2024-03-15T17:32:02Z) - Towards Formal Fault Injection for Safety Assessment of Automated
Systems [0.0]
本稿では,開発ライフサイクルを通じてこれら2つのテクニックを融合したフォーマルなフォールトインジェクションを紹介する。
我々は,形式的手法と断層注入の相互支援の5つの領域を同定し,より密着的なアプローチを提唱する。
論文 参考訳(メタデータ) (2023-11-16T11:34:18Z) - Interactive System-wise Anomaly Detection [66.3766756452743]
異常検出は様々なアプリケーションにおいて基本的な役割を果たす。
既存のメソッドでは、インスタンスがデータとして容易に観察できないシステムであるシナリオを扱うのが難しい。
システム埋め込みを学習するエンコーダデコーダモジュールを含むエンドツーエンドアプローチを開発する。
論文 参考訳(メタデータ) (2023-04-21T02:20:24Z) - Risk-Driven Design of Perception Systems [47.787943101699966]
システム全体の安全性を低下させるエラーを最小限に抑えるために,認識システムを設計することが重要である。
完全積分閉ループシステムの性能に及ぼす知覚誤差の影響を考慮に入れた認識システム設計のためのリスク駆動型アプローチを開発する。
本研究では,現実的な視界に基づく航空機による応用・回避技術の評価を行い,リスク駆動設計がベースラインシステム上での衝突リスクを37%低減することを示す。
論文 参考訳(メタデータ) (2022-05-21T21:14:56Z) - Tailored Uncertainty Estimation for Deep Learning Systems [10.288326973530614]
本稿では,適切な不確実性推定手法の選択を導く枠組みを提案する。
私たちのフレームワークは、この選択を検証し、構造的な弱点を明らかにするための戦略を提供します。
これは、機械学習システムの技術的適切性を示す証拠を必要とする予測された機械学習規則を予想する。
論文 参考訳(メタデータ) (2022-04-29T09:23:07Z) - Multi Agent System for Machine Learning Under Uncertainty in Cyber
Physical Manufacturing System [78.60415450507706]
近年の予測機械学習の進歩は、製造における様々なユースケースに応用されている。
ほとんどの研究は、それに関連する不確実性に対処することなく予測精度を最大化することに焦点を当てた。
本稿では,機械学習における不確実性の原因を特定し,不確実性下での機械学習システムの成功基準を確立する。
論文 参考訳(メタデータ) (2021-07-28T10:28:05Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Optimal by Design: Model-Driven Synthesis of Adaptation Strategies for
Autonomous Systems [9.099295007630484]
我々は,自律システムのための最適適応戦略のモデルベース要求駆動型合成のためのフレームワークであるOptimal by Design (ObD)を提案する。
ObDは、自己適応システムの基本的な要素、すなわちシステム、能力、要求、環境の高レベルな記述のためのモデルを提案する。
これらの要素に基づいてマルコフ決定プロセス(MDP)が構築され、最適な戦略や最も報いるシステム行動を計算する。
論文 参考訳(メタデータ) (2020-01-16T12:49:55Z) - Dirichlet uncertainty wrappers for actionable algorithm accuracy
accountability and auditability [0.5156484100374058]
本研究では,不確実性の尺度を用いて出力予測を充実させるラッパーを提案する。
結果の不確実性に基づいて、より確実な予測を選択する拒絶制度を提唱する。
その結果,ラッパーが計算した不確実性の有効性が示された。
論文 参考訳(メタデータ) (2019-12-29T11:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。