論文の概要: Towards a Goal-Centric Assessment of Requirements Engineering Methods for Privacy by Design
- arxiv url: http://arxiv.org/abs/2601.16080v1
- Date: Thu, 22 Jan 2026 16:22:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.649243
- Title: Towards a Goal-Centric Assessment of Requirements Engineering Methods for Privacy by Design
- Title(参考訳): 設計によるプライバシ要求工学手法の目標中心評価に向けて
- Authors: Oleksandr Kosenkov, Ehsan Zabardast, Jannik Fischbach, Tony Gorschek, Daniel Mendez,
- Abstract要約: General Regulation (PbD)レポートによると、設計によるプライバシの実装は、データ保護エンジニアリング(RE)アプローチの増加と一致している。
PbD法評価における目標中心のアプローチを提案する。
- 参考スコア(独自算出の注目度): 13.815715903288622
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Implementing privacy by design (PbD) according to the General Data Protection Regulation (GDPR) is met with a growing number of requirements engineering (RE) approaches. However, the question of which RE method for PbD fits best the goals of organisations remains a challenge. We report our endeavor to close this gap by synthesizing a goal-centric approach for PbD methods assessment. We used literature review, interviews, and validation with practitioners to achieve the goal of our study. As practitioners do not approach PbD systematically, we suggest that RE methods for PbD should be assessed against organisational goals, rather than process characteristics only. We hope that, when further developed, the goal-centric approach could support the development, selection, and tailoring of RE practices for PbD.
- Abstract(参考訳): 一般データ保護規則(GDPR)に従って、設計によるプライバシ(PbD)を実装するには、要求エンジニアリング(RE)アプローチが増加する。
しかしながら、PbDのREメソッドが組織の目標に最も適しているかどうかという問題は、依然として課題である。
我々は,PbD手法評価のための目標中心アプローチを合成することにより,このギャップを埋める努力を報告した。
本研究の目的を達成するため,文献レビュー,インタビュー,実践者との検証を行った。
実践者はPbDに体系的にアプローチしないので、プロセスの特性のみではなく、PbDのREメソッドは組織的な目標に対して評価されるべきである。
さらなる開発が進むと、PbDのREプラクティスの開発、選択、調整を支援する目標中心のアプローチが期待されます。
関連論文リスト
- Privacy by Design: Aligning GDPR and Software Engineering Specifications with a Requirements Engineering Approach [14.785943510581923]
異なる利害関係者の要求に対処し、コンプライアンスを確保するために、法的な知識を仕様で捉えなければならない。
既存のアプローチは問題空間と解空間の複雑な交叉を説明できない。
論文 参考訳(メタデータ) (2025-10-24T15:59:34Z) - Contrastive Dimension Reduction: A Systematic Review [14.568717191353244]
コントラスト次元低減法(Contrastive dimension reduction, CDR)は、コントロール(背景)グループに対して、治療(地上)グループに特有の信号の抽出または濃縮を目的としている。
本稿では,既存のCDR手法について概観する。
我々は、既存のCDR手法における重要な応用と課題を強調し、オープンな質問と今後の方向性を特定する。
論文 参考訳(メタデータ) (2025-10-13T18:58:46Z) - Preference Robustness for DPO with Applications to Public Health [26.99327564250612]
直接選好最適化(DPO)に基づく頑健な微調整アルゴリズムDPO-PROを提案する。
DPO-PROを,非営利組織ARMMANが運営する実世界の母体保健プログラムで評価した。
論文 参考訳(メタデータ) (2025-09-02T18:10:32Z) - Value of Information-based Deceptive Path Planning Under Adversarial Interventions [26.543790095871433]
本稿では,新たなマルコフ決定プロセス (MDP) モデルを提案する。
我々の提案するVoI目標を用いて、経路計画エージェントは、敵の観察者を騙して、最適下介入を選択する。
論文 参考訳(メタデータ) (2025-03-31T16:31:29Z) - A Comprehensive Survey of Direct Preference Optimization: Datasets, Theories, Variants, and Applications [49.58110250828268]
DPO(Direct Preference Optimization)は、アライメントのための有望なアプローチとして登場した。
DPOの様々な進歩と固有の制限にもかかわらず、これらの側面の詳細なレビューは現在、文献に欠けている。
論文 参考訳(メタデータ) (2024-10-21T02:27:24Z) - Constrained Reinforcement Learning with Average Reward Objective: Model-Based and Model-Free Algorithms [34.593772931446125]
モノグラフは、平均報酬決定過程(MDPs)の文脈内で制約された様々なモデルベースおよびモデルフリーアプローチの探索に焦点を当てている
このアルゴリズムは制約付きMDPの解法として検討されている。
論文 参考訳(メタデータ) (2024-06-17T12:46:02Z) - Towards an Enforceable GDPR Specification [49.1574468325115]
プライバシ・バイ・デザイン(PbD)は、EUなどの現代的なプライバシー規制によって規定されている。
PbDを実現する1つの新しい技術は強制(RE)である
法律規定の正式な仕様を作成するための一連の要件と反復的な方法論を提示する。
論文 参考訳(メタデータ) (2024-02-27T09:38:51Z) - Let's reward step by step: Step-Level reward model as the Navigators for
Reasoning [64.27898739929734]
Process-Supervised Reward Model (PRM)は、トレーニングフェーズ中にステップバイステップのフィードバックをLLMに提供する。
LLMの探索経路を最適化するために,PRMからのステップレベルのフィードバックを応用した欲求探索アルゴリズムを提案する。
提案手法の汎用性を探るため,コーディングタスクのステップレベル報酬データセットを自動生成する手法を開発し,コード生成タスクにおける同様の性能向上を観察する。
論文 参考訳(メタデータ) (2023-10-16T05:21:50Z) - Secrets of RLHF in Large Language Models Part I: PPO [81.01936993929127]
大規模言語モデル (LLMs) は、人工知能の進歩のためのブループリントを定式化した。
人間のフィードバックによる強化学習(RLHF)がこの追求を支える重要な技術パラダイムとして出現する。
本稿では、RLHFの枠組みを解明し、PPOの内部構造を再評価し、PPOアルゴリズムを構成する部分が政策エージェントの訓練にどのように影響するかを考察する。
論文 参考訳(メタデータ) (2023-07-11T01:55:24Z) - Provably Efficient UCB-type Algorithms For Learning Predictive State
Representations [55.00359893021461]
逐次決定問題は、予測状態表現(PSR)によってモデル化された低ランク構造が認められる場合、統計的に学習可能である
本稿では,推定モデルと実モデル間の全変動距離を上限とする新しいボーナス項を特徴とする,PSRに対する最初のUCB型アプローチを提案する。
PSRに対する既存のアプローチとは対照的に、UCB型アルゴリズムは計算的トラクタビリティ、最優先の準最適ポリシー、モデルの精度が保証される。
論文 参考訳(メタデータ) (2023-07-01T18:35:21Z) - Imitating Graph-Based Planning with Goal-Conditioned Policies [72.61631088613048]
本稿では,目標目標条件ポリシにサブゴール条件ポリシを蒸留する自己シミュレーション方式を提案する。
提案手法は,既存の目標条件付きRL手法のサンプル効率を大幅に向上させることができることを実証的に示す。
論文 参考訳(メタデータ) (2023-03-20T14:51:10Z) - Proximal Reinforcement Learning: Efficient Off-Policy Evaluation in
Partially Observed Markov Decision Processes [65.91730154730905]
医療や教育などの観察データへのオフライン強化学習の適用においては、観察された行動は観測されていない要因に影響される可能性があるという一般的な懸念がある。
ここでは、部分的に観察されたマルコフ決定過程(POMDP)における非政治評価を考慮し、この問題に取り組む。
我々は、近位因果推論の枠組みをPOMDP設定に拡張し、識別が可能となる様々な設定を提供する。
論文 参考訳(メタデータ) (2021-10-28T17:46:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。