論文の概要: Publish Your Threat Models! The benefits far outweigh the dangers
- arxiv url: http://arxiv.org/abs/2511.08295v1
- Date: Wed, 12 Nov 2025 01:51:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.744991
- Title: Publish Your Threat Models! The benefits far outweigh the dangers
- Title(参考訳): 脅威モデルを公開する! そのメリットは危険をはるかに上回る
- Authors: Loren Kohnfelder, Adam Shostack,
- Abstract要約: アーリーアダプターの先例をいくつかリストアップし、多くの利点を説明し、潜在的な反対に対処し、規制ドライバーを引用します。
技術コミュニティは、各コンポーネントのセキュリティ特性がサプライチェーンを上下に知るように、オープンにPTMを共有することを奨励します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Threat modeling has long guided software development work, and we consider how Public Threat Models (PTM) can convey useful security information to others. We list some early adopter precedents, explain the many benefits, address potential objections, and cite regulatory drivers. Internal threat models may not be directly suitable for disclosure so we provide guidance for redaction and review, as well as when to update models (published or not). In a concluding call to action, we encourage the technology community to openly share their PTMs so the security properties of each component are known up and down the supply chain. Technology providers proud of their security efforts can show their work for competitive advantage, and customers can ask for and evaluate PTMs rather than be told "it's secure" but little more. Many great products already have fine threat models, and turning those into PTMs is a relatively minor task, so we argue this should (and easily could) become the new norm.
- Abstract(参考訳): 脅威モデリングは長年,ソフトウェア開発作業の指針となり,公共脅威モデル(Public Threat Models, PTM)が有用なセキュリティ情報を他人に伝達する方法について検討してきた。
アーリーアダプターの先例をいくつかリストアップし、多くの利点を説明し、潜在的な反対に対処し、規制ドライバーを引用します。
内部脅威モデルは開示に直接適さないため、リアクションやレビューのガイダンスや、モデルを更新する時期(公開しないかどうか)も提供します。
行動の締めくくりとして、私たちは技術コミュニティに対して、各コンポーネントのセキュリティ特性がサプライチェーンを上下に知るように、公開的にPTMを共有することを奨励します。
セキュリティの取り組みを誇りに思う技術提供者は、競争上の優位性のために自分の仕事を示すことができる。
多くの優れた製品はすでに優れた脅威モデルを持っていますが、これらをPTMに変換するのは比較的小さな作業です。
関連論文リスト
- Patching LLM Like Software: A Lightweight Method for Improving Safety Policy in Large Language Models [63.54707418559388]
ソフトウェアバージョンのような大型言語モデル(LLM)に対するパッチを提案する。
提案手法は,既存のモデルにコンパクトで学習可能なプレフィックスを前もって,迅速な修復を可能にする。
論文 参考訳(メタデータ) (2025-11-11T17:25:44Z) - ThreatGPT: An Agentic AI Framework for Enhancing Public Safety through Threat Modeling [0.0]
ThreatGPTは、公安システムの脅威を理解し分析するためのエージェント人工知能アシスタントだ。
ディープ・サイバーセキュリティの専門知識を必要とせず、ユーザーは自分の懸念するシステムのコンポーネントを単純に記述できる。
少数ショットの学習を使用して、AIはサンプルから学び、関連するスマート脅威モデルを生成する。
論文 参考訳(メタデータ) (2025-09-04T20:26:54Z) - Oyster-I: Beyond Refusal -- Constructive Safety Alignment for Responsible Language Models [93.5740266114488]
コンストラクティブ・セーフティ・アライメント(CSA)は、悪意のある誤用を防ぎつつ、脆弱性のあるユーザを安全で有益な結果へと積極的に誘導する。
Oy1は、高度な汎用能力を保ちながら、オープンモデル間の最先端の安全性を達成する。
私たちは、責任あるユーザ中心AIをサポートするために、Oy1、コード、ベンチマークをリリースしています。
論文 参考訳(メタデータ) (2025-09-02T03:04:27Z) - Position: Editing Large Language Models Poses Serious Safety Risks [5.6897620867951435]
大規模言語モデルの編集は、ほとんど見落とされた深刻な安全性のリスクをもたらすと我々は主張する。
私たちはAIエコシステムの脆弱性を強調し、検証なしで更新されたモデルの無制限のアップロードとダウンロードを可能にします。
我々は、(i)悪質なモデル編集に対する研究用タンパー耐性モデルと対策をコミュニティに呼びかけ、(ii)AIエコシステムの確保に積極的に取り組みます。
論文 参考訳(メタデータ) (2025-02-05T07:51:32Z) - On Prompt-Driven Safeguarding for Large Language Models [172.13943777203377]
表現空間では、入力クエリは通常、安全プロンプトによって「より高い拒絶」方向に移動される。
これらの知見に触発されて,安全性向上,すなわちDROの最適化手法を提案する。
安全性プロンプトを継続的かつトレーニング可能な埋め込みとして扱うことで、DROは、その有害性に応じて、クエリの表現を拒否方向に沿ってあるいは反対に移動させることを学ぶ。
論文 参考訳(メタデータ) (2024-01-31T17:28:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。