論文の概要: Publish Your Threat Models! The benefits far outweigh the dangers
- arxiv url: http://arxiv.org/abs/2511.08295v1
- Date: Wed, 12 Nov 2025 01:51:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.744991
- Title: Publish Your Threat Models! The benefits far outweigh the dangers
- Title(参考訳): 脅威モデルを公開する! そのメリットは危険をはるかに上回る
- Authors: Loren Kohnfelder, Adam Shostack,
- Abstract要約: アーリーアダプターの先例をいくつかリストアップし、多くの利点を説明し、潜在的な反対に対処し、規制ドライバーを引用します。
技術コミュニティは、各コンポーネントのセキュリティ特性がサプライチェーンを上下に知るように、オープンにPTMを共有することを奨励します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Threat modeling has long guided software development work, and we consider how Public Threat Models (PTM) can convey useful security information to others. We list some early adopter precedents, explain the many benefits, address potential objections, and cite regulatory drivers. Internal threat models may not be directly suitable for disclosure so we provide guidance for redaction and review, as well as when to update models (published or not). In a concluding call to action, we encourage the technology community to openly share their PTMs so the security properties of each component are known up and down the supply chain. Technology providers proud of their security efforts can show their work for competitive advantage, and customers can ask for and evaluate PTMs rather than be told "it's secure" but little more. Many great products already have fine threat models, and turning those into PTMs is a relatively minor task, so we argue this should (and easily could) become the new norm.
- Abstract(参考訳): 脅威モデリングは長年,ソフトウェア開発作業の指針となり,公共脅威モデル(Public Threat Models, PTM)が有用なセキュリティ情報を他人に伝達する方法について検討してきた。
アーリーアダプターの先例をいくつかリストアップし、多くの利点を説明し、潜在的な反対に対処し、規制ドライバーを引用します。
内部脅威モデルは開示に直接適さないため、リアクションやレビューのガイダンスや、モデルを更新する時期(公開しないかどうか)も提供します。
行動の締めくくりとして、私たちは技術コミュニティに対して、各コンポーネントのセキュリティ特性がサプライチェーンを上下に知るように、公開的にPTMを共有することを奨励します。
セキュリティの取り組みを誇りに思う技術提供者は、競争上の優位性のために自分の仕事を示すことができる。
多くの優れた製品はすでに優れた脅威モデルを持っていますが、これらをPTMに変換するのは比較的小さな作業です。
関連論文リスト
- PropensityBench: Evaluating Latent Safety Risks in Large Language Models via an Agentic Approach [49.14349403242654]
我々は、リスクを伴う行動に関わるモデルの確率を評価する新しいベンチマークフレームワークであるtextbfPropensityBench$を提示する。
私たちのフレームワークには,サイバーセキュリティ,自己増殖,バイオセキュリティ,化学セキュリティという,リスクの高い4つのドメインにまたがる6,648のツールを備えた,5,874のシナリオが含まれています。
オープンソースとプロプライエタリなフロンティアモデル全体で、私たちは9つの不確実性の兆候を発見しました。
論文 参考訳(メタデータ) (2025-11-24T18:46:44Z) - Patching LLM Like Software: A Lightweight Method for Improving Safety Policy in Large Language Models [63.54707418559388]
ソフトウェアバージョンのような大型言語モデル(LLM)に対するパッチを提案する。
提案手法は,既存のモデルにコンパクトで学習可能なプレフィックスを前もって,迅速な修復を可能にする。
論文 参考訳(メタデータ) (2025-11-11T17:25:44Z) - ThreatGPT: An Agentic AI Framework for Enhancing Public Safety through Threat Modeling [0.0]
ThreatGPTは、公安システムの脅威を理解し分析するためのエージェント人工知能アシスタントだ。
ディープ・サイバーセキュリティの専門知識を必要とせず、ユーザーは自分の懸念するシステムのコンポーネントを単純に記述できる。
少数ショットの学習を使用して、AIはサンプルから学び、関連するスマート脅威モデルを生成する。
論文 参考訳(メタデータ) (2025-09-04T20:26:54Z) - Oyster-I: Beyond Refusal -- Constructive Safety Alignment for Responsible Language Models [93.5740266114488]
コンストラクティブ・セーフティ・アライメント(CSA)は、悪意のある誤用を防ぎつつ、脆弱性のあるユーザを安全で有益な結果へと積極的に誘導する。
Oy1は、高度な汎用能力を保ちながら、オープンモデル間の最先端の安全性を達成する。
私たちは、責任あるユーザ中心AIをサポートするために、Oy1、コード、ベンチマークをリリースしています。
論文 参考訳(メタデータ) (2025-09-02T03:04:27Z) - ThreMoLIA: Threat Modeling of Large Language Model-Integrated Applications [20.010260124984654]
大規模言語モデル(LLM)は現在、産業用ソフトウェアアプリケーションに統合されている。
脅威モデリングは、これらの脅威を特定し、緩和を提案するために一般的に使用される。
本研究の目的は,1) ライフサイクルの早い段階での脅威モデリングを行う方法,(2) 既存の脅威モデルを統合する脅威モデリングツールを開発すること,(3) 高品質な脅威モデリングを実現することにある。
論文 参考訳(メタデータ) (2025-04-25T14:11:42Z) - Position: Editing Large Language Models Poses Serious Safety Risks [5.6897620867951435]
大規模言語モデルの編集は、ほとんど見落とされた深刻な安全性のリスクをもたらすと我々は主張する。
私たちはAIエコシステムの脆弱性を強調し、検証なしで更新されたモデルの無制限のアップロードとダウンロードを可能にします。
我々は、(i)悪質なモデル編集に対する研究用タンパー耐性モデルと対策をコミュニティに呼びかけ、(ii)AIエコシステムの確保に積極的に取り組みます。
論文 参考訳(メタデータ) (2025-02-05T07:51:32Z) - OpenAI o1 System Card [274.83891368890977]
o1モデルシリーズは、思考の連鎖を用いて推論するために大規模な強化学習で訓練されている。
本報告では,OpenAI o1およびOpenAI o1-miniモデルに対して実施される安全作業の概要について述べる。
論文 参考訳(メタデータ) (2024-12-21T18:04:31Z) - On Evaluating the Durability of Safeguards for Open-Weight LLMs [80.36750298080275]
我々は,大規模言語モデル(LLM)の誤用を技術的保護が阻害するか否かを論じる。
これらの防御を評価することさえ非常に困難であり、観客を誤解させることなく、安全は実際のものよりも耐久性が高いと考えることが示される。
今後の研究は、より制約があり、明確に定義され、厳密に検討された脅威モデルに注意深く対応することを提案します。
論文 参考訳(メタデータ) (2024-12-10T01:30:32Z) - Overriding Safety protections of Open-source Models [4.093963624562595]
本稿では, 微調整における有害データ導入の影響について検討する。
有害なデータに対してモデルを微調整することで、役に立たないか、信頼できないかを調査する。
安全な微調整モデルでは、ベースモデルと比較してASRは51.68%減少する。
論文 参考訳(メタデータ) (2024-09-28T22:53:27Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - On Prompt-Driven Safeguarding for Large Language Models [172.13943777203377]
表現空間では、入力クエリは通常、安全プロンプトによって「より高い拒絶」方向に移動される。
これらの知見に触発されて,安全性向上,すなわちDROの最適化手法を提案する。
安全性プロンプトを継続的かつトレーニング可能な埋め込みとして扱うことで、DROは、その有害性に応じて、クエリの表現を拒否方向に沿ってあるいは反対に移動させることを学ぶ。
論文 参考訳(メタデータ) (2024-01-31T17:28:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。