論文の概要: Incentive-Based Software Security: Fair Micro-Payments for Writing
Secure Code
- arxiv url: http://arxiv.org/abs/2309.05338v1
- Date: Mon, 11 Sep 2023 09:34:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-10-23 08:12:31.362848
- Title: Incentive-Based Software Security: Fair Micro-Payments for Writing
Secure Code
- Title(参考訳): インセンティブベースのソフトウェアセキュリティ:セキュアなコードを書くための公正なマイクロペイメント
- Authors: Stefan Rass, Martin Pinzger
- Abstract要約: ソフトウェア開発者が製品のセキュリティに対する貢献に報いるために、公平で説明可能なインセンティブを生み出すメカニズムについて説明する。
我々は、リスク管理ワークフロー内の開発者チームのアクションをモデル化するために、協調ゲーム理論を使用します。
- 参考スコア(独自算出の注目度): 0.81585306387285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We describe a mechanism to create fair and explainable incentives for
software developers to reward contributions to security of a product. We use
cooperative game theory to model the actions of the developer team inside a
risk management workflow, considering the team to actively work against known
threats, and thereby receive micro-payments based on their performance. The use
of the Shapley-value provides natural explanations here directly through (new)
interpretations of the axiomatic grounding of the imputation. The resulting
mechanism is straightforward to implement, and relies on standard tools from
collaborative software development, such as are available for git repositories
and mining thereof. The micropayment model itself is deterministic and does not
rely on uncertain information outside the scope of the developer team or the
enterprise, hence is void of assumptions about adversarial incentives, or user
behavior, up to their role in the risk management process that the mechanism is
part of. We corroborate our model with a worked example based on real-life
data.
- Abstract(参考訳): ソフトウェア開発者が製品のセキュリティに対する貢献に報いるために、公平で説明可能なインセンティブを生み出すメカニズムについて説明する。
我々は協調ゲーム理論を用いてリスク管理ワークフロー内の開発者チームの行動をモデル化し、チームが既知の脅威に対して積極的に取り組むことを考慮し、その結果に基づいてマイクロペイメントを受け取る。
シェープリー値の使用は、計算の公理的基礎の(新しい)解釈を通じて、ここでの自然な説明を提供する。
結果として得られるメカニズムは実装が簡単で、gitリポジトリやマイニングで利用可能なような、コラボレーションソフトウェア開発の標準ツールに依存しています。
マイクロペイメントモデル自体は決定論的であり、開発者チームや企業の範囲外の不確実な情報に依存しないため、そのメカニズムの一部となるリスク管理プロセスにおいて、敵のインセンティブやユーザ行動に関する仮定は無効である。
実生活データに基づいた実例でモデルと照合する。
関連論文リスト
- Steering Externalities: Benign Activation Steering Unintentionally Increases Jailbreak Risk for Large Language Models [62.16655896700062]
活性化ステアリングは大規模言語モデル(LLM)の有用性を高める技術である
重要かつ過度に調査された安全リスクを無意識に導入することを示します。
実験によると、これらの介入は強制乗算器として機能し、ジェイルブレイクに新たな脆弱性を発生させ、標準ベンチマークで攻撃成功率を80%以上向上させる。
論文 参考訳(メタデータ) (2026-02-03T12:32:35Z) - The Why Behind the Action: Unveiling Internal Drivers via Agentic Attribution [63.61358761489141]
LLM(Large Language Model)ベースのエージェントは、カスタマーサービス、Webナビゲーション、ソフトウェアエンジニアリングといった現実世界のアプリケーションで広く使われている。
本稿では,タスク結果に関係なく,エージェントの動作を駆動する内部要因を識別する,テキスト汎用エージェント属性のための新しいフレームワークを提案する。
標準ツールの使用やメモリ誘起バイアスのような微妙な信頼性リスクなど、さまざまなエージェントシナリオでフレームワークを検証する。
論文 参考訳(メタデータ) (2026-01-21T15:22:21Z) - An Empirical Study on Remote Code Execution in Machine Learning Model Hosting Ecosystems [4.409447722044799]
モデルローディング中の信頼できないコードの実行は、モデル共有プラットフォームに対するセキュリティ上の懸念である。
5つの主要なモデル共有プラットフォームにわたるカスタムモデルローディングプラクティスに関する、最初の大規模な実証的研究を行います。
論文 参考訳(メタデータ) (2026-01-20T17:13:42Z) - Towards Verifiably Safe Tool Use for LLM Agents [53.55621104327779]
大規模言語モデル(LLM)ベースのAIエージェントは、データソース、API、検索エンジン、コードサンドボックス、さらにはその他のエージェントなどのツールへのアクセスを可能にすることで、機能を拡張する。
LLMは意図しないツールインタラクションを起動し、機密データを漏洩したり、クリティカルレコードを上書きしたりするリスクを発生させる。
モデルベースセーフガードのようなリスクを軽減するための現在のアプローチは、エージェントの信頼性を高めるが、システムの安全性を保証することはできない。
論文 参考訳(メタデータ) (2026-01-12T21:31:38Z) - LeechHijack: Covert Computational Resource Exploitation in Intelligent Agent Systems [16.733120469524152]
大規模言語モデル(LLM)ベースのエージェントは、推論、計画、ツールの使用において顕著な能力を示した。
最近提案された Model Context Protocol (MCP) は,外部ツールをエージェントシステムに統合するための統合フレームワークとして登場した。
本稿では, エージェントの計算資源を隠蔽する逆MSPツールを用いて, ハイジャックのための潜伏埋め込みエクスプロイトであるLeechHijackを提案する。
論文 参考訳(メタデータ) (2025-12-02T01:34:56Z) - PoCo: Agentic Proof-of-Concept Exploit Generation for Smart Contracts [4.837987507203078]
本稿では,概念実証を自動生成するエージェントフレームワークPOCOを紹介する。
PoCOは、Reason-Act-Observeループ内の一連のコード実行ツールと対話することで、エージェント的な方法でエクスプロイトを生成する。
実世界の脆弱性報告23件のデータセットを用いてPOCOを評価した。
論文 参考訳(メタデータ) (2025-11-04T18:03:12Z) - LLM Agents Should Employ Security Principles [60.03651084139836]
本稿では,大規模言語モデル(LLM)エージェントを大規模に展開する際には,情報セキュリティの確立した設計原則を採用するべきであることを論じる。
AgentSandboxは、エージェントのライフサイクル全体を通して保護を提供するために、これらのセキュリティ原則を組み込んだ概念的なフレームワークである。
論文 参考訳(メタデータ) (2025-05-29T21:39:08Z) - Blockchain-Empowered Cyber-Secure Federated Learning for Trustworthy Edge Computing [0.36700088931938835]
Federated Learning(FL)は、プライバシ保護のための分散機械学習スキームである。
FLパラダイムは、有害攻撃と呼ばれるネットワーク参加者からの攻撃によって脆弱になる可能性がある。
本稿では,FLトレーニングプロセスにおける信頼性,公正性,信頼性を保証するクロスデバイスFLモデルを提案する。
論文 参考訳(メタデータ) (2024-12-30T02:58:18Z) - In-Context Experience Replay Facilitates Safety Red-Teaming of Text-to-Image Diffusion Models [104.94706600050557]
テキスト・ツー・イメージ(T2I)モデルは目覚ましい進歩を見せているが、有害なコンテンツを生成する可能性はまだMLコミュニティにとって重要な関心事である。
ICERは,解釈可能かつ意味論的に意味のある重要なプロンプトを生成する新しい赤チームフレームワークである。
我々の研究は、より堅牢な安全メカニズムをT2Iシステムで開発するための重要な洞察を提供する。
論文 参考訳(メタデータ) (2024-11-25T04:17:24Z) - Watson: A Cognitive Observability Framework for the Reasoning of Foundation Model-Powered Agents [7.392058124132526]
ファウンデーションモデル(FM)は、FMベースのエージェントソフトウェア(エージェントウェア)のような複雑なソフトウェアシステムにおいて、ますます顕著な役割を担っている。
従来のソフトウェアとは異なり、エージェントは不透明なデータと暗黙の推論を使用して自律的に操作する。
このような革新的なシステムに現れた新しいタイプの要求可観測性として,認知可観測性を提案する。
論文 参考訳(メタデータ) (2024-11-05T19:13:22Z) - Continuous risk assessment in secure DevOps [0.24475591916185502]
私たちは、組織内のリスク関連アクティビティとの関わりから、セキュアなDevOpsが利益を得られるかについて論じています。
我々は、リスクアセスメント(RA)、特に脅威モデリング(TM)を組み合わせることに集中し、ソフトウェアライフサイクルの早期にセキュリティ上の配慮を適用します。
論文 参考訳(メタデータ) (2024-09-05T10:42:27Z) - Compromising Embodied Agents with Contextual Backdoor Attacks [69.71630408822767]
大型言語モデル(LLM)は、エンボディドインテリジェンスの発展に変化をもたらした。
本稿では,このプロセスにおけるバックドアセキュリティの重大な脅威を明らかにする。
ほんの少しの文脈的デモンストレーションを毒殺しただけで、攻撃者はブラックボックスLDMの文脈的環境を隠蔽することができる。
論文 参考訳(メタデータ) (2024-08-06T01:20:12Z) - Learning Payment-Free Resource Allocation Mechanisms [19.60309632660988]
ニューラルネットワークを用いた自己関心エージェント間のリソース制限機構の設計について検討する。
支払いなしのメカニズム設計に"マネーバーニング"というアイデアを取り入れた、新たなエンドツーエンドニューラルネットワークアーキテクチャであるExS-Netをコントリビュートしています。
論文 参考訳(メタデータ) (2023-11-18T01:21:54Z) - Understanding Information Disclosure from Secure Computation Output: A Study of Average Salary Computation [58.74407460023331]
関数結果の観察からプライベート入力に関する情報開示を定量化することが,本研究の課題である。
ボストン市における男女賃金格差の研究に動機づけられたこの研究は、給与の平均計算に焦点を当てる。
論文 参考訳(メタデータ) (2022-09-21T15:59:48Z) - Mechanisms that Incentivize Data Sharing in Federated Learning [90.74337749137432]
我々は、データ共有の利点が完全に損なわれているような、ナイーブなスキームが破滅的なフリーライディングのレベルにどのように結びつくかを示す。
次に,各エージェントが生成するデータ量を最大化する精度形成機構を導入する。
論文 参考訳(メタデータ) (2022-07-10T22:36:52Z) - Learning Dynamic Mechanisms in Unknown Environments: A Reinforcement
Learning Approach [130.9259586568977]
本稿では,複数ラウンドの対話を通して動的ビックレー・クラーク・グローブ(VCG)機構を回復するための新しい学習アルゴリズムを提案する。
当社のアプローチの重要な貢献は、報酬のないオンライン強化学習(RL)を取り入れて、リッチな政策分野の探索を支援することである。
論文 参考訳(メタデータ) (2022-02-25T16:17:23Z) - Cooperative Multi-Agent Actor-Critic for Privacy-Preserving Load
Scheduling in a Residential Microgrid [71.17179010567123]
本稿では,分散型アクターを分散批評家に教育する,プライバシ保護型マルチエージェントアクター批判フレームワークを提案する。
提案手法は,家庭のプライバシを保護しつつ,暗黙的にマルチエージェントの信用代入メカニズムを学習する。
論文 参考訳(メタデータ) (2021-10-06T14:05:26Z) - Explaining Credit Risk Scoring through Feature Contribution Alignment
with Expert Risk Analysts [1.7778609937758323]
私たちは企業の信用スコアにフォーカスし、さまざまな機械学習モデルをベンチマークします。
目標は、企業が一定の期間内に金融問題を経験しているかどうかを予測するモデルを構築することです。
我々は、信用リスクの専門家とモデル機能属性説明との相違を強調した専門家による機能関連スコアを提供することで、光を当てる。
論文 参考訳(メタデータ) (2021-03-15T12:59:15Z) - Explanations of Machine Learning predictions: a mandatory step for its
application to Operational Processes [61.20223338508952]
信用リスクモデリングは重要な役割を果たす。
近年,機械学習や深層学習の手法が採用されている。
この分野における説明可能性問題に LIME 手法を適用することを提案する。
論文 参考訳(メタデータ) (2020-12-30T10:27:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。