論文の概要: Systematic literature review of the trust reinforcement mechanisms exist in package ecosystems
- arxiv url: http://arxiv.org/abs/2407.02522v1
- Date: Wed, 26 Jun 2024 13:21:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-07 13:14:55.072707
- Title: Systematic literature review of the trust reinforcement mechanisms exist in package ecosystems
- Title(参考訳): パッケージ生態系における信頼強化機構の体系的文献レビュー
- Authors: Angel Temelko, Fang Hou, Siamak Farshidi, Slinger Jansen,
- Abstract要約: このレビューは、現在のnpm環境における一般的なトレンド、方法、および信頼ツールの関心点を特定することを目的としている。
初期の研究を分析した結果、見落とされがちな地域を見つけ出し、それに対応するために我々の研究を推し進めることが目的だった。
- 参考スコア(独自算出の注目度): 1.76118478012913
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We conducted a thorough SLR to better grasp the challenges and possible solutions associated with existing npm security tools. Our goal was to delve into documented experiences and findings. Specifically, we were keen to learn about the motivations behind choosing third-party packages, software engineers' responses to warning messages, and their overall understanding of security issues. The main aim of this review was to pinpoint prevailing trends, methods, and concerns in trust tools for the present npm environment. Furthermore, we sought to understand the complexities of integrating SECO into platforms such as npm. By analyzing earlier studies, our intention was to spot any overlooked areas and steer our research to address them.
- Abstract(参考訳): 我々は、既存のnpmセキュリティツールに関連する課題と解決策をよりよく把握するために、徹底的なSLRを実施しました。
私たちのゴールは、ドキュメント化された経験と発見を掘り下げることでした。
具体的には、サードパーティパッケージの選択の背景にあるモチベーション、警告メッセージに対するソフトウェアエンジニアの反応、セキュリティ問題に対する全体的な理解について、積極的に学びました。
このレビューの主な目的は、現在のnpm環境における一般的なトレンド、方法、および信頼ツールの関心点を特定することである。
さらに我々は,SECOをnpmのようなプラットフォームに統合することの複雑さを理解することを試みた。
初期の研究を分析した結果、見落とされがちな地域を見つけ出し、それに対応するために我々の研究を推し進めることが目的だった。
関連論文リスト
- A Survey on Point-of-Interest Recommendation: Models, Architectures, and Security [40.18083295666298]
POI(Point-of-Interest)レコメンデーションシステムは、ユーザエクスペリエンスの充実、パーソナライズされたインタラクションの実現、デジタルランドスケープにおける意思決定プロセスの最適化に不可欠である。
従来のモデルから大規模言語モデルのような高度な技術への移行を体系的に検討する。
セキュリティの重要性の高まりに対処し、潜在的な脆弱性とプライバシ保護アプローチを調べます。
論文 参考訳(メタデータ) (2024-10-03T04:11:42Z) - Towards Threat Modelling of IoT Context-Sharing Platforms [4.098759138493994]
汎用IoTコンテキスト共有ソリューションの脅威モデリングとセキュリティ解析のためのフレームワークを提案する。
IoTコンテキスト共有プラットフォームの設計における重要なセキュリティ上の課題を特定します。
我々の脅威モデリングは、これらのシステムを活用するために使用される技術やサブ技術に対する詳細な分析を提供する。
論文 参考訳(メタデータ) (2024-08-22T02:41:06Z) - Sok: Comprehensive Security Overview, Challenges, and Future Directions of Voice-Controlled Systems [10.86045604075024]
Voice Control Systemsをスマートデバイスに統合することで、セキュリティの重要性が強調される。
現在の研究では、VCSの脆弱性が多数発見され、ユーザのプライバシとセキュリティに重大なリスクが提示されている。
本稿では,VCSの階層的モデル構造を導入し,既存の文献を体系的に分類・分析するための新しいレンズを提供する。
我々は,その技術的原則に基づいて攻撃を分類し,その方法,目標,ベクトル,行動など,さまざまな属性を徹底的に評価する。
論文 参考訳(メタデータ) (2024-05-27T12:18:46Z) - Mapping LLM Security Landscapes: A Comprehensive Stakeholder Risk Assessment Proposal [0.0]
本稿では,従来のシステムにおけるリスク評価手法のようなツールを用いたリスク評価プロセスを提案する。
我々は、潜在的な脅威要因を特定し、脆弱性要因に対して依存するシステムコンポーネントをマッピングするためのシナリオ分析を行う。
3つの主要株主グループに対する脅威もマップ化しています。
論文 参考訳(メタデータ) (2024-03-20T05:17:22Z) - Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [65.77763092833348]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、これらのエージェントは安全性を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - The Art of Defending: A Systematic Evaluation and Analysis of LLM
Defense Strategies on Safety and Over-Defensiveness [56.174255970895466]
大規模言語モデル(LLM)は、自然言語処理アプリケーションにおいて、ますます重要な役割を担っている。
本稿では,SODE(Safety and Over-Defensiveness Evaluation)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-12-30T17:37:06Z) - Representation Engineering: A Top-Down Approach to AI Transparency [132.0398250233924]
表現工学の新たな領域(RepE)を特定し,特徴付ける
RepEは、神経細胞や回路ではなく、人口レベルの表現を解析の中心に置く。
これらの手法が、広範囲の安全関連問題に対してどのようにトラクションを提供するかを紹介する。
論文 参考訳(メタデータ) (2023-10-02T17:59:07Z) - New Challenges in Reinforcement Learning: A Survey of Security and
Privacy [26.706957408693363]
強化学習(Reinforcement Learning, RL)は、AIの最も重要な分野のひとつ。
RLは医療、データ市場、自動運転、ロボット工学など、さまざまな分野で広く採用されている。
これらのアプリケーションやシステムは、セキュリティやプライバシ攻撃に弱いことが示されている。
論文 参考訳(メタデータ) (2022-12-31T12:30:43Z) - Q-Mixing Network for Multi-Agent Pathfinding in Partially Observable
Grid Environments [62.997667081978825]
部分的に観測可能なグリッド環境におけるマルチエージェントナビゲーションの問題点を考察する。
エージェントがまず、観察を行動にマッピングする方針を学習し、その目的を達成するためにこれらの方針に従うとき、強化学習アプローチを活用することを提案する。
論文 参考訳(メタデータ) (2021-08-13T09:44:47Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。