論文の概要: Securing the AI Supply Chain: What Can We Learn From Developer-Reported Security Issues and Solutions of AI Projects?
- arxiv url: http://arxiv.org/abs/2512.23385v1
- Date: Mon, 29 Dec 2025 11:22:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.47738
- Title: Securing the AI Supply Chain: What Can We Learn From Developer-Reported Security Issues and Solutions of AI Projects?
- Title(参考訳): AIサプライチェーンのセキュア化: 開発者報告されたセキュリティ問題とAIプロジェクトのソリューションから何が学べるか?
- Authors: The Anh Nguyen, Triet Huynh Minh Le, M. Ali Babar,
- Abstract要約: 私たちは、Hugging FaceとGitHubの議論に基づいて、開発者によって報告された問題とソリューションに関する実証的な調査を行います。
このパイプラインは312,868のセキュリティ議論のデータセットを生成する。
我々は、データセットからサンプリングした753の投稿をテーマ分析し、32のセキュリティ問題と24のソリューションのきめ細かい分類法を明らかにする。
- 参考スコア(独自算出の注目度): 0.5352699766206809
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid growth of Artificial Intelligence (AI) models and applications has led to an increasingly complex security landscape. Developers of AI projects must contend not only with traditional software supply chain issues but also with novel, AI-specific security threats. However, little is known about what security issues are commonly encountered and how they are resolved in practice. This gap hinders the development of effective security measures for each component of the AI supply chain. We bridge this gap by conducting an empirical investigation of developer-reported issues and solutions, based on discussions from Hugging Face and GitHub. To identify security-related discussions, we develop a pipeline that combines keyword matching with an optimal fine-tuned distilBERT classifier, which achieved the best performance in our extensive comparison of various deep learning and large language models. This pipeline produces a dataset of 312,868 security discussions, providing insights into the security reporting practices of AI applications and projects. We conduct a thematic analysis of 753 posts sampled from our dataset and uncover a fine-grained taxonomy of 32 security issues and 24 solutions across four themes: (1) System and Software, (2) External Tools and Ecosystem, (3) Model, and (4) Data. We reveal that many security issues arise from the complex dependencies and black-box nature of AI components. Notably, challenges related to Models and Data often lack concrete solutions. Our insights can offer evidence-based guidance for developers and researchers to address real-world security threats across the AI supply chain.
- Abstract(参考訳): 人工知能(AI)モデルと応用の急速な成長は、ますます複雑なセキュリティ環境を生み出している。
AIプロジェクトの開発者は、従来のソフトウェアサプライチェーンの問題だけでなく、新しいAI固有のセキュリティ脅威にも対処しなければならない。
しかし、セキュリティ上の問題と実際にどのように解決されるのかについては、ほとんど分かっていない。
このギャップは、AIサプライチェーンの各コンポーネントに対する効果的なセキュリティ対策の開発を妨げる。
私たちは、Hugging FaceとGitHubの議論に基づいて、開発者によって報告された問題とソリューションを経験的に調査することで、このギャップを埋めています。
セキュリティに関する議論を識別するために,キーワードマッチングと最適な微調整 distilBERT 分類器を組み合わせるパイプラインを開発した。
このパイプラインは312,868のセキュリティ議論のデータセットを生成し、AIアプリケーションやプロジェクトのセキュリティレポートプラクティスに関する洞察を提供する。
我々は,データセットから抽出した753のポストをテーマ解析し,(1)システムとソフトウェア,(2)外部ツールと生態系,(3)モデル,(4)データという4つのテーマにまたがる,32のセキュリティ問題と24のソリューションのきめ細かい分類法を明らかにする。
我々は、AIコンポーネントの複雑な依存関係とブラックボックスの性質から、多くのセキュリティ問題が生じることを明らかにした。
特に、モデルとデータに関連する課題には、具体的な解決策が欠けていることが多い。
私たちの洞察は、開発者や研究者がAIサプライチェーン全体の現実的なセキュリティ脅威に対処するためのエビデンスベースのガイダンスを提供することができます。
関連論文リスト
- Cyber Threat Intelligence for Artificial Intelligence Systems [0.0]
我々は、サイバー脅威インテリジェンスがどのように進化し、AIシステムをターゲットにした攻撃に対処するかを調査する。
AI指向の脅威知能知識基盤が持つべきものの概要を概説する。
収集された指標と新たに観測されたAIアーティファクトの類似性を測定する手法について議論する。
論文 参考訳(メタデータ) (2026-03-05T11:37:47Z) - Securing Agentic AI Systems -- A Multilayer Security Framework [0.0]
エージェント人工知能(AI)システムのセキュア化には、自律性、意思決定、適応行動によってもたらされる複雑なサイバーリスクに対処する必要がある。
既存のAIセキュリティフレームワークは、これらの課題やエージェントAIのユニークなニュアンスに適切に対処していない。
本研究は,エージェントAIシステムに特化して設計されたライフサイクル対応セキュリティフレームワークを開発する。
論文 参考訳(メタデータ) (2025-12-19T20:22:25Z) - Cisco Integrated AI Security and Safety Framework Report [3.162988913169078]
本稿では,CiscoのIntegrated AI Security and Safety Framework(AI Security Framework)について述べる。
このフレームワークは、AIリスクの全範囲を分類、統合、運用するために使用することができる。
モダリティ、エージェント、パイプライン、そしてより広範なエコシステムにわたって、AIセキュリティとAI安全性を統合している。
論文 参考訳(メタデータ) (2025-12-15T02:12:12Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - AI Safety in the Eyes of the Downstream Developer: A First Look at Concerns, Practices, and Challenges [10.342989453672123]
事前トレーニングされたモデル(PTM)は、AIベースのソフトウェアの基礎となり、最小限のトレーニングオーバーヘッドで、迅速な統合と開発を可能にする。
本研究では,AIベースのソフトウェア開発におけるAI安全性問題に対する開発者の懸念,プラクティス,認識する課題について検討する。
論文 参考訳(メタデータ) (2025-03-25T08:35:30Z) - AISafetyLab: A Comprehensive Framework for AI Safety Evaluation and Improvement [73.0700818105842]
我々は、AI安全のための代表的攻撃、防衛、評価方法論を統合する統合されたフレームワークとツールキットであるAISafetyLabを紹介する。
AISafetyLabには直感的なインターフェースがあり、開発者はシームレスにさまざまなテクニックを適用できる。
我々はヴィクナに関する実証的研究を行い、異なる攻撃戦略と防衛戦略を分析し、それらの比較効果に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2025-02-24T02:11:52Z) - Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Vulnerabilities of Connectionist AI Applications: Evaluation and Defence [0.0]
この記事では、コネクショナリスト人工知能(AI)アプリケーションのITセキュリティを扱い、完全性への脅威に焦点を当てます。
脅威の包括的リストと軽減の可能性は、最先端の文献をレビューすることによって提示される。
緩和に関する議論は同様に、AIシステム自体のレベルに限定されず、むしろサプライチェーンの文脈でAIシステムを見ることを提唱している。
論文 参考訳(メタデータ) (2020-03-18T12:33:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。