論文の概要: Securing the AI Supply Chain: What Can We Learn From Developer-Reported Security Issues and Solutions of AI Projects?
- arxiv url: http://arxiv.org/abs/2512.23385v1
- Date: Mon, 29 Dec 2025 11:22:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.47738
- Title: Securing the AI Supply Chain: What Can We Learn From Developer-Reported Security Issues and Solutions of AI Projects?
- Title(参考訳): AIサプライチェーンのセキュア化: 開発者報告されたセキュリティ問題とAIプロジェクトのソリューションから何が学べるか?
- Authors: The Anh Nguyen, Triet Huynh Minh Le, M. Ali Babar,
- Abstract要約: 私たちは、Hugging FaceとGitHubの議論に基づいて、開発者によって報告された問題とソリューションに関する実証的な調査を行います。
このパイプラインは312,868のセキュリティ議論のデータセットを生成する。
我々は、データセットからサンプリングした753の投稿をテーマ分析し、32のセキュリティ問題と24のソリューションのきめ細かい分類法を明らかにする。
- 参考スコア(独自算出の注目度): 0.5352699766206809
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid growth of Artificial Intelligence (AI) models and applications has led to an increasingly complex security landscape. Developers of AI projects must contend not only with traditional software supply chain issues but also with novel, AI-specific security threats. However, little is known about what security issues are commonly encountered and how they are resolved in practice. This gap hinders the development of effective security measures for each component of the AI supply chain. We bridge this gap by conducting an empirical investigation of developer-reported issues and solutions, based on discussions from Hugging Face and GitHub. To identify security-related discussions, we develop a pipeline that combines keyword matching with an optimal fine-tuned distilBERT classifier, which achieved the best performance in our extensive comparison of various deep learning and large language models. This pipeline produces a dataset of 312,868 security discussions, providing insights into the security reporting practices of AI applications and projects. We conduct a thematic analysis of 753 posts sampled from our dataset and uncover a fine-grained taxonomy of 32 security issues and 24 solutions across four themes: (1) System and Software, (2) External Tools and Ecosystem, (3) Model, and (4) Data. We reveal that many security issues arise from the complex dependencies and black-box nature of AI components. Notably, challenges related to Models and Data often lack concrete solutions. Our insights can offer evidence-based guidance for developers and researchers to address real-world security threats across the AI supply chain.
- Abstract(参考訳): 人工知能(AI)モデルと応用の急速な成長は、ますます複雑なセキュリティ環境を生み出している。
AIプロジェクトの開発者は、従来のソフトウェアサプライチェーンの問題だけでなく、新しいAI固有のセキュリティ脅威にも対処しなければならない。
しかし、セキュリティ上の問題と実際にどのように解決されるのかについては、ほとんど分かっていない。
このギャップは、AIサプライチェーンの各コンポーネントに対する効果的なセキュリティ対策の開発を妨げる。
私たちは、Hugging FaceとGitHubの議論に基づいて、開発者によって報告された問題とソリューションを経験的に調査することで、このギャップを埋めています。
セキュリティに関する議論を識別するために,キーワードマッチングと最適な微調整 distilBERT 分類器を組み合わせるパイプラインを開発した。
このパイプラインは312,868のセキュリティ議論のデータセットを生成し、AIアプリケーションやプロジェクトのセキュリティレポートプラクティスに関する洞察を提供する。
我々は,データセットから抽出した753のポストをテーマ解析し,(1)システムとソフトウェア,(2)外部ツールと生態系,(3)モデル,(4)データという4つのテーマにまたがる,32のセキュリティ問題と24のソリューションのきめ細かい分類法を明らかにする。
我々は、AIコンポーネントの複雑な依存関係とブラックボックスの性質から、多くのセキュリティ問題が生じることを明らかにした。
特に、モデルとデータに関連する課題には、具体的な解決策が欠けていることが多い。
私たちの洞察は、開発者や研究者がAIサプライチェーン全体の現実的なセキュリティ脅威に対処するためのエビデンスベースのガイダンスを提供することができます。
関連論文リスト
- AI Safety in the Eyes of the Downstream Developer: A First Look at Concerns, Practices, and Challenges [10.342989453672123]
事前トレーニングされたモデル(PTM)は、AIベースのソフトウェアの基礎となり、最小限のトレーニングオーバーヘッドで、迅速な統合と開発を可能にする。
本研究では,AIベースのソフトウェア開発におけるAI安全性問題に対する開発者の懸念,プラクティス,認識する課題について検討する。
論文 参考訳(メタデータ) (2025-03-25T08:35:30Z) - Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Vulnerabilities of Connectionist AI Applications: Evaluation and Defence [0.0]
この記事では、コネクショナリスト人工知能(AI)アプリケーションのITセキュリティを扱い、完全性への脅威に焦点を当てます。
脅威の包括的リストと軽減の可能性は、最先端の文献をレビューすることによって提示される。
緩和に関する議論は同様に、AIシステム自体のレベルに限定されず、むしろサプライチェーンの文脈でAIシステムを見ることを提唱している。
論文 参考訳(メタデータ) (2020-03-18T12:33:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。