論文の概要: Can You Trust Your Copilot? A Privacy Scorecard for AI Coding Assistants
- arxiv url: http://arxiv.org/abs/2509.20388v1
- Date: Mon, 22 Sep 2025 21:45:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.493857
- Title: Can You Trust Your Copilot? A Privacy Scorecard for AI Coding Assistants
- Title(参考訳): コピーパイロットを信用できる? AIコーディングアシスタントのためのプライバシースコアカード
- Authors: Amir AL-Maamari,
- Abstract要約: 本稿では、専門家が検証した新しいプライバシースコアカードを紹介し、適用する。
この方法論は、法的方針から外部監査までの4種類の文書の詳細な分析を含む。
その結果、プライバシー保護の異なる階層が明らかとなり、上位と下位のツールの間に20ポイントのギャップがある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid integration of AI-powered coding assistants into developer workflows has raised significant privacy and trust concerns. As developers entrust proprietary code to services like OpenAI's GPT, Google's Gemini, and GitHub Copilot, the unclear data handling practices of these tools create security and compliance risks. This paper addresses this challenge by introducing and applying a novel, expert-validated privacy scorecard. The methodology involves a detailed analysis of four document types; from legal policies to external audits; to score five leading assistants against 14 weighted criteria. A legal expert and a data protection officer refined these criteria and their weighting. The results reveal a distinct hierarchy of privacy protections, with a 20-point gap between the highest- and lowest-ranked tools. The analysis uncovers common industry weaknesses, including the pervasive use of opt-out consent for model training and a near-universal failure to filter secrets from user prompts proactively. The resulting scorecard provides actionable guidance for developers and organizations, enabling evidence-based tool selection. This work establishes a new benchmark for transparency and advocates for a shift towards more user-centric privacy standards in the AI industry.
- Abstract(参考訳): AIを利用したコーディングアシスタントの開発者ワークフローへの迅速な統合により、プライバシと信頼に関する懸念が高まっている。
開発者がOpenAIのGPT、GoogleのGemini、GitHub Copilotといったサービスにプロプライエタリなコードを委譲すると、これらのツールの不明瞭なデータ処理プラクティスは、セキュリティとコンプライアンスのリスクを生み出します。
本稿では,この課題に対して,専門家公認の新たなプライバシスコアカードを導入し,適用することによって対処する。
この方法論では、法的方針から外部監査まで、14の重み付き基準に対して5人の指導的アシスタントをスコアする4つの文書タイプを詳細に分析する。
法律の専門家とデータ保護官は、これらの基準と重み付けを洗練させた。
その結果、プライバシー保護の異なる階層が明らかとなり、上位と下位のツールの間に20ポイントのギャップがある。
この分析は、モデルトレーニングにオプトアウト同意が広く使われることや、ユーザーのプロンプトから秘密をフィルターするほぼユニバーサルな失敗など、一般的な業界の弱点を明らかにしている。
その結果得られたスコアカードは、開発者や組織に対して実行可能なガイダンスを提供し、エビデンスベースのツール選択を可能にする。
この研究は透明性のための新たなベンチマークを確立し、AI業界におけるよりユーザ中心のプライバシ標準へのシフトを提唱する。
関連論文リスト
- GitHub's Copilot Code Review: Can AI Spot Security Flaws Before You Commit? [0.0]
この研究は、セキュリティ脆弱性の検出においてGitHub Copilotが最近導入したコードレビュー機能の有効性を評価する。
期待に反して、私たちの結果は、Copilotのコードレビューが重大な脆弱性を検出するのに頻繁に失敗することを示している。
私たちの結果は、堅牢なソフトウェアセキュリティを保証するために、専用のセキュリティツールと手作業によるコード監査が引き続き必要であることを示している。
論文 参考訳(メタデータ) (2025-09-17T02:56:21Z) - CoCoNUTS: Concentrating on Content while Neglecting Uninformative Textual Styles for AI-Generated Peer Review Detection [60.52240468810558]
我々は、AI生成ピアレビューの詳細なデータセットの上に構築されたコンテンツ指向ベンチマークであるCoCoNUTSを紹介する。
また、マルチタスク学習フレームワークを介してAIレビュー検出を行うCoCoDetを開発し、レビューコンテンツにおけるAIのより正確で堅牢な検出を実現する。
論文 参考訳(メタデータ) (2025-08-28T06:03:11Z) - GOD model: Privacy Preserved AI School for Personal Assistant [3.3015224434662396]
私たちは、デバイス上でAIアシスタントをトレーニングし評価するためのセキュアでプライバシー保護のフレームワークであるGuardian of Data(GOD)を紹介します。
GODは、ユーザデータと自律性を保護しながら贈り物を推奨するなど、アシスタントがユーザニーズをいかに予測できるかを測定します。
論文 参考訳(メタデータ) (2025-02-24T20:30:17Z) - Enhancing Security of AI-Based Code Synthesis with GitHub Copilot via Cheap and Efficient Prompt-Engineering [1.7702475609045947]
開発者や企業がその潜在能力を最大限に活用することを避けている理由の1つは、生成されたコードに対する疑わしいセキュリティである。
本稿ではまず,現状を概観し,今後の課題について述べる。
我々は、GitHub CopilotのようなAIベースのコードジェネレータのコードセキュリティを改善するために、プロンプト変換手法に基づく体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-19T12:13:33Z) - Finding Privacy-relevant Source Code [0.0]
本稿では、個人情報の処理に直接関与するコードの特定の方法であるプライバシー関連手法について紹介する。
次に、ソースコード内のこれらのプライバシ関連メソッドを特定し分類することで、コードレビューを支援する自動アプローチを提案する。
評価の結果,100個のオープンソースアプリケーションについて検討した結果,個人データ処理のプライバシ関連性は5%未満であることが判明した。
論文 参考訳(メタデータ) (2024-01-14T15:38:29Z) - DecodingTrust: A Comprehensive Assessment of Trustworthiness in GPT
Models [92.6951708781736]
本稿では,GPT-4とGPT-3.5に着目した大規模言語モデルの総合的信頼性評価を提案する。
GPTモデルは、有害で偏りのある出力を生成し、個人情報を漏らすために、容易に誤解され得る。
我々の研究は、GPTモデルの総合的な信頼性評価を示し、信頼性のギャップに光を当てている。
論文 参考訳(メタデータ) (2023-06-20T17:24:23Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。