論文の概要: IssueGuard: Real-Time Secret Leak Prevention Tool for GitHub Issue Reports
- arxiv url: http://arxiv.org/abs/2602.08072v1
- Date: Sun, 08 Feb 2026 18:05:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.969727
- Title: IssueGuard: Real-Time Secret Leak Prevention Tool for GitHub Issue Reports
- Title(参考訳): IssueGuard: GitHub Issue Reportsのリアルタイムシークレットリーク防止ツール
- Authors: Md Nafiu Rahman, Sadif Ahmed, Zahin Wahab, Gias Uddin, Rifat Shahriyar,
- Abstract要約: GitHubとGitLabは、大量の非構造化テキストを含むイシュートラッキングシステムが広く使用されている共同プラットフォームである。
問題報告における秘密漏洩のリアルタイム検出・防止ツールであるtextscIssueGuard を提示する。
- 参考スコア(独自算出の注目度): 4.177725820146491
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: GitHub and GitLab are widely used collaborative platforms whose issue-tracking systems contain large volumes of unstructured text, including logs, code snippets, and configuration examples. This creates a significant risk of accidental secret exposure, such as API keys and credentials, yet these platforms provide no mechanism to warn users before submission. We present \textsc{IssueGuard}, a tool for real-time detection and prevention of secret leaks in issue reports. Implemented as a Chrome extension, \textsc{IssueGuard} analyzes text as users type and combines regex-based candidate extraction with a fine-tuned CodeBERT model for contextual classification. This approach effectively separates real secrets from false positives and achieves an F1-score of 92.70\% on a benchmark dataset, outperforming traditional regex-based scanners. \textsc{IssueGuard} integrates directly into the web interface and continuously analyzes the issue editor, presenting clear visual warnings to help users avoid submitting sensitive data. The source code is publicly available at \href{https://github.com/nafiurahman00/IssueGuard}{https://github.com/nafiurahman00/IssueGuard}, and a demonstration video is available at \href{https://youtu.be/kvbWA8rr9cU}{https://youtu.be/kvbWA8rr9cU}.
- Abstract(参考訳): GitHubとGitLabは、ログ、コードスニペット、設定例を含む大量の非構造化テキストを含む、イシュートラッキングシステムが広く使用されているコラボレーティブプラットフォームである。
これは、APIキーや資格情報など、偶然の秘密暴露の重大なリスクを生じさせるが、これらのプラットフォームは、提出前にユーザに警告するメカニズムを提供しない。
本稿では,問題報告中の秘密漏洩をリアルタイムに検出・防止するツールであるtextsc{IssueGuard}について紹介する。
Chromeエクステンションとして実装された \textsc{IssueGuard} は、テキストをユーザタイプとして分析し、regexベースの候補抽出とコンテキスト分類のための微調整されたCodeBERTモデルを組み合わせる。
このアプローチは、実際のシークレットと偽陽性を効果的に分離し、ベンチマークデータセットで92.70\%のF1スコアを達成する。
\textsc{IssueGuard} は Web インターフェースに直接統合され,イシューエディタを継続的に解析する。
ソースコードは \href{https://github.com/nafiurahman00/IssueGuard}{https://github.com/nafiurahman00/IssueGuard} で公開されており、デモビデオは \href{https://youtu.be/kvbWA8rr9cU}{https://youtu.be/kvbWA8rr9cU で公開されている。
関連論文リスト
- The Trojan Knowledge: Bypassing Commercial LLM Guardrails via Harmless Prompt Weaving and Adaptive Tree Search [58.8834056209347]
大規模言語モデル(LLM)は、有害な出力を誘導するために安全ガードレールをバイパスするジェイルブレイク攻撃に弱いままである。
CKA-Agent(Correlated Knowledge Attack Agent)は、ターゲットモデルの知識基盤の適応的木構造探索としてジェイルブレイクを再構成する動的フレームワークである。
論文 参考訳(メタデータ) (2025-12-01T07:05:23Z) - OpenGuardrails: A Configurable, Unified, and Scalable Guardrails Platform for Large Language Models [3.3252656373741547]
OpenGuardrailsは、大規模なモデルベースの安全性検出、操作防御、デプロイ可能なガードレールインフラストラクチャを統合する、最初の完全なオープンソースプラットフォームです。
OpenGuardrailsは,(1)有害なテキスト生成や明示的なテキスト生成などのコンテンツ安全違反,(2)迅速なインジェクション,ジェイルブレイク,コード・インタプリタの乱用を含むモデル操作攻撃,(3)機密情報や個人情報を含むデータ漏洩,という3つの主要なリスクに対して保護されている。
論文 参考訳(メタデータ) (2025-10-22T02:02:27Z) - Bag of Tricks for Subverting Reasoning-based Safety Guardrails [62.139297207938036]
推論に基づくガードレールを覆い隠すジェイルブレイク手法の袋を提示する。
攻撃対象は白、グレー、ブラックボックスの設定で、無駄なテンプレート操作から完全に自動化された最適化までさまざまです。
論文 参考訳(メタデータ) (2025-10-13T16:16:44Z) - Cooperative Pseudo Labeling for Unsupervised Federated Classification [62.9387841396335]
Unsupervised Federated Learning (UFL)は、データを共有したりラベル情報にアクセスしたりすることなく、分散クライアント間でグローバルモデルを協調的にトレーニングすることを目的としている。
我々は、新しい方法、 underlinetextbfFederated underlinetextbfCooperative underlinetextbfPseudo underlinetextbfLabeling (textbfFedCoPL)を提案する。
特に、一般的な画像特徴を含む視覚的プロンプトをサーバに集約し、パーソナライズされた知識をコードするテキストプロンプトをローカルに保持する。
論文 参考訳(メタデータ) (2025-10-11T08:18:26Z) - You Have Been LaTeXpOsEd: A Systematic Analysis of Information Leakage in Preprint Archives Using Large Language Models [1.0268444449457959]
衛生がなければ、投稿者はオープンソースインテリジェンスを使って敵が収穫できる機密情報を開示することができる。
我々は,10万件のarXiv提出資料から1.2TB以上のソースデータを解析し,初版アーカイブの大規模セキュリティ監査を行った。
我々は,研究コミュニティとレポジトリオペレーターに,これらの隠れたセキュリティギャップを埋めるために直ちに行動するよう促す。
論文 参考訳(メタデータ) (2025-10-04T10:03:17Z) - Secret Breach Prevention in Software Issue Reports [4.177725820146491]
機密情報の 偶然の暴露は セキュリティの脅威の増大だ
この研究は、大規模な分析とGitHub問題における公開シークレットの実用的な検出パイプラインによるギャップを埋めるものだ。
GitHubの公開イシューから54,148のインスタンスのベンチマークを構築しました。
論文 参考訳(メタデータ) (2024-10-31T06:14:17Z) - EmInspector: Combating Backdoor Attacks in Federated Self-Supervised Learning Through Embedding Inspection [53.25863925815954]
フェデレートされた自己教師付き学習(FSSL)は、クライアントの膨大な量の未ラベルデータの利用を可能にする、有望なパラダイムとして登場した。
FSSLはアドバンテージを提供するが、バックドア攻撃に対する感受性は調査されていない。
ローカルモデルの埋め込み空間を検査し,悪意のあるクライアントを検知する埋め込み検査器(EmInspector)を提案する。
論文 参考訳(メタデータ) (2024-05-21T06:14:49Z) - TextGuard: Provable Defense against Backdoor Attacks on Text
Classification [83.94014844485291]
テキスト分類に対するバックドア攻撃に対する最初の証明可能な防御であるTextGuardを提案する。
特にTextGuardは、(バックドアされた)トレーニングデータをサブトレーニングセットに分割し、各トレーニング文をサブ文に分割する。
本評価では,3つのベンチマークテキスト分類タスクにおけるTextGuardの有効性を示す。
論文 参考訳(メタデータ) (2023-11-19T04:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。