論文の概要: I still know it's you! On Challenges in Anonymizing Source Code
- arxiv url: http://arxiv.org/abs/2208.12553v1
- Date: Fri, 26 Aug 2022 10:07:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-29 13:40:44.977972
- Title: I still know it's you! On Challenges in Anonymizing Source Code
- Title(参考訳): まだあなただとわかってる!
ソースコードの匿名化の課題
- Authors: Micha Horlboge, Erwin Quiring, Roland Meyer, Konrad Rieck
- Abstract要約: 属性は、反検閲およびプライバシー強化技術の開発者にとって重大な脅威となる。
この脅威から理想的な保護は、ソースコードの匿名化である。
我々は、$k$の著者の1つに帰属できないプログラムを生成するタスクは計算不可能であることを証明した。
攻撃者が匿名化に気付くと、いずれの手法も十分な保護を提供しないことがわかった。
- 参考スコア(独自算出の注目度): 11.175586147749131
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The source code of a program not only defines its semantics but also contains
subtle clues that can identify its author. Several studies have shown that
these clues can be automatically extracted using machine learning and allow for
determining a program's author among hundreds of programmers. This attribution
poses a significant threat to developers of anti-censorship and
privacy-enhancing technologies, as they become identifiable and may be
prosecuted. An ideal protection from this threat would be the anonymization of
source code. However, neither theoretical nor practical principles of such an
anonymization have been explored so far.
In this paper, we tackle this problem and develop a framework for reasoning
about code anonymization. We prove that the task of generating a $k$-anonymous
program -- a program that cannot be attributed to one of $k$ authors -- is not
computable and thus a dead end for research. As a remedy, we introduce a
relaxed concept called $k$-uncertainty, which enables us to measure the
protection of developers. Based on this concept, we empirically study candidate
techniques for anonymization, such as code normalization, coding style
imitation, and code obfuscation. We find that none of the techniques provides
sufficient protection when the attacker is aware of the anonymization. While we
introduce an approach for removing remaining clues from the code, the main
result of our work is negative: Anonymization of source code is a hard and open
problem.
- Abstract(参考訳): プログラムのソースコードはその意味論を定義するだけでなく、著者を識別できる微妙な手がかりも含んでいる。
いくつかの研究によると、これらのヒントは機械学習を使って自動的に抽出され、数百人のプログラマの間でプログラムの作者を決定することができる。
この帰属は、検閲やプライバシー強化技術が特定可能になり、起訴される可能性があるため、開発者にとって大きな脅威となる。
この脅威から理想的な保護は、ソースコードの匿名化である。
しかし、このような匿名化の理論的・実践的な原則はこれまでにも検討されていない。
本稿では,この問題に取り組み,コードの匿名化を推論するためのフレームワークを開発する。
私たちは、$k$の匿名のプログラムを生成するというタスクは、$k$の著者の1つに起因しないプログラムであり、計算不可能であり、したがって研究の行き詰まりであると証明する。
対策として、開発者の保護を測定するために、$k$-uncertaintyという緩和された概念を紹介します。
この概念に基づいて,コード正規化やコーディングスタイルの模倣,コードの難読化など,匿名化の候補手法を実証的に研究する。
攻撃者が匿名化に気付くと、いずれの手法も十分な保護を提供しないことがわかった。
コードから残りの手がかりを取り除くためのアプローチを導入する一方で、私たちの仕事の主な結果は否定的です。
関連論文リスト
- Poisoned Forgery Face: Towards Backdoor Attacks on Face Forgery
Detection [62.595450266262645]
本稿では,バックドア攻撃による顔偽造検出の新たな脅威について紹介する。
バックドアをモデルに埋め込むことで、攻撃者は検知器を騙して偽造された顔の誤予測を発生させることができる。
我々は,顔偽造検知器に対するクリーンラベルバックドア攻撃を可能にするemphPoisoned Forgery Faceフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T06:31:05Z) - JAMDEC: Unsupervised Authorship Obfuscation using Constrained Decoding
over Small Language Models [53.83273575102087]
著者の難読化に対する教師なし推論時間アプローチを提案する。
本稿では,著者難読化のためのユーザ制御推論時間アルゴリズムであるJAMDECを紹介する。
提案手法は,GPT2-XL などの小型言語モデルに基づいて,オリジナルコンテンツをプロプライエタリな LLM の API に公開するのを防ぐ。
論文 参考訳(メタデータ) (2024-02-13T19:54:29Z) - UID as a Guiding Metric for Automated Authorship Obfuscation [0.0]
自動著者トリビュータは、著者のプールにテキストの著者を非常に正確に帰属させることができる。
これらの自動消火器の台頭に対応するため、自動消火器の台頭も行われている。
そこで我々は,一様情報密度(UID)理論として知られる心理学言語理論を利用した3つの新しい著者難読化手法を考案した。
論文 参考訳(メタデータ) (2023-11-05T22:16:37Z) - Backdooring Neural Code Search [20.88291603306741]
敵はニューラルコードサーチモデルでバックドアを注入することができる。
本稿では、このような攻撃が実現可能であり、非常にステルス性が高いことを実証する。
我々の攻撃BADCODEは、攻撃をより効果的かつステルス的に、特別なトリガー生成および注入手順を特徴としている。
論文 参考訳(メタデータ) (2023-05-27T16:00:50Z) - SHIELD: Thwarting Code Authorship Attribution [11.311401613087742]
著者の帰属はますます正確になり、匿名を希望するプログラマには深刻なプライバシー上のリスクが生じる。
対戦型コード例に対する異なるコードオーサシップ属性アプローチの堅牢性を検討するためにShiELDを導入する。
論文 参考訳(メタデータ) (2023-04-26T02:55:28Z) - Backdoor for Debias: Mitigating Model Bias with Backdoor Attack-based
Artificial Bias [97.78479322548215]
バックドア攻撃は,標準訓練で得られたモデルバイアスに類似した人工バイアスを構築できることがわかった。
本稿では,知識蒸留に基づくバックドア脱バイアスフレームワークを提案し,モデルバイアスを元のデータから効果的に低減する。
この作業はバックドア攻撃の理解を深め、有益なアプリケーションの可能性を強調します。
論文 参考訳(メタデータ) (2023-03-01T12:31:07Z) - Backdoor Cleansing with Unlabeled Data [70.29989887008209]
外部訓練されたディープニューラルネットワーク(DNN)は、バックドア攻撃を受ける可能性がある。
トレーニングラベルを必要としない新しい防衛手法を提案する。
ラベルなしで訓練された本手法は,ラベルを用いて訓練した最先端の防御手法と同等である。
論文 参考訳(メタデータ) (2022-11-22T06:29:30Z) - An anomaly detection approach for backdoored neural networks: face
recognition as a case study [77.92020418343022]
本稿では,異常検出の原理に基づく新しいバックドアネットワーク検出手法を提案する。
バックドアネットワークの新たなデータセット上で本手法を検証し,完全スコアで検出可能性について報告する。
論文 参考訳(メタデータ) (2022-08-22T12:14:13Z) - Initiative Defense against Facial Manipulation [82.96864888025797]
本稿では,悪意あるユーザによって制御される顔操作モデルの性能を低下させるための,イニシアティブ・ディフェンスの新しい枠組みを提案する。
まず、サロゲートモデルを用いてターゲット操作モデルを模倣し、次に毒の摂動発生器を考案し、所望の毒を得る。
論文 参考訳(メタデータ) (2021-12-19T09:42:28Z) - Protecting Anonymous Speech: A Generative Adversarial Network
Methodology for Removing Stylistic Indicators in Text [2.9005223064604078]
我々は,生成的敵ネットワークの構築によるオーサリングの匿名化への新たなアプローチを開発する。
完全自動方式は,コンテンツ保存や流布の点で他の手法と同等の結果が得られる。
我々のアプローチは、オープンセットの文脈に順応し、これまで遭遇したことのない著者の文章を匿名化することができる。
論文 参考訳(メタデータ) (2021-10-18T17:45:56Z) - A Girl Has A Name: Detecting Authorship Obfuscation [12.461503242570643]
著者の属性は、テクストの分析に基づいてテキストの著者を特定することを目的としている。
著者の難読化は、テキストのスタイルを変更することによって著者の帰属を防ぐことを目的としている。
我々は、敵の脅威モデルの下で、最先端のオーサシップ難読化手法のステルス性を評価する。
論文 参考訳(メタデータ) (2020-05-02T04:52:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。