論文の概要、ライセンス

# (参考訳) プラルーシブル・デニラビリティによる機械学習の監督 [全文訳有]

Supervised Machine Learning with Plausible Deniability ( http://arxiv.org/abs/2106.04267v1 )

ライセンス: CC BY 4.0
Stefan Rass, Sandra K\"onig, Jasmin Wachter, Manuel Egger, Manuel Hobisch(参考訳) 機械学習(ML)モデルがトレーニングデータに対してどの程度のプライバシを提供するか,あるいは同等に,与えられたMLモデルからトレーニングデータをリバースエンジニアリングすることが可能か,という問題について検討する。 MLモデルが$f$を与えられると、純粋にランダムなトレーニングデータのセットを取ることができ、そこから、ちょうど$f$のMLモデルを生成するのに適した'`ラーニングルール'を定義します。 したがって、$f$のトレーニングにどのデータが使われたかについての推測は、他のデータが同じ結果に繋がる可能性があるという主張に従わない。 我々は,実例による理論的発見と,選択した降雨データに対する学習ルールの発見方法のオープンソース実装の相関付けを行う。

We study the question of how well machine learning (ML) models trained on a certain data set provide privacy for the training data, or equivalently, whether it is possible to reverse-engineer the training data from a given ML model. While this is easy to answer negatively in the most general case, it is interesting to note that the protection extends over non-recoverability towards plausible deniability: Given an ML model $f$, we show that one can take a set of purely random training data, and from this define a suitable ``learning rule'' that will produce a ML model that is exactly $f$. Thus, any speculation about which data has been used to train $f$ is deniable upon the claim that any other data could have led to the same results. We corroborate our theoretical finding with practical examples, and open source implementations of how to find the learning rules for a chosen set of raining data.
公開日: Tue, 8 Jun 2021 11:54:51 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 n u J 1 2 0 2 n u J 0.85
8 ] G L . 8 ] G L。 0.81
s c [ 1 v 7 6 2 4 0 sc [ 1 v 7 6 2 4 0 0.68
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
Supervised Machine Learning with Plausible prausibleによる教師付き機械学習 0.69
Deniability Stefan Rass∗† 食性 ステファン・ラッス(Stefan Rass)。 0.32
Sandra K¨onig‡ Jasmin Wachter§ サンドラ・クオニギ ジャスミン・ワッテル 0.44
Manuel Egger¶ Manuel Hobischߠ マヌエル・エゲロー マヌエル・ホビシュ 0.43
June 9, 2021 Abstract 2021年6月9日 概要 0.58
We study the question of how well machine learning (ML) models trained on a certain data set provide privacy for the training data, or equivalently, whether it is possible to reverse-engineer the training data from a given ML model. 機械学習(ML)モデルがトレーニングデータに対してどの程度のプライバシを提供するか,あるいは同等に,与えられたMLモデルからトレーニングデータをリバースエンジニアリングすることが可能か,という問題について検討する。 0.86
While this is easy to answer negatively in the most general case, it is interesting to note that the protection extends over non-recoverability towards plausible deniability: Given an ML model f , we show that one can take a set of purely random training data, and from this define a suitable “learning rule” that will produce a ML model that is exactly f . MLモデル f が与えられたら、純粋にランダムなトレーニングデータのセットを取ることができ、ここからは、f であるMLモデルを生成するのに適した「学習規則」を定義することができる。
訳抜け防止モード: これは最も一般的な場合、否定的な答えは容易である。 興味深いことに 保護は、可否認性に対する非回復性を越えて拡張する : MLモデルfが与えられた場合, 純粋にランダムなトレーニングデータの集合を取ることができることを示す。 そこから適切な「学習規則」を定義します f の ML モデルを生成する。
0.80
Thus, any speculation about which data has been used to train f is deniable upon the claim that any other data could have led to the same results. したがって、fの訓練にどのデータが使われたかについての推測は、他のデータが同じ結果に繋がる可能性があるという主張に従わない。 0.66
We corroborate our theoretical finding with practical examples, and open source implementations of how to find the learning rules for a chosen set of raining data. 我々は,実例による理論的発見と,選択した降雨データに対する学習ルールの発見方法のオープンソース実装の相関付けを行う。 0.79
1 Introduction Imagine a situation in which training data has been used to fit a ML model, which Alice gives away to Bob for his own use. 1 はじめに トレーニングデータがMLモデルに適合するために使用されている状況を想像してください。
訳抜け防止モード: 1 はじめに トレーニングデータがmlモデルに適合するために使用された状況を想像してください。 アリスがボブに与えたものです
0.66
Alice’s training data, however, shall remain her own private property, and Bob should be unable to recover this しかし、アリスの訓練データは、自身の私有財産であり、ボブは、これを回復できないべきである。 0.65
∗ Universitaet Klagenfurt, Institut of Artificial Intelligence and Cybersecurity, Univer- ∗ クラーゲンフルト大学, 人工知能・サイバーセキュリティ研究所, ユニバーシティ 0.75
sit¨atsstrasse 65-67, 9020 Klagenfurt, Austria, stefan.rass@aau.at オーストリアの9020 klagenfurt, stefan.rass@aau.at 0.75
Johannes Kepler University, Secure and Correct Systems Lab, Altenberger Straße 69, 4040 Altenberger Straße 69, 4040, Johannes Kepler University, Secure and Correct Systems Lab, Altenberger Straße 69, 4040 0.78
Linz, Austria, stefan.rass@jku.at オーストリア・リンツ, stefan.rass@jku.at 0.67
† ‡ § ¶ ߠ AIT Austrian Institute of Technology, Center for Digital Safety and Security, Giefinggasse † ‡ § ¶ ߠ aitオーストリア工科大学, デジタル安全安全センター, giefinggasse 0.81
4, 1210 Vienna, Austria, sandra.koenig@ait.ac .at ウィーン, オーストリア, sandra.koenig@ait.ac .at 0.70
Universitaet Klagenfurt, Doctoral School for Responsible Safe and Secure Robotic Systems 責任ある安全で安全なロボットシステムのための博士課程 universitaet klagenfurt 0.84
Engineering, Universit¨atsstrasse 65-67, 9020 Klagenfurt, Austria, jawachte@edu.aau.at 土木工学65-67, 9020 klagenfurt, austria, jawachte@edu.aau.at 0.74
Universitaet Klagenfurt, Institut of Artificial Intelligence and Cybersecurity, Univer- クラーゲンフルト大学, 人工知能・サイバーセキュリティ研究所, ユニバーシティ 0.65
sit¨atsstrasse 65-67, 9020 Klagenfurt, Austria, m8egger@edu.aau.at オーストリアのklagenfurt, 9020 klagenfurt, m8egger@edu.aau.at 0.69
Universitaet Klagenfurt, Institut of Artificial Intelligence and Cybersecurity, Univer- クラーゲンフルト大学, 人工知能・サイバーセキュリティ研究所, ユニバーシティ 0.65
sit¨atsstrasse 65-67, 9020 Klagenfurt, Austria, mahobisch@edu.aau.at オーストリアのklagenfurt, 9020 klagenfurt, mahobisch@edu.aau.at 0.77
1 1 0.85
英語(論文から抽出)日本語訳スコア
information from the ML model in his possession. 彼の所有するMLモデルからの情報。 0.65
For example, Alice could be a provider of a critical infrastructure, having trained a digital twin to emulate the behavior of her system, which Bob, as a risk analyst, shall assess on Alice’s behalf. 例えば、Aliceはクリティカルなインフラストラクチャーのプロバイダであり、彼女のシステムの振る舞いをエミュレートするためにデジタルツインを訓練し、Bob氏はリスクアナリストとして、Aliceの代理として評価する。 0.72
To this end, however, Alice must not disclose all the details of her infrastructure, since this is highly sensitive information and Bob, as an external party, may not be sufficiently trustworthy to open up to him. しかし、この目的のためにアリスはインフラの全ての詳細を開示してはならない、なぜならこれは非常に機密性の高い情報であり、ボブは外部の党として、彼に対して十分な信頼を持てないかもしれないからである。
訳抜け防止モード: しかし、このためにアリスはインフラの詳細を公表してはいけない。 これは非常に敏感な情報なので そしてボブは、外部の党員として、彼に会えるほど信頼できないかもしれない。
0.65
Still, Alice needs Bob’s expertise on risk management and risk assessment to help her protect her assets, and therefore needs to involve Bob to some extent. それでもAlice氏は、自身の資産を保護するために、リスク管理とリスクアセスメントに関するBobの専門知識を必要としている。
訳抜け防止モード: それでもAliceにはリスク管理とリスクアセスメントの専門知識が必要だ 彼女の資産を守るために したがって、Bobをある程度巻き込む必要がある。
0.77
We cannot prevent Bob from “guessing”, i.e., Bob can always try to reverseengineer the data that Alice used to create the model. bobは常にaliceがモデル作成に使用したデータをリバースエンジニアリングしようと試みることができる。
訳抜け防止モード: bobが“推測”するのを防げません。 bobは、aliceがモデルを作成するのに使ったデータをリバースエンジニアリングしようとしている。
0.71
This comes to a perhaps high-dimensional, yet conceptually simple, optimization problem, which may indeed be tractable with today’s computing power. これはおそらく高次元だが概念上はシンプルで最適化の問題であり、今日のコンピューティングのパワーで引きつけられるかもしれない。 0.71
Our goal here is the proof of two statements about this possibility: First, if the training data set is “sufficiently large” (where the term “sufficient” will be quantified more precisely), Bob cannot unambiguously recover the training data. まず、トレーニングデータセットが“十分大きい”(“十分”という用語がより正確に定量化される)ならば、bobはあいまいにトレーニングデータを復元できません。
訳抜け防止モード: 私たちの目標は、この可能性に関する2つの声明の証明です。 トレーニングデータセットが“十分大きい”(“十分”という用語がより正確に定量化される)場合、 bobはトレーニングデータをあいまいに復元することはできない。
0.77
Second, and more importantly, Alice can deny any proposal training data that Bob thinks to have recovered, by exposing a set of random data along with a certificate that this random decoy data has been used to train the model (although it was not). 第二に、Alice氏は、Bob氏が回復したと思われる任意のトレーニングデータを否定し、このランダムなデコイデータがモデルのトレーニングに使用された証明書とともにランダムなデータのセットを公開する(ただし、そうではなかった)。 0.70
Alice can do so by adapting her optimization problem accordingly to give a desired result (the ML model that Bob has) from any a priori (randomly chosen) training data set. aliceは最適化問題に適応して、任意の事前(ランダムに選択された)トレーニングデータセットから望ましい結果(bobが持っているmlモデル)を与えることができる。 0.76
Note that Bob, since he can “use” the ML model, has no difficulties to evaluate it on a given dataset to produce data upon which a re-training of the model would reproduce what Bob received from Alice. Bob氏は、MLモデルを“使用”できるため、モデルの再トレーニングがAliceから受け取ったデータを再現するデータを生成するために、特定のデータセットで評価するのは難しいことに注意してください。 0.77
This trivial possibility cannot be eliminated. この簡単な可能性は排除できない。 0.71
Our question, however, is whether Bob cannot just produce “any” dataset, but find Alice’s original dataset that way used to produce the model in his possession. しかしわれわれの質問は、bobが“どんな”データセットも作れないか、そしてaliceが自分の所有するモデルを作るのに使ったオリジナルのデータセットを見つけるかだ。 0.73
In other words, does an ML model leak out private information of Alice? 言い換えれば、MLモデルはAliceの個人情報を漏洩するのだろうか? 0.82
The answer obtained in this work is “no”, by leveraging a degree of freedom in how an artificial intelligence (AI) model is trained: Alice can provide Bob with decoy data that she claims to underly what Bob has as the ML model; however, Alice can plausibly claim the model to have come up as the optimum under some optimization problem that she can craft to her wishes. この研究で得られた答えは“no”であり、人工知能(ai)モデルのトレーニング方法における自由度を活用することで、aliceはbobがmlモデルとして持っていることを下限に主張するデコイデータをbobに提供することができる。
訳抜け防止モード: この研究で得られた答えは「ノー」であり、どのようにして自由の度合いを利用する。 人工知能(AI)モデルが訓練されています Alice can provide Bob with deoy data that 彼女はボブがMLモデルとして持っているものを軽視している。 しかし、Alice氏は、このモデルを最適化問題の下で最適なモデルとして思いついたと主張することができる。
0.79
The key observation reported in this paper is the fact that we can “utilize” non-explainability for the purpose of privacy of data embodied in an ML model. 本稿では、MLモデルに具現化されたデータのプライバシのために、説明不能を"活用"できるという事実について述べる。 0.60
More specifically, we will show how to define an error metric that makes the learning algorithm converge to any target output that we like. より具体的には、学習アルゴリズムを私たちが好む任意の目標出力に収束させるエラーメトリックを定義する方法を示す。 0.84
We state this intuition more rigorously in Section 4, after some necessary preliminary considerations. この直観は、必要な予備的考察の後、第4節でより厳格に述べます。 0.53
In a way, such a designed error metric acts similar to a “secret key” in encryption, only that it accomplishes plausible deniability in our context. ある意味で、このような設計されたエラーメトリクスは、暗号化における“秘密鍵”と同じような働きをする。 0.63
A numerical proof-of-concept is given in Section 5. 第5節で数値的な概念実証を行う。 0.69
Section 6 embeds ours in the landscape of related work and links the results with issues of the General Data Protection Regulation (GDPR). 第6節では、関連する作業の現場に私たちのデータを埋め込んで、その結果をGDPR(General Data Protection Regulation)の問題と関連付けています。 0.62
Section 7 is devoted to further uses, limitations, ethical considerations and possible extensions (further expanded in the Appendix). 第7節は、さらなる使用、制限、倫理的考慮、および拡張(さらにAppendixに拡張された)に特化している。 0.67
2 2 0.85
英語(論文から抽出)日本語訳スコア
1.1 Problem Setting Throughout this work, scalars will appear in regular font, while bold printing will indicate vectors (lower case letters) or matrices (uppercase letters); for example, the symbols A ∈ Rn×m means an (n × m)-matrix over R. Uppercase letters in normal font will denote sets, vector spaces, and random variables. 1.1 問題設定 例えば、記号 a ∈ rn×m は r 上の (n × m)-行列を意味する。 通常のフォントにおける大文字は集合、ベクトル空間、確率変数を表す。
訳抜け防止モード: 1.1 問題設定 この作業を通じて、スカラーは通常のフォントで表示される。 大胆な印刷はベクトル(小文字)または行列(大文字)を示す。 例えば、記号 a ∈ rn×m は r 上の (n × m)-行列を意味する。
0.65
Probability distributions appear as calligraphic letters, like F. The symbol X ∼ F indicates the random variable X to have the distribution F. Let the ML model training be the problem to find a best function f to approximate a given set of n points, called training data (xi, yi) ∈ Rm × R by “minimizing” the error vector e = (y1− f (x1), y2− f (x2), . mlモデルのトレーニングは、与えられたn点のセットを近似する最良の関数 f を見つけるための問題であり、トレーニングデータ (xi, yi) ∈ rm × r は誤りベクトル e = (y1− f (x1), y2− f (x2) を最小化する。
訳抜け防止モード: 確率分布は F のように書字文字として現れる; 記号 X, F は分布 X を持つ確率変数 X を表す; MLモデルのトレーニングを与えられた n 個の点の集合を近似する最良の関数 f を見つける問題とする。 トレーニングデータ (xi, yi ) ∈ Rm × R は、誤差ベクトル e = ( y1− f ( x1 ) を “最小化” することによって呼ばれる。 y2− f ( x2 ) , 。
0.85
. . , yn− f (xn)) ∈ Rn. . . , yn− f (xn)) ∈ Rn。 0.86
The resulting goodness of fit is later assessed by evaluating f on a (distinct) set of validation data, often providing some error measure to quantify the approximation quality1. 結果の適合性の良さは、後に(特定の)検証データの集合上でfを評価することで評価され、しばしば近似品質1を定量化するエラー測度を提供する。 0.71
The best function f is usually found by fixing its algebraic form, and tuning some parameters therein by sophisticated optimization methods. 最良の函数 f は、代数形式を固定し、洗練された最適化法によっていくつかのパラメータをチューニングすることによって得られる。
訳抜け防止モード: 最良の函数 f は通常代数形式を固定することで得られる。 複雑な最適化手法でパラメータをチューニングします。
0.80
Let us postpone the formal optimization problem until Section 4, to first state the problem: assume that we are given a trained (fitted) model f , but not the training data. まず、トレーニングデータではなく、トレーニングされた(適合した)モデルfが与えられることを仮定します。
訳抜け防止モード: フォーマルな最適化問題を第4節まで延期し、まず問題を述べる。 トレーニングデータではなく、訓練された(適合した)モデルfが与えられると仮定します。
0.73
Is there a way to reverse-engineer the training data from f alone? fだけでトレーニングデータをリバースエンジニアリングする方法はありますか? 0.75
For example, if we are given access and insight to a trained neural network (NN), can we use the weights that we see therein to learn something about the data that the NN has been trained with? 例えば、トレーニングされたニューラルネットワーク(NN)へのアクセスと洞察を与えられた場合、NNがトレーニングしたデータについて何か学ぶために、その重みを使用できますか? 0.76
An obvious answer is “yes”, if we have the training samples at least partly, since it is straightforward to evaluate f on given values xi to recover at least an approximate version of the target value yi, if it is the only unknown quantity. は、与えられた値 xi 上で f を評価して目標値 yi の少なくとも近似値 yi の少なくともバージョンを復元するのは簡単なので、少なくとも一部はトレーニングサンプルがあるなら「イエス」と答える。
訳抜け防止モード: 少なくとも部分的にトレーニングサンプルがあれば、明らかな答えは“Yes ”です。 与えられた値 xi 上で f を評価するのは簡単ですから 目標値yiの少なくとも1つの近似バージョンを回収する 唯一 未知の量なら。
0.80
To avoid such triviality, let us assume that the training data is not available but that we have white-box access to the machine learning model f . このような自明さを避けるために、トレーニングデータが利用できないが、機械学習モデルfへのホワイトボックスアクセスがあると仮定する。 0.79
This means that we can look into how f is constructed (i.e., see the weights if it is a NN, regression model, etc. これは f がどのように構築されているか(例えば NN や回帰モデルなど)を調べることができることを意味する。 0.75
), but have no clue about the data or any parts of it, on which the model has been trained. ですが、モデルがトレーニングされているデータや、その部分については何の手がかりもありません。 0.62
This is what we are after, and wish to reverse-engineer. これが私たちが追っているもので、リバースエンジニアリングを望んでいます。 0.52
The case of partial knowledge of the attacker is revisited and discussed in Section 7. 攻撃者の部分的知識の事例は第7節で再検討され議論される。 0.69
1.2 Some (selected) Applications 1.2 いくつかの(選択された)アプリケーション 0.51
Making Community Knowledge Securely Available: Suppose that we want to release data not directly, but “functionally useable” by fitting an ML model so that everyone can produce artificial data from f , but we do not hereby disclose the original data that f was trained from. コミュニティの知識を安全に利用できるようにする: mlモデルを適合させて、誰もがfから人工データを作成できるように、直接ではなく“機能的に使える”データをリリースしたいと仮定する。 0.69
This is to retain intellectual property, while still making the knowledge publicly available. これは、知識を公にしながら、知的財産を維持するためである。 0.69
Co-Simulation: simulations are in many cases domain-specific, e g , water networks are described using different (physical) mechanisms as traffic or energy networks. 共シミュレーション(co-Simulation): シミュレーションはドメイン固有の場合が多く、例えば、水網はトラフィックやエネルギーネットワークとして異なる(物理的)メカニズムを用いて記述される。
訳抜け防止モード: co - シミュレーション : 多くの場合、シミュレーションはドメイン特化、 例えば 水のネットワークは トラフィックやエネルギーネットワークとして異なる(物理的)メカニズムを使用する。
0.78
Combining these in a co-simulation framework, such as brought up in [14], raises compatibility issues between different simulation models. これらを[14]で持ち上げたような共シミュレーションフレームワークに組み合わせると、異なるシミュレーションモデル間の互換性の問題が発生する。 0.82
Fitting 1We will hereafter have no need for the distinction of training and validation data, since 嵌合 1 今後、トレーニング及び検証データの区別は不要となる。 0.61
our concern is exclusively on the training here. 私達の心配は ここでの訓練だけ 0.62
3 3 0.85
英語(論文から抽出)日本語訳スコア
ML models, say, NNs, to emulate the outputs of different simulations provides a simple compatibility layer for co-simulation. 異なるシミュレーションの出力をエミュレートするMLモデル、例えばNNは、共シミュレーションのための単純な互換性層を提供する。 0.78
Plausible deniability is here good for privacy, say, if the physical structure of the simulated process is sensitive information (e g , a critical infrastructure, uses data related to persons, etc.) 例えば、シミュレートされたプロセスの物理的構造が機密情報である場合(例えば、クリティカルインフラストラクチャーは、人に関連するデータを使用するなど)。
訳抜け防止モード: プライバシーに欠かせない有害性は、ここにあります。 例えば、 シミュレーションプロセスの物理的構造がセンシティブな情報である場合(例えば、) 人などに関連するデータを使用する重要なインフラ
0.76
2 Definitions Our formalization of security distinguishes deniability from plausible deniability, where the latter notion is stronger. 2 定義 セキュリティの形式化は、デニビリティと、後者の考え方がより強いプラプシブルデニビリティを区別します。 0.69
Informally, deniability of a hypothesis about training data can be understood as the possibility that there may be another set of training records that have produced the same result. インフォーマルに、トレーニングデータに関する仮説のデニビリティは、同じ結果を生み出したトレーニングレコードの別のセットが存在する可能性として理解することができる。 0.74
To formalize these notions, we first introduce a generic representation of the machine learning problem. これらの概念を形式化するために,まず,機械学習問題の汎用表現を導入する。 0.67
The following section is not meant as an introduction to the general field, but to settle the context and symbols in terms of which we state the main results of this work. 以下の節は、一般の分野への導入ではなく、この作品の主な結果を示す観点で文脈と記号を解決することを目的としている。 0.62
2.1 Fitting ML Models 2.1フィッティングmlモデル 0.69
We will consider only supervised training in this work. 我々はこの作業で指導された訓練のみを検討する。 0.61
Specifically, we will view an algorithm to train an ML model as a function that returns a parameterized function f (·; p) upon input of the training data set {(x1, y1), . 具体的には、トレーニングデータセット {(x1, y1) の入力時にパラメータ化された関数 f (·; p) を返す関数として、mlモデルをトレーニングするアルゴリズムを見る。 0.78
. . , (xn, yn)}, together with a set Ω of parameters to configure the training (optimizer). . . , (xn, yn)} は、トレーニング(最適化)を設定するためのパラメータのセット ω と一緒に行われる。 0.81
We assume this configuration to be arbitrary, but admit an unambigious string representation, i.e., Ω ⊆ {0, 1}∗. この構成は任意のものであると仮定するが、不明瞭な文字列表現、すなわち Ω は {0, 1}∗ である。 0.71
The variable inputs to f herein take the same structure as the training data. ここで f への変数入力は、トレーニングデータと同じ構造を取る。 0.78
Viewing the training algorithm as a mapping, it is natural to ask for invertibility of it, and deniability then turns out as noninvertibility. トレーニングアルゴリズムを写像と見なすと、その可逆性を要求することは自然であり、それ故に非可逆性を証明した。 0.71
This brings us to the first definition: これは、最初の定義をもたらします。 0.74
Definition 1 (Machine Learning Model and Training Algorithms). 定義1(Machine Learning Model and Training Algorithms)。 0.76
A machine learning model is a set M L of functions f : Rm × Rd → R, mapping an input x ∈ Rm and parameter vector p ∈ Rd into R. A training algorithm for a machine learning model M L is a function fit : Rn×(m+1) × Ω → M L. This function takes a training data matrix T composed from n instances of input/output pairs (xi, yi) ∈ Rm+1 for i = 1, 2, . 機械学習モデルは、関数 f : rm × rd → r のセット m l であり、入力 x ∈ rm とパラメータベクトル p ∈ rd を r にマッピングする。 機械学習モデル ml の訓練アルゴリズムは、関数 rn×(m+1) × ω → m l に適合する。
訳抜け防止モード: 機械学習モデルは関数 f : rm × rd → r の集合 m l である。 入力 x ∈ rm とパラメータベクトル p ∈ rd を r にマッピングする。 rn×(m+1 ) × ω → m l この関数は、入力/出力対 (xi, xi) の n 個のインスタンスからなる訓練データ行列 t を取る。 i = 1, 2, に対して yi ) ∈ rm+1 である。
0.70
. . , n, and auxiliary information ω ∈ Ω, to output a (concrete) element f ∈ M L. . . , n, および補助情報 ω ∈ ω は(共形)元 f ∈ m l を出力する。 0.80
The temporary assumption of f outputting only scalars is here adopted only for simplicity, and later dropped towards ML models with many outputs in Section 4.2 as Corollary 2. fがスカラーのみを出力するという仮の仮定は単純さのためにのみ採用され、後に第4章2節で多くの出力を持つMLモデルへと移行した。 0.57
The set M L can contain functions of various shape, and is not constrained to have all functions of the same algebraic structure, although in most practical cases, the functions will have a homogeneous form. 集合 M L は様々な形状の関数を含むことができ、同じ代数構造のすべての関数を持つよう制約されないが、ほとんどの場合、関数は同次形式を持つ。
訳抜け防止モード: 集合 M L は様々な形の関数を含むことができる。 制約されてはいませんが 同じ代数構造の全ての機能を持つのです ほとんどの場合 関数は均質な形になります
0.89
For example, M L could be (among many more possibilities) 例えば、M L は (さらに多くの可能性を持つ) 。 0.90
• the set of all linear regression models f (x, p) = p(cid:62)x, where the vector p is the coefficients in the linear model. • すべての線型回帰モデル f (x, p) = p(cid:62)x の集合であり、ベクトル p は線型モデルにおける係数である。 0.87
We will use this example in Section 5. この例をセクション5で使用します。 0.75
4 4 0.85
英語(論文から抽出)日本語訳スコア
• the set of (deep) neural networks with a fixed topology and number of layers. • 固定トポロジーとレイヤー数を持つ(深い)ニューラルネットワークの集合。 0.66
The entirety of synaptic weights and node biases then defines the vector p. シナプス重みとノードバイアスの全体性は、ベクトル p を定義する。 0.74
• the set of support vector machines, in which p is the normal vector and • サポートベクトルマシンの集合で、p は正規ベクトルで、 0.63
bias for the classifying (separating) hyperplane, 分類する(分離する)超平面のバイアス 0.66
• and many more. In Definition 1, an implicit consistency between the set of machine learning models M L and the training algorithm is implied by the (obvious) requirement that (i) the training data needs to have the proper form and dimension to be useful with the functions in f , and (ii) that the particular element f is specified by an admissible parameterization p ∈ Rd for the functions in M L, since not all settings for p may be meaningful to substitute in the general function f . •その他多数。 定義1では、機械学習モデル ML の集合とトレーニングアルゴリズムの間の暗黙的な一貫性は、(i) トレーニングデータが f の関数で有用な適切な形式と次元を持つこと、(ii) 特定の要素 f が M L の関数に対して許容パラメータ化 p ∈ Rd によって指定されること、なぜなら p のすべての設定が一般関数 f に代入する意味がないからである。 0.72
The inclusion of the auxiliary information ω in the training models the fact that different models may require different techniques of training, essentially meaning the application of different optimization techniques. 訓練モデルに補助情報ωを組み込むことは、異なるモデルが異なる訓練技術を必要とする可能性があるという事実であり、本質的には異なる最適化技術の適用を意味する。 0.69
In particular, ω will in practical cases (among others) include a specification of the error metric to be used with the training, which is the goal function to optimize. 特に、ωは実例(その他)において、トレーニングで使用するエラーメトリックの仕様を含んでおり、これは最適化する目標関数である。 0.76
The core of a training algorithm is a “learning rule”, being a prescription of how to update the ML model parameterization (iteratively). トレーニングアルゴリズムの中核は“学習規則”であり、MLモデルのパラメータ化(皮肉なことに)の更新方法の処方則である。 0.85
We will hereafter simplify matters by abstracting from the detailed optimization technique, and confining ourselves to look only at the error metric to be used with the optimization, and going into the training as part of the training algorithm configuration ω. ここでは、詳細な最適化手法を抽象化し、最適化に使用するエラーメトリックのみを参照し、トレーニングアルゴリズム設定 ω の一部としてトレーニングに参加することで、問題を単純化する。 0.75
2.2 Supervised Training by Optimization 2.2 最適化による指導 0.69
Generally, we will let the error metric measure the approximation error in a supervised learning strategy. 一般に,教師付き学習戦略における近似誤差を誤差尺度で測定する。
訳抜け防止モード: 一般的に私たちは 誤差メトリックは教師付き学習戦略における近似誤差を測定する。
0.81
This learning is based on a set of n samples (x1, y1), . この学習は n 個のサンプル (x1, y1) に基づいている。 0.81
. . , (xn, yn) ∈ Rm × R. In general, the machine learning problem then takes the generic form of a minimization problem . . xn, yn) ∈ rm × r 一般に、機械学習問題は最小化問題のジェネリック形式を取る。
訳抜け防止モード: . . ,(xn, yn ) ∈ Rm × R. 一般には、 機械学習の問題は最小化問題の一般的な形を取る
0.85
min(cid:107)((xi, yi) − f (xi, p))n min(cid:107)((xi, yi) − f (xi, p))n 0.94
i=1(cid:107) over p ∈ P, p ∈ P 上の i=1(cid:107) 0.79
(1) where the set P ⊆ Rd optionally constrains parameters to feasible ranges and combinations. 1) 集合 p , rd が任意にパラメータを許容範囲と組合せに制約する場合。 0.72
We let p∗ denote an (arbitrary) optimum to this problem, which then pins down a specific f∗ ∈ M L. In (1), (cid:107)·(cid:107) is a topological norm, specified via the auxiliary information ω. p∗ をこの問題に対する(任意な)最適条件とし、次に特定の f∗ ∈ M L をピン留めする。(1), (cid:107)·(cid:107) は位相ノルムであり、補助情報 ω で指定される。 0.73
Since all norms on Rn are equivalent (Theorem 4), choosing a different norm/error metric only amounts to a scaling of the (absolute) error bound. rn 上のすべてのノルムは同値であるため(理論4)、異なるノルム/エラーメトリックを選択することは、(絶対的な)誤差境界のスケーリングに等しい。 0.67
Popular error metrics like root mean squared error (RMSE), mean absolute error (MAE), etc., are all expressible by norms (see Appendix A for details omitted here), so that their use here in place of RMSE, MAE, or others, goes without loss of much generality. ルート平均二乗誤差(RMSE)や平均絶対誤差(MAE)といった一般的なエラーメトリクスは、すべて標準で表現可能である(詳細はここで省略されているAppendix Aを参照)。
訳抜け防止モード: ルート平均二乗誤差(rmse)、平均絶対誤差(mae)など、一般的なエラーメトリクス。 すべてノルムで表現できる(詳細はここで省略した appendix a を参照)。 rmseやmaeなどの代替品として使われることは、一般性を失うことなく実現します。
0.72
Appendix A defines norms, induced metrics and pseudometrics rigorously, for convenience of the reader. Appendix Aは、読み手の利便性のためにノルム、誘導メトリクス、疑似メトリクスを厳格に定義する。 0.54
5 5 0.85
英語(論文から抽出)日本語訳スコア
2.3 Deniability and Plausible Deniability 2.3 消耗性及び消耗性 0.55
Returning to our view of ML training as a mere function that, under a given configuration ω maps training data to a concrete function f ∈ M L, we can consider invertibility of this process as the problem of reverse-engineering the training data from a given model f . 与えられた構成 ω が具体的な関数 f ∈ M L にトレーニングデータをマッピングする単なる関数としてMLトレーニングの視点に戻ると、このプロセスの可逆性を与えられたモデル f からトレーニングデータをリバースエンジニアリングする問題と考えることができる。 0.85
If this is not possible, in the sense of (normal) function inversion, then the recovery of training data from f will fail. これが不可能な場合、(通常の)関数の反転という意味では、f からのトレーニングデータの回復は失敗する。 0.72
Since invertibility is equivalent of simultaneous injectivity and surjectivity of the training function, the recovery can fail in two cases: 可逆性は訓練関数の同時単射性と全射と等価であるため、回復は2つのケースで失敗する可能性がある。 0.60
1. the given f ∈ M L simply does not correspond to any possible training data under any (or a given) configuration ω. 1. 与えられた f ∈ M L は、任意の(あるいは与えられた)構成 ω の下での任意のトレーニングデータに対応しない。 0.76
In that case, the training algorithm “fit” was not surjective, as a function. その場合、トレーニングアルゴリズムの“フィット”は、関数として主観的ではなかった。 0.78
2. the given f ∈ M L may arise identically from several different sets of training data, in which case the fitting, as a function, was apparently not injective. 2) 与えられた f ∈ m l は、いくつかの異なる訓練データのセットから同一に出現する可能性があり、その場合、関数としての適合は、明らかに単射ではない。 0.57
It is the latter incident that we will use to define deniability, understood as the possibility of alternative training data sets, besides what we have recovered. これは、私たちが回復したものに加えて、代替のトレーニングデータセットの可能性として理解される、デニラビリティを定義するために使用する、後者のインシデントです。
訳抜け防止モード: 私たちが使うのは後者の事件です 回復したデータに加えて、代替のトレーニングデータセットの可能性として理解されている。
0.69
Formally: Definition 2 (Deniability). 正式には、 定義2 (Deniability)。 0.75
Let a (fixed) f0 ∈ M L be given that has been trained from some unknown data set under a configuration ω. 固定された) f0 ∈ M L を、構成 ω の下にある未知のデータセットから訓練されたとする。 0.81
We call a given (proposed) training data set T = {(xi, yi)}n (cid:54)= T exists, upon which the training algorithm fit would have produced the same function f0, possibly under a different configuration ω(cid:48) that can depend on T (cid:48). 与えられた(提案された)トレーニングデータセット T = {(xi, yi)}n (cid:54) = T が存在し、トレーニングアルゴリズムが適合すると、T に依存する異なる構成 ω(cid:48) の下で同じ関数 f0 が生成される。 0.80
i=1 deniable, if another set T (cid:48) i=1 deniable, if another set T (cid:48) 0.86
Intuitively: plausibility holds if there is another quantity of training data that 直感的には、他の量のトレーニングデータがある場合、その妥当性は保たれる。 0.43
would have lead to the same f0. 同じf0に繋がるでしょう 0.38
Obviously, the non-invertibility of the training as a mapping implies deniability, but the converse is not true, since if the training function/algorithm is not surjective, no alternative training data T (cid:48) would exist. 明らかに、マッピングとしてのトレーニングの非可逆性は非可逆性を意味するが、トレーニング関数/アルゴリズムが従属的でない場合、代替トレーニングデータT(cid:48)は存在しないため、逆は真ではない。 0.61
To keep the data recovery problem interesting, however, let us in the following assume that the model has really been trained from existing yet unknown information, so that the parameterization is guaranteed to be admissible. しかし、データリカバリ問題を興味深いものにするために、既存の未知の情報からモデルが本当に訓練されていると仮定して、パラメータ化が許容されることを保証します。 0.71
Even if there is an alternate set of training data, one may question its validity on perhaps semantic grounds. 代替のトレーニングデータがあるとしても、おそらく意味的な根拠でその妥当性を疑うことがある。 0.68
For example, if the training data is known to obey certain numeric bounds, or coming from physical processes with a known distribution, we could perhaps judge an alternative proposal as implausible, since it may produce the same ML model, but the underlying data is arguably not meaningful in the application context. 例えば、トレーニングデータが特定の数値境界に従うことが知られている場合や、既知の分布を持つ物理プロセスから来る場合、別の提案が同じMLモデルを生成する可能性があるため、おそらく不確実であると判断できるでしょう。
訳抜け防止モード: 例えば、トレーニングデータが特定の数値境界に従うことが分かっている場合、 あるいは 既知の分布を持つ 物理的プロセスから来る 代替案は あり得ないと判断できる 同じMLモデルを生成することができるが、 基盤となるデータは、アプリケーションコンテキストにおいて有意義ではありません。
0.81
The stronger notion of plausible deniability demands that the alternative training data should also “statistically agree” with the expectations, or more formally: Definition 3 (Plausible Deniability). 妥当なデニラビリティのより強い概念は、代替のトレーニングデータも期待と“統計的に一致する”こと、あるいはもっと形式的に定義3(プルーシブルデニラビリティ)を要求する。 0.77
Let a (fixed) f0 ∈ M L be given that has, under a configuration ω, been trained from some unknown data set. 固定された) f0 ∈ M L を、ある構成 ω の下で、未知のデータセットから訓練されたとする。 0.77
Let, in addition, be a distribution family F be given to describe the context/source of さらに、分布ファミリF を、コンテキスト/ソースを記述するために与える。 0.59
6 6 0.85
英語(論文から抽出)日本語訳スコア
the training data. トレーニングデータだ 0.55
We call a given (proposed) training data set T = {(xi, yi)}n plausibly deniable, if another set T (cid:48) (cid:54)= T exists that has the same statistical distribution F, and upon which the training algorithm would have produced the same function f0, possibly under a different configuration ω(cid:48) that can depend on T (cid:48). 与えられた(提案された)トレーニングデータセット T = {(xi, yi)}n が少なくとも分解可能であるとは、別の集合 T (cid:48) (cid:54) = T が同じ統計分布 F を持ち、トレーニングアルゴリズムが T (cid:48) に依存する異なる構成 ω (cid:48) の下で同じ関数 f0 を生成していたことを言う。 0.84
i=1 Intuitively: plausible deniability holds if it cannot be demonstrated that the i=1 直観的に言うと: 可能性あるデニラビリティは、それが証明できない場合に成立する 0.58
alternative proposal data is purely artificial. 代替提案データは 純粋に人工的だ 0.79
Definition 3 differs from Definition 2 only in the fact that a proposal training data should not look “too much different” from what we would expect about the unknown training data, formalized by imposing a given distribution F. The important point here is the order of quantifiers, demanding that the distribution family F is given a priori, as a specification of what sort of training data can be plausible in the given context. 定義3は、提案されたトレーニングデータが、与えられた分布Fを付与することによって形式化された未知のトレーニングデータと「あまり異なる」ように見せかけるべきではないという事実においてのみ、定義2と異なる。
訳抜け防止モード: 定義3は定義2と異なり、提案されたトレーニングデータが未知のトレーニングデータに対して期待するものと「あまり異なる」ように見えるべきではない。 所定の分布を付与することによって形式化された F. ここで重要な点は量化子の順序であり、分配族Fが優先権を与えるように要求する。 どんなトレーニングデータや 与えられた文脈で証明できます
0.84
It is important to observe here that this does not require the unknown data, upon which the given ML model f0 has been trained, needs to have a distribution from F; this can hold in practical instances, but the denial may indeed be a claim that f0 has been trained from data coming from an entirely different source, not having the distribution F. Let us briefly expand on the intuition by giving an example: ここで重要なのは、これは、与えられたMLモデルf0がトレーニングされた未知のデータを必要としないため、Fから分布を持つ必要があるということだ。
訳抜け防止モード: ここで重要なのは、これは未知のデータを必要としないことだ。 与えられたMLモデルf0がトレーニングされた場合。 F から分布を持つ必要がある。 これは実際に起こりうることです しかし 否定はf0が 全く別の情報源からのデータから 訓練されたという主張かもしれない 分布 F を持っていない 直感を少し拡大して 例を挙げてみましょう
0.82
Example 1. Suppose that in a social network, somebody uses the data from a user to predict upcoming messages concerning a certain topic, or just trains a model to predict a persons overall activity in posting news on the network. 例1。 例えば、ソーシャルネットワークでは、あるトピックに関する今後のメッセージを予測するためにユーザーのデータを使用するか、あるいは単にネットワークにニュースを投稿する際の全体活動を予測するためにモデルをトレーニングする。 0.75
If the model is, for simplicity, about the inter-arrival times of a posting on the media, we can model the event of postings as a Poisson process, having an exponential distribution for the time between two activities with a rate parameter λ > 0. モデルが単純であれば、メディア上のポストの地域間時間に関するものであるなら、ポストの事象をポアソン過程としてモデル化することができ、レートパラメータ λ > 0 を持つ2つのアクティビティ間の時間に対する指数分布を持つ。 0.78
Letting λ vary over (0,∞) yields the family F in Definition 3. λ を (0,∞) で変化させると、定義 3 の族 F が得られる。 0.82
Now, suppose that the provider aggregates some statistics about the community’s activity (say, for advertising purposes), and releases the concrete distribution of inter-arrival times between postings to the public (e g , underpinning the empirical findings by releasing artificial data coming out of a Generative Adversarial Networks (GAN) for others to confirm the data science independently). 次に、このプロバイダがコミュニティの活動に関する統計(広告目的など)を集計し、投稿から一般への投稿までの地域間時間の具体的な分布(例えば、GAN(Generative Adversarial Networks)から得られる人工データを公開して、データサイエンスを独立して確認することで、経験的な発見を支えている)を公表する。 0.79
This would come to the publication of a specific distribution Fλ ∈ F from the aforementioned family of distributions. このことは、上記の分布の族から特定の分布 Fλ ∈ F を公開することに繋がる。 0.80
Now, to have a need for deniability, one may suspect the provider to have profiled a particular network user X, and suppose that the activity prediction model f0 is about user X specifically. さて、否認性が必要となるためには、プロバイダが特定のネットワークユーザxをプロファイルし、アクティビティ予測モデルf0がユーザxに関するものであると仮定する必要がある。 0.79
This would be yet another member FλX ∈ F. これはさらに別のメンバー FλX ∈ F となる。 0.78
The point behind plausible deniability is that the provider, facing accusal of having released an activity model f0 for user X, can deny this upon admitting that the model was trained from social network data, but not specifically the data of user X, having had the distribution FλX , but rather from the data for the entire community, having the (different) distribution Fλ. ユーザXのアクティビティモデルf0がリリースされたという批判に直面しているプロバイダは、このモデルがソーシャルネットワークのデータからトレーニングされたのではなく、FλXの分布を持つユーザXのデータではなく、(異なる)分散Fλを持つコミュニティ全体のデータであることを認めて、これを否定することができる。 0.78
The fact that the underlying data is admitted to have an exponential distribution is for plausibility, while the claim that it was not user X’s data is the denial. 根底にあるデータが指数関数的な分布を持つことを認めているという事実は、それがユーザXのデータではなかったという主張は否定的だ。 0.77
While Example 1 used the same distribution shape as the underlying unknown data may have had, a denial may be argued even stronger by claiming 例1では、基礎となる未知のデータと同じ分布形状を使用しているが、否定は主張によってさらに強く主張される。 0.67
7 7 0.85
英語(論文から抽出)日本語訳スコア
that the distribution used to train f0 may have come from an entirely different source, having a distinct distribution at all. f0の訓練に使われた分布は、全く異なる源から来ている可能性があり、全く異なる分布を持つ。 0.79
Definition 3 allows this by not constraining the distribution family to include only distributions of a particular shape or algebraic structure (e g , gamma distribution or more general exponential family), but allowing it to be any shape that is “believable” in the given context. 定義3では、分布族が特定の形や代数的構造(ガンマ分布やより一般的な指数関数的族など)の分布のみを含むことを制限せず、与えられた文脈で「信じられる」任意の形になることを可能にする。 0.83
Our experimental results shown later in Section 5 demonstrate that this possibility also practically works. 第5節で示された実験結果は,この可能性も実際に有効であることを示している。 0.57
Since this is a much stronger notion than the previous, it comes somewhat unexpected that it is satisfiable under some conditions, in the sense that we can even freely choose the alternative training data, if we (heavily) exploit the freedom to change the configuration ω for the optimization. これは前よりもはるかに強い概念であるため、最適化のために構成 ω を変更する自由を(十分に)活用すれば、代替のトレーニングデータを自由に選択できるという意味で、いくつかの条件で満足できるということが、やや予想外になる。 0.79
In particular, we can modify the error metric, as part of ω, to let us attain the optimum at the given function f (more specifically its parameterization p) for any a priori chosen training data. 特に、ω の一部として誤差計量を変更して、任意の事前選択された訓練データに対して与えられた関数 f(特にパラメータ化 p)における最適値を得ることができる。 0.85
This will be Theorem 2. これがTheorem 2である。 0.84
Before proving this main result, let us briefly return to the weaker notion of deniability first. この主な結果を証明する前に、まずはデニラビリティという弱い概念に簡単に戻ろう。 0.72
Proving the possibility to deny is in fact an easy matter of information-theoreti c arguments, as we show in Section 3 否定する可能性を証明することは、第3節で示すように、情報理論論の簡単な問題である。 0.62
3 Deniability by Non-Unique Recovery 3 不均一な回復による有害性 0.52
Suppose that we are given a model with a (fixed) number of d parameters. dパラメータの(固定された)数を持つモデルが与えられたと仮定する。 0.80
The number d can be large, but still much smaller than the training sample size, so that there is intuitively no unique recovery possible. 数 d は大きいが、それでもトレーニングサンプルサイズよりもはるかに小さいため、直感的にはユニークなリカバリは不可能である。 0.76
In fact, we have a simple result, whose proof appears in Appendix B.1: 実際、簡単な結果が得られ、Appendix B.1にその証明が現れる。 0.77
Theorem 1. For a given M L model (according to Definition 1) with d parameters. 理論1。 与えられた m l モデルに対して(定義1により) d パラメータを持つ。 0.68
Let the (unknown) training data come from a random source Z with entropy H(Z) bits, and let the function f require (at least) k bits to encode, and assume that f has been trained from n unknown records. 未知の)トレーニングデータは、エントロピー H(Z) ビットを持つランダムソース Z から得られ、関数 f を符号化するために(少なくとも) k ビットを必要とし、f が n 個の未知のレコードから訓練されたと仮定する。 0.82
If the number n exceeds 数 n が超えるとき 0.64
n > k H(Z) , n> k H(Z) , 0.83
(2) then any candidate training data extracted from f is deniable (in the sense of Definition 2). (2) このとき、fから抽出された候補訓練データは(定義2の意味で)無効となる。 0.78
A suitable number k as used in the above result is practically easy to find, since it suffices to find any number k of bits that encodes f , and if this number is not the minimum, the bound (2) only becomes coarser2. 上記の結果で使われる適切な数 k は、f を符号化するビットの任意の数 k を見つけるのに十分であり、この数が最小でなければ、境界 (2) は粗い値になるので、事実上見つけやすい。 0.79
In the simplest case, k can be found by saving the ML model to a file, and taking the file size to approximate k from above. 最も単純な場合、k は ML モデルをファイルに保存し、ファイルサイズを k に近似することで見つけることができる。 0.70
Expressed boldly, we cannot hope to extract a “uniquely defined” Giga-byte of training data from a 100 kbit sized model f . 100kビットサイズのモデルfから“明確に定義された”ギガバイトのトレーニングデータを抽出することは、大胆に表現されている。 0.61
2finding a tight bound in (2) would require to replace k by the entropy of the parameter vector p or the Kolmogorov complexity of the random f0 as emitted by the training algorithm. 2 タイトバウンド in (2) を探索するには、パラメータベクトル p のエントロピーや、トレーニングアルゴリズムによって放出されるランダム f0 のコルモゴロフ複雑性によって k を置き換える必要がある。 0.76
Either quantity appears hardly possible to get in practice. いずれの量でも実際に行うことはほとんどできない。 0.58
8 8 0.85
英語(論文から抽出)日本語訳スコア
4 Plausible Deniability To formalize and prove plausible deniability of the training, imagine an adversary to have a given model f0 = f (·, p∗) in its possession, looking to recover the unknown training data (xi, yi)n i=1 from it. 4 可塑性識別性 訓練の可否性を形式化し、証明するために、敵が与えられたモデル f0 = f (·, p∗) を所有し、未知の訓練データ(xi, yi)n i=1 を回復しようとすると想像する。 0.63
For feasibility, let us even assume that the model contains “enough” information to let the attacker expect a successful such recovery. 実現可能性については、攻撃者がそのようなリカバリを成功させる“十分な”情報を含むと仮定する。 0.62
Specifically, the training has lead to the vector p∗, from which the recovery of the data is attempted. 具体的には、トレーニングによってベクトル p∗ が導かれ、そこからデータの回復が試みられる。 0.75
Generically, the recovery is the solution of an inverse (optimization) problem with p∗ as fixed input, and using a norm (cid:107)·(cid:107) of the adversarial reverse-engineer’s choice: 一般論として、リカバリはp∗を固定入力とする逆(最適化)問題の解であり、逆エンジニアの選択のノルム(cid:107)·(cid:107)を用いる。 0.79
argmin(cid:107)((xi, yi) − f (xi, p∗))n argmin(cid:107)((xi, yi) − f (xi, p∗))n 0.89
i=1(cid:107) i=1(cid:107) 0.65
(3) i=1 ∈ Rn×(m+1) (here being unconstrained for simplicity and to be over (xi, yi)n clear on the dimensions). (3) i=1 ∈ Rn×(m+1) は単純さに制約されず、(x, yi)n は次元でクリアである。 0.81
Once confronted with the adversary’s proposal solution, the original trainer can deny the result’s correctness by plausibly claiming that the training algorithm in (1) used a norm that is different from the adversary’s choice in (1). 敵の提案ソリューションに直面すると、元のトレーナーは、(1)におけるトレーニングアルゴリズムが(1)における敵の選択と異なる規範を使用していたことを証明して、結果の正確さを否定することができる。 0.74
Theorem 2 gives conditions under which this claim is possible; more precisely, it lets the trainer construct a norm from a randomly chosen training data set according to a desired distribution F, which recovers the model f upon training with this hand-crafted norm. 定理2は、この主張が可能となる条件を与え、より正確には、訓練者が所望の分布fに従ってランダムに選択された訓練データから規範を構築することができ、この手作りの規範で訓練するとモデルfが回復される。 0.63
Like in encryption, the norm herein takes the role of a “secret key” to train the model, and the plausibility is by exposing a different “secret” (norm) to claim that the training was done from entirely different data, and only coincidentally produced the model in the adversary’s hands (Figure 4 in the Appendix graphically shows the flow as an analogy to the secrecy of contemporary encryption; the concept is comparable). 暗号と同様に、この規範はモデルの訓練に「秘密鍵」の役割を担っており、その可能性とは、異なる「秘密鍵」(norm)を露出して、トレーニングが全く異なるデータから行われ、敵の手の中でのみ偶然に生成されたと主張することである(付録の4図は、現代暗号の秘密の類似物としてその流れを図示している;概念は同等である)。 0.77
4.1 The Main Result The bottom line of our previous considerations is that we are thus free to define our error metric in any way we like, without changing the results of the training in a substantial way, by crafting our own norm as we desire, and define a distance metric as the norm of the absolute error vector. 4.1 主な結果 これまでの考察の要点は、私たちが望むように自分自身のノルムを作成し、絶対誤差ベクトルのノルムとして距離メトリックを定義することによって、トレーニングの結果を実質的な方法で変更することなく、任意の方法でエラーメトリックを自由に定義できるということです。 0.85
In a nutshell, our construction x(cid:62) · A · x, induced by any positive semiwill use the semi-norm (cid:107)x(cid:107)A := definite matrix A. 簡単に言えば、我々の構成 x(cid:62) · A · x は任意の正の半意志によって誘導され、半ノルム (cid:107)x(cid:107)A := 定行列 A を用いる。 0.65
The trick will be choosing A so that the semi-norm becomes zero at a desired error vector, i.e., point in Rn. トリックは、半ノルムが所望の誤差ベクトル、すなわち Rn の点においてゼロとなるように A を選択することである。 0.68
Given any decoy training data T (cid:48), it is not difficult to find such a matrix A by computing the error vector e = (f (xi, p∗) − yi)n i=1 ∈ Rn, and picking A such that A · e = 0. 任意のデコイトレーニングデータT(cid:48)が与えられた場合、誤差ベクトル e = (f (xi, p∗) − yi)n i=1 ∈ Rn を計算して、A · e = 0 となるような行列 A を見つけることは困難ではない。 0.86
Lemma 2 in Appendix A.1 describes how to do this step-by-step. Appendix A.1のLemma 2では、このステップバイステップを記述している。 0.53
√ This is almost one half of the construction, culminating in Lemma 1, which adds conditions to ensure the local optimality of the desired error vector e. The other half is the extension of this semi-norm into a norm, which is Theorem 2. √ これは構成のほぼ半分であり、lemma 1 でまとめられ、所望の誤差ベクトル e の局所的最適性を保証する条件が加えられている。
訳抜け防止モード: √ これは建設のほぼ半分であり、Lemma 1で終わる。 これは、所望のエラーベクトル e の局所最適性を保証する条件を追加する。 残りの半分はこの半ノルムのノルムへの拡張であり、これは定理2である。
0.78
Lemma 1. Let f : Rm× Rd → R be parameterized by a vector p ∈ Rd and map an input value vector x to a vector y = f (x, p). レマ1号。 f : Rm× Rd → R をベクトル p ∈ Rd でパラメータ化し、入力値ベクトル x をベクトル y = f (x, p) に写像する。 0.65
Let p∗ ∈ Rd be given as fixed, p∗ ∈ Rd を固定として与える。 0.81
9 9 0.85
英語(論文から抽出)日本語訳スコア
and let us pick arbitrary training data (x1, y1), . そして、任意のトレーニングデータ(x1,y1)を選択します。 0.73
. . , (xn, yn). . . , (xn, yn)。 0.82
Finally, define the error vector e = (yi − f (xi, p∗))n Let for all xi the functions f (xi,·) be totally differentiable w.r.t. 最後に、誤差ベクトル e = (yi − f (xi, p∗))n をすべての xi に対して f (xi,·) を完全微分可能 w.r.t とする。 0.79
p at p = p∗ with derivative di = Dp(f (xi, p))(p∗) ∈ Rd. p = p∗ で微分di = dp(f(xi, p))(p∗) ∈ rd を満たす。 0.77
Put all d(cid:62) for i = 1, 2, . すべての d(cid:62) を i = 1, 2, とする。 0.83
. . , n as rows into a matrix M ∈ Rn×d and assume that it satisfies the rank condition . . , n を行列 M ∈ Rn×d に列とし、階数条件を満たすと仮定する。 0.83
i=1 ∈ Rn. i i=1 ∈ Rn。 私は 0.67
(4) Then, there exists a semi-norm (cid:107)·(cid:107) on Rn such that p∗ locally minimizes (cid:107)e(p∗)(cid:107), i.e., there is an open neighborhood U of p∗ inside which (cid:107)e(p∗)(cid:107) ≤ (cid:107)e(p)(cid:10 7) for all p ∈ U . (4) すると、Rn 上の半ノルム (cid:107)·(cid:107) が存在し、p∗ が局所的に最小となる(cid:107)e(p∗)(cid:107)、すなわち、p∗ の内部に (cid:107)e(p∗)(cid:107) ≤ (cid:107)e(p)(cid:10 7) が存在する。 0.84
rank(M|e) (cid:54)= rank(M). rank(m|e) (cid:54)= rank(m)。 0.83
Remark 1. The perhaps more convenient condition to work with is assuming f to be partially differentiable w.r.t. 備考1。 より便利な条件は f を部分的に微分可能 w.r.t とすることである。 0.57
all parameters p1, . すべてのパラメータ p1, 。 0.79
. . , pd, and to assume the derivatives ∂f /∂pi to be continuous at all training data points xi. . . , pd, and to assume the derivatives ∂f /∂pi to be continuous at all training data points xi。 0.86
In that case, di is just the gradient ∇pf (xi, p) and M is nothing else than the Jacobian of the function g : Rd → Rn, sending p to the vector of values (f (x1, p), . その場合、di はちょうど勾配 (xi, p) であり、M は函数 g : Rd → Rn のヤコビアンに他ならないので、p を値 (f (x1, p) のベクトルに送る。 0.63
. . , f (xn, p)), where all xi are fixed, and the result depends only on p. The general condition stated in Lemma 1 is just total differentiability of g, or, in a slightly stronger version, g having all continuous partial derivatives. . . すべての xi が固定され、その結果は p にのみ依存する。 Lemma 1 で述べられている一般的な条件は g の完全な微分性、あるいはわずかに強いバージョンでは、すべての連続部分微分を持つ g である。 0.81
The proof of Lemma 1, as well as the proof for the stronger Theorem 2 are Lemma 1 の証明とより強い定理 2 の証明が成り立つ。 0.56
both given in the Appendix. どちらもAppendixで提供される。 0.76
Theorem 2. Under the hypotheses of Lemma 1, there exists a norm (cid:107)·(cid:107) on RN such that p∗ locally minimizes (cid:107)e(p)(cid:10 7) as a function of p. 定理2。 Lemma 1 の仮説の下では、RN 上のノルム (cid:107)·(cid:107) が存在し、p∗ が p の函数として局所的に (cid:107)e(p)(cid:10 7) を最小化する。 0.64
Now, let us go back and remember the order of specification: given the model by its parameters p∗, and – independently of that – given an arbitrary probability distribution family F, we can sample decoy training data from F, and construct the norm from it. パラメータ p∗ によってモデルが与えられ、それとは独立に、任意の確率分布族 f が与えられたとき、f からデコイトレーニングデータをサンプリングし、そこからノルムを構築することができる。
訳抜け防止モード: さて、戻して仕様の順序を思い出そう : そのパラメータ p∗ によってモデルが与えられる。 そして、それとは独立して。 任意の確率分布族 f, decoyトレーニングデータをfからサンプルして,そこから規範を構築することが可能です。
0.81
Thm. 2 thus makes Def. thm。 2はDefとなる。 0.67
3 of plausible deniability straightforwardly satisfiable. 3 は容易に満足できる。 0.57
It is natural to ask whether the norm that Theorem 2 asserts can be replaced by a “more common” choice of error metric, such as MSE or MAE. 定理 2 が主張するノルムが MSE や MAE のような「より一般的な」エラー計量に置き換えられるかどうかを問うのは当然である。 0.68
This is in fact possible for MAE; see Appendix B.4 for the proof of this Corollary: これは実際に MAE では可能であり、Appendix B.4 を参照してください。 0.72
Corollary 1. Under the hypotheses of Theorem 2, there is a matrix C such that p∗ locally minimizes the mean average error M AE(C · e) of the error vector e. 第1話。 定理2の仮説の下では、p∗ が誤差ベクトル e の平均誤差 M AE(C · e) を局所的に最小化する行列 C が存在する。 0.60
4.2 Multi-Output ML Models 4.2 多出力MLモデル 0.68
Let us now drop the assumption of our ML model to output only numbers, and look at vectors as output. MLモデルの仮定を捨てて、数値のみを出力し、ベクトルを出力として見るようにしましょう。 0.82
This transforms the error vector into an error matrix, and we have the following result, stated again in full detail, and proven in Appendix B.5. これにより、誤差ベクトルは誤差行列に変換され、以下の結果が得られ、再び詳細に述べられ、Appendix B.5で証明される。 0.80
Corollary 2. Take k, m, d ≥ 1 and let f : Rm × Rd → Rk be parameterized by a vector p ∈ Rd, and write fj for j = 1, . 第2話。 k, m, d ≥ 1 を取り、f : Rm × Rd → Rk をベクトル p ∈ Rd でパラメータ化し、j = 1 に対して fj を記述する。 0.62
. . , k to denote the j-th coordinate function. . . , k は j 番目の座標関数を表す。 0.80
For a fixed parameter vector p∗ and arbitrary training 固定パラメータベクトル p∗ と任意の訓練について 0.79
10 10 0.85
英語(論文から抽出)日本語訳スコア
i − f (xi, p∗)(cid:62))n i − f (xi, p∗)(cid:62))n 0.91
data (x1, y1), . データ (x1, y1)。 0.86
. . , (xn, yn) ∈ Rm × Rk, define the error matrix E row-wise as i=1 ∈ Rn×k. . . , (xn, yn) ∈ Rm × Rk は誤差行列 E を i=1 ∈ Rn×k と定義する。 0.84
In this matrix, let ej ∈ Rn be the j-th E = (y(cid:62) column. この行列において、ej ∈ Rn を j 番目の E = (y(cid:62) 列とする。 0.75
For all j = 1, 2, . すべての j = 1, 2, に対して。 0.81
. . , k and all training points xi, assume that each fj(xi, p) is totally differentiable w.r.t. . . , k およびすべての訓練点 xi は各 fj(xi, p) が完全に微分可能 w.r.t であると仮定する。 0.80
p at (the same point) p = p∗, with derivative di,j = Dp(fj(xi, p))(p∗) ∈ Rd. p は(同じ点) p = p∗ で、微分 di,j = Dp(fj(xi, p))(p∗) ∈ Rd である。 0.80
For each j, define the matrix Mj = (d(cid:62) i=1 ∈ Rn×d and let the rank condition rank(Mj|ej) (cid:54)= rank(Mj) hold. 各 j に対して行列 mj = (d(cid:62) i=1 ∈ rn×d を定め、ランク条件 rank(mj|ej) (cid:54)= rank(mj) を成立させる。 0.83
Then, there exists a matrix-norm (cid:107)·(cid:107) on Rn×k such that p∗ locally minimizes (cid:107)E(p∗)(cid:107), i.e., there is an open neighborhood U of p∗ s.t. すると、rn×k 上の行列ノルム (cid:107)·(cid:107) が存在し、p∗ が局所的に最小となる(cid:107)e(p∗)(cid:107)。 0.68
(cid:107)E(p∗)(cid:107) ≤ (cid:107)E(p)(cid:10 7) for all p ∈ U . (cid:107)E(p∗)(cid:107) ≤ (cid:107)E(p)(cid:10 7) for all p ∈ U 。 0.90
i,j)n Equipped with Theorem 2 and its corollaries, we can now finally state a result about plausible deniability, similar to Theorem 1. i,j)n Theorem 2 とその行程が組み合わさって、最終的に Theorem 1 と同様の可塑性退化性に関する結果を述べることができる。 0.79
The proof is by a direct application of the respective results as stated above. 証明は、上述した各結果の直接適用によるものである。 0.74
Theorem 3. For a given ML model f , let the (unknown) training data come from a random source with known distribution F. Then, for every choice of alternative training data T (cid:48), randomly sampled from the same distribution F, we can find an error metric induced by a (properly crafted) norm (cid:107)·(cid:107) so that the training algorithm, upon receiving the training data T (cid:48) and error metric (through the configuration ω), reproduces the given model f exactly. 理論3。 任意のmlモデルfに対して、(知られていない)トレーニングデータは既知の分布fを持つランダムなソースから来る。それから、同じ分布fからランダムにサンプリングされた代替訓練データt(cid:48)のあらゆる選択に対して、(プロダクティブな)ノルム(cid:107)·(cid:107)によって引き起こされるエラーメトリックを見つけることができ、トレーニングアルゴリズムがトレーニングデータt(cid:48)とエラーメトリック(設定 ω を通して)を受け取ると、与えられたモデルfを正確に再現することができる。 0.67
Thus, any data recovered from f is plausibly deniable in the sense of Def. したがって、fから回収されたデータはdefの意味ではおそらく消耗可能である。 0.60
3. The case where the distribution F is unknown is even simpler, since plausibility can only be argued if there is a ground truth known as the distribution F. If this ground truth is not available, there is nothing to argue regarding plausibility. 3. 分布 f が未知である場合はさらに単純である、なぜならば、可算性は分布 f として知られる基底的真理が存在する場合にのみ議論できるからである。
訳抜け防止モード: 3. 分布 f が未知である場合はさらに単純である。 実用性が議論できるのは この基底真理が得られない場合、分布 f として知られる基底真理が存在する。 可能性については議論の余地はない。
0.82
5 Numerical Evaluation and Validation We demonstrate a proof-of-concept for our plausible deniability concept in machine learning in the context of a fictional scenario of fitting a regression model, delegating the (lengthier) details to Appendix C. The experiment was conducted as follows: we picked a random vector p and defined the ML model f (x) = pT ·x from it. 5 数値評価と検証 我々は、回帰モデルに適合し、(より長い)詳細を Appendix C に委譲する架空のシナリオの文脈において、機械学習におけるもっともらしい識別可能性の概念を実証し、ランダムなベクトル p を選択し、そこから MLモデル f (x) = pT ·x を定義した。 0.74
Next, this model was evaluated on randomly chosen vectors x1, . 次に、ランダムに選択されたベクトルx1, 。 0.63
. . , xn, computing the responses yi = f (xi) + εi with a random error term on it. . . xn, 応答 yi = f (xi) + εi をランダムエラー項で計算する。 0.78
This mimics the model f to have been fitted from the so-constructed training data T = (xi, yi)n training data set, we randomly sampled a fresh set T (cid:48) = (x(cid:48) i were also drawn i’s). これは、構成されたトレーニングデータT = (xi, yi)n のトレーニングデータセットから得られたモデル f を模倣し、新しいセット T (cid:48) = (x(cid:48) i をランダムにサンプリングした。 0.79
From this set T (cid:48), we constructed the stochastically independent (of their x(cid:48) norm as Theorem 2 prescribes (see Figure 3 in Appendix B.5 for the algorithmic details), and re-fitted the regression model. この集合 T (cid:48) から、定理 2 の定式化として確率的に独立な(x(cid:48) ノルムを構築した(アルゴリズムの詳細については Appendix B.5 の図 3 を参照)。 0.71
Plausible deniability is then the expectation of finding approximately the vector p again, and indeed, an example execution of this program delivered the following results for a six-dimensional regression model (small enough for a visual inspection): 可塑性分解性は、再びベクトル p のおよその発見を期待するもので、実際、このプログラムの実行例は、6次元回帰モデルに対して以下の結果を与えた(視覚検査に十分小さい)。 0.79
i=1, in which the values y(cid:48) i)n i=1, y(cid:48) i)n の値 0.93
Then, towards a denial of the (correct!) i=1. すると、(正解! i=1。 0.47
i, y(cid:48) i, y(cid:48) 0.92
11 11 0.85
英語(論文から抽出)日本語訳スコア
original vector p p as trained from decoy data T (cid:48) decoyデータtから学習したオリジナルベクトルpp(cid:48) 0.79
-0.57104 -1.53456 -2.45770 -2.12341 -1.26093 -1.91170 -0.57104 -1.53456 -2.45770 -2.12341 -1.26093 -1.91170 0.33
-0.56936 -1.53402 -2.45657 -2.12261 -1.25992 -1.91082 -0.56936 -1.53402 -2.45657 -2.12261 -1.25992 -1.91082 0.33
This experiment is repeatable (with comparably good results) using our implementation3 of the construction behind Theorem 2 in GNU Octave (version 5.2.0) [7], with the optim package (version 1.6.0) [16], and for the particular application to a regression model. この実験は、GNU Octave (version 5.2.0) [7] における Theorem 2 の裏側構造の実装 3 をオプティムパッケージ (version 1.6.0) [16] で繰り返し行うことができ、特に回帰モデルに適用できる。 0.73
We stress that the algorithms used to fit the ML model were hereby taken “off the shelf” that optim provides, with no modification to the inner code (or its default configuration). 私たちは、MLモデルに適合するアルゴリズムが、内部コード(あるいはデフォルト設定)を変更することなく、オプティムが提供する“棚から取り出された”ことを強調します。 0.66
6 Related Work The conflicting interests of available data and data privacy have long been understood. 6 関連作業 利用可能なデータとデータのプライバシーの相反する関心は、長い間理解されてきた。 0.66
It has been shown that the problem of minimizing information loss under given privacy constraints is NP-hard [17]. プライバシー制約の下での情報損失を最小限に抑える問題はNPハード[17]であることが示されている。 0.71
An overview on threats and solutions of privacy preserving machine learning is provided in [1] to close the gap between the communities of ML and privacy. MLとプライバシのコミュニティ間のギャップを埋めるため、プライバシー保護機械学習の脅威と解決策の概要が[1]に記載されている。 0.69
Legal requirements such as the GDPR put limitations on any kind of method that uses personal data, including ML applications. GDPRのような法的要件は、MLアプリケーションを含む個人データを使用するあらゆる種類のメソッドに制限を課している。 0.72
The regulation aims at preventing any discrimination, so critical data such as health data now require protection [2]. この規制はいかなる差別も防ぐことを目的としており、健康データのような重要なデータは保護を必要とする [2] 。 0.63
Approaches such as the privacy-aware machine learning model provisioning platform AMNESIA [15] make sure that ML models only remember data they are supposed to remember. プライバシ対応機械学習モデルプロビジョニングプラットフォームAMNESIA[15]のようなアプローチは、MLモデルが記憶すべきデータのみを記憶するようにします。 0.75
A new method to preserve privacy for classification methods in distributed systems prevents that data or the learned models are directly revealed [10] and can even be extended to hierarchical distributed systems [9]. 分散システムにおける分類手法のプライバシ保護のための新たな手法は,データや学習モデルを直接公開する[10]を防止し,階層的な分散システムに拡張する[9]。 0.88
The vulnerabilities ML methods induce in software systems can also be analysed based on known attacks [13]. ソフトウェアシステムで引き起こされる脆弱性MLメソッドは、既知の攻撃[13]に基づいて分析することもできる。 0.78
A recent survey on privacypreserving ML is given in [11], showing that the majority of new approaches focus on specific domains. プライバシ保護MLに関する最近の調査は[11]で行われており、新しいアプローチの大部分が特定のドメインに焦点を当てていることを示している。
訳抜け防止モード: プライバシ保護mlに関する最近の調査は [11] 新しいアプローチのほとんどが特定のドメインに焦点を当てていることを示しています。
0.70
In social networks, systems are develop that decide (semi-)automatically whether to share information with others [3]. ソーシャルネットワークでは、他人と情報を共有するかどうかを自動で判断するシステムを開発している[3]。 0.72
Frameworks for privacy-preserving methods in healthcare are also in development [8]. 医療におけるプライバシー保護手法の枠組みも開発中である[8]。 0.79
Classification protocols that ensure confidentiality of both data and classifier are described in [5] and implemented by modification of existing protocols. データと分類器の両方の機密性を保証する分類プロトコルを[5]に記述し、既存のプロトコルの変更によって実装する。 0.75
In 2017, Google presented a protocol that enables deep learning from user data without learning about the individual user [4]. 2017年、Googleは個々のユーザーについて学ぶことなくユーザーデータから深い学習を可能にするプロトコルを発表した。 0.67
An algorithm for privacy-preserving logistic regression was designed to address the trade-off between privacy and learnability and to learn from private databases [6]. プライバシー保護ロジスティック回帰のためのアルゴリズムは、プライバシと学習性の間のトレードオフに対処し、プライベートデータベースから学習するために設計されました [6]。
訳抜け防止モード: プライバシーのためのアルゴリズム-ロジスティック回帰を保存する設計 プライバシーと学習性の間のトレードオフに対処する プライベートデータベース [6 ] から学ぶために。
0.73
3code will be released if this paper receives positive reviews この論文が肯定的なレビューを受けたら、3codeがリリースされる 0.58
12 12 0.85
英語(論文から抽出)日本語訳スコア
7 Conclusions 7.1 Suspicion by “non-standard” error metrics 結論7 7.1 「非標準」エラーメトリクスによる調査 0.67
Obviously, it may be suspicious if the norm used for the training is not released a priori as part of the description of the ML model, and our proposed mechanism of deniability works only if the norm used for the training is kept secret initially. 機械学習モデルの記述の一部として,トレーニングに使用される規範が事前リリースされないか,トレーニングに使用される規範が最初に秘密にされている場合にのみ,その識別能力のメカニズムが有効であるかどうかが疑わしい。 0.72
Furthermore, the honest creator of the model cannot later come out with a strangely crafted norm to claim having done the training with this, if the more natural choice would have been MAE, RMSE or others. さらに、このモデルの正直な作者は、もしより自然な選択がMAEやRMSEなどであろうとすれば、このモデルでトレーニングを行ったと主張するという奇妙な作りの規範を後に出すことはできない。 0.67
So, to make the denial “work”, the process would require the model creator to initially state that the training will be done with a norm that has a “certain algebraic structure”, namely that which Theorem 2 prescribes. したがって、否定的な“作業”を行うためには、まずモデル作成者が、トレーニングは“確定的な代数的構造”を持つ規範、すなわちどの定理2が規定するかで行われる、と述べる必要がある。 0.80
This lets the honest owner of the norm later change the appearance of the norm for a denial, without creating suspicion by coming out with something completely different. これにより、この規範の誠実な所有者は、後に全く異なるものから出てくることで疑念を生じさせることなく、否定の規範の外観を変えることができる。 0.56
Since all vector norms, and hence also all matrix norms are topologically equivalent, such an a priori vote for a certain class of norms is not precluded by theory, and a legitimate design choice up to the model trainer. すべてのベクトルノルム、従ってすべての行列ノルムは位相的に同値であるため、ある種のノルムのクラスに対する事前投票は理論によって妨げられず、モデルトレーナーへの正当な設計選択である。 0.68
7.2 Accounting for Partial Knowledge 7.2 部分知識の会計 0.78
If the attacker has partial knowledge of the training data, say, a few columns / variables are known, but not all of them, the situation with plausible deniability is unchanged: the denying party can simply include this knowledge in the decoy training data (as this can be chosen freely anyway), and construct the norm from the remaining variables. 攻撃者がトレーニングデータの部分的な知識(例えば、いくつかの列/変数が知られているが、すべてではない)を持っている場合、その状況は変わらない: 否定する者は単にこの知識をデコイのトレーニングデータに含めることができる(これはいずれにせよ自由に選択できる)。 0.69
This even works when the attacker knows all variables in the training records xi, in which case the resulting responses yi are uniquely recoverable by a mere evaluation of the function f . これは、アタッカーがトレーニングレコードxi内のすべての変数を知っても動作し、関数fの単なる評価によって結果の応答yiが一意に回復可能である。 0.75
This is the trivial case of recovery, against which no countermeasure can be given. これは簡単な回復の事例であり、対策は与えられない。 0.52
However, if there is at least some uncertainty about a variable in the training data, and the model is “sufficiently dependent” on this unknown inputs, then plausible deniability becomes applicable again. しかしながら、トレーニングデータに少なくとも変数に関する不確実性があり、モデルが未知の入力に“十分依存”している場合、可能性の高いデニタビリティが再び適用されます。 0.76
Overall, the finding in this work is that privacy by non-recoverability essentially holds without much ado, provided that there is lot more data used for the training than the model can embody via its parameters. 全体として、この研究の発見は、モデルがパラメータを介して具体化できるデータよりもトレーニングに使用されるデータが多ければ、非回復性によるプライバシが本質的にあまり必要としないということだ。 0.62
Additional precautions for plausible deniability are only required by announcing the error metric prior to any training, or as part of the description of the model upon its release. プラウシブル・デニビリティに関する追加の予防措置は、トレーニング前にエラー・メトリックをアナウンスするか、あるいはモデルのリリース時に記述の一部としてのみ必要となる。 0.72
The important point here is not that the training on a suitably crafted norm is algorithmically feasible, but instead that it is possible. ここで重要なのは、適切に構築された規範のトレーニングがアルゴリズムで実現可能であるのではなく、それが可能であることだ。 0.61
While we do not claim the norm from Theorem 2 to lend itself to an efficient optimization in highdimensional cases (such as neural networks), but the existence assertion made by the theorem may already be enough, since it is arguable that one has taken the decoy data and went through very lengthy and time-consuming training to have produced the model in discussion. 定理 2 からのノルムは(ニューラルネットワークのような)高次元の場合の効率的な最適化に役立つとは主張していないが、この定理によってなされる存在の主張は、既に十分であるかもしれない。
訳抜け防止モード: 私たちは Theorem 2 からノルムを主張しませんが ニューラルネットワークのような)高次元のケースで効率的に最適化する しかし、定理によってなされた主張は、既に十分かもしれない。 デコイデータを取り込んだのは 当然ですから 長い時間と時間をかけて 訓練に費やしました 議論でモデルを作りました
0.73
The lesson learned here to escape the plausible deniability issue is to go for maximum transparency of the learning process, which includes in particular an ここで学んだ教訓は、起こりうるデニラビリティの問題から逃れるために、学習プロセスの透明性を最大化すること、特にanを含むことである。 0.63
13 13 0.85
英語(論文から抽出)日本語訳スコア
a priori and publicly documented specification of the error metric and training algorithm before deniability arguments are made. deniability argumentsが作成される前に、エラーメトリックとトレーニングアルゴリズムの優先順位と公表された仕様。 0.74
In this way, one cannot later silently change the error metric towards consistency with faked training data. このようにして、後に偽のトレーニングデータとの整合性に向けてエラーメトリックを変更することはできない。 0.62
Acknowledgments This work was supported by the research Project ODYSSEUS (”Simulation und Analyse kritischer Netzwerk Infrastrukturen in St¨adten”) funded by the Austrian Research Promotion Agency under Grant No. 承認 この研究は、オーストリア研究振興庁(Grant No. )が出資したプロジェクトODYSSEUS(Simulation und Analyse kritischer Netzwerk Infrastrukturen in St sadten)によって支援された。 0.66
873539. References 873539. 参考文献 0.75
[1] Mohammad Al-Rubaie and J. Morris Chang. [1]mohammad al-rubaieとj. morris chang。 0.67
Privacy-preserving machine learning: Threats and solutions. プライバシ保存機 学習: 脅威と解決策。 0.67
17(2):49–58, 2019. 17(2):49–58, 2019. 0.88
[2] C.-A. Azencott. [2]C-A。 Azencott 0.65
Machine learning and genomics: precision medicine versus 機械学習とゲノム工学:精密医療対 0.83
patient privacy. 患者のプライバシー。 0.72
376(2128):20170350, 2018. 376(2128):20170350, 2018. 0.94
[3] Igor Bilogrevic, K´evin Huguenin, Berker Agir, Murtuza Jadliwala, Maria Gazaki, and Jean-Pierre Hubaux. Igor Bilogrevic, K ́evin Huguenin, Berker Agir, Murtuza Jadliwala, Maria Gazaki, Jean-Pierre Hubaux。 0.75
A machine-learning based approach to privacy-aware information-sharing in mobile social networks. モバイルソーシャルネットワークにおけるプライバシーを意識した情報共有への機械学習によるアプローチ 0.60
25:125–142, 2016. 25:125–142, 2016. 0.65
[4] Keith Bonawitz, Vladimir Ivanov, Ben Kreuter, Antonio Marcedone, H. Brendan McMahan, Sarvar Patel, Daniel Ramage, Aaron Segal, and Karn Seth. 4]Keith Bonawitz氏、Vladimir Ivanov氏、Ben Kreuter氏、Antonio Marcedone氏、H. Brendan McMahan氏、Sarvar Patel氏、Daniel Ramage氏、Aaron Segal氏、Karn Seth氏。 0.77
Practical secure aggregation for privacy-preserving machine learning. プライバシー保護機械学習のための実用的なセキュアアグリゲーション。 0.55
In Proceedings of the 2017 ACM SIGSAC Conference on Computer and Communications Security, pages 1175–1191. 2017 ACM SIGSAC Conference on Computer and Communications Security, page 1175–1191。
訳抜け防止モード: 2017 ACM SIGSAC Conference on Computer and Communications Security に参加して 1175-1191頁。
0.81
ACM, 2017. 2017年、ACM。 0.87
[5] Raphael Bost, Raluca Ada Popa, Stephen Tu, and Shafi Goldwasser. Raphael Bost氏、Raluca Ada Popa氏、Stephen Tu氏、Shafi Goldwasser氏。 0.65
Machine learning classification over encrypted data. 暗号化データによる機械学習の分類。 0.72
In Proceedings 2015 Network and Distributed System Security Symposium. 2015年、ネットワークと分散システムセキュリティシンポジウムを開催。 0.79
Internet Society, 2015. 2015年、インターネット・ソサエティ。 0.61
[6] Kamalika Chaudhuri and Claire Monteleoni. 6] Kamalika Chaudhuri と Claire Monteleoni。 0.73
Privacy-preserving logistic regression. プライバシー保護ロジスティック回帰。 0.63
In D. Koller, D. Schuurmans, Y. Bengio, and L. Bottou, editors, Advances in Neural Information Processing Systems, volume 21, pages 289– 296. D. Koller, D. Schuurmans, Y. Bengio, L. Bottou, editors, Advances in Neural Information Processing Systems, Volume 21 pages 289– 296。 0.86
Curran Associates, Inc., 2009. Curran Associates, Inc., 2009 0.71
[7] John W. Eaton, David Bateman, Søren Hauberg, and Rik Wehbring. John W. Eaton氏、David Bateman氏、Søren Hauberg氏、Rik Wehbring氏。 0.72
GNU Octave version 5.2.0 manual: a high-level interactive language for numerical computations, 2020. gnu octave version 5.2.0 manual: a high-level interactive language for numerical computations, 2020。 0.80
[8] Kyle Fritchman, Keerthanaa Saminathan, Rafael Dowsley, Tyler Hughes, Martine De Cock, Anderson Nascimento, and Ankur Teredesai. 8] Kyle Fritchman, Keerthanaa Saminathan, Rafael Dowsley, Tyler Hughes, Martine De Cock, Anderson Nascimento, Ankur Teredesai。 0.74
Privacypreserving scoring of tree ensembles : a novel framework for {AI} in healthcare. ツリーアンサンブルのプライバシ保護スコア : 医療における「ai」の新しい枠組み 0.68
pages 2413–2422. 2413-222頁。 0.59
IEEE, 2018. 2018年、IEEE。 0.52
14 14 0.85
英語(論文から抽出)日本語訳スコア
[9] Qi Jia, Linke Guo, Yuguang Fang, and Guirong Wang. [9]Qi Jia、Linke Guo、Yuguang Fang、Guirong Wang。 0.65
Efficient privacypreserving machine learning in hierarchical distributed system. 階層型分散システムにおける効率的なプライバシー保護機械学習 0.62
6(4):599– 612, 2019. 6(4):599– 612, 2019. 0.98
[10] Qi Jia, Linke Guo, Zhanpeng Jin, and Yuguang Fang. [10]Qi Jia、Linke Guo、Zhanpeng Jin、Yuguang Fang。 0.65
Preserving model privacy for machine learning in distributed systems. 分散システムにおけるマシンラーニングのモデルプライバシの保持。 0.66
29(8):1808–1822, 2018. 29(8):1808–1822, 2018. 0.88
[11] Liu Junxu and Meng Xiaofeng. 十一 李順(りゅうじゅんきゅう)、Meng Xiaofeng。 0.45
Survey on privacy-preserving machine learning. プライバシー保護機械学習に関する調査 0.73
57(2):346, 2020. 57(2):346, 2020. 0.94
Publisher: Journal of Computer Research and Development. Journal of Computer Research and Development (英語) 0.59
[12] Keras Team. [12]ケラス チーム。 0.79
Keras documentation: Losses, 2020. ケラ 文書: 損失 2020. 0.64
https://keras.io/api /losses/. https://keras.io/api /losses/。 0.41
[13] Nicolas Papernot, Patrick McDaniel, Arunesh Sinha, and Michael P. Wellman. 13] Nicolas Papernot氏、Patrick McDaniel氏、Arunesh Sinha氏、Michael P. Wellman氏。 0.88
SoK: Security and privacy in machine learning. SoK: マシンラーニングにおけるセキュリティとプライバシ。 0.70
In 2018 IEEE European Symposium on Security and Privacy (EuroS&P), pages 399–414. 2018年IEEE European Symposium on Security and Privacy (EuroS&P) 399-414頁。 0.74
IEEE, 2018. 2018年、IEEE。 0.52
[14] Stefan Schauer, Sandra K¨onig, Thomas Schaberreiter, Stefan Rass, Klaus Steinnocher, and Gerald Quirchmayr. 14] ステファン・シャウアー、サンドラ・k・ショニグ、トーマス・シャベルレイター、ステファン・ラス、クラウス・スタインノッシャー、ジェラルド・キルヒマイヤー 0.48
Cross-Domain Risk Analysis to Strengthen City Resilience: the ODYSSEUS Approach. 都市レジリエンス強化のためのクロスドメインリスク分析:ODYSSEUSアプローチ 0.72
In A.L. Hughes, F. McNeill and C. Zobel (eds. A.L. Hughes, F. McNeill and C. Zobel (eds) 0.89
): ISCRAM 2020 Conference Proceedings17th International Conference on Information Systems for Crisis Response and Management, pages 652–662. ISCRAM 2020 Conference Proceedings17th International Conference on Information Systems for Crisis Response and Management, page 652–662。 0.85
ISCRAM Association, 2020. iscram association、2020年。 0.73
[15] Christoph Stach, Corinna Giebler, Manuela Wagner, Christian Weber, {AMNESIA}: A technical solution towards and Bernhard Mitschang. Christoph Stach氏, Corinna Giebler氏, Manuela Wagner氏, Christian Weber氏, {AMNESIA}: Bernhard Mitschang氏に対する技術的な解決策。 0.83
{GDPR}-compliant machine learning. {GDPR}準拠の機械学習。 0.79
volume Proceedings of the 6th International Conference on Information Systems Security and Privacy, pages 21–32, 2020. 第6回情報システムセキュリティとプライバシに関する国際会議、21-32ページ、2020年。 0.83
[16] Olaf Till. The ’optim’ package, 2019. [16]オラフ。 the ’optim’ package、2019年。 0.62
[17] S.A. Vinterbo. [17]s.a.vinterbo. 0.77
Privacy: a machine learning view. プライバシ: マシンラーニングのビュー。 0.68
16(8):939–948, 2004. 16(8):939–948, 2004. 0.88
[18] Wolfgang Walter. ヴォルフガング・ウォルター(Wolfgang Walter) 0.63
Analysis 2. Grundwissen Mathematik. 分析2。 Grundwissen Mathematik 0.66
Springer, Berlin, ベルリン、ベルリン。 0.51
4., durchges. und erg. 4. デュルヘス。 と erg。 0.64
aufl edition, 1995. OCLC: 263611766. 1995年版。 OCLC:263611766。 0.68
15 15 0.85
英語(論文から抽出)日本語訳スコア
A Error Measures from Topological Norms A norm on Rn is a mapping (cid:107)·(cid:107) : Rn → R with the following properties: 位相ノルムからの誤差測度 Rn 上のノルムは、以下の性質を持つ写像 (cid:107)·(cid:107) : Rn → R である。 0.68
1. positive definiteness: (cid:107)x(cid:107) ≥ 0 for all x, with (cid:107)x(cid:107) = 0 if and only if x = 0. 1. 正定性: (cid:107)x(cid:107) ≥ 0 for all x, with (cid:107)x(cid:107) = 0 if x = 0 0.91
2. homogeneity: (cid:107)λ · x(cid:107) = |λ| · (cid:107)x(cid:107) for all λ ∈ R. 3. triangle inequality: (cid:107)x + y(cid:107) ≤ (cid:107)x(cid:107) + (cid:107)y(cid:107) for all x, y. 2. 等質性: (cid:107)λ · x(cid:107) = |λ| · (cid:107)x(cid:107) . 3. 三角形の不等式: (cid:107)x + y(cid:107) ≤ (cid:107)x(cid:107) + (cid:107)y(cid:107) 0.83
If one allows (cid:107)x(cid:107) = 0 for some x (cid:54)= 0, then we call (cid:107)·(cid:107) a semi-norm. ある x に対して (cid:107)x(cid:107) = 0 を許すなら、 (cid:107)·(cid:107) を半ノルムと呼ぶ。 0.77
Every norm induces a metric d(x, y) = (cid:107)x − y(cid:107), or a pseudometric if we use a semi-norm. すべてのノルムは計量 d(x, y) = (cid:107)x − y(cid:107) を誘導する。
訳抜け防止モード: すべてのノルムは計量 d(x, y ) = ( cid:107)x − y(cid:107 ) を誘導する。 あるいは、半ノルムを使用する場合の擬似メトリック。
0.60
At least the following popular choices for error measures are directly expressible via norms. 少なくとも以下のエラー測度の一般的な選択は、ノルムを通して直接表現できる。 0.63
For the description, let us put ˆyi := f (xi, p) be the ML model’s estimate on the training data (xi, yi) for a total of i = 1, 2, . 説明のために、トレーニングデータ (xi, yi) 上の ml モデルの推定値として、合計 i = 1, 2, ... を yi := f (xi, p) とする。 0.75
. . , n training samples. . . n個のトレーニングサンプル。 0.80
For abbreviation, put y = (y1, . 略して y = (y1, ) とする。 0.78
. . , yn), ˆy = (ˆy1, . . . yn) ,y = (y1, ) である。 0.82
. . , ˆyn) ∈ Rn, and recall that a general p-norm for p ≥ 1 on Rn is defined by . . Rn 上の p ≥ 1 の一般 p-ノルムが Rn で定義されることを思い出す。
訳抜け防止モード: . . , yyn ) ∈ Rn であり、それを思い出す。 Rn 上の p ≥ 1 の一般 p-ノルムは
0.83
with the practically most important special cases of the 1-norm (cid:107)y(cid:107)1 =(cid:80)n Euclidian norm (cid:107)y(cid:107)2 = (cid:112)y2 1-norm (cid:107)y(cid:107)1 = (cid:80)n ユークリディアンノルム (cid:107)y(cid:107)2 = (cid:112)y2 0.78
i=1 |yi|, n, and maximum-norm (cid:107)y(cid:107)∞ = i=1 |yi|, n, and maximum-norm (cid:107)y(cid:107)∞ = 0.77
i=1 1 + y2 i=1 1 + y2 0.76
2 + . . . + y2 2 + . . . +y2 0.83
, (cid:107)y(cid:107)p = , (cid:107)y(cid:107)p = 0.85
|yi|p (cid:34) n(cid:88) |yi|p (cid:34)n(cid:88) 0.62
(cid:35) 1 p (cid:35)1 p 0.82
maxi |yi|. 1. maxi |yi| 1. 0.88
Mean squared error M SE = 平均二乗誤差 M SE = 0.78
1 n n(cid:88) 1n n(cid:88) 0.79
(yi − ˆyi)2 = (yi − ジイ)2 = 0.79
i=1 (cid:107)y − ˆy(cid:107)2 i=1 (cid:107)y − y(cid:107)2 0.71
2 1 n 2. Root mean squared error 2 1n 2. 根平均二乗誤差 0.80
RM SE = √ M SE = RM SE = √ M SE = 0.85
1√ n (cid:107)y − ˆy(cid:107)2 1~n (cid:107)y − y(cid:107)2 0.67
3. Mean absolute error M AE = 3. 絶対誤差 M AE = 0.74
n(cid:88) i=1 n(cid:88) i=1 0.71
1 n |yi − ˆyi| = 1n |yi − syi| = 0.72
1 n · (cid:107)y − ˆy(cid:107)1 1n ·(cid:107)y − y(cid:107)1 0.80
(5) (6) (7) (5) (6) (7) 0.85
We will not go into discussions about pros and cons of these choices (or alternatives thereto), beyond remarking that the squared errors can be easier to handle for their differentiability properties. これらの選択(あるいはそれに代わるもの)の長所と短所について議論するつもりはないが、二乗誤差はそれらの微分可能性特性をより簡単に扱うことができると指摘する。 0.62
The MAE is on the contrary more robust against outliers, which the (R)MSE penalize more, so that the fitting is more sensitive to training data that has not been cleaned from outliers before. メイは、(r)mseがよりペナルティを課す異常値に対してより強固であるため、以前に異常値から削除されていないトレーニングデータに対してより敏感である。 0.60
Defining an error metric from a norm as yet another appeal, since (topologically) all norms over finite-dimensional real vector-spaces are equivalent. なぜなら(位相的に)有限次元実ベクトル空間上のすべてのノルムは同値であるからである。
訳抜け防止モード: 基準からエラーメトリックをもう1つの魅力として定義する。 位相的に ) 有限次元実ベクトル空間上のすべてのノルムは同値である。
0.64
Since we will make implicit use of that in the following, we state this well known result for vector-norms, whose canonical version for matrix-norms holds likewise: 私たちはこれを暗黙的に利用しますので、ベクトルノルムに対してこのよく知られた結果を述べます。
訳抜け防止モード: 私たちはそれを次のように暗黙的に利用します。 このよく知られた結果をベクトル-ノルム、その行列-ノルムの標準バージョンも同様に保持する。
0.62
16 16 0.85
英語(論文から抽出)日本語訳スコア
Theorem 4 (see, e g , [18, p.17]). 定理4(e g , [18, p.17]) 0.56
Let any two norms (cid:107)·(cid:107)(cid:48) given. 二つのノルム (cid:107)·(cid:107)(cid:48) を与えられる。 0.56
Then there are constants α, β > 0 such that α · (cid:107)x(cid:107)( cid:48) ≤ (cid:107)x(cid:107)( cid:48)(cid:48) ≤ β · (cid:107)x(cid:107)( cid:48) α · (cid:107)(cid:48) ≤ (cid:107)(cid:107)(c id:48) ≤ β · (cid:107)(cid:107)(c id:48) ≤ β · (cid:107)(cid:48) 0.88
. and (cid:107)·(cid:107)(cid:48)(ci d:48) . と (cid:107)· (cid:107)(cid:48)(ci d:48) 0.80
on Rn be Rn be について 0.59
By symmetry, this is an equivalence relation on the set of norms on Rn, and topologically speaking, they all induce the same topology. 対称性により、これは Rn 上のノルムの集合上の同値関係であり、位相的に言えば、それらはすべて同じ位相を誘導する。
訳抜け防止モード: 対称性により、これは Rn 上のノルムの集合上の同値関係である。 トポロジ的にも同じトポロジを誘発します
0.74
For optimization, it means that once the distance (cid:107)xi − y(cid:107) → 0 as i → ∞ for a point sequence xi towards approximating a (fixed) target vector y, this convergence would occur in the same way (though not necessarily at the same speed) in every other norm on Rn. 最適化において、ある点列 xi に対して距離 (cid:107)xi − y(cid:107) → 0 を i → ∞ として(固定された)対象ベクトル y の近似へ向けると、この収束は Rn 上の他のノルムでも同様に(必ずしも同じ速度で)起こることを意味する。 0.86
Practically, this means that fitting a ML model to a training data set by optimizing the norm of the error vector as in (1), will eventually lead to results within a spherical neighborhood (ball) whose radius changes only by a constant factor upon switching from (cid:107)·(cid:107)(cid:48) . これは、(1) の誤差ベクトルのノルムを最適化してMLモデルをトレーニングデータセットに適合させることで、最終的には(cid:107)·(cid:107)(cid:48) から切り換えると、半径が定数因子によってのみ変化する球面近傍(ボール)内で結果が得られることを意味する。
訳抜け防止モード: 実際、これはMLモデルをトレーニングデータセットにセットすることを意味する。 エラーベクトルのノルムを ( 1 ) のように最適化する 最終的に半径の球面近傍(球体)で結果をもたらす cid:107)·(cid:107)(cid:48 ) から切り換えると、定数因子によってのみ変化する。
0.82
Moreover, if an approximation with zero error is possible, both norms will admit finding this optimum point. さらに、誤差ゼロの近似が可能であれば、両ノルムはこの最適点を求めることができる。 0.71
to (cid:107)·(cid:107)(cid:48)(ci d:48) to (cid:107)·(cid:107)(cid:48)(ci d:48) 0.77
A.1 Pseudometrics for the Training A.1 Pseudometrics for the Training 0.88
√ Picking up on the outline started in Section 4.1, a flexible construction for a x(cid:62) · A · x with any positive definite matrix A. √ 抜粋はセクション4.1で始まり、任意の正定値行列 A を持つ x(cid:62) · A · x に対する柔軟な構成である。 0.84
If A is not norm is (cid:107)x(cid:107)A := positive definite, we can still get a semi-norm as x (cid:55)→ (cid:107)A · x(cid:107), with only the property (cid:107)x(cid:107) = 0 ⇐⇒ x = 0 being violated in case that A has a nontrivial nullspace N (A) = {x : A · x = 0}, where by nontrivial we mean N (A) (cid:54)= {0}. A がノルムでないとき、(cid:107)x(cid:107)A := 正定値であるなら、x (cid:55)→ (cid:107)A · x(cid:107) として半ノルムを得ることができ、A が非自明なヌル空間 N (A) = {x : A · x = 0} を持つ場合、性質 (cid:107)x(cid:107) = 0 は違反する。
訳抜け防止モード: A がノルムでないと (cid:107)x(cid:107)A : = 正定値である。 x ( cid:55)→ ( cid:107)A · x(cid:107 ) A が非自明なヌル空間 N ( A ) = { x : A · x = 0 } を持つ場合、その性質 (cid:107)x(cid:107 ) = 0 は違反である。 非自明な場合には N ( A ) ( cid:54) = { 0 } となる。
0.83
We will proceed by constructing a semi-norm that vanishes only for the given error vector e(p∗) or scalar multiples thereof, under the chosen parameter p∗. 我々は、与えられた誤差ベクトル e(p∗) あるいはそのスカラー倍に対してのみ消滅する半ノルムを選択パラメータ p∗ の下で構成する。 0.78
Let us call this particular matrix B, whose existence and construction is not difficult to describe: Lemma 2. この行列 B は、その存在と構成が説明が難しいものではない: Lemma 2。 0.65
Let e ∈ Rn be a vector, then there exists a matrix B having the nullspace N (B) = span{e}. e ∈ Rn をベクトルとすると、ヌル空間 N (B) = span{e} を持つ行列 B が存在する。 0.79
Geometrically, this matrix is a projection on a (n−1)-dimensional subspace of Rn, corresponding to the orthogonal complement of span{e} within Rn. 幾何学的には、この行列は Rn の (n−1)-次元部分空間上の射影であり、Rn 内の Spans{e} の直交補空間に対応する。 0.64
Proof. Compute a Singular Value Decomposition (SVD) e = U · Σ · V for the error vector e, and construct B with the same rows taken from U(cid:62) that correspond to all-zero rows (i.e., zero diagonal elements) in Σ. 証明。 誤差ベクトル e に対して特異値分解 (SVD) e = U · Σ · V を計算し、Σ 内の全零行 (すなわちゼロ対角元) に対応する U(cid:62) から取られた同じ行で構成する。 0.72
The nullspace and geometric properties then directly follow from this construction. ヌル空間と幾何学的性質はこの構成から直接従う。 0.75
Using the matrix B, we can define the semi-norm 行列 B を用いて半ノルムを定義することができる 0.70
(8) in which (cid:107)·(cid:107) is an arbitrary (full) norm on Rn. (8) において (cid:107)·(cid:107) は Rn 上の任意の(完全な)ノルムである。 0.70
This is a well-defined semi-norm, with the properties that これはよく定義された半ノルムであり、その性質を持つ 0.50
b(x) := (cid:107)B · x(cid:107) b(x) := (cid:107)B · x(cid:107) 0.94
• b(e(p∗)) = 0, • and b(x) > 0 whenever x /∈ span{e(p∗)}. • b(e(p∗)) = 0, • および b(x) > 0 は x が x であるときに x となる。 0.69
17 17 0.85
英語(論文から抽出)日本語訳スコア
The function b induces a pseudometric on Rn, as lacking only the identity of indiscernible elements d(x, y) = 0 ⇐⇒ x = y, but still satisfying b(x) ≥ 0 for all x, so that x = p∗ is already an optimum. 関数 b は rn 上の擬メトリックを誘導し、識別不能な元 d(x, y) = 0 の同一性のみを欠いているが、すべての x に対して b(x) ≥ 0 を満たすので、x = p∗ は既に最適である。 0.83
For later reference, let us capture the matrix B more explicitly: 後述の例では、行列 B をより明確に捉えましょう。 0.63
The vector e in Lemma 2 will be our error vector e(p) for the parameterization p, and the subspace that B projects on will be called V throughout all other proofs appearing hereafter. Lemma 2 のベクトル e はパラメータ化 p の誤差ベクトル e(p) であり、B が射影する部分空間はその後現れる他のすべての証明を通して V と呼ばれる。 0.74
Note that, in principle, we could directly use this pseudometric to train our function f towards taking a minimum error for the parameter p∗. 原則として、この擬測度を使って、パラメータ p∗ の最小誤差を取るよう関数 f を訓練することができることに注意。 0.75
The necessary assumption is that upon a change from p∗ to another p (cid:54)= p∗, we would leave the nullspace of B, thus making the function b take on strictly positive values. 必要条件は、p∗ から別の p (cid:54)= p∗ へ変換すると、B の零空間を残して、函数 b が厳密に正の値を取ることである。 0.72
B Proofs B.1 Proof of Theorem 1 bの証明 B.1 定理の証明 1 0.71
This is a simple information-theoreti c argument: call X the random variable representing the (entirety) of the training data that went into the ML model. これは単純な情報理論の引数で、XをMLモデルに移行したトレーニングデータの(関心)を表すランダム変数と呼びます。 0.80
Suppose this is a set of n records containing values that are sampled from a random vector Z in a stochastically independent manner. これは確率的に独立な方法でランダムベクトル z からサンプリングされた値を含む n 個のレコードの集合であるとする。 0.77
Then, X is a matrix of n rows, and has the entropy H(X) = n· H(Z), where H(Z) is the entropy of the joint distribution over the attributes in the training data record. このとき、X は n 行の行列であり、H(X) = n· H(Z) のエントロピーを持つ。
訳抜け防止モード: このとき、X は n 行の行列であり、エントロピー H(X ) = n · H(Z ) を持つ。 ここで H(Z ) は、トレーニングデータレコードの属性に対する結合分布のエントロピーである。
0.74
From here on, let all logarithms have base 2. ここから、すべての対数にベース2を持たせる。 0.67
The trained model is, from the adversary’s perspective, a sample of another random variable Y , representing the collection of parameters that define the model. トレーニングされたモデルは、相手の視点からは、モデルを定義するパラメータの集合を表す、別のランダム変数 Y のサンプルである。 0.78
The recovery problem is the unique reconstruction of X, given Y , and, information-theoreti cally speaking, solvable if and only if H(X|Y ) = 0. 回復問題は、Y が与えられたときの X のユニークな再構成であり、情報理論上は H(X|Y ) = 0 であれば解ける。 0.77
First, note that H(X|Y ) = H(X, Y ) − H(Y ), and that H(X, Y ) ≥ H(X), giving H(X|Y ) ≥ H(X) − H(Y ). まず、H(X|Y ) = H(X, Y ) − H(Y ) であり、H(X, Y ) ≥ H(X) は H(X|Y ) ≥ H(X) − H(Y ) を与える。 0.86
Similarly, the information extractable from the trained model cannot be more than the shortest encoding of the model itself. 同様に、トレーニングされたモデルから抽出可能な情報は、モデル自体の最も短いエンコーディングではない。 0.80
So, suppose that the model f , as a realization of the random variable Y , comes with a string description of length at least K(Y ) = min{(cid:96) ∈ N : f ∼ Y has an (cid:96) bit string representation} bits. したがって、モデル f が、確率変数 Y の実現として、少なくとも K(Y) = min{(cid:96) ∈ N : f > Y が (cid:96) bit string representation} ビットを持つ長さの文字列記述を持つと仮定する。 0.84
Then, the uncertainty reduction by −H(Y ) cannot exceed the bit count to represent f , hence H(X)− H(Y ) ≥ H(X)− K(Y ). このとき、 −h(y ) による不確かさの低減は f を表すビット数を超えないので、h(x)− h(y ) ≥ h(x)− k(y ) となる。 0.68
The maximum additional knowledge of K(Y ) bits, contributed by Y , is increasing in d, since the parameters at some point must be encoded within the string representation of f . Y が貢献する K(Y ) ビットの最大追加知識は、ある点のパラメータが f の文字列表現内にエンコードされなければならないため、d において増加する。 0.79
Using this and the fact that H(X) = n · H(Z), with H(Z) being constant (and determined by the uncertainty in the attributes of the data that were used for training), we find これと H(X) = n · H(Z) が定数であるという事実(そして、訓練に使われたデータの属性の不確かさによって決定される)を用いることで、我々は発見する。 0.81
H(X|Y ) = H(X, Y ) − H(Y ) ≥ H(X) − H(Y ) ≥ n · H(Z) − K(Y ) > 0, H(X|Y ) = H(X, Y ) − H(Y ) ≥ H(X) − H(Y ) ≥ n · H(Z) − K(Y ) > 0, 0.89
(9) if the number n of training records grows sufficiently large over the number d of parameters in the model. (9) トレーニングレコードの数 n がモデルのパラメータの数 d よりも十分に大きくなる場合。 0.79
Once H(X|Y ) > 0, we have no hope for a unique recovery of the training data from a model. H(X|Y ) > 0 になると、モデルからトレーニングデータのユニークなリカバリが期待できない。 0.70
To be precise, it means that the distribution is non-degenerate, meaning that there is at least another possibility 正確には、分布は非退化であり、少なくとも別の可能性があることを意味する。 0.78
18 18 0.85
英語(論文から抽出)日本語訳スコア
(i.e., element in the support) to appear with nonzero probability. (つまり、サポートの要素)はゼロでない確率で現れる。 0.69
This completes the proof of Theorem 1. これは定理 1 の証明を完成させる。 0.68
Theorem 1 does not imply any claim about the possibility or impossibility to single out a most plausible among the possible solutions. 定理1は、可能な解のうち最も妥当な解を選び出す可能性や不可能性についていかなる主張も含まない。
訳抜け防止モード: 理論1は、可能性または不可能性についていかなる主張も含まない 実現可能な解決策を 選び出すためです
0.78
This would be more likely or easy, the smaller the conditional or residual entropy comes out, so making n large over d is practically desirable. これはより可能性または容易であり、条件付きエントロピーや残留エントロピーが小さくなるほど、n を d よりも大きくすることが事実上望ましい。 0.74
Quantifying the chances of guessing is another story, calling for conditional min-entropies here, and left as a direction of future research. 推測の確率を定量化することは別の話であり、ここで条件付きミンエントロピーを求め、将来の研究の方向性として残した。 0.48
While this already positively answers the question of privacy of the data embodied in a ML model, this does not rule out a “lucky guess” of the correct training data. これはすでにMLモデルに具現化されたデータのプライバシーに関する疑問に答えるものだが、正しいトレーニングデータの“幸運な推測”を除外するものではない。 0.77
This guess becomes more likely, the smaller the residual uncertainty H(X|Y ) is. この推測はより可能性が高くなり、残留不確実性 H(X|Y) が小さくなる。 0.69
Irrespectively of the residual uncertainty, the stronger possibility of denying 残留不確実性に拘わらず,否定する可能性の強いもの 0.70
a lucky guess even if it is correct is what plausible deniability is about. たとえそれが正しいとしても、幸運な推測は、その可能性の真偽である。 0.64
B.2 Proof of Lemma 1 Let e(p∗) be a vector spanning the nullspace of a matrix B, and let b be defined by (8). b.2 の補題 1 の証明は、e(p∗) を行列 b の零空間にまたがるベクトルとし、b を (8) で定義する。 0.76
Since f is differentiable, we can locally write the error term as f は微分可能であるので、エラー項を局所的に記述できる。 0.62
e(p) = e(p∗) + (Jp(f ))(p∗) · (p − p∗) + o((cid:107)p − p∗(cid:107)) e(p) = e(p∗) + (Jp(f ))(p∗) · (p − p∗) + o((cid:107)p − p∗(cid:107)) 0.94
for all p in some neighborhood of p∗. p∗ の近傍のすべての p に対して。 0.74
Abbreviating our notation by writing M := (Jp(f ))(p∗), i.e., calling M the Jacobian of f evaluated at p∗, and rearranging terms, we get M := (Jp(f ))(p∗)、すなわち、M を p∗ で評価された f のヤコビアンと呼び、項を並べ替えることによって表記を省略する。 0.71
e(p) − e(p∗) = M · (p − p∗) + o((cid:107)p − p∗(cid:107)). e(p) − e(p∗) = m · (p − p∗) + o((cid:107)p − p∗(cid:107)) である。 0.94
(10) Towards a contradiction, assume e(p) ∈ N (B). (10) 矛盾に対して e(p) ∈ N (B) を仮定する。 0.79
By construction, we have e(p∗) ∈ N (B), so the difference e(p)−e(p∗) of the two is also in N (B). 構成上、 e(p∗) ∈ N(B) であるため、2 の差 e(p)−e(p∗) も N(B) に含まれる。
訳抜け防止モード: 構成により、e(p∗ ) ∈ N ( B ) したがって、2つの差 e(p)−e(p∗ ) もまた N ( B ) である。
0.82
Likewise must thus be the right hand of (10) in N (B), and we can find a sequence (pi)i∈N inside N (B) that satisfies (10). 同様に、N (B) における (10) の右手でなければならないので、 (10) を満たす N (B) 内の列 (pi)i∂N を見つけることができる。 0.83
Because N (B) = span{e(p∗)}, we can write this sequence as pi := p∗ + hi · v, using another null-sequence (hi)i∈N of values in R and the unit vector v := e(p∗)/(cid:107)e(p∗)(cid:107) (the norm is herein the one from (10), and has nothing to do with the one asserted by Theorem 2). n (b) = span{e(p∗)} なので、この列を pi := p∗ + hi · v と書くことができ、r の値のもう1つのヌルシーケンス (hi)iψn と単位ベクトル v := e(p∗)/(cid:107)e(p∗)(cid:107) (ノルムは (10) からのものであって、定理 2 によって主張されたものとは関係がない。 0.79
Since the sequence hi → 0 is arbitrary (as is the sequence pi), let us just write h → 0 to define the sequence of points in N (B). 列 hi → 0 は任意の(つまり列 pi である)ので、単に h → 0 を書き、 N (B) 内の点の列を定義する。 0.66
This lets us rewrite (10) as これは (10) を書き換えることができます 0.71
e(p∗ + h · v) − e(p∗) = M · h · v + o(h), e(p∗ + h · v) − e(p∗) = m · h · v + o(h) である。 0.87
which we can divide by h > 0 to get the quotient 商を得るために h > 0 で割ることができます 0.66
e(p∗ + h · v) − e(p∗) e(p∗ + h · v) − e(p∗) 0.91
h = M · v + H = M · v + 0.81
o(h) h . h → 0 as h → 0 by the definition of the small-o, and on the Therein, we have o(h) left hand side, we get the directional derivative along v by taking h → 0, since f was assumed to be totally differentiable. o(h) H . 小さい O の定義により h → 0 を h → 0 とし、その上には o(h) の左手があり、f が完全に微分可能であると仮定されたため、f を h → 0 とすることで v に沿って方向微分を得る。 0.82
19 19 0.85
英語(論文から抽出)日本語訳スコア
Before, we noted the left side of (10) to be in N (B), and since subspaces are topologically closed, the limit, i.e., the directional derivative must also be in N (B). 前述したように、(10) の左辺は N (B) であり、部分空間は位相的に閉であるので、その極限、すなわち、方向微分も N (B) に含まれる必要がある。 0.73
Accordingly, this puts the right side M · v ∈ N (B), implying that there is some number λ ∈ R so that M · v = λ · e(p∗). したがって、これは右辺 M · v ∈ N (B) を置けば、M · v = λ · e(p∗) となるような数 λ ∈ R が存在することを意味する。 0.86
But this means that e(p∗) must be in the column space of M, which contradicts our hypothesis (4) on the rank and refutes the assumption that e(p) can be in N (B). しかしこれは、e(p∗) は M の列空間になければならないことを意味し、これは階数 (4) の仮説と矛盾し、e(p) が N (B) 内に存在するという仮定を否定する。 0.70
We thus have e(p) /∈ N (B) in a neighborhood of p∗, but e(p∗) ∈ N (B). したがって、p∗ の近傍に e(p) /∂ N (B) を持つが、e(p∗) ∈ N (B) である。 0.80
Now, using the semi-norm b(x) = (cid:107)B · x(cid:107), we see that (cid:107)e(p∗)(cid:107) = 0, while (cid:107)e(p)(cid:10 7) > 0, so p∗ is locally optimal under this semi-norm. 半ノルム b(x) = (cid:107)B · x(cid:107)e(p∗)(cid:107) = 0, while (cid:107)e(p)(cid:10 7) > 0 なので、p∗ はこの半ノルムの下で局所的に最適である。 0.76
B.3 Proof of Theorem 2 b.3 定理の証明 2 0.77
The norm as claimed to exist above will be (cid:107)x(cid:107) := (cid:107)x(cid:107)e + b(x), 上述の規範は、 (cid:107)x(cid:107) := (cid:107)x(cid:107)e + b(x) 0.60
(11) with b as we had so far, and another norm (cid:107)·(cid:107)e, to be designed later (the subscript e to the norm is hereafter a reminder that this norm will depend on the error vector e). (11) これまでのように b と別のノルム (cid:107)·(cid:107)e は後に設計されるべきである(このノルムに対する部分スクリプト e は、このノルムが誤差ベクトル e に依存することを思い出させる)。 0.72
Intuitively, one may think of b as a “penalty term” to increase the norm upon any deviation from the desired error vector (hence making this point a minimum). 直観的には、b を所望の誤差ベクトルからの偏差(したがってこの点を最小とする)のノルムを増大させる「金の項」と考えることができる。 0.72
At p∗, we have (cid:124) (cid:123)(cid:122) (cid:125) (cid:107)e(p∗)(cid:107) = (cid:107)e(p∗)(cid:107)e + b(e(p∗)) p∗ では、 (cid:124) (cid:123)(cid:122) (cid:125) (cid:107)e(p∗)(cid:107) = (cid:107)e(p∗)(cid:107)e + b(e(p∗)) 0.67
=0 = (cid:107)e(p∗)(cid:107)e , =0 = (cid:107)e(p∗)(cid:107)e , 0.88
by our choice of the semi-norm b. 半ノルム b の選択により。 0.55
Our goal is showing that (12) From the triangle inequality that (cid:107)·(cid:107)e must satisfy, we get for any p (cid:54)= p∗, (cid:107)e(p∗)(cid:107)e = (cid:107)e(p∗) − e(p) + e(p)(cid:107)e ≤ (cid:107)e(p)(cid:10 7)e + (cid:107)e(p∗) − e(p)(cid:107)e, and by rearranging terms, we find (cid:107)e(p)(cid:10 7)e ≥ (cid:107)e(p∗)(cid:107)e −(cid:107)e(p∗) − e(p)(cid:107)e. Substituting this into (11), we get 私たちの目標は (12) (cid:107)·(cid:107)eが満たさなければならない三角形の不等式から、任意の p (cid:54) = p∗, (cid:107)e(p∗)(cid:107)e = (cid:107)e(p∗) − e(p) + e(p)(cid:107)e + (cid:107)e(cid:107)e + (cid:107)e(cid:107)e (cid:107)e + (cid:107)e(cid:107)e (p)(cid:107)e(cid:10 7)e(cid:107)e(cid:10 7)e)e を得る。
訳抜け防止モード: 私たちの目標は (12)三角形の不等式から cid:107)·(cid:107)e は満たさなければならない。 p ( cid:54) = p∗, ( cid:107)e(p∗)(cid:107)e = ( cid:107)e(p∗ ) − e(p ) + e(p)(cid:107)e ≤ ( cid:107)e(p)(cid:107 )e + ( cid:107)e(p∗ ) − e(p)(cid:107)e, 言い換えると、 (cid:107)e(p)(cid:10 7)e ≥ ( cid:107)e(p∗)(cid:107)e −(cid:107)e(p∗ ) − e(p)(cid:107)e となる。 これを(11)に置き換える わかった
0.79
(cid:107)e(p∗)(cid:107) ≤ (cid:107)e(p)(cid:10 7) . (cid:107)e(p∗)(cid:107) ≤ (cid:107)e(p)(cid:10 7)。 0.83
(cid:107)e(p)(cid:10 7) = (cid:107)e(p)(cid:10 7)e + b(e(p)) (cid:107)e(p)(cid:10 7) = (cid:107)e(p)(cid:10 7)e + b(e(p)) 0.94
≥ (cid:107)e(p∗)(cid:107)e − (cid:107)e(p∗) − e(p)(cid:107)e + b(e(p)). ≥ (cid:107)e(p∗)(cid:107)e − (cid:107)e(p∗) − e(p)(cid:107)e + b(e(p))。 0.94
To prove (12), it suffices to construct a norm (cid:107)·(cid:107)e that satisfies 12) を証明するには、ノルム(cid:107)·(cid:107)e を構成するだけで十分である。 0.64
(13) (cid:107)e(p∗) − e(p)(cid:107)e ≤ b(e(p)), (13) (cid:107)e(p∗) − e(p)(cid:107)e ≤ b(e(p))) 0.90
(14) for all p for which e(p) is outside of N (B) (otherwise, for e(p) ∈ N (B) distinct from p∗ we would have (cid:107)e(p∗) − e(p)(cid:107) > 0 but b(e(p)) = 0, invalidating (14)). (14) e(p) が N(B) の外側にあるすべての p に対して(p∗ とは異なる e(p) ∈ N(B) に対して) (cid:107)e(p∗) − e(p)(cid:107) > 0 となるが、b(e(p)) = 0 であり、無効である (14) 。 0.92
The assurance that e(p) /∈ N (B) is hereby implied by the hypothesis and arguments of Lemma 1, which we included in the theorem’s hypothesis and hence not repeat here. e(p) /servlet n (b) の保証は、この定理の仮説に含まれる補題 1 の仮説と議論によって暗示される。
訳抜け防止モード: e(p ) /∂ N ( B ) の保証は、ここでは Lemma 1 の仮説と議論によって示唆される。 定理の仮説に含めており、したがってここでは繰り返されない。
0.81
20 20 0.85
英語(論文から抽出)日本語訳スコア
span(e(p∗)) span (複数形 spans) 0.59
e(p∗) point x vector x − B · x lies inside span(e(p∗)) e(p∗) 点x ベクトル x − b · x は span(e(p∗)) の内部にある。 0.82
projection B · x of x on a subspace of V V の部分空間上の x の射影 B · x 0.80
orthogonal complement V of span(e(p∗)) span(e(p∗))の直交補数v 0.59
Figure 1: Illustration of the projection norm (cid:107)·(cid:107)V 図1:射影ノルムの図示(cid:107)·(cid:107)v 0.80
So we can continue (13) as したがって、 (13) を継続できます。 0.69
(cid:125) (cid:107)e(p)(cid:10 7) ≥ (cid:107)e(p∗)(cid:107)e −(cid:107)e(p∗) − e(p)(cid:107)e + b(e(p)) (cid:125) (cid:107)e(p)(cid:10 7) ≥ (cid:107)e(p∗)(cid:107)e −(cid:107)e(p∗) − e(p)(cid:107)e + b(e(p)) 0.94
(cid:123)(cid:122) (cid:123)(cid:122) 0.75
≥0 (cid:124) ≥ (cid:107)e(p∗)(cid:107)e . ≥0 (cid:124) ≥ (cid:107)e(p∗)(cid:107)e。 0.81
With that accomplished, and recalling that b was constructed towards b(e(p∗)) = 0, we would find (cid:107)e(p)(cid:10 7) ≥ (cid:107)e(p∗)(cid:107)e = (cid:107)e(p∗)(cid:107)e + b(e(p∗)) = (cid:107)e(p∗)(cid:107), which is exactly our goal (12). b が b(e(p∗)) = 0 に対して構築されたことを思い出すと、(cid:107)e(p)(cid:10 7) ≥ (cid:107)e(p∗)(cid:107)e = (cid:107)e(p∗)(cid:107)e + b(e(p∗)) = (cid:107)e(cid:107)e (p∗)(cid:107)はまさに我々のゴール(12)である。 0.93
Thus, we are left with the task of finding a norm (cid:107)·(cid:107)e that satisfies (14). したがって、 (14) を満たすノルム (cid:107)·(cid:107)e を見つけるタスクが残される。
訳抜け防止モード: したがって、我々はその任務を任される。 標準 (cid:107)· (cid:107)e は (14 ) を満たす。
0.82
To this end, recall that the semi-norm b becomes a (full) norm on the factor space Rn/∼, modulo the equivalence relation x ∼ y ⇐⇒ (x − y) ∈ N (B). この目的のために、半ノルム b が因子空間 Rn/ 上の(完全)ノルムとなることを思い出して、同値関係 x , y (x − y) ∈ N (B) を変調する。 0.67
By the dimension formula, we have dim(Rn) = dim(Rn/∼) + dim(N (B)), and since dim(N (B)) = 1, we find dim(Rn/∼) = n − 1. 次元式により、 dim(Rn) = dim(Rn/*) + dim(N(B)) となり、 dim(N(B)) = 1 となると dim(Rn/*) = n − 1 となる。 0.81
Since the factor space is a vector space over the reals, it is isomorphic to the (n−1)-dimensional orthogonal complement V := N (B)⊥ ⊂ Rn of N (B) (cid:39) R1. 因子空間は実数体上のベクトル空間であるため、N (B) (cid:39) R1 の (n−1)-次元直交補空間 V := N (B) > Rn に同型である。 0.80
On V , we can define a norm, e g (cid:107)·(cid:107)2. V 上のノルム e g (cid:107)·(cid:107)2 を定義することができる。 0.72
By Lemma 2, projV = B is the projection of a vector onto V , then (taking the same norm as in (8)), (cid:107)x(cid:107)V := Lemma 2 により、projV = B はベクトルの V への射影であり、 (8 )、 (cid:107)x(cid:107)V := である。 0.78
(cid:107)projV (x)(cid:107) = (cid:107)projV (x)(cid:107) = 0.88
· b(x) 1 2 1 2 ·b(x) 1 2 1 2 0.83
is a semi-norm on Rn. Rn 上の半ノルムである。 0.53
This semi-norm trivially satisfies (cid:107)x(cid:107)V ≤ 1 x ∈ Rn. この半ノルムは (cid:107)x(cid:107)V ≤ 1 x ∈ Rn を満たす。 0.70
Figure 1 provides an illustration. 図1はイラストです。 0.63
2 b(x) for all Now, for an intermediate wrap-up, (cid:107)·(cid:107)V is a semi-norm obeying the desired bounds for all vectors, especially those in the orthogonal complement of N (B), as desired. 2 b(x) for all Now, for a intermediate wrap-up, (cid:107)·(cid:107)V はすべてのベクトル、特に N (B) の直交補集合における所望の境界に従う半ノルムである。 0.84
We now need to extend it to a full norm on the entire space Rn using the following idea: the sum of two semi-norms over the same vector space is again a semi-norm and it is a full norm, if and only if the intersection of kernels of the two semi-norms is exactly {0}. 同じベクトル空間上の2つの半ノルムの和が再び半ノルムであり、それが全ノルムであることと、2つの半ノルムの核の交叉がちょうど {0} であることは同値である。
訳抜け防止モード: 次のアイデアを使って、空間 rn 全体の完全なノルムに拡張する必要がある: 同じベクトル空間上の二つの半-ノルムの和は再び半-ノルムとなる。 そしてそれは完全な規範であり、もし、そして、それが 2つの半ノルムの核の交叉はちょうど {0 } である。
0.64
So we can construct a full norm by adding another semi-norm, that is a full norm on a 1-dimensional space (isomorphic to N (B)), which retains (14) on Rn \ N (B). したがって、Rn \ N (B) 上の (14) を保持する 1-次元空間(N (B) に同型)上の全ノルムである別の半ノルムを加えることで、完全なノルムを構築することができる。 0.75
21 21 0.85
英語(論文から抽出)日本語訳スコア
x ∈ N (B) e(p∗) x ∈ N (B) e(p∗) 0.85
span(e(p∗)) (not orthogonal on W ) span(e(p∗)) (w 上の直交ではない) 0.79
(N − 1)-dimensional space W (N − 1)次元空間W 0.81
w1 projection of x on W W1 W 上の x の射影 0.66
W1 = span(w1) W1 = span(w1) 0.92
projection on W1 gives the sought norm w1 上の射影は求めるノルムを与える 0.56
Figure 2: Illustration of the construction of (cid:107)·(cid:107)W 図2: (cid:107)·(cid:107)wの構成図 0.80
The idea is to project a vector in N (B) to the exterior of N (B) and take the norm of the projection there. この考え方は、N(B) 内のベクトルを N(B) の外周に射影し、そこでの射影のノルムを取ることである。 0.73
To materialize this plan, let {v1, . この計画を実現するために、 {v1, . 0.81
. . , vn−1} be an orthonormal basis of V . . . , vn−1} は V の正規直交基底である。 0.79
Furthermore, pick any vector w1 ∈ Rn with two properties: (1) it is not a scalar multiple of e(p∗), and (2) it is linearly independent of all {v1, . さらに、2つの性質を持つ任意のベクトル w1 ∈ Rn を選ぶ: (1) e(p∗) のスカラー倍ではなく、(2) はすべての {v1, に対して線型独立である。 0.83
. . , vn−1}. . . , vn−1。 0.85
In other words, we want both sets {w1, e(p∗)} and {w1, v1, . 言い換えれば、両方の集合 {w1, e(p∗)} と {w1, v1, が成り立つ。 0.72
. . , vn−1} to be linearly independent4. . . , vn−1} は線型独立である。 0.80
An easy choice for w1 is to rotate the vector e(p∗) enough to become linearly independent of it, but not far enough to become lying in the orthogonal complement. w1 の簡単な選択は、ベクトル e(p∗) を線型独立に回転させることであるが、直交補集合に横たわるほど遠くないことである。 0.74
Figure 2 graphically sketches the idea formalized now. 図2は、現在形式化されたアイデアをグラフィカルにスケッチします。 0.50
Call W1 := span{w1} the linear hull of w1, and pick another n − 2 pairwise orthogonal vectors w2, . W1 := span{w1} を w1 の線型包とし、別の n − 2 対直交ベクトル w2, を選択する。 0.78
. . , wn−1, whose entirety spans the space W ⊥ n−2 = span{w2, . . . , wn−1, その全体性は空間 W , n−2 = span{w2, である。 0.81
. . , wn−1} (the subscript and superscript are here serving as reminders about the dimensionality and the orthogonality of this space relative to W1). . . , wn−1} である(この部分文字と上文字は、W1 に対してこの空間の次元と直交性についてのリマインダーとして用いられる)。 0.77
Clearly, we have Rn (cid:39) W1 ⊕ W ⊥ 明らかに私たちは Rn (cid:39) W1 ? 0.72
(cid:125) n−2 ⊕ span{e(p∗)} (cid:125) n−2 > span{e(p∗)} 0.93
(cid:123)(cid:122) (cid:123)(cid:122) 0.75
(cid:124) . (cid:124) . 0.82
=N (B) Now, let any x ∈ N (B) be given. =N(B) ここで、任意の x ∈ N (B) を与えられる。 0.85
We can project x on the spaces W1 and W ⊥ Since the space W := W1 ⊕ W ⊥ have the isomorphy 空間 W1 と W1 に x を射影することができる、なぜならば、空間 W := W1 は同型であるからである。
訳抜け防止モード: 空間 W1 上で x を射影することができる。 空間 W : = W1 > W {\displaystyle W} は同型である
0.73
n−2. n−2 is also over R and has dimension n − 1, we W1 ⊕ W ⊥ n−2。 n−2 もまた r 上であり、次元 n − 1 である。 0.69
n−2 (cid:39) Rn/∼, n−2 (cid:39) Rn/ , 0.59
so that the function b is again a norm on W . したがって、函数 b が再び W 上のノルムとなる。 0.76
Now, let us take the 1-norm (an arbitrary choice here) to define another norm on W as さて、w 上の別のノルムを定義するために 1-ノルム(任意の選択)を取ろう。 0.55
(cid:107)x(cid:107)W :=(cid:13)(cid:13)proj W1 (x)(cid:13)(cid:13)1 + (cid:107)x(cid:107)w :=(cid:13)(cid:13)proj w1 (x)(cid:13)(cid:13)1 + 0.81
(cid:13)(cid:13)(cid :13)projW ⊥ (cid:13)(cid:13)(cid :13)projW 0.81
(cid:13)(cid:13)(cid :13)1 (cid:13)(cid:13)(cid :13)1 0.76
(x) . n−2 Since all norms over Rd are equivalent by Theorem 4 (for all d, especially d = n or d = n− 1), there is a constant α > 0 such that α·(cid:107)x(cid:107)W < b(x). (x) . n−2 Rd 上のすべてのノルムは Theorem 4 (特に d = n または d = n− 1) で同値であるため、α·(cid:107)x(cid:107)W < b(x) となるような定数 α > 0 が存在する。 0.80
By definition 4note that w1 is in any case non-orthogonal to e(p∗), which assures that the projection of any element in span(e(p∗)) onto the subspace spanned by w1 is nontrivial; if w1 were orthogonal to e(p∗), it would necessarily be a scalar multiple of some vector among v1, . 定義 4 により、w1 が e(p∗) に直交する任意の場合において、w1 が e(p∗) に直交する部分空間へのスパン(e(p∗)) の任意の元の射影が非自明であることを保証し、w1 が e(p∗) に直交するならば、それは v1 の中のあるベクトルのスカラー倍である。 0.69
. . , vn−1, in which case it cannot be linearly independent of them, as we required too. . . , vn−1 の場合も必要であるので, 線形独立とはならない。 0.77
22 22 0.85
英語(論文から抽出)日本語訳スコア
of (cid:107)x(cid:107)W , we also have α · (cid:107)x(cid:107)1 ≤ α · (cid:107)x(cid:107)W ≤ b(x). (cid:107)x(cid:107)w に対し、α · (cid:107)x(cid:107)1 ≤ α · (cid:107)x(cid:107)w ≤ b(x) である。 0.86
This lets us define a norm on the subspace W1 ⊂ W as これにより、部分空間 W1 > W 上のノルムを定義できる。 0.58
(cid:107)x(cid:107)W 1 (cid:107)x(cid:107)W 1 0.76
:= α 2 ·(cid:13)(cid:13)proj W1 (x)(cid:13)(cid:13)1 , := α 2 ·(cid:13)(cid:13)proj w1(x)(cid:13)(cid:13 )1 , 0.83
which satisfies the desired inequality (cid:107)x(cid:107)W 1 所望の不等式 (cid:107)x(cid:107)w 1 を満たす 0.66
≤ 1 Now, let us put together the pieces: define the sought norm (cid:107)·(cid:107)e as ≤ 1 求めるノルム(cid:107)·(cid:107)eを次のように定義します。 0.69
2 b(x). (cid:107)x(cid:107)e := (cid:107)x(cid:107)V + (cid:107)x(cid:107)W 1 2b(x)である。 (cid:107)x(cid:107)e := (cid:107)x(cid:107)V + (cid:107)x(cid:107)W 1 0.79
≤ 1 2 b(x) + ≤ 1 2 b(x) + 0.85
1 2 b(x) = b(x), 1 2 b(x) = b(x) 0.80
where the inequality is only demanded to hold for x /∈ N (B). ここで不等式は x に対してのみ成り立つことが要求される(B)。 0.68
Observe that this is indeed a (full) norm on Rn, since: • if x = 0, then (cid:107)x(cid:107)V = (cid:107)x(cid:107)W 1 • if x (cid:54)= 0 and x /∈ N (B), then there is a nonzero projection xV on the orthogonal complement of N (B), on which (cid:107)xV (cid:107)V > 0, and hence (cid:107)x(cid:107)e > 0. x = 0 であれば (cid:107)x(cid:107)v = (cid:107)x(cid:107)w 1 • if x (cid:54)= 0 かつ x /servlet n (b) であれば、n (b) の直交補集合上に 0 でない射影 xv が存在し、その上に (cid:107)xv (cid:107)v > 0 であり、したがって (cid:107)x(cid:107)e > 0 となる。 0.83
Likewise, if x (cid:54)= 0 and x ∈ N (B) ( ⇐⇒ x /∈ N (B)⊥), then there is a nonzero projection on W1, making the other part of the norm > 0. 同様に、x (cid:54) = 0 および x ∈ N (B) ( s x /∂ N (B) ) であれば、W1 上に 0 でない射影が存在し、ノルム > 0 の他の部分となる。 0.84
= 0 • Homogeneity and the triangle inequality hold by construction and are = 0 •均質性と構成による三角形の不等式 0.82
obvious to check. Substituting this into (11), we finally get 確認は当然だ これを(11)に置き換えると、ついに 0.57
(cid:107)e(p) − e(p∗)(cid:107)e ≤ (cid:107)e(p)(cid:10 7)e + (cid:107)e(p∗)(cid:107)e ≤ b(e(p)) + b(e(p∗)) = b(e(p)), (cid:107)e(p) − e(p∗)(cid:107)e ≤ (cid:107)e(p)(cid:10 7)e + (cid:107)e(p∗)(cid:107)e ≤ b(e(p)) + b(e(p∗)) = b(e(p)))。 0.97
thus satisfying (14), and yielding the final norm from (11) as したがって、(14)を満足し、(11)から最終的なノルムを得る 0.69
(cid:107)x(cid:107) = (cid:107)x(cid:107) = 0.81
b(x) + (cid:107)x(cid:107)W 1 b(x) + (cid:107)x(cid:107)W 1 0.87
. 3 2 This completes the proof of Theorem 2. . 3 2 これは定理2の証明を完遂する。 0.81
So far, this argument is not entirely constructive, but can be made so by reconsidering the construction in a little more detail, to which we devote the next paragraph. これまでのところ、この議論は完全に構成的ではなく、我々は次の段落を捧げる構成をもう少し詳細に再検討することでできる。 0.70
B.3.1 Computing the Projections and the Value α B.3.1 投射と値 α の計算 0.81
As stated, the proof of Theorem 2 is not constructive at the point where it claims the existence of the constant α to make α·(cid:107)x(cid:107)W ≤ b(x). 前述のように、定理 2 の証明は α·(cid:107)x(cid:107)W ≤ b(x) となる定数 α の存在を主張する点において構成的ではない。 0.86
Working out a suitable constant α explicitly is not difficult: every x ∈ W1 = span(w1) takes the form x = λ · w1 for some λ ∈ R, and we can, w.l.o.g., assume w1 to have unit length すべての x ∈ W1 = span(w1) は、ある λ ∈ R に対して x = λ · w1 の形を取る。
訳抜け防止モード: すべての x ∈ W1 = span(w1 ) は、ある λ ∈ R に対して x = λ · w1 の形を取る。 w.l.o.g.はw1を単位の長さとします
0.74
w.r.t. (cid:107)·(cid:107)1 on Rn. w.r.t. (cid:107)·(cid:107)1 on Rn。 0.67
Then,(cid:13)(cid:13 )projW1 (x)(cid:13)(cid:13)1 = |λ|, and b(x) = b(λ· w1) = |λ|· b(w1). 次に (cid:13)(cid:13)proj W1 (x)(cid:13)(cid:13)1 = |λ|, b(x) = b(λ·w1) = |λ|· b(w1) となる。 0.80
So, it suffices to choose any α ∈ (0, b(w1)) to accomplish α·(cid:13)(cid:13)proj W1(x)(cid:13)(cid:13 )1 < b(x) したがって、任意の α ∈ (0, b(w1)) を選択して α·(cid:13)(cid:13)proj W1(x)(cid:13)(cid:13 )1 < b(x) 0.85
for x ∈ W1, as desired. 所望の x ∈ W1 に対して。 0.80
If x ∈ Rn is arbitrary, its projection is directly obtained x ∈ rn が任意のとき、その射影は直接得られる 0.78
23 23 0.85
英語(論文から抽出)日本語訳スコア
Input: Let e = f (x, p∗) − y ∈ Rn be the error vector of the ML model f using the parameters p∗, on the training/validation data (x, y). 入力: e = f (x, p∗) − y ∈ Rn を、トレーニング/検証データ (x, y) 上のパラメータ p∗ を用いて、MLモデル f の誤差ベクトルとする。 0.81
Output: The norm that Theorem 2 speaks about. 出力: the norm that theorem 2 speaks about. 0.82
1. Compute B as shown in the proof of Lemma 2. 1. Lemma 2 の証明に示すような計算 B である。 0.82
2. Pick a random vector w1 ∈ Rn with (cid:107)w1(cid:107) 1 = 1. 2. ランダムベクトル w1 ∈ rn を (cid:107)w1(cid:107) 1 = 1 で選ぶ。 0.83
With probability 1, this will deliver a vector that is linearly independent of all rows in B, and also not a scalar multiple of e (but this should nonetheless be checked by checking if the w1 (cid:54)= B · w1 is fulfilled. 確率 1 では、これは b のすべての行から線型に独立なベクトルをもたらし、e のスカラー倍数ではない(ただし、これは w1 (cid:54)= b · w1 が満たされているかどうかをチェックすることによって確かめるべきである)。 0.74
Otherwise sample another vector w1 and repeat). さもなくば別のベクトル w1 をサンプリングして繰り返す)。 0.57
The probability assurance follows from the fact that any lower-dimensional subspace of Rn has zero Lebesgue measure in Rn. 確率保証は、Rn の任意の下次元部分空間が Rn においてルベーグ測度が 0 であるという事実から導かれる。 0.59
2 · b(w1), with the function b defined from the matrix B 2 · b(w1) で、関数 b は行列 b から定義される 0.84
3. Put α := 1 3. α := 1 とする 0.86
via (8). 4. via (8)。 4. 0.82
Given any vector x ∈ Rn, compute the norm (cid:107)x(cid:107)e = (cid:107)x(cid:107)V + (cid:107)x(cid:107)W 1 任意のベクトル x ∈ rn が与えられると、ノルム (cid:107)x(cid:107)e = (cid:107)x(cid:107)v + (cid:107)x(cid:107)w 1 を計算する。 0.70
utilizing that (cid:107)x(cid:107)V = (cid:107)projV (x)(cid:107) := 1 to obtain (cid:107)x(cid:107) from (11) as cid:107)x(cid:107)V = (cid:107)projV (x)(cid:107) := 1 から (cid:107)x(cid:107) を得る。 0.87
2·b(x), and (cid:107)x(cid:107)W 1 2·b(x), (cid:107)x(cid:107)W 1 0.85
= α (cid:107)x(cid:107) = = α (cid:107)x(cid:107) = 0.83
3 2 b(x) + 3 2 b(x) + 0.85
α 2 ·(cid:12)(cid:12)x(ci d:62) · w1 α 2 ·(cid:12)(cid:12)x(ci d:62) · w1 0.82
(cid:12)(cid:12) (cid:12)(cid:12) 0.75
2 ·(cid:12)(cid:12)x(ci d:62)w1 2 ·(cid:12)(cid:12)x(ci d:62)w1 0.78
(cid:12)(cid:12), (cid:12)(cid:12) 0.79
, (15) Figure 3: Computation of the norm asserted by Theorem 2 , (15) 図3: Theorem 2 が主張するノルムの計算 0.81
from the standard scalar product projW1 (x) = (cid:104)x, w1(cid:105)· w1 = (x(cid:62) · w1)· w1 with λ = (cid:104)x, w1(cid:105). 標準スカラー積 projW1 (x) = (cid:104)x, w1(cid:105)· w1 = (x(cid:62) · w1)· w1 with λ = (cid:104)x, w1(cid:105) から。 0.82
Computing the projection of a vector x ∈ Rn on the subspace V is simply the mapping x (cid:55)→ B · x, if B is constructed as Lemma 2 prescribes. 部分空間 V 上のベクトル x ∈ Rn の射影を計算することは、単に写像 x (cid:55) → B · x である。
訳抜け防止モード: 部分空間 V 上のベクトル x ∈ Rn の射影を計算する 単に写像 x ( cid:55) → B · x であるなら、B は Lemma 2 の前提として構成される。
0.80
Putting together the pieces, given the parameter set p∗ and the resulting residual error vector e, the norm as told by Theorem 2 is explicitly computable along the steps summarized in Figure 3. パラメータ集合 p∗ と余剰誤差ベクトル e が与えられたとき、ピースをまとめると、Theorem 2 が言うノルムは図 3 にまとめられたステップに沿って明示的に計算可能である。 0.78
B.4 Proof of Corollary 1 B.4 ロール1の証明 0.63
A re-inspection of the proof of Theorem 2 in Section B.3 quickly shows that it nowhere depends on the algebraic structure of the function b as given by (8), and we only used the fact that b is a semi-norm. a re-inspection of the proof of theorem 2 in section b.3 は (8) で与えられる函数 b の代数構造に全く依存しないことを示し、b が半ノルムであるという事実のみを用いた。 0.82
With that in mind, we can investigate special cases: そのことを念頭に置いて 特別な事件を調査できます 0.62
Define b as b(x) := (cid:107)B · x(cid:107)1 , b を定義 b(x) := (cid:107)B · x(cid:107)1 , 0.84
(16) which has the kernel N (B), and is also a semi-norm. (16) 核 n (b) を持ち、半ノルムでもある。 0.72
However, it lets us express the final norm that Theorem 2 concludes with by a more elegant algebraic expression. しかし、よりエレガントな代数的表現によって定理2が結論付ける最後のノルムを表現することができる。 0.67
Upon re-arriving at (15) (see Figure 3) using the function b as 関数 b を (15) で再配列するとき(図 3 を参照) 0.76
24 24 0.85
英語(論文から抽出)日本語訳スコア
defined by (16), we can expand towards (16)によって定義され 0.50
and, recalling that adding the right term to the 1-norm on the left is the same as taking the 1-norm on a vector with merely one additional coordinate, we see そして、左の1-ノルムに右項を加えることは、ただ1つの追加座標を持つベクトル上の1-ノルムと等しいことを思い出すと、 0.74
with a block matrix C =(cid:0) (3/2)·B ブロック行列 C =(cid:0) (3/2)·B 0.85
(α/2)·w(cid:62) (α/2)·w(cid:62) 0.72
1 (cid:107)x(cid:107) = 1 (cid:107)x(cid:107) = 0.83
3 2 (cid:107)C · x(cid:107)1 = 3 2 (cid:107)C · x(cid:107)1 = 0.87
(cid:12)(cid:12)x(ci d:62)w1 (cid:12)(cid:12)x(ci d:62)w1 0.74
(cid:12)(cid:12) , (cid:12)(cid:12) 0.72
α 2 (cid:107)Bx(cid:107) 1 + (cid:1) (cid:13)(cid:13)(cid :13)(cid:13)(cid:18) 3 α 2 (cid:107)bx(cid:107) 1 + (cid:1) (cid:13)(cid:13)(cid :13)(cid:18) 3 0.85
α 2 B · x 1 · x 2 w(cid:62) (cid:107)Bx(cid:107) 1 + α 2 α 2 B · x 1 · x 2 w(cid:62) (cid:107)Bx(cid:107) 1 + α 2 0.90
3 2 = = (cid:107)x(cid:107) , 3 2 = (cid:107)x(cid:107) , 0.86
(cid:19)(cid:13)(cid :13)(cid:13)(cid:13) 1 (cid:12)(cid:12)x(ci d:62)w1 (cid:19)(cid:13)(cid :13)(cid:13)1(cid:12 )(cid:12)x(cid:62)w1 ) 0.78
(cid:12)(cid:12) (cid:12)(cid:12) 0.75
(17) so that (cid:107)e(cid:107) = (cid:107)C · e(cid:107)1 = n · M AE(C · e) on the error e. (17) したがって (cid:107)e(cid:107) = (cid:107)C · e(cid:107)1 = n · M AE(C · e) となる。 0.87
This means that the error measured by the norm from Theorem 2 is “just” the mean absolute error, except for a linear transformation of the error vector. これは、定理2からのノルムによって測定された誤差は、誤差ベクトルの線形変換を除いて平均絶対誤差であることを意味する。 0.79
Contemporary machine learning libraries often provide the possibility to define custom loss functions, such as, e g , keras [12]. 現代の機械学習ライブラリは、例えば、keras[12]のようなカスタムの損失関数を定義することができる。 0.72
B.5 Proof of Corollary 2 b.5 キャロル2の証明 0.66
If f is vector-valued with k coordinates, we can apply Theorem 2 to each coon RN that f が k 座標を持つベクトル値であれば、各 coon rn に対して定理 2 を適用することができる。 0.65
ordinate function fj for j = 1, . j = 1 の順序関数 fj を定める。 0.80
. . , k to obtain a vector norm (cid:107)·(cid:107)ej depends on ej(p∗) and satisfies . . , k to obtain a vector norm (cid:107)·(cid:107)ej depends on ej(p∗) and satisfies 0.90
(18) for the parameterization p∗ that is the same for all k, and all p in a neighborhood of p∗. 18) すべての k に対して同じパラメータ化 p∗ に対して、p∗ の近傍にあるすべての p について。
訳抜け防止モード: (18) パラメータ化 p∗ に対して すべての k と p∗ の近傍のすべての p について同じである。
0.88
From these vector norms, we can define これらのベクトルノルムから定義できる 0.68
(cid:107)ej(p∗)(cid:107)ej (cid:107)ej(p∗)(cid:107)ej 0.94
≤ (cid:107)ej(p)(cid:1 07)ej ≤ (cid:107)ej(p)(cid:1 07)ej 0.90
(cid:107)A(cid:107) = (cid:107)A(cid:107) = 0.81
(cid:107)aj(cid:107) ej (cid:107)aj(cid:107) ej 0.81
, (19) j=1 , (19) j=1 0.76
with aj being the j-th column in the matrix A. aj は行列 A の j 番目の列である。 0.75
This is readily checked to be a matrix-norm, but now works on the multivariate error E = (e1(p), . これは行列ノルムと容易にチェックできるが、現在は多変量誤差 E = (e1(p) で機能する。 0.69
. . , ek(p)). . . , ek(p))。 0.81
The optimality of p∗ under this norm then directly follows by summing up (18) over j = 1, 2, . このノルムの下での p∗ の最適性は、j = 1, 2, 上の (18) の和によって直接従う。 0.70
. . , k. This completes the proof. . . これが証明を完結させる。 0.78
The practical evaluation of the norm in the multivariate case thus boils down to an k-fold evaluation of norms from Theorem 2 using the algorithm from Figure 3, and summing up the results. したがって、多変量体の場合のノルムの実践的評価は、図3のアルゴリズムを用いて、定理2のノルムのk倍の評価に結びつき、結果を要約する。
訳抜け防止モード: 多変量の場合におけるノルムの実際的評価は、定理 2 からのノルムの k-フォールド評価に沸騰する。 図3のアルゴリズムを使って 結果をまとめたものです
0.75
Since all matrix norms are likewise to Theorem 4 equivalent, the previous remarks on the freedom to choose any matrix norm for fitting the ML model remains valid. すべての行列ノルムは定理4と同値であるため、MLモデルに適合する行列ノルムを選択する自由に関する以前の発言は依然として有効である。 0.67
25 k(cid:88) 25 k(cid:88) 0.85
英語(論文から抽出)日本語訳スコア
C Example: Regression Model Let us first illustrate the application of Theorem 2 on a simple linear regression model. cの例:回帰モデル まず、簡単な線形回帰モデルに対する定理2の適用について説明する。 0.85
This choice is convenient for both, a closed-form expressibility of objects like the Jacobian, as well as it can be designed with only a few number of parameters for a manual check that the resulting model really comes up almost identical, whether it has been trained with real or decoy data. この選択は、jacobianのようなオブジェクトのクローズドフォーム表現可能性と、実際のデータやデコイデータでトレーニングされたかどうかに関わらず、結果モデルが実際にほぼ同じであるかどうかを手動でチェックするために、少数のパラメータで設計することができる。 0.70
The overall experiment went as follows, where we let the data hereafter be purely artificial for the mere sake of easy visual inspection during the computations and in particular regarding the results: 実験の全体は以下のとおりで、計算中の視覚的な検査や、特に結果に関して、このデータを純粋に人工的なものにしました。 0.64
1. The overall regression model is given by a function with parameter p = 1. 全体の回帰モデルはパラメータ p = の関数によって与えられる。 0.83
(β0, β1, . (β0, β1, . 0.92
. . , βd−1) . . , βd−1) 0.79
f (x, p) = β0 + β1 · x1 + β2 · x2 + . f (x, p) = β0 + β1 · x1 + β2 · x2 + 。 0.87
. . + βd−1 · xd−1 + ε, . . + βd−1 · xd−1 + ε。 0.80
(20) in which ε is a random error term with assumed zero mean. (20) ε はゼロ平均を仮定したランダムな誤差項である。 0.84
From the model, it is evident that d = m + 1, so that the input vector x ∈ Rm has one dimension less than p. For the experiment, we took a uniformly random vector p ∈ [−6, +6]d of reals, to define an incoming model f0 “at random”. モデルから、入力ベクトル x ∈ Rm が p より小さい次元を持つように d = m + 1 であることは明らかであり、実験では、実数の一様ランダムなベクトル p ∈ [−6, +6]d を用いて、入力モデル f0 を「ランダムに」定義した。 0.81
The magnitude ±6 is herein an arbitrary choice, to keep the numbers feasibly small for a manual visual inspection later. ここで ±6 は任意の選択であり、後で手動による視覚検査のために数字を小さく保つ。 0.77
2. Equation (20) was then evaluated on a total of n = 10 uniformly random samples Xi ∼ U({1, 2, . 2. 方程式 (20) は n = 10 個の一様ランダムなサンプル xi {\displaystyle xi} u({1, 2, )} 上で評価された。 0.74
. . , 8}m), adding stochastically independent error terms ε, each with an exponential distribution with rate parameter λ = 5 (to, say, let the data be inter-arrival times, with an eye back on Example 1). . . λ = 5 の指数分布を持つ確率的独立な誤差項 ε を付加する(例えば、データを対arrival 時間とし、例えば 1 をアイバックとする)。
訳抜け防止モード: . . ,8}m ), 確率的に独立な誤差項 ε を付加し, それぞれ λ = 5 の指数分布を持つ。 例えば、 データは、例えば1に目を向けて、到着時刻をインター・インターにしましょう。
0.80
Again, the choice of x-values in the integer range 1, . これも整数域 1 における x-値の選択である。 0.80
. . , 8 is arbitrary, and only to keep the numbers small for a visual checkup. . . 8は任意であり、視覚的なチェックアップのためだけに数値を小さくする。 0.82
This computation delivers the values yi ← f (xi) + ε for i = 1, 2, . この計算は、i = 1, 2, の値 yi > f (xi) + ε を与える。 0.68
. . , 10, which, together with the xi form the training data. . . これはxiと共にトレーニングデータを形成する。 0.72
3. Next, we “forget” about the underlying model (that we know here) and fit a regression model of the same structure, given only the training data. 3. 次に、基礎となるモデル(ここで分かっている)について“忘れ”、トレーニングデータのみを考慮すれば、同じ構造の回帰モデルに適合します。 0.81
Since this data originally came out of a regression model, this lets us expect a quite good fit, and an approximate re-discovery of the same parameter vector ˆp as we had for producing the training data. このデータはもともと回帰モデルから生まれたので、非常に適しており、トレーニングデータを生成するのに使っていたのと同じパラメータベクターを近似的に再発見することができる。 0.74
Deviations are equally natural (yet at small scale), since the training data is not overly extensive. トレーニングデータは過度に広範ではないため、偏差は(小規模では)等しく自然である。 0.77
via a call to nonlin_min, to minimize the functional(cid:13)(c id:13)(f (xi, p) − yi)10 nonlin_min への呼び出しを通じて、関数 (cid:13)(cid:13)(f (xi, p) − yi)10 を最小化する 0.83
The resulting model f0 is obtained by invoking a nonlinear optimization 結果のモデルf0は非線形最適化によって得られる 0.80
(cid:13)(cid:13)2 (cid:13)(cid:13)2 0.78
i=1 using vectorization in GNU Octave. i=1 GNU Octaveでベクトル化を使用する。 0.68
The minimization using the 2-norm has, in our case, the appeal of making the resulting model a best linear unbiased estimator by the Gauss-Markov theorem, whose hypotheses are here satisfied by construction. 2-ノルムを用いた最小化は、この場合、ガウス・マルコフの定理により得られるモデルを最良の線形非バイアス推定子にすることの魅力を持っている。
訳抜け防止モード: 2-ノルムを用いた最小化 私たちの場合 ガウス・マルコフの定理によって得られたモデルが最良の線形不偏推定子となるという魅力 建設で満足している仮説です
0.80
Thus, the trained model f0 is indeed a “good” ML model, as could be expected in real-life applications. このように、トレーニングされたモデルf0は、現実のアプリケーションで期待されるように、確かに“よい”MLモデルです。
訳抜け防止モード: したがって、訓練されたモデルf0は確かに“良い”MLモデルである。 現実のアプリケーションでは予想通りです。
0.74
4. Now, for a plausible denial, we took a fresh set of (stochastically indepeni ∼ U({1, . 4. さて, 妥当な否定のために, 新たに (stochastically indepeni > U({1, ) の集合を採った。 0.73
. . , 8}m), and another . . , 8}m) の他, 0.79
dent) samples of decoy training data X(cid:48) デント)decoyトレーニングデータx(cid:48)のサンプル 0.90
26 26 0.85
英語(論文から抽出)日本語訳スコア
set of random, and hence unrelated, response values Y(cid:48) Two things are important to note here: ランダムで従って無関係な応答値 Y(cid:48) ここで注意すべき点は2つあります。 0.71
i ∼ U({1, . u({1, ) である。 0.69
. . , 8}m). . . 8}m)であった。 0.79
• The decoy data is picked stochastically independent and at random, so the experiment was repeatable with different instances of all ingredients (only retaining fixed numeric ranges for the values), •デコイデータは確率的に独立してランダムに選択されるので、実験はすべての成分の異なるインスタンス(値の固定数値範囲のみを保持する)で繰り返すことができる。 0.81
• and, more importantly, the response values yi are independent of the inputs xi, so any underlying functional relation between xi and the corresponding yi is most likely not a linear regression model. さらに重要なことに、応答値 yi は入力 xi とは独立であるため、xi と対応する yi の間の根本的機能関係は線形回帰モデルではない可能性が高い。 0.80
Thus, the decoy data is completely different from the true training data. 従って、デコイデータは、真のトレーニングデータとは全く異なる。 0.75
5. Given the set of decoy samples (xi, yi)10 5. デコイサンプルの集合(xi, yi)10 0.73
i=1, we proceed by implementing the steps as shown in Figure 3, producing the GNU Octave local variables B, w1 corresponding to B and w1 from the text, and implementing the norm that Theorem 2 constructs as a function crafted_norm. i=1 では、図3に示すように、テキストから GNU Octave のローカル変数 B, w1 と B と w1 に対応する値を生成し、Theorem 2 が関数工法として構成するノルムを実装する。 0.80
All these computations take less than 10 lines of code5. これらの計算は10行以内のコード5を処理します。 0.63
For checking the hypothesis of Lemma 1, i.e., the rank condition (4), the regression model comes in handy once more: it allows for a closed form expression of the Jacobian at p, given directly by the data matrix, augmented with a mere column of all 1es, i.e., for our model f (x, (β0, . 補題 1 の仮説、すなわちランク条件 (4) をチェックするために、回帰モデルは再び有用である: p におけるジャコビアンの閉形式表現を、データ行列によって直接与えられ、モデル f (x, (β0, ) に対して、すべての 1 個の 1 個の列の単なる列で拡張することができる。 0.81
. . , βd−1)) = β0 + (β1, . . . , βd−1)) = β0 + (β1, . 0.84
. . , βd−1) · x, we find the Jacobian to be constant6, and given as . . , βd−1) · x とすると、ヤコビアンは定数6 で与えられる。 0.79
 J =  ,  J =  , 0.85
1 x1 1 x2 ... ... 1 xn 1 x1 1 x2 ... 1 xn 0.87
in which each row xi is the i-th data sample used to train the model. 各行xiがモデルのトレーニングに使用されるi番目のデータサンプルである。 0.75
This is the matrix against we check the rank to change when attaching the vector e. これは、ベクトル e をアタッチする際のランクを変更する行列である。 0.65
6. With these items, we then go back into the nonlinear optimization, again using the same function nonlin_min, but this time minimizing our designed norm implemented in the function crafted_norm, and formally found as Figure 3 tells. 6. これらの項目では、再び非線形最適化に戻り、同じ関数nonlin_minを使用しますが、今回は関数 crafted_norm に実装された設計基準を最小化し、図3が示すように正式に定義します。 0.77
The results, quite satisfyingly, demonstrated that the model fitted to the decoy data but using the specially constructed norm comes up approximately equal to the original model. その結果、decoyデータに適合するモデルが、特別に構築されたノルムを使用することで、元のモデルとほぼ等しい結果が得られた。 0.74
Notably, it does so with the decoy data having no relation 特に、関係のないデコイデータではそうである。 0.60
5In Octave only, but a port to Python or other languages is not expected to become 5In Octaveのみだが、Pythonや他の言語への移植は期待されない。 0.79
considerably more complex. 6More complex models would require a manual approximation of the Jacobian (unless analytic expressions are obtainable), but this amounts to nested for loop over i = 1 . かなり複雑です 6 以上の複素モデルはヤコビアンの手動近似を必要とするが(解析式が得られない限り)、これは i = 1 上のループに対してネストされる。 0.58
. . n and h · (f (xi, p + h · uj ) − f (xi, p), in over j = 1 . . . n と h · (f (xi, p + h · uj ) − f (xi, p) 上の j = 1 である。 0.83
. . d to approximate the derivative ∂fi/∂pj ≈ 1 which uj is the j-th unit vector, and h > 0 is some (very) small constant. . . d は uj が j 番目の単位ベクトルで h > 0 が(非常に)小さい定数である微分 ∂fi/∂pj を近似する。 0.84
This requires the ML model, as a programming object, has access routines to get and set the model parameters as we wish (the regression model is again convenient here, since it is easy to implement). これは、プログラミングオブジェクトとしてmlモデルに、我々が望むようにモデルパラメータを取得し設定するためのアクセスルーチンが必要です(レグレッションモデルは、実装が容易であるため、ここでも便利です)。 0.75
27 27 0.85
英語(論文から抽出)日本語訳スコア
to the training data whatsoever, not even necessarily sharing its original distribution (the original data was a linear combination of uniform distributions, which is no longer uniform for two or more terms, while the decoy data had an overall uniform distribution). トレーニングデータに対して、必ずしも元の分布を共有する必要はない(元のデータは一様分布の線形結合であり、2つ以上の項ではもはや一様ではないが、デコイデータは全体一様分布を持っていた)。 0.80
The numeric discrepancies between the newly fitted model and the original model can partly be attributed to our lack of fine-tuning in the optimization process; indeed, we invoked nonlin_min with all default settings, except for the starting point to be inside a neighborhood of the given parameter vector p, known from the given model f0. 新たに装着されたモデルと元のモデルとの数値的相違は、最適化プロセスにおける微調整の欠如に起因する可能性があるが、実際には、与えられたモデル f0 から知られているパラメータベクトル p の近傍にある開始点を除いて、すべてのデフォルト設定で nonlin_min を起動した。 0.74
Indeed, even in the default configuration, the model fitted under the true and the decoy data came up quite “close” to each other, indicating potentially higher accuracy upon careful fine-tuning of the optimization. 実際、デフォルトの設定であっても、 true と deoy のデータの下に収まるモデルは互いに非常に“クローズ”し、最適化を慎重に微調整するときに、潜在的に高い精度を示す。 0.69
In addition, the choice of w1 may also have an impact on the numeric behavior of the optimizer, as does any randomness that the optimization algorithm may employ internally. 加えて、w1の選択は最適化アルゴリズムが内部で使用する任意のランダム性と同様に、最適化器の数値的挙動に影響を及ぼす可能性がある。 0.80
We leave both possibilities for numeric accuracy gains aside here, leaving the demonstration with the pointer towards the observation that higher dimensionality of the model (and we conducted further experiments with larger values for d) made the approximation worse. ここでは数値精度が向上する可能性の両方を留意し、模型の高次元性(d に対してより大きい値を持つさらなる実験)が近似を悪化させるという観測へのポインタのデモンストレーションを残した。 0.85
Again, this is not unexpected in light of higher-dimensional optimization problems generally behaving less nice than lower-dimensional ones. 繰り返しになるが、高次元最適化の問題は一般に低次元の最適化よりもあまり良くない。 0.69
Our choice of d = 6, however, makes a manual check of equality among 6 pairs of model parameters quick and simple to show in Section 5. しかし、d = 6 の選択は、モデルパラメータの6対間の等式を手作業でチェックし、第5節で簡単に示すことができる。 0.78
D A “Cryptographic” View D A "Cryptographic" ビュー 0.80
The flow in Figure 4 resembles an analogous situation as for probabilistic encryption, where the norm is playing the role of a random auxiliary input to the encryption function: let Epk(m0, ω) denote the probabilistic encryption of a message m0 under a public key pk and a random string (random coins) ω. 図4のフローは、暗号関数へのランダムな補助入力の役割をノルムが果たす確率的暗号化の類似の状況に似ている: epk(m0, ω) は、公開鍵pk とランダム文字列(ランダムコイン) ω の下でメッセージ m0 の確率的暗号化を示す。 0.79
Given a ciphertext c, one could deny the validity of any proposed plaintext m1 if ∀c ∃m, ω : Epk(m, ω) = c. This is indeed the case for ElGamal encryption (for example). 暗号文 c が与えられたとき、任意の提案された平文 m1 の妥当性は、ω : Epk(m, ω) = c であれば否定できる。
訳抜け防止モード: 暗号文 c が与えられたとき、提案されている平文 m1 の正当性は、c が成立するならば否定できる。 ω : epk(m, ω ) = c. これは実際、楕円暗号(例えば )の場合である。
0.64
This is the common way of defining security of encryption (see any of the standard cryptography textbooks), and our notion of plausible deniability is completely analogue to this. これは暗号化のセキュリティを定義する一般的な方法であり(標準的な暗号教科書のどれかを参照)、我々の可視性の概念はこれと完全に類似している。 0.66
28 28 0.85
英語(論文から抽出)日本語訳スコア
Figure 4: Plausible Deniability Experiment 図4: 可能性あるデニラビリティー実験 0.76
29 honestpartyadversary trainingdata(xi,yi)N i=1machinelearningf(·,p∗)f(·,p∗)trainingdatarecover yguess(x′i,y′i)Ni=1xi=x′i,yi=y′i∀i?no(plausiblydenied )yes 29 honestpartyadversary trainingdata(xi,yi)n i=1machinelearningf(·,p∗)f(·,p∗)trainingdatarecover yguess(x′i,y′i)ni=1xi=x′i,yi=y′i?no(plausablydenied )yes 0.78
                                                           ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。