論文の概要、ライセンス

# (参考訳) 共同創設者の毛布の下での因果発見 [全文訳有]

Causal discovery under a confounder blanket ( http://arxiv.org/abs/2205.05715v1 )

ライセンス: CC BY 4.0
David Watson and Ricardo Silva(参考訳) 観測データから因果関係を推定することは容易ではないが、高次元では特に難しい。 これらの用途では、因果探索アルゴリズムは一般的にパラメトリックな制限や極端な空間的制約を必要とする。 これらの仮定を緩和し、より専門的な問題に焦点をあてる。すなわち、因果的に(おそらく大きい)共芽体の集合、すなわち$\textit{confounder blanket}$から導かれる変数の有向非巡回部分グラフを復元する。 これは、動的生体分子サブシステムに因果関係の背景情報を提供する遺伝データを提供する場合など、多くの設定で有用である。 情報的回答が見つかれば実際に満足しなければならないという構造的仮定の下では、多項式時間の複雑さを維持しながら、低あるいは高間隔のグラフを許容する。 これらの条件下で因果関係を同定するための健全で完全なアルゴリズムを導出し、線形および非線形システムに対して証明可能な誤差制御を伴うテスト手順を実装する。 我々は様々なシミュレーション設定にアプローチを示します。

Inferring causal relationships from observational data is rarely straightforward, but the problem is especially difficult in high dimensions. For these applications, causal discovery algorithms typically require parametric restrictions or extreme sparsity constraints. We relax these assumptions and focus on an important but more specialized problem, namely recovering a directed acyclic subgraph of variables known to be causally descended from some (possibly large) set of confounding covariates, i.e. a $\textit{confounder blanket}$. This is useful in many settings, for example when studying a dynamic biomolecular subsystem with genetic data providing causally relevant background information. Under a structural assumption that, we argue, must be satisfied in practice if informative answers are to be found, our method accommodates graphs of low or high sparsity while maintaining polynomial time complexity. We derive a sound and complete algorithm for identifying causal relationships under these conditions and implement testing procedures with provable error control for linear and nonlinear systems. We demonstrate our approach on a range of simulation settings.
公開日: Wed, 11 May 2022 18:10:45 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
2 2 0 2 y a M 1 1 2 2 0 2 y a m 1 1 である。 0.54
] E M . t a t s [ ]EM . t a t s [ 0.36
1 v 5 1 7 5 0 1 v 5 1 7 5 0 0.42
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Causal Discovery Under a Confounder Blanket 共同ファウンダーのブランケットの下での因果発見 0.46
David Watson1 and Ricardo Silva1 david watson1 と ricardo silva1 0.67
1University College London Corresponding author: david.watson@ucl.ac. uk 1大学ロンドン 著者: david.watson@ucl.ac. uk 0.65
Abstract Inferring causal relationships from observational data is rarely straightforward, but the problem is especially difficult in high dimensions. 概要 観測データから因果関係を推定することは容易ではないが、高次元では特に難しい。 0.56
For these applications, causal discovery algorithms typically require parametric restrictions or extreme sparsity constraints. これらの用途では、因果探索アルゴリズムは一般的にパラメトリックな制限や極端な空間的制約を必要とする。 0.56
We relax these assumptions and focus on an important but more specialized problem, namely recovering a directed acyclic subgraph of variables known to be causally descended from some (possibly large) set of confounding covariates, i.e. a confounder blanket. 私たちはこれらの仮定を緩和し、重要な、より専門的な問題、すなわち共変量の(おそらく大きな)集合から因果的に派生していると知られている変数の有向非巡回部分グラフを回復することに焦点を当てます。 0.57
This is useful in many settings, for example when studying a dynamic biomolecular subsystem with genetic data providing causally relevant background information. これは、動的生体分子サブシステムに因果関係の背景情報を提供する遺伝データを提供する場合など、多くの設定で有用である。 0.68
Under a structural assumption that, we argue, must be satisfied in practice if informative answers are to be found, our method accommodates graphs of low or high sparsity while maintaining polynomial time complexity. 情報的回答が見つかれば実際に満足しなければならないという構造的仮定の下では、多項式時間の複雑さを維持しながら、低あるいは高間隔のグラフを許容する。 0.68
We derive a sound and complete algorithm for identifying causal relationships under these conditions and implement testing procedures with provable error control for linear and nonlinear systems. これらの条件下で因果関係を同定するための健全で完全なアルゴリズムを導出し、線形および非線形システムに対して証明可能な誤差制御を伴うテスト手順を実装する。 0.65
We demonstrate our approach on a range of simulation settings. 我々は様々なシミュレーション設定にアプローチを示します。 0.79
1 Introduction Discovering causal relationships between variables is a vital first step in any effort to understand complex systems or design effective interventions. 1 はじめに 変数間の因果関係の発見は、複雑なシステムを理解したり、効果的な介入を設計するためのあらゆる取り組みにおいて重要な第一歩である。
訳抜け防止モード: 1 はじめに 変数間の因果関係の発見 どんな努力でも 重要な第一歩です 複雑なシステムを理解し 効果的な介入を設計することです
0.54
In principle, such relationships can be established through sufficient experimentation; in practice, we must often make do with observational data due to logistical or ethical constraints. 原則として、そのような関係は十分な実験によって確立することができる。実際、私たちはしばしば物流的または倫理的な制約のために観察データと関係を持つ必要がある。 0.56
Causal discovery algorithms designed to learn directed acyclic graphs (DAGs) have been in use for decades—see [Glymour et al , 2019] for a recent review—but the task is notoriously difficult and error-prone, especially in highdimensional settings. 有向非巡回グラフ(DAG)を学習するために設計された因果発見アルゴリズムは、最近のレビューでは[Glymour et al , 2019]を参照)何十年も使われてきました。 0.69
Moreover, many of these methods, for computational or statistical tractability, assume scalefree sparsity—i.e., that for each vertex in the true unknown graph, its number of adjacencies does not grow with the dimensionality of the problem. さらに、計算的あるいは統計的トラクタビリティ(英語版)において、これらの手法の多くはスケールフリーな空間性(すなわち、真の未知グラフの各頂点について、問題の次元によってその隣接数が増大しない)を仮定する。
訳抜け防止モード: さらに、これらの手法の多くは、計算的または統計的トラクタビリティのためのものである。 つまり、真の未知グラフの各頂点について。 隣人の数は 問題の次元によって 増えません。
0.69
In many cases, researchers are interested primarily in the causal relationships between just a subset of observed variables. 多くの場合、研究者は主に観測された変数のサブセット間の因果関係に関心を持っている。 0.75
Attempting to learn the whole DAG in such cases is inefficient and unstable, especially when error rate control is a concern and unmeasured confounders cannot be ruled out. このようなケースでdag全体を学ぼうとする試みは非効率で不安定であり、特にエラー率制御が懸念であり、保証されていない共同創設者は排除できない。
訳抜け防止モード: このような場合におけるDAG全体の学習の試み 不効率で不安定です 特に エラー率の制御は問題で 未測定の共同創業者は除外できない
0.78
Suppose, however, that we have access to a large tier of background factors Z that may potentially deconfound our target system X. This stratification could be due to temporal ordering or physical laws. しかし、対象システム x を分解する可能性のある背景因子 z の大きな階層にアクセスできることを仮定すると、この階層化は、時間的順序付けや物理法則による可能性がある。 0.70
For example, we know that genotypes precede phenotypes, even though it may be impossible to completely characterize the relationship between the two, let alone links among the genotypes themselves. 例えば、遺伝子型が表現型に先行していることは分かっているが、この2つの関係を完全に特徴づけることは不可能であろう。 0.68
We argue that many practical problems of interest exhibit such a two-tier structure, with our foreground variables X causally preceded by some large background set Z, whose internal structure is not relevant or even well-defined. 我々は、我々の前景変数 x が因果的にいくつかの大きな背景集合 z に先行しており、その内部構造は関係なく、あるいは明確に定義されていない。 0.66
Figure 1: Visual depiction of our setup, which includes a large collection of background variables Z (blue nodes) with arbitrary structure, followed by a relatively small set of foreground variables X (orange nodes). 図1: 設定の視覚的な描写。任意の構造を持つ背景変数z(青いノード)の大規模なコレクションと、比較的小さな前景変数x(オレンジノード)のセットが含まれています。 0.81
The goal is to learn causal relationships among X variables by exploiting signals from Z. 目標は、X変数間の因果関係をZからの信号を利用して学習することである。 0.65
We propose a novel solution specifically designed for downstream directed acyclic subgraph (subDAG) discovery. 下流方向非環状部分グラフ(subdag)の発見に特化した新しい解を提案する。 0.64
Our method leverages “pre-system” background covariates Z to establish causal relationships among foreground variables X without making any assumptions about the sparsity of connections between the two tiers. 本手法では,前景変数 X 間の因果関係を確立するために,両階層間の関係の空間性について仮定することなく,背景共変量 Z を利用する。 0.66
The tradeoff is that it will not attempt to discover every possible structural signature that a typical causal discovery method can in theory resolve [Spirtes et al , 2000]. トレードオフは、典型的な因果探索法が理論的に解決できるあらゆる可能な構造的シグネチャを見つけようとしないことである [Spirtes et al , 2000]。 0.80
Instead, we limit ourselves to what can be derived from the background-foregroun d interaction. 代わりに、バックグラウンドと地上の相互作用から得られるもののみに制限します。 0.55
In particular, we posit that background variables can act as a confounder blanket, which, as a whole, either blocks unmeasured confounding or not. 特に、背景変数が共同創設者のブランケットとして振る舞うことができると仮定します。
訳抜け防止モード: 特に、バックグラウンド変数が共同創設者の毛布として機能できると仮定する。 全体としては、未測定のコンバウンディングをブロックする。
0.55
This amounts to a bet that we can avoid combinatorial search over subsets of Z and still get informative results. これは、Z の部分集合に対する組合せ探索を回避でき、なおも情報的な結果が得られるという賭けになる。 0.56
1 !" 1 !" 0.35
英語(論文から抽出)日本語訳スコア
Our main contributions are threefold. 私たちの主な貢献は3倍です。 0.60
(1) We derive a sound and complete set of rules for inferring causal order in subDAGs with background variables, as well as identifiability conditions for causal discovery in such settings. 1) 背景変数を持つサブDAGの因果関係を推定するための健全かつ完全な規則と,その設定における因果関係の特定可能性条件を導出する。 0.69
Completeness is derived with respect to a so-called lazy oracle, which we argue is of greater practical relevance in many settings than the classical independence oracle, especially when we are concerned about statistical and computational feasibility. 完全性は遅延オラクル(lazy oracle)と呼ばれるもので、古典的な独立オラクルよりも多くの設定において、特に統計的および計算可能性に関して、より実践的な関連性があると主張する。 0.51
(2) We design an algorithm that implements these rules with finite sample error control, making a further assumption about how to test for statistical independencies based on regression models. 2) これらのルールを有限サンプル誤差制御で実装するアルゴリズムを設計し,回帰モデルに基づく統計的非依存性のテスト方法についてさらに仮定する。 0.88
The method is efficient and flexible, avoiding the combinatorial search associated with alternative methods and accommodating both linear and nonlinear systems. この方法は効率的で柔軟であり、代替法に関連する組合せ探索を回避し、線形系と非線形系の両方に適応する。 0.71
(3) We test our approach against a range of alternatives on simulated and real-world data, confirming that the method recovers ancestral relationships in the target DAG with high power and bounded error. 3) 本手法は, シミュレーションデータと実世界のデータを用いて, 提案手法がターゲットdagにおける祖先関係を高い出力と有界誤差で回復することを確認した。 0.80
2 Background and Notation We assume that causal relationships can be encoded as a DAG G. Each vertex in G represents a random variable in a distribution with density/mass function p(·). G の各頂点は密度/質量関数 p(·) を持つ分布におけるランダム変数を表す。 0.42
We make use of the following common terminology in causal discovery: parent, child, ancestor, descendant, collider, (active/backdoor) path, d-separation and Markov equivalence class. 我々は、親、子、祖先、子孫、コライダー、(アクティブ/バックドア)パス、d-セパレーション、マルコフ同値クラスといった、因果発見における一般的な用語を利用する。
訳抜け防止モード: 因果発見において,次のような共通用語を用いる。 子,祖先,子孫,衝突子,(アクティブ/バックドア)経路 d - 分離とマルコフ同値類。
0.66
We omit formal definitions due to space constraints. 空間制約による形式的定義を省略する。 0.73
For details, see [Spirtes et al , 2000, Pearl, 2009a]. 詳細は[Spirtes et al , 2000, Pearl, 2009a]を参照。 0.83
We use X ⊥⊥G Y | Z to denote that set X is d-separated from set Y given set Z in G. The notation is deliberately similar to that of conditional independence in probability theory [Dawid, 1979]. 集合 x が g に与えられた集合 z から d-分離されることを示すために x を x として使う: 表記は、確率論における条件付き独立性(英語版)( conditional independence)のものと意図的に似ている [dawid, 1979]。 0.60
We stipulate that the joint distribution of the data is Markov with respect to G, i.e. X ⊥⊥G Y | Z ⇒ X ⊥⊥ Y | Z. When the distribution is faithful to the graph, the converse holds as well, upgrading the relationship to a biconditional: X ⊥⊥G Y | Z ⇔ X ⊥⊥ Y | Z. Given two vertices X and Y in G, we use X ≺ Y to denote that X is an ancestor of Y . 我々は、データの合同分布が G に関してマルコフであること、すなわち、その分布がグラフに忠実であるとき、逆も成り立ち、その関係を二条件にアップグレードする: X , G において二つの頂点 X と Y が与えられたとき、X は Y の祖先であることを示すために X , Y を用いる。
訳抜け防止モード: 我々は、データの合同分布がGに関してマルコフであることを規定する。 分布がグラフに忠実であるとき、すなわち、X-G-Y | Z-G-Y | Z-Y-Y-Z- 逆も同様に成り立ち、二条件関係をアップグレードする: X > G Y | Z > X > Y | Z ; G に二つの頂点 X と Y が与えられる。 XをYと使います X が Y の祖先であることを示す。
0.80
Equivalently, Y (cid:31) X denotes that Y is a descendant of X. We write X (cid:22) Y if X is not a descendant of Y , in which case X may or may not be an ancestor of Y . X が Y の子孫でないなら X (cid:22) Y を書き、その場合 X は Y の祖先であるかもしれないし、そうでないかもしれない。 0.63
(Note that X (cid:54)≺ Y implies Y (cid:22) X. (X (cid:54) = Y は Y (cid:22) X を意味することに注意。 0.72
) We write X ∼ Y when neither variable is an ancestor of the other, i.e. X (cid:54)≺ Y and Y (cid:54)≺ X. Relations ≺ and (cid:22) can be applied to pairs of sets, implying that the relation holds between each pair of elements from the Cartesian product of the respective sets. すなわち、X (cid:54) と Y (cid:54) と Y (cid:54) は、集合の対に適用でき、各集合のカルテアン積のそれぞれの元間の関係が成り立つことを意味する。
訳抜け防止モード: ) どちらの変数も他方の祖先でない場合、x を y と書く。 i.e.x (cid:54) と y (cid:54) と x. の関係 そして ( cid:22 ) は組のペアに適用できる。 関係が各集合のデカルト積から各要素の対の間に成立することを含意する。
0.77
Let E[Y | do(X = x)] denote the expected outcome Y under an intervention that fixes the treatment X to level x. E[Y | do(X = x)] は、治療 X をレベル x に固定する介入の下で期待される結果 Y を表す。 0.81
Covariate adjustment postulates that E[Y | do(X = x)] = 共変量調整は E[Y | do(X = x)] = 0.51
E[Y | x, z] p(z) dz E[Y | x, z] p(z) dz 0.42
(cid:90) Z (cid:90) Z 0.41
for a set of vertices Z (cid:22) (X, Y ) in G. It holds if Z satisfies the backdoor criterion with respect to (X, Y ) [Pearl, 2009a, G の頂点 Z (cid:22) (X, Y ) に対して、Z が (X, Y ) [Pearl, 2009a,
訳抜け防止モード: 頂点 z ( cid:22 ) ( x, y ) g において、z が (x, y ) [ pearl, 2009a] に関してバックドア基準を満たすかどうかを保持する。
0.75
2 Ch. 3], in which case we say that Z is a valid adjustment set for (X, Y ). 2 ch。 3] の場合、Z は (X, Y ) に対する有効な調整集合であると言う。 0.50
Finally, we define minimal (de)activators, originally highlighted by Claassen and Heskes [2011]: Definition 1 (Minimal activator). 最後に、最小 (de) アクティベーターを定義するが、もともとは Claassen と Heskes [2011]: Definition 1 (Minimal activator) によって強調された。 0.76
Variable D is a minimal activator of the relationship between A and B given C iff: (1) A(cid:54)⊥⊥ B | C ∪ D; and (2) A⊥⊥ B | C. In this case, we write A(cid:54)⊥⊥ B | C ∪ [D]. 変数 d は、与えられた c iff と a と b の関係の最小の活性化子である: (1) a(cid:54)\ b | c ] d; and (2) a\ b | c. この場合、a(cid:54)\ b | c > [d] と書く。 0.81
(cid:3) Definition 2 (Minimal deactivator). (第3話) 定義2(Minimal Deactivator)。 0.59
Variable D is a minimal deactivator of the relationship between A and B given C iff: (1) A⊥⊥ B | C ∪ D; and (2) A(cid:54)⊥⊥ B | C. In this case, we write A⊥⊥ B | C ∪ [D]. 変数 D は C が与えられた A と B の関係の最小デアクティベータである: (1) A > B | C > D と (2) A(cid:54) > B | C . この場合、A > B | C > [D] と書く。 0.76
(cid:3) 3 Problem Statement Assume a DAG G contains observable vertices Z ∪ X, consisting of background variables Z and foreground variables X. Let |Z| = dZ and |X| = dX, with potentially dZ (cid:29) dX. (第3話) 3 問題ステートメント DAG G は、背景変数 Z と前景変数 X からなる可観測頂点 Z > X を含み、 |Z| = dZ と |X| = dX を、潜在的に dZ (cid:29) dX を持つものと仮定する。 0.63
G may have unobserved (hidden) vertices U with more than one descendant in Z∪ X (i.e., unmeasured confounders). g は (隠れた) 頂点 u を持ち、複数の子孫が x に属す(すなわち、測定されていない共同創設者)。
訳抜け防止モード: G (複数形 Gs) (隠し) X に複数の子孫を持つ U の頂点(すなわち) 未測定共同設立者)。
0.68
Without loss of generality [Pearl, 2009a, Sect. 2.6], we assume that each U ∈ U has no parents and exactly two children in Z ∪ X. Interchangeably, we can replace any path Xi ← Uij → Xj with a bidirected edge Xi ↔ Xj forming an acyclic directed mixed graph (ADMG) with vertex set Z ∪ X. Its Markov properties follow from marginalizing the hidden variables of the corresponding DAG [Richardson, 2003]. 交換可能であれば、任意の経路 Xi > Uij → Xj を二方向エッジ Xi > Xj で置き換えることができ、非巡回有向混合グラフ (ADMG) を頂点集合 Z > X で生成する。
訳抜け防止モード: 一般性を失うことなく[パール, 2009a, Sect . 2.6 ] それぞれの U ∈ U には親がおらず、Z > X のちょうど2人の子供がいると仮定する。 任意の経路 Xi, Uij → Xj を二方向エッジ Xi, Xj で置き換えることができ、非巡回有向混合グラフ (ADMG) を頂点集合 Z , X で生成する。 対応するDAG[Richardson, 2003 ]の隠れ変数をマージする。
0.82
The symbol G\U will denote the ADMG of G. The goal is to infer as much as possible about the causal structure of GX ⊂ G, which consists of vertices X and the edges with endpoints in X. We make the following assumptions: (A1) G is acyclic. 記号 G\U は G の ADMG を表す。 目的は、頂点 X と端点 X の端点からなる GX > G の因果構造について可能な限り推測することである。 0.54
(A2) p(z, x) is faithful to G\U . (A2) p(z, x) は G\U に忠実である。 0.76
(A3) Z contains no descendant of X in G, i.e. Z (cid:22) X. The first assumption can be relaxed—GZ may contain cycles under some conditions—but we adopt it here to avoid further technicalities. (A3) Z は G における X の子孫、すなわち Z (cid:22) X を含まない。
訳抜け防止モード: (A3) Z は G における X の子孫、すなわち Z ( cid:22 ) X を含まない。 GZはいくつかの条件下でサイクルを含むかもしれない しかし、さらなる技術的問題を避けるために、ここで採用しています。
0.55
Faithfulness is a common yet somewhat controversial starting point for many causal discovery procedures (more on this in Sect. 7). 信仰は、多くの因果的発見手順の出発点として一般的であるが、議論の的となっている。 0.58
The ordering assumption applies in many settings where background knowledge permits a categorical distinction between upstream and downstream variables, e g when data are recorded at different times. 順序付けの仮定は、背景知識が上流変数と下流変数のカテゴリー区別を許容する多くの設定に適用される。
訳抜け防止モード: 順序付け仮定は、背景知識が上流変数と下流変数の分類的区別を許す多くの設定で適用される。 例えば、データが異なる時間に記録される場合。
0.69
For any pair of variables X, Y ∈ X, exactly one of three possibilities obtains: (G1) X ≺ Y ; (G2) X (cid:31) Y ; or (G3) X ∼ Y . 任意の変数 X, Y ∈ X に対して、真に3つの可能性のうちの1つを得る: (G1) X > Y ; (G2) X (cid:31) Y ; (G3) X > Y 。 0.77
Our discovery problem is defined as deciding which relationship holds for each pair of vertices in GX. 我々の発見問題は、GXの各頂点にどの関係を持つかを決定することである。 0.74
A similar goal motivates Magliacane et al [2016], who derive a general algorithm called ancestral causal inference (ACI). 同様の目標は、祖先因果推論(aci)と呼ばれる一般的なアルゴリズムを導出するmagliacane et al [2016]を動機付ける。 0.68
ACI does not exploit the the background-foregroun d split and does not scale to high dimensionality. ACIは背景と地上の分割を利用せず、高次元までスケールしない。 0.75
It also comes with no theory about the error control of its statistical decisions. また、統計上の決定の誤り制御に関する理論も持っていない。 0.81
Note that some relationships in GX may be only partially identifiable, e g if all we can determine is gx のいくつかの関係は部分的にしか識別できないかもしれない。 0.58
英語(論文から抽出)日本語訳スコア
that X (cid:22) Y . X (cid:22) Y である。 0.77
Others may be entirely unidentifiable, e g if latent confounding is present. 他のものは、例えば潜伏共役が存在する場合、完全に識別できない。 0.42
In the next section, we describe a causal discovery algorithm that assumes we have an oracle capable of returning exact information about which conditional independencies hold in the population. 次の節では、人口のどの条件に依存しているかの正確な情報を返すことができる神託があると仮定する因果探索アルゴリズムについて述べる。 0.60
This is so that we can more easily discuss the limits of what can in principle be discovered from the assumptions provided. これは、与えられた仮定から原理的に何が発見できるのかの限界を、より簡単に議論できるためです。 0.70
In Sect. 5, we present a practical statistical algorithm with error control guarantees. 宗派。 5) 誤差制御を保証した実用的な統計アルゴリズムを提案する。 0.49
4 Confounder Blankets and The 共同ファウンダーBlanketsとThe4 0.66
Oracle Algorithm Oracle アルゴリズム 0.75
There are sound and complete algorithms, based on the fast causal inference (FCI) algorithm of Spirtes et al [2000], which return all and only graphs which are equivalent to the true G in terms of implied d-separations—i.e., they are in the same Markov equivalence class [Zhang, 2008].1 Spirtes et al [2000] の高速因果推論 (FCI) アルゴリズムに基づいて、暗黙の d-分離(英語版) で真 G に等しいグラフを全て返却する、すなわち、それらは同じマルコフ同値クラス[Zhang, 2008] に属する。
訳抜け防止モード: Spirtes et al [2000 ] の高速因果推論 (FCI ) アルゴリズムに基づく音声および完全アルゴリズムが存在する。 グラフだけを返します は真 G と同値で、含意 d - 分離(つまり、分離)の項で表す。 彼らは同じマルコフ同値類に属する[張, 2008].1
0.78
Such methods scale poorly with data dimensionality, as they must query for conditional independence over an exponentially increasing number of candidate conditioning sets. このような手法は、指数関数的に増加する候補条件集合数に対して条件独立を問う必要があるため、データ次元ではあまりスケールしない。 0.60
For tractability, sometimes it is assumed that G is sparse or small [e g Magliacane et al , 2016], an unrealistic assumption if we think each element of X should be directly connected to a substantive fraction O(dZ) of background variables—a type of structure taken for granted in most methods that estimate causal effects by covariate adjustment [Hernán and Robins, 2009]. 可搬性については、g が sparse または small (例えば magliacane et al , 2016]) であると仮定される場合があり、x の各要素が背景変数のsubstantive fraction o(dz) に直接接続されるべきであると仮定すると、非現実的仮定 (unrealistic assumption) となる。
訳抜け防止モード: トラクタビリティについては、G がスパースであると仮定されることもある。 または小さい[e g Magliacane et al, 2016 ]. 非現実的な仮定は X の各元は、存在分数 O(dZ) に直結すべきである 背景変数 - 共変量調整による因果効果を推定するほとんどの手法で与えられた構造である [Hernán and Robins, 2009 ]。
0.79
Instead, this work is based on the following principle: Definition 3 (The Confounder Blanket Principle, CBP). その代わり、この仕事は以下の原則に基づいている。 0.33
In the presence of a large set of background variables Z, where it is believed that each element of X may be adjacent to O(dZ) elements of Z in G\U , do not attempt to test for conditional independencies using arbitrary subsets of Z. In particular, work under the expectation that if some A ⊂ Z ∪ X is a valid adjustment set for any ordered pair Xi ≺ Xj, then A ∪ Z is also valid. X の各元が G\U の Z の O(dZ) 元に隣接していると考えられる大きな背景変数 Z の存在下では、Z の任意の部分集合を用いて条件不依存をテストしようとはしない。
訳抜け防止モード: 背景変数 Z の大きな集合が存在する場合、 ここで、X の各元は G\U における Z の O(dZ ) 元に隣接していると考えられる。 Z の任意の部分集合を使って条件不依存をテストしようとはしない。 期待通りに働くなら 任意の順序対 Xi > Xj に対して、ある A > Z > X は妥当な調整集合である。 すると、A, Z も有効である。
0.76
We call a set of background variables with this property a confounder blanket. このプロパティでバックグラウンド変数のセットを共同創設者の毛布と呼びます。 0.64
(cid:3) A failure of CBP does not compromise the soundness of the algorithms presented in the sequel, but it might affect their informativeness. (第3話) CBPの失敗は続編で提示されたアルゴリズムの健全性を損なうものではないが、その情報性に影響を与えるかもしれない。 0.54
In particular, under CBP, we are exposed to the problem of M-structures [Pearl, 2009b], where a path Xi ← ··· → Zk ← ··· → Xj is active given Z, but no other paths between Xi and Xj are active given (some subset of) Z\{Zk}. 特に CBP の下では、我々は M-構造 [Pearl, 2009b] の問題に晒される。そこでは、経路 Xi · ··· → Zk ^ ··· → Xj が Z を与えられるが、Xi と Xj の間の他の経路は Z\{Zk} を与えられる(いくつかの部分集合)。 0.71
This means we might miss constraints that would allow us to infer Xi ≺ Xj. つまり、Xi > Xj を推測できるような制約を見逃す可能性がある。 0.58
M-structures can indeed make a substantive impact to the bias of an adjustment set. M構造は確かに調整セットのバイアスに実質的な影響を与える。 0.74
However, Ding and Miratrix [2015] have shown that, at least at under some reasonable distributions of parameters in some parametric models, しかしながら、Ding と Miratrix [2015] は、少なくともいくつかのパラメトリックモデルにおけるパラメータの妥当な分布以下であることを示した。 0.76
1In theory, their output can be refined with background knowledge, such as partial orientation, by simply excluding those members of the equivalence class that are incompatible with the given knowledge. 理論上、それらの出力は、与えられた知識と相容れない同値類のメンバーを単に排除することによって、偏向のような背景知識で洗練することができる。
訳抜け防止モード: 1理論上は、その出力は部分的向きなどの背景知識によって洗練することができる。 与えられた知識と相容れない同値クラスのメンバーを 除外するだけです
0.72
their impact may be negligible with high probability, and hence, statistically hard to detect in a causal discovery method. その影響は高い確率で無視できるため、因果的発見法では統計的に検出が困難である。 0.71
Instead of proposing yet another derivative of FCI, we believe that practitioners with access to a large set of background variables—which may be required in order to stand a chance against unmeasured confounding—are better served by methods grounded in the CBP. 我々は、FCIの別の派生案を提案する代わりに、大量のバックグラウンド変数(測定されていないコンバウンディングに対処するために必要かもしれない)にアクセスする実践者は、CBPに根ざした手法によりより良く機能すると考えている。 0.56
4.1 Structural Signatures rithm 4.1 構造記号 リスム 0.54
and Algo- Our algorithm will be based on the following inference rules, adapted from Entner et al [2013] and Magliacane et al [2016]. そしてアルゴ 提案アルゴリズムは,Entner et al [2013] と Magliacane et al [2016] を応用した,以下の推論規則に基づく。 0.64
In what follows, let A and {X, Y } be two sets of vertices in a causal graph G where A (cid:22) {X, Y }, and let A\W := A\{W} for some vertex W . 次の例では、A と {X, Y } を因果グラフ G 内の二つの頂点集合とし、ある頂点 W に対して A (cid:22) {X, Y } を A\W := A\{W} とする。 0.84
Our first rule detect (indirect) causes via relations of minimal independence: (R1) If ∃W ∈ A such that W ⊥⊥ Y | A\W ∪ [X], then 我々の第一規則は、最小独立関係による(間接的な)原因を検知する: (R1) W > Y | A\W > [X] であるような >W ∈ A であれば、
訳抜け防止モード: 我々の第一規則は、最小独立関係による(間接的)原因を検出する: ( R1 ) シュワーン A がそうである場合 W > Y | A\W > [ X ],then
0.77
X ≺ Y . The soundness of (R1), and (R2) below, follows immediately from Lemma 1 of Magliacane et al [2016], combined with the partial order A (cid:22) {X, Y }. XはY。 R1 と (R2) の音性は、Magliacane et al [2016] の Lemma 1 からすぐに続き、部分順序 A (cid:22) {X, Y } と組み合わせられる。 0.49
(R1) applies when X deactivates all paths from W to Y . (R1) は、X が W から Y へのすべての経路を非活性化するときに適用される。 0.52
When this structure obtains, causal effects can be estimated using the backdoor adjustment with admissible sets A and A\W [see Pearl, 2009a, Ch. 3]. この構造が得られたら、許容集合 A と A\W によるバックドア調整を用いて因果効果を推定できる(Pearl, 2009a, Ch. 3]。 0.83
Our second inference rule eliminates (indirect) causes via relations of minimal dependence: (R2) If ∃W ∈ A such that W (cid:54)⊥⊥ X | A\W ∪ [Y ], then 我々の第2の推論規則は、最小依存関係による(間接的な)原因を排除している: (R2) W (cid:54) = X | A\W > [Y ] となるような shW ∈ A であれば、 0.68
X (cid:22) Y . X (cid:22) Y。 0.84
(R2) applies when Y activates some path from W to X. This means that Y must be a (descendant of a) collider on that path, and cannot be a non-collider on any other path active under A\W . (R2) は、Y が W から X への経路を活性化するときに適用される。つまり、Y はその経路上の(a の元となる)コライダーでなければならず、A\W の下で活動する他の経路上の非コライダーでもない。
訳抜け防止モード: (R2 ) Y は W から X への経路を活性化する つまり Y はその経路上の ( ) コライダーでなければならない。 A\Wの下で活動している他の経路の非コライダーにはなり得ない。
0.69
Our third rule establishes causal independence via separating sets, and follows immediately from faithfulness: (R3) If X ⊥⊥ Y | A, then X ∼ Y . 我々の第三の規則は集合を分離することで因果独立を確立し、(R3) 忠実性から直ちに従う。 0.57
These building blocks are the basis for our confounder blanket learner (CBL), outlined in Alg. これらのビルディングブロックは、algで概説されたcbl(confounder blanket learner)の基礎です。 0.70
1. It outputs a square and lower triangular ancestrality matrix M, with Mij representing the partial order between vertices (Xi, Xj). 1. 正方形および下方三角形の行列 m を出力し、mij は頂点 (xi, xj) 間の部分次を表す。 0.57
The subscript M on a partial ordering relation indicates that it is already encoded in the ancestrality matrix, which evolves with each pass through the for loop. 部分順序関係のサブスクリプト m は、既に祖先行列にエンコードされており、forループを通り抜けるごとに進化していることを示している。 0.65
The oracle I is an indicator function over conditional independencies on p(z, x). oracle i は p(z, x) 上の条件付き無依存な指標関数である。 0.76
4.2 Properties Proofs for all theorems are given in Appx. 4.2 すべての定理に対する性質証明が Appx で与えられる。 0.69
A. Theorem 1 (Soundness). a. 定理1(健全性)。 0.68
All ancestral relationships returned by CBL-Oracle hold in the true GX. CBL-Oracle が返したすべての祖先関係は、真の GX を保っている。 0.54
Moreover, if Mij = i ≺ j, then the set of non-descendants used to infer this fact, A = Z ∪ {X ∈ X\{Xi, Xj} : X (cid:22)M {Xi, Xj}}, is a valid adjustment set for (Xi, Xj). さらに、もし Mij = i {\displaystyle Mij=i} であれば、この事実を推測するために使われる非従属の集合 A = Z {\displaystyle Z\in X\{Xi, Xj} : X (cid:22)M {Xi, Xj}} は (Xi, Xj) に対する有効な調整集合である。 0.83
3 3 0.42
英語(論文から抽出)日本語訳スコア
Algorithm 1 CBL-Oracle アルゴリズム1 CBL-Oracle 0.72
Input: Background set Z, foreground set X, oracle I Output: Ancestrality matrix M Initialize: converged ← FALSE, M ← [NA] while not converged do 入力: 背景集合 Z, 前景集合 X, oracle I 出力: Ancestrality matrix M 初期化: 収束 , FALSE, M , [NA] は収束しないが、収束しない。 0.72
converged ← TRUE for Xi, Xj ∈ X such that i > j, Mij = [NA] do i > j, Mij = [NA] が成立するように、Xi, Xj ∈ X に対して収束する t TRUE 0.74
A ← Z ∪ {X ∈ X\{Xi, Xj} : X (cid:22)M {Xi, Xj}} if I(Xi ⊥⊥ Xj | A) then Xj : X (cid:22)M {Xi, Xj}} ならば I(Xi ) Xj | A) である。
訳抜け防止モード: x ∈ x\{xi, xj } : x ( cid:22)m { xi, である。 i(xi) が xj | a ) ならば、i(xi) は xj | a ) である。
0.69
Mij ← i ∼ j, converged ← FALSE Mij > i > j, converged > FALSE 0.31
end if for W ∈ A do W ∈ A do が終われば 0.70
if I(W ⊥⊥ Xj | A\W ∪ [Xi]) then Mij ← i ≺ j, converged ← FALSE else if I(W ⊥⊥ Xi | A\W ∪ [Xj]) then Mij ← j ≺ i, converged ← FALSE else if I(W (cid:54)⊥⊥ Xj | A\W ∪ [Xi]) then Mij ← j (cid:22) i, converged ← FALSE else if I(W (cid:54)⊥⊥ Xi | A\W ∪ [Xj]) then Mij ← i (cid:22) j, converged ← FALSE i(w ) xj | a\w (xi]) ならば、mij xi | a\w (xj]) ならば、mij xi | a\w (xj]) なら、mij xi | a\w (xj) ならば、i(w (cid:54)) で xj | a\w (xi]) なら、mij (cid:22) なら、i(w (cid:54)) で収束すると、i(w (cid:54)) xi | a\w (xj]) ならば、mij (cid:22) j で収束する。 0.52
end if end for end for end while 終われば終われば しばらくの間は 0.48
By design, CBL-Oracle can be uninformative where a method like FCI will provide a causal order. 設計上、CBL-Oracleは、FCIのようなメソッドが因果順序を提供するような非形式的である。 0.59
One of the simplest examples is the so-called Y-structure Mani et al [2006], {X1 → X3, X2 → X3, X3 → X4}, where FCI discovers X3 → X4. 最も単純な例の1つは、いわゆる Y-構造 Mani et al [2006], {X1 → X3, X2 → X3, X3 → X4} である。 0.83
By contrast, with an empty Z, CBL-Oracle cannot infer any causal ordering (though it may still infer X ∼ Y via (R3)). 対照的に、空の Z に対して、CBL-Oracle はいかなる因果順序も推論できない(ただし、それでも (R3) を介して X > Y を推論することができる)。 0.56
However, the presence of a single edge from a background variable into X1, X2, or X3 will allow for the discovery of X3 ≺ X4; an edge from Z into X4 will allow for the discovery that X4 is not an ancestor of any other variables. しかし、背景変数から x1, x2, x3 への単一の辺の存在は x3 を x4 に発見することを可能にし、z から x4 への辺は x4 が他の変数の祖先ではないことの発見を可能にする。 0.73
We characterize (full) identifiability conditions for CBLOracle as follows, with X(cid:22)i standing for the set of all Xi’s non-descendants in GX, including Xi itself. 我々は、CBLOracleの(完全な)識別可能性条件を次のように特徴づけ、X(cid:22)i は Xi 自身を含む GX 内のすべての Xi の非依存者の集合を表す。 0.70
Theorem 2 (Identifiability). 定理2(証明可能)。 0.62
The following conditions are necessary and sufficient to find the total causal order of X within ADMG G\U : 以下の条件は、ADMG G\U 内の X の総因果順序を見つけるのに十分である。 0.69
(i) there is no active backdoor path between any pair {Xi, Xj} given Z and their common ancestors in X; i) Z が与えられた任意の対 {Xi, Xj} と X の共通の祖先の間の活発なバックドア経路はない。 0.77
(ii) for each pair {Xi, Xj} such that Xi ≺ Xj in G, Xi has at least one adjacent vertex V ∈ X(cid:22)i in G\U that is not d-connected to Xj given X(cid:22)i\{V }. (ii) G において Xi が Xj となるような各対 {Xi, Xj} に対して、Xi は X(cid:22)i\{V } が与えられた Xj に d-連結でない G\U において、少なくとも 1 つの隣接する頂点 V ∈ X(cid:22)i を持つ。
訳抜け防止モード: (ii ) for each pair { Xi, Xj } G の Xi > Xj, Xi は G\U に隣接する少なくとも 1 つの頂点 V ∈ X(cid:22)i を持つ。 X(cid:22)i\{V} が与えられた Xj に接続する d でない。
0.87
Condition (i) above motivates the name confounder blanket. 条件 i) 上記は共同設立者ブランケットの名称を動機付けている。 0.62
One of the key points, however, is the completeness of our algorithm. しかし、重要なポイントの1つは、我々のアルゴリズムの完全性である。 0.71
In the nonparametric causal discovery literature, this is usually defined with respect to an oracle that delivers true answers to all conditional independence queries over observable variables. 非パラメトリック因果関係発見文献では、これは通常、可観測変数上の条件付き独立クエリに対する真の答えを提供するオラクルに関して定義される。 0.71
We define a new scope for completeness that places some reasonable limits on oracular omnipotence. オーラキュラー全能性に合理的な制限を課す完全性のための新しいスコープを定義する。 0.67
First, we introduce the following definitions: まず、以下の定義を紹介する。 0.72
4 Definition 4 (Iteration-t known non-descendant). 4 定義4(Iteration-t known non-decendant)。 0.38
Given an algorithm A, we call vertex W an iteration-t known non-descendant of a vertex X if アルゴリズムAが与えられたら、vetex W を vertex X の反復t既知の非退化子と呼ぶ。
訳抜け防止モード: アルゴリズムAが与えられたら vertex W 頂点 X の反復 - t known non- が成り立つなら
0.79
(i) W ∈ Z, or (i) W ∈ Z、または 0.92
(ii) after t modifications to M by A, the algorithm has deduced that W (cid:22) X. (cid:3) be the set Definition 5 (Lazy oracle algorithm). (ii) t を A で M に変更した後、アルゴリズムは W (cid:22) X. (cid:3) を集合定義5 (Lazy oracle algorithm) であると推定した。 0.85
Let X t(cid:22)i of all iteration-t known non-descendants of Xi according to some algorithm A. A lazy oracle algorithm is one that starts with an uninformative ancestrality matrix M and updates at each round t with answers to queries of just two types: x t(cid:22)i of all iteration-t known non-descendants of xi according some algorithm a. 遅延オラクルのアルゴリズムは、非インフォーマルな祖先行列 m から始まり、各ラウンド t で 2 種類のクエリに対する答えと共に更新するものである。 0.80
(i) W ⊥⊥ Xi | St (i)W,Xi | St 0.36
ij\W ∪ φ(Xj), such that W ∈ St ij φ(Xj) を W ∈ St とする。 0.74
ij φ(Xj) ∈ {∅,{Xj}}; and ij φ(Xj) ∈ { ,{Xj}}; そして 0.52
and (ii) Xi ⊥⊥ Xj | St そして (ii) xi が xj | st である。 0.64
ij , . (cid:3) ij , . (第3話) 0.43
ij := X t(cid:22)i ∩ X t(cid:22)j ij := X t(cid:22)i > X t(cid:22)j 0.46
where {Xi, Xj} ⊆ X and St Our oracle may be clairvoyant when it comes to probabilistic relationships, but she is not quite as accommodating as her classical counterpart. ここでは、Xi, Xj} は X であり、我々の神託は確率的関係に関しては透視的であるかもしれないが、彼女は古典的な関係ほど快適ではない。 0.66
In particular, she cannot be bothered to marshal her powers in service of combinatorial search strategies, which she considers inelegant and tedious. 特に彼女は、非エレガントで退屈だと考える組合せ探索戦略のために、自分の権限を強奪する気にはならない。 0.51
Instead she bestows her favor upon us only when we limit ourselves to a more restrictive class of queries pertaining to independence relationships conditioned on the complete set of (known) non-descendants for any given pair of foreground variables. 代わりに彼女は、与えられた一対の前景変数に対する(既知の)非デセンダントの完全集合に条件づけられた独立関係に関するより制限的なクエリクラスに制限された場合にのみ、我々に好意を与えてくれる。 0.70
Observe that inferences about ancestral relationships are fully ordered with respect to their information content: {NA} ≺ {i (cid:22) j} ≺ {i ≺ j} ∼ {i ∼ j}. 祖先関係に関する推論は、情報内容に関して完全に順序づけられる: {NA} > {i (cid:22) j} > {i > j} > {i > j} > {i > j} である。 0.59
This motivates the following optimality target: Definition 6 (Dominance). これは以下の最適性目標を動機付けている: 定義6(支配)。 0.64
Among the set of all sound procedures for learning ancestral relationships, we say that algorithm A dominates algorithm B iff A is strictly more informative than B. That is, 祖先関係を学習するためのすべての音響手順のうち、アルゴリズムAがアルゴリズムBを支配しているのは、Bよりも厳密な情報である。 0.73
(i) there exists no pair of vertices in any DAG G such that A’s output for that pair is less informative than B’s; and (i)任意のDAG GにAの出力がBの出力よりも情報的でないような頂点のペアは存在しない。 0.61
(ii) there exists some pair of vertices in some DAG G such that A’s output for that pair is more informative than B’s. (ii)一部の dag g には a の出力が b よりも有益であるようないくつかの対の頂点が存在する。 0.66
(cid:3) Finally, we may state our completeness result. (第3話) 最後に、完全性の結果を述べます。 0.56
Theorem 3 (Completeness). 原題はTheorem 3 (Completeness)。 0.76
No lazy oracle algorithm dominates CBL-Oracle. 遅延oracleアルゴリズムがcbl-oracleを支配することはない。 0.53
That is, inferences returned by CBL-Oracle are always at least as informative as those of any lazy oracle algorithm. つまり、cbl-oracleが返した推論は常に、遅延oracleアルゴリズムの推論と同じくらい有益である。 0.74
Of course, relationships of conditional independence are estimated from finite samples in practice. もちろん、条件付き独立性の関係は実際の有限サンプルから推定される。 0.82
In the sequel, we consider practical methods for implementing an algorithm that is pointwise consistent under further assumptions about the nature of conditional independencies in p(z, x). 続編では、p(z, x) における条件不依存の性質について、さらなる仮定の下で一貫したアルゴリズムを実装するための実践的方法を考える。 0.70
5 Statistical Inference In this section, we describe a practical method based on the oracle algorithm, called CBL-Sample. 5 統計的推論 この節では,CBL-Sample と呼ばれるオラクルアルゴリズムに基づく実践的手法について述べる。 0.75
Our main 主なもの 0.52
英語(論文から抽出)日本語訳スコア
assumption to help bridge the gap between theory and practice is the following: 理論と実践のギャップを埋めるのに役立つ仮定は次のとおりである。 0.72
(A4) We have access to a regression algorithm by which we can test any pairwise conditional independence statement X ⊥⊥ Y | S by regressing Y on S ∪ {X}. (A4) 我々は回帰アルゴリズムにアクセスでき、任意のペアワイズ条件独立性ステートメント X > Y | S を S > {X} 上の Y を回帰することによってテストできる。 0.60
The regression is implemented with a variable selection strategy which will, in the limit of infinite data, remove X from the regression equation if and only if X ⊥⊥ Y | S. 回帰は変数選択戦略によって実装され、無限データの極限において、x が回帰方程式から取り除かれるのは、x が y | s であることと同値である。 0.67
Statistical error control techniques are presented under this assumption. この仮定では統計的エラー制御手法が提示される。 0.67
We will not discuss its validity for the specific sparse regression engines exploited here. ここで利用したスパースレグレッションエンジンの妥当性については論じない。 0.47
This is well-understood in, for example, the case of Gaussian linear regression and a z-test of the coefficient for X. In other scenarios, due to computational or statistical reasons, this is less straightforward (e g , lasso is “sparsistent” only under restrictive assumptions, and it is possible to have a covariate dropping out of a population regression function even if the corresponding conditional independence does not hold [Hastie et al , 2015]). これは、例えば、ガウス線型回帰と x の係数の z-検定の場合にはよく理解されている: 他のシナリオでは、計算的または統計的な理由から、これはそれほど単純ではない(例えば、lasso は制限的な仮定の下でのみ「自発的」であり、対応する条件付き独立性が保たれなくても、共変項を集団回帰関数から外すことができる(hastie et al , 2015])。 0.77
Instead, we take this foundational assumption as an idealization that simplifies analysis, being open about the fact that, in practice, such assumptions may only be approximately satisfied. その代わり、我々はこの基本的な仮定を分析を単純化する理想化として捉え、実際にそのような仮定がほぼ満足できるという事実をオープンにする。 0.72
Constraints like W ⊥⊥ Xj | A\W ∪ [Xi] suggest two regression models per triplet (Xi, Xj, W ): one for the regression of Xj on W , A\W and Xi, and another for the regression of Xj on W and A\W only. 2つの回帰モデル (Xi, Xj, W ) は W , A\W および Xi 上の Xj の回帰について、もう1つは W と A\W 上の Xj の回帰についてである。
訳抜け防止モード: W > Xj | A\W > [ Xi ] のような制約は、三重項ごとに2つの回帰モデル(Xi, Xi)を示唆する。 Xj, W ) W, A\W, Xi 上の Xj の回帰を表す。 また、W および A\W 上の Xj の回帰は のみである。
0.67
In the algorithm that follows, we simplify this by using a single model to simultaneously test for all W , fitting a regression for Xj on A and Xi, and another regression for Xj on A only. 以下のアルゴリズムでは、単一モデルを用いて全ての W に対して同時にテストし、A および Xi 上の Xj の回帰と A 上の Xj の回帰を適合させることにより、これを単純化する。 0.78
These are clearly mathematically equivalent (as A = A\W ∪ {W}), so long as the variable selection procedure in the regression model can be computed exactly, for instance when using z-tests for a Gaussian regression model or when lasso sparsistency conditions are satisfied. これらは明らかに数学的に同値(a = a\w(英語版) {w})であり、回帰モデルの変数選択手順を正確に計算できる限り、例えば、ガウス回帰モデルにz検定を用いる場合や、ラッソ・スパルシスタンシー条件を満たす場合などである。
訳抜け防止モード: これらは明らかに数学的に同値である(A = A\W > { W } )。 回帰モデルにおける変数選択手順が正確に計算できる限り 例えば、ガウス回帰モデルに対してz-テストを使用する場合 ラッソの反抗条件が満たされると
0.85
This will not necessarily be the case when an intractable combinatorial search underlies variable selection, or when conditions for a continuous relaxation do not hold. これは必ずしも、難解な組合せ探索が変数の選択の下にある場合や、連続的な緩和の条件が成立しない場合ではない。 0.63
The safer alternative is, just like in the oracle algorithm, to perform individualized model selection for each W , without any concern for simultaneously selecting variables within A\W . より安全な選択肢は、オラクルアルゴリズムのように、A\W内の変数を同時に選択することなしに、各Wに対して個別化されたモデル選択を実行することである。 0.64
Nevertheless, for simplicity we rely on a joint variable selection procedure that uses all elements of A when fitting each regression model, and empirically show that bundling individual covariate tests achieves better results than existing alternatives. それにもかかわらず、単純性のために、各回帰モデルに適合するときにAのすべての要素を使用する共同変数選択手順を頼りにし、個々の共変量テストのバンドルが既存の選択肢よりも優れた結果をもたらすことを実証的に示す。 0.61
We emphasize that combinatorial search can be avoided altogether by separating selection on each W from any sort of sparse regularization or search among the other covariates, if so desired. 我々は、w 上の選択を任意の種類のスパース正規化や他の共変量間の探索から分離することで、組合せ探索を完全に避けることができることを強調する。 0.69
Bipartite Subgraphs. 2部構成のサブグラフ。 0.36
We begin with the simplest case, in which we have just two foreground variables X = {X, Y }. まず、最も単純なケースから始まり、2つの前景変数 x = {x, y } を持つ。 0.64
We fit a quartet of models to estimate the following conditional expectations: 私たちは、以下の条件付き期待を見積もるために、モデルの四重項に適合します。 0.52
Y : E[Y | Z] f 0 Y : E[Y | Z, X] f 1 Y : E[Y | Z] f 0 Y : E[Y | Z, X] f 1 0.42
X : E[X | Z] f 0 X : E[X | Z, Y ], f 1 X : E[X | Z] f 0 X : E[X | Z, Y], f 1 0.41
5 Y Y X or Y ∈ ˆS1 5 Y Y X または Y ∈ >S1 0.47
where subscripts index outcome variables and superscripts differentiate between full and reduced conditioning sets. ここで、サブスクリプトのインデックス結果変数とスーパースクリプトは、フルコンディショニングセットと縮小コンディショニングセットを区別する。 0.42
Assume, for concreteness, that all structural equations are linear. 具体的には、すべての構造方程式は線型である。 0.78
Since some elements of Z may not influence X, we could estimate the members of this quartet using lasso regression, which performs automatic feature selection. Z のいくつかの要素は X に影響しないかもしれないので、ラッソ回帰を用いてこの四重項のメンバーを推定することができ、自動的特徴選択を行う。 0.58
This results in four different active sets of predictors. この結果、4種類のアクティブな予測器が生成される。 0.53
Y (λ) ⊆ Z picks out just For instance, the active set ˆS0 those background variables that receive nonzero weight in the model ˆf 0 at a given value of the regularization parameter λ (though we generally suppress the dependence for notational convenience). 例えば、y (λ) , z は正則化パラメータ λ の与えられた値でモデル sf 0 で非ゼロ重みを受ける背景変数 s0 を選択する(ただし、一般的には表記の便利さに対する依存は抑制される)。 0.75
Our basic strategy is to refit the model quartet some large number of times B, taking different training/validation splits to get a sampling distribution over active sets. 我々の基本的な戦略は、モデルの四重項を幾度となく修正し、異なるトレーニング/検証分割を用いてアクティブな集合上のサンプリング分布を得ることである。 0.65
(The exact resampling method is described in more detail below.) This allows us to test the antecedent of (R3) by evaluating whether X ∈ ˆS1 with sufficient frequency. (詳細は後述) これにより、 (R3) の先行成分を、十分な周波数で X ∈ S1 を評価できる。 0.41
If either event occurs fewer than γB times (with the convention that γ = 1/2) we conclude that X ∼ Y . いずれの事象も γB 回未満の場合( γ = 1/2 という慣例で)、X は Y である。 0.66
Because we seek to minimize errors of commission, we are more conservative in our inference procedures for ≺ and (cid:22) relations. 委任の誤りを最小限に抑えるため、我々は、 と (cid:22) の関係の推論手順においてより保守的である。 0.68
From our distribution of active sets we calculate the (de)activation rate of each non-descendant with respect to a given causal ordering. 活性集合の分布から、与えられた因果順序に関して各非デセンダントの(de)活性化率を算出する。 0.71
This gives four unique rates per non-descendant, representing the (de)activation frequencies when treating either X or Y as the candidate cause. これは、xまたはyのいずれかを候補とする場合の(de)アクティベーション周波数を表す、非デセンダント当たりの4つの一意なレートを与える。
訳抜け防止モード: これは、非子孫に4つのユニークなレートを与え、(de)アクティベーション周波数を表す。 x または y を候補とする。
0.61
High rates are evidence that the corresponding inference rule applies. 高いレートは、対応する推論規則が適用される証拠である。 0.60
What is a reasonable threshold for drawing such an inference? そのような推論を描くのに妥当なしきい値は何でしょうか。 0.53
It is not immediately obvious how to specify an expected null (de)activation rate without further assumptions on the data generating process. データ生成プロセスのさらなる仮定なしに、期待されるnull(de)アクティベーション率を指定する方法は、すぐには明らかではない。 0.73
Rather than introduce some ad-hoc prior or sparsity constraint, we take an adaptive approach inspired by the stability selection procedure of Meinshausen and Bühlmann [2010]. アドホックな事前制約やスパーシティ制約を導入するのではなく,meinshausen と bühlmann [2010] の安定性選択手順に触発された適応的アプローチを採用する。 0.63
Specifically, we use a variant of complementary pairs stability selection [Shah and Samworth, 2013], which guarantees an upper bound on the probability of falsely selecting a low-rate feature at any given threshold τ. 具体的には、任意のしきい値 τ において、低レート特徴を誤って選択する確率の上限を保証する補完的ペア安定性選択 [shah and samworth, 2013] の変種を用いる。 0.86
The method is so named because, on each draw b, we partition the data into disjoint sets of equal size. この方法は、各ドローbにおいて、データを同じ大きさの非結合集合に分割するからである。 0.70
Rates are estimated over all 2B subsamples. 全2Bサブサンプルで推定される。 0.69
Stability selection was originally conceived for controlling error rates in feature selection problems, primarily lasso regression. 安定性選択はもともと、特徴選択問題(主にラッソ回帰)における誤差率を制御するために考案された。 0.61
We adapt the procedure to accommodate our modified target, which is a conjunction of inclusion/exclusion statements rather than a single selection event. 単一の選択イベントではなく、包括的・排他的ステートメントの統合である、修正されたターゲットに対応する手順に適応する。
訳抜け防止モード: 修正された目標に合わせて 手順を適応させます 単一の選択イベントではなく、包含/排除ステートメントの結合である。
0.67
Specifically, we are interested in the probability of (de)activation under some fixed feature selection procedure ˆS. 具体的には、ある固定特徴選択手順 s において、(de) 活性化の確率に興味がある。 0.69
We write: rd(Zk)X(cid:22)Y := P(Zk ∈ ˆS0 以下に記す。 rd(Zk)X(cid:22)Y := P(Zk ∈ >S0 0.43
Y ∧ Zk (cid:54)∈ ˆS1 Y ) zk (cid:54)ッシック・イ・s1 y ) 0.46
to denote the probability that feature Zk is deactivated w.r.t. X (cid:22) Y . Zk が w.r.t. X (cid:22) Y で非活性化される確率を表す。 0.63
Activation rates are analogously defined: 活性化率は次のように定義される。 0.45
ra(Zk)X(cid:22)Y := P(Zk (cid:54)∈ ˆS0 ra(Zk)X(cid:22)Y :=P(Zk (cid:54)公開されている。 0.73
X ∧ Zk ∈ ˆS1 X > Zk ∈ >S1 0.33
X ). x)である。 0.59
英語(論文から抽出)日本語訳スコア
X Y Y (Db) ∧ Zk (cid:54)∈ ˆS1 X Y Y(Db)は、Zk(cid:54)の略称である。 0.45
Y (Db)}/2B Y (Db)}/2B 0.46
Y , ˆS1 for deactivation, and ˆS0 Y~S1。 デアクティベーションのために、そして、 s0 0.55
For the opposite ordering, we simply swap active sets, using ˆS0 for activation X , ˆS1 w.r.t. X (cid:23) Y . 反対の順序付けでは、単に活性集合を交換し、活性化 X , >S1 w.r.t. X (cid:23) Y を活性化する。 0.57
Definition 7 (Complementary pairs stability selection). 定義7(補組の安定性選択)。 0.38
Let {(D2b−1,D2b) ⊆ [n] : b ∈ [B]} be randomly chosen independent pairs of sample subsets of size (cid:98)n/2(cid:99) such that D2b−1 ∩ D2b = {∅}. サイズ (cid:98)n/2(cid:99) のサンプル部分集合のランダムに選択されたペア {(d2b−1,d2b) : b ∈ [b]} を d2b−1 で d2b = {\} とする。 0.82
For τ ∈ [0, 1], φ ∈ {a, d}, and ψ ∈ {X (cid:22) Y, X (cid:23) Y }, the complementary pairs stability selection (CPSS) procedure is ˆHτ,φ,ψ := {k : ˆrφ(Zk)ψ ≥ τ}, with estimated rates given by: ˆrd(Zk)X(cid:22)Y := #{b : Zk ∈ ˆS0 for deactivation w.r.t. X (cid:22) Y , and X (Db)}/2B ˆra(Zk)X(cid:22)Y := #{b : Zk (cid:54)∈ ˆS0 for activation w.r.t. the same ordering. τ ∈ [0, 1], φ ∈ {a, d}, および φ ∈ {X (cid:22) Y, X (cid:23) Y } に対し、補対の安定性の選択 (CPSS) は、以下で表されるような手順である。
訳抜け防止モード: τ ∈ [ 0, 1 ], φ ∈ { a, d } に対して そして ψ ∈ { x ( cid:22 ) y, x ( cid:23 ) y } である。 相補ペアの安定性選択 (cpss ) の手順は { k : \r φ(zk)ψ ≥ τ } である。 推定レートは、不活性化 w.r.t に対して、 : srd(zk)x(cid:22)y : = # { b : zk ∈ s0 で与えられる。 x (cid:22 ) y, and x (db)}/2b sra(zk)x(cid:22)y : = # { b : zk (cid:54)html s0 for activation w.r.t 。 同じ順序です。
0.87
Again, to estimate rates for the opposite ordering, we simply swap active sets as described above. また、逆順序付けの確率を推定するために、上述したような活性集合を交換する。 0.59
(cid:3) For some θ < τ, let Lθ,φ,ψ := {k : rφ(Zk)ψ ≤ θ} denote the set of low-rate variable indices for some φ, ψ. (第3話) ある θ < τ に対して、lθ, φ,ψ := {k : r φ(zk) ≤ ≤ θ} を、ある φ, ψ に対する低次変数インデックスの集合とする。 0.65
Our goal is to bound the expected number of low-rate features selected at a given threshold τ, i.e. E[| ˆHτ,φ,ψ ∩ Lθ,φ,ψ|]. 我々のゴールは、与えられたしきい値 τ で選択される期待される低レート特徴数、すなわち E[| >Hτ,φ, > > Lθ,φ, >|] を束縛することである。
訳抜け防止モード: 我々のゴールは、所定の閾値τで選択された低レート特徴の期待数を束縛することである。 φ, φ, φ, φ である。 ψ| ] .
0.82
Methods for doing so rely on certain assumptions about the distribution of rates for features within Lθ,φ,ψ. そのための方法は、lθ, φ,ψ 内の特徴の比率の分布に関する一定の仮定に依存する。 0.69
Shah and Samworth [2013]’s tightest bound is achieved under r-concavity, which is formally defined in Appx. Shah and Samworth [2013] の最も厳しい境界は、正式に Appx で定義される r-凸の下で達成される。 0.70
B. Roughly, r-concave distributions describe a continuum of constraints that interpolate between unimodality and log-concavity for r ∈ [−∞, 0]. B. 概して、r-凸分布は、r ∈ [−∞, 0] に対する一様性と対数共空性の間の補間する制約の連続体を記述する。 0.68
Simulation results suggest that (de)activation rates for low-rate features exhibit the following property (see Appx. B): (A5) For all Z ∈ Lθ,φ,ψ, empirical rates ˆrφ(Z)ψ are ap- シミュレーションの結果、低レートな特徴に対する (de)activation rate は以下の性質を示すことが示唆されている(A5参照)。
訳抜け防止モード: シミュレーションの結果,低速度特徴に対する(脱)活性化速度は以下の特性を示すことが示唆された(Appx参照)。 B ) : ( A5 ) すべての Z ∈ Lθ に対して。 φ(Z) は ap- である。
0.76
X (Db) ∧ Zk ∈ ˆS1 X (Db) > Zk ∈ >S1 0.39
General case. Our method can be expanded to accommodate larger sets of foreground variables and nonlinear structural equations. 一般的なケース。 提案手法は, より広い前景変数と非線形構造方程式に対応するように拡張することができる。
訳抜け防止モード: 一般的なケース。 私たちの方法は拡張できます より大きな前景変数と非線形構造方程式に対応するためです
0.70
When dX > 2, we simply loop through all dX (dX − 1)/2 unique pairs of variables and record any inferences made at time t = 1. dX > 2 の場合、すべての dX (dX − 1)/2 変数のユニークなペアをループするだけで、時刻 t = 1 で作られた推論を記録する。 0.86
Like in the oracle algorithm, as the set A grows for t > 1, we continue cycling through pairs that have yet to be unambiguously decided until no further inferences are forthcoming. オラクルのアルゴリズムと同様に、集合 A が t > 1 に対して成長するにつれて、さらに推論が近づくまで明らかに決定されていないペアをサイクリングし続ける。 0.74
Though we use lasso regression for linear systems in our experiments, stepwise regression or even best subset selection may be viable alternatives [Hastie et al , 2020]. 線形系ではラッソ回帰を用いるが,ステップワイズ回帰や最良部分集合選択は,[hastie et al , 2020] の代替となるかもしれない。 0.70
For nonlinear systems, we use gradient boosted regression trees with early stopping, which automatically adapt to signal sparsity [Friedman, 2001, Bühlmann and Yu, 2003]. 非線形系に対しては、早期停止を伴う勾配増進回帰木を用い、信号空間に自動的に適応する[Friedman, 2001, Bühlmann and Yu, 2003]。 0.78
Any function s : Rd × R (cid:55)→ 2d from input variables and outcome to an active set of predictors will suffice. 任意の関数 s : Rd × R (cid:55)→ 2d を入力変数と結果からアクティブな予測子の集合へ導くと十分である。 0.72
All we require of our feature selection subroutine s is that it be a consistent estimator for the Markov blanket of a given variable, a criterion that is satisfied under fairly minimal conditions [see, e g , Candès et al , 2018, Prop. 1]. 特徴選択サブルーチン s に必要なのは、与えられた変数のマルコフブランケットに対する一貫した推定子であることのみであり、これは極めて最小限の条件で満たされる基準である(例: candès et al , 2018, prop. 1)。 0.68
In the worst case, CBL-Sample requires O(Bd3 X ) operations per feature selection subroutine s, the complexity of which itself presumably depends on n, dZ and dX. 最悪の場合、CBL-Sample は機能選択サブルーチン s ごとに O(Bd3 X ) 演算を必要とする。
訳抜け防止モード: 最悪の場合、CBL - Sample は機能選択サブルーチン s ごとに O(Bd3 X ) 操作を必要とする。 その複雑さは それ自体はおそらく n, dZ, dX に依存する。
0.74
For example, with n > d = (dZ + dX ), the least angle regression implementation of lasso takes O(d3 + nd2) computations [Efron et al , 2004], resulting in overall complexity of O(B(d6 Z)). 例えば、n > d = (dz + dx ) の場合、ラッソの最小角度回帰実装は o(d3 + nd2) 計算 [efron et al , 2004] を要し、結果として o(b(d6 z)) の全体的な複雑さをもたらす。 0.72
More generally, if s executes in polynomial time, then CBL-Sample is of complexity order P. Since constraint-based graphical learning without sparsity restrictions is NP-hard [Chickering et al , 2004], this represents a major computational improvement. より一般的には、s が多項式時間で実行される場合、CBL-Sample は複雑性順序 P である。
訳抜け防止モード: より一般に、s が多項式時間で実行されると、cbl - サンプルは複雑性次数 p となる。 これは、大きな計算改善を表している。
0.48
The procedure can be sped up even further by parallelizing over subsamples, as these are independent. プロシージャはさらに、サブサンプルを並列化することで、これらは独立である。 0.65
For pseudocode summarizing CBL-Sample, see Alg. CBL-Sample の擬似コードは Alg を参照。 0.69
3 in Appx. C. appxで3位。 cだ 0.74
X + nd5 x + nd5 である。 0.50
X + d3 proximately −1/4-concave. X + d3 略して −1/4 凹。 0.43
We now have the following error control guarantee: Theorem 4 (Error control). 現在では、以下のエラー制御保証がある: theorem 4 (error control)。 0.80
The expected number of lowrate features selected by the CPSS procedure is bounded from above: CPSSプロシージャで選択されるローレートな特徴の期待数は上記の通りである。 0.71
E[| ˆHτ,φ,ψ ∩ Lθ,φ,ψ|] ≤ min{D(θ2, 2τ − 1, B,−1/2), D(θ, τ, 2B,−1/4)}|Lθ,φ,ψ|, min{D(θ2, 2τ − 1, B, −1/2), D(θ, τ, 2B,−1/4)}|Lθ,φ, \| である。 0.68
where D(θ, τ, B, r) is the maximum of P(X ≥ τ ) over all rconcave random variables supported on {0, 1/2B, 1/B, . . . 1} with E[X] ≤ θ. ここで D(θ, τ, B, r) は、E[X] ≤ θ で {0, 1/2B, 1/B, . . . 1} 上のすべての rconcave 確率変数上の P(X ≥ τ ) の最大値である。 0.90
This is a direct application of Shah and Samworth [2013]’s Eq. これはShah and Samworth [2013] の Eq の直接的な応用である。 0.79
8. Though the bound is valid for all τ ∈ (θ, 1], we apply an adaptive lower bound  > θ, which denotes the minimum rate such that no conflicting inferences emerge, e g different ancestors deactivating for opposite causal orderings. 8. 境界はすべての τ ∈ (θ, 1] に対して有効であるが、適応的な下限 θ > θ を適用する。
訳抜け防止モード: 8. 境界はすべての τ ∈ ( θ, 1 ] に対して有効である。 適応的な下界 ~ > θ を適用し、その最小速度を表す。 対立する推論は 発生しない 例えば 異なる祖先は 反対の因果関係を不活性化する
0.58
We follow the authors’ recommendations for default values of B and θ (see Appx. B). b と θ のデフォルト値に対する著者の推奨に従う(appx.b を参照)。 0.65
We note that there is no closed form solution for D(θ, τ, B, r), but the quantity is easily computed with numerical methods. D(θ, τ, B, r) の閉形式解は存在しないが、その量は数値法で容易に計算できる。
訳抜け防止モード: D(θ, τ, B, r) に対する閉形式解は存在しないことに注意する。 しかしその量は 数値計算で簡単に計算できます
0.74
If the number of (de)activations detected via this procedure exceeds the maximum error bound of Thm. この手順で検出された(de)アクティベーションの数がThmの最大誤差限界を超えた場合。 0.85
4, we infer that at least one must be a true positive. 4 は、少なくとも 1 つは真正である必要があると推測する。 0.63
Since even a single (de)activation is sufficient to partially order variable pairs, this licenses the corresponding inference. 1つの(de)アクティベーションでさえ変数対を部分的に順序付けるのに十分であるため、これは対応する推論をライセンスする。 0.60
6 Experiments Full details of our simulation experiments are described in Appx. 6 実験 シミュレーション実験の詳細は Appx に記載されている。 0.87
D. Briefly, we vary the sample size and dimensionality of the data, as well as graph structure and sparsity. D. 簡単に言えば、データのサンプルサイズと寸法、およびグラフ構造と空間性を変化させる。 0.73
Linear and nonlinear structural equations are applied at a range of different signal-to-noise ratios (SNRs). 線形および非線形構造方程式は、異なる信号-雑音比(SNR)に適用される。 0.86
6.1 Bipartite Subgraphs We benchmark against a constraint-based method proposed by Entner et al [2013] and a score-based alternative similar in spirit to many causal discovery algorithms. 6.1 Bipartite Subgraphs 我々はEntnerらによって提案された制約ベースの手法と、多くの因果発見アルゴリズムに類似したスコアベースの代替手法をベンチマークする。 0.73
We highlight two key differences between our proposal and the constraint-based alternative: (1) Entner et al [2013]’s method assumes a partial order on foreground variables upfront. 1) Entner et al [2013] のメソッドは、前景変数に部分順序を前提とします。
訳抜け防止モード: 提案と制約ベースの代替案との間に2つの重要な違いを強調します。 ( 1 ) Entner et al [ 2013 ] のメソッドは前景変数の部分順序を前もって仮定する。
0.69
With the prior knowledge that X (cid:22) Y , it tests whether X → Y or X ∼ Y , with the possibility that the disjunction is undecidable from the observational distribution. X (cid:22) Y の事前の知識により、X → Y か X > Y かを検定し、その解離が観測分布から決定不能である可能性がある。 0.82
It therefore has an advantage in the following experiment, where the partial ordering assumption is satisfied, but competitors still consider the possibility that X ← Y . したがって、部分順序付けの仮定が満たされた次の実験では利点があるが、競合は依然として x が y である可能性を考える。 0.64
(2) The original version of Entner et al [2013]’s method performs combinatorial search through the space 2) Entner et al [2013] の手法のオリジナルバージョンは,空間を通して組合せ探索を行う 0.73
6 6 0.43
英語(論文から抽出)日本語訳スコア
Figure 2: Simulation results at varying sample sizes for three different structures: 図2: 3つの異なる構造の異なるサンプルサイズでのシミュレーション結果。 0.88
(a) X → Y ; (a) X → Y ; 0.42
(b) X ⊥⊥G Y | S; and (b)x,g y | s;及び 0.77
(c) X ⊥⊥G Y | S ∪ [U ]. (c)x | s | [u ] である。 0.63
We compare our CBL method to constraint- and score-based benchmarks. CBL法と制約およびスコアベースのベンチマークを比較した。 0.59
Expected results of an independence oracle are included at the far right. 独立宣言の結果は、最右端に含まれている。 0.57
of non-descendants, which is infeasible in our setting. 我々の設定では不可能な非従属者の場合。 0.51
Following the authors’ advice, we simplify the procedure by sampling random variable-subset pairs from Z, evaluating conditional independence either via partial correlation (for linear data) or the generalized covariance measure [Shah and Peters, 2020] with gradient boosting subroutine (for nonlinear data). 著者の助言に従って,Z からランダムな変数-サブセット対をサンプリングし,線形データに対する部分的相関あるいは一般化共分散測度 (Shah and Peters, 2020) を用いて条件独立性を評価することで手順を簡素化する。 0.77
For our score-based benchmark, we train a series of models to evaluate three different structural hypotheses, corresponding to (G1) X → Y ; (G2) X ← Y ; and (G3) X ∼ Y . スコアベースのベンチマークでは、(G1) X → Y ; (G2) X > Y ; (G3) X > Y に対応する3つの異なる構造仮説を評価するために、一連のモデルを訓練する。 0.68
We use lasso for linear data and gradient boosting for nonlinear data. 線形データにはlasso,非線形データにはgradient boostingを用いる。 0.75
We calculate the proportion of variance explained on a test set for all settings. すべての設定に対するテストセットで説明される分散の割合を計算する。 0.77
If (G3) scores highest, we return X ∼ Y . G3) が最高点に達した場合、X = Y を返す。 0.69
Otherwise, we test whether out-of-sample residuals for the top scoring model are correlated with the foreground predictor. さもなくば,トップスコアリングモデルのサンプル残差がフォアグラウンド予測と相関しているかどうかを検証した。 0.59
If so, we return NA; if not, we return whichever of (G1) or (G2) scored highest. もしそうなら、NA を返します。そうでなければ、(G1) または (G2) のどれが最高値であるかを返します。 0.62
We visualize results for the setting with 100 background variables and expected sparsity 1/2 (see Fig 2). 背景変数100とsparsity 1/2を想定した設定の結果を可視化する(図2参照)。 0.74
Data are simulated from 100 random graphs drawn under three different structural constraints: データは3つの異なる構造制約の下で描画された100個のランダムグラフからシミュレーションされる。 0.58
(a) X → Y ; (a) X → Y ; 0.42
(b) X ⊥⊥G Y | S, for some S ⊆ Z; and (b) x で s を s と z に対して y | s とする。 0.66
(c) X ⊥⊥G Y | S ∪ [U ], where U denotes a set of latent confounders. (c) X > G Y | S > [U ] ここで U は潜在的共同設立者の集合を表す。 0.67
The first two are identifiable, while the third is not. 最初の2つは識別可能で、3番目は識別できない。 0.64
Linear and nonlinear structural equations are applied with SNR = 2. SNR = 2 で線形および非線形構造方程式を適用する。 0.87
We find that CBL fares well in all settings. すべての設定で、CBLは良好です。 0.64
Constraintbased methods show less power to detect edges when present in this experiment, especially in nonlinear systems, while score-based methods incur higher error rates when edges are absent. 制約に基づく手法では、特に非線形システムにおいて、エッジ検出のパワーが低下する一方、スコアベースの手法では、エッジが存在しない場合のエラー率が高い。
訳抜け防止モード: この実験では、制約に基づく手法により、エッジを検出する能力は低下する。 特に非線形システムでは score - エッジがない場合にエラー率が高くなるメソッド。
0.68
We also observe that the constraintbased procedure requires considerable tuning—we had to experiment with a five-dimensional grid of decision thresholds to get reasonable results—and is by far the slowest to execute, taking about five times longer than また、制約ベースの手順にはかなりのチューニングが必要で、合理的な結果を得るためには、決定しきい値の5次元グリッドを実験しなければなりませんでした。 0.54
CBL even with the random subset approach. ランダムなサブセットアプローチであっても、CBL。 0.64
6.2 Larger Subgraphs We benchmark against two popular causal discovery algorithms: really fast causal inference (RFCI), a constraintbased method proposed by Colombo et al [2012] as a more scalable version of the original FCI algorithm [Spirtes et al , 2000]; and greedy equivalence search (GES), a score-based alternative due to Meek [1997] and Chickering [2003]. 非常に高速な因果推論 (RFCI, Colombo et al [2012] によって提案された制約ベースの手法で,元の FCI アルゴリズムのよりスケーラブルなバージョン (Spirtes et al , 2000) と, Meek (1997) と Chickering (2003) によるスコアベースの代替である greedy equivalence Search (GES) の2つをベンチマークする。 0.73
Both algorithms can be computed with background information to encode our partial ordering assumption, and restricted to focus on the subgraph GX. どちらのアルゴリズムも背景情報を用いて計算し、部分順序付け仮定を符号化し、サブグラフGXに集中するように制限する。
訳抜け防止モード: 両方のアルゴリズムは背景情報で計算できる 部分的な順序付けの仮定を サブグラフ GX に集中することが制限された。
0.77
Despite its name, RFCI struggles to converge in reasonable time (< 24 hours) when n = 1000 and dZ is on the order of 100, so we limit comparisons here to smaller datasets and run fewer replications for this method (5) than we do for GES (20). RFCI は、その名前にもかかわらず、n = 1000 と dZ が 100 の順序であるとき、妥当な時間 (24時間) で収束するのに苦労している。
訳抜け防止モード: その名前にもかかわらず、RFCIは適切な時間(24時間以内)に収束するのに苦労している。 n = 1000 で dZ は 100 である。 従って、ここで比較を小さなデータセットに制限し、このメソッド(5 )のレプリケーションをGES(20 )よりも少なくします。
0.72
This illustrates how the assumption of extreme sparsity is necessary for RFCI to work in practice. このことは、RFCIが実際に機能するためには、極端な間隔の仮定がいかに必要かを示している。 0.37
For this simulation, we draw random graphs of varying sample size with low (0.25) and high (0.75) sparsity, dZ ∈ {50, 100}, and dX = 6. 本シミュレーションでは, 低 (0.25) かつ高 (0.75) 空間, dZ ∈ {50, 100} および dX = 6 の異なるサンプルサイズのランダムグラフを描画する。 0.86
Relationships are linear throughout, with RFCI using partial correlation tests for conditional independence and GES scoring edges according to BIC. RFCI は条件独立のための部分相関試験と,BIC による GES スコアエッジを用いた。
訳抜け防止モード: 関係は概して線形である RFCI は条件付き独立度と GES スコアエッジをBIC による部分相関試験により評価した。
0.74
Accuracy is measured with respect to all pairwise relationships for which a decision is reached. 決定が達成されるすべての対関係に関して、正確度が測定される。 0.76
We find that CBL is more accurate on average in nearly all settings, with especially strong results in the high-sparsity, highdimensionality regime. ほぼすべての設定において,CBLは平均よりも精度が高く,特に高疎度,高次元構造において強い結果が得られた。 0.65
However, our method can be less stable than GES, as illustrated by the greater variance of results, particularly in dense networks where CBL outputs a relatively large number of NAs. しかし,CBLが比較的多くのNAを出力する高密度ネットワークでは,結果のばらつきが大きいため,本手法はGESよりも安定ではない。 0.71
6.3 Causal Effects Since our method identifies admissible sets for all detected edges, we may estimate the average treatment effect 6.3 因果効果 検出されたすべてのエッジに対する許容セットを同定するため、平均処理効果を推定できる。 0.75
7 n = 2500n = 5000n = 10000 7 n = 2500n = 5000n = 10000 0.45
(a) (b) (c)constraintscoreCB LconstraintscoreCBLc onstraintscoreCBL025 50751000255075100025 5075100MethodPercent ageLinear SCMn = 5000n = 10000n = 20000 (a) (b) (c)制約スコアCBL制約スコアCBL制約スコアCBL02575100025507510 002575100MethodPerce ntageLinear SCMn = 5000n = 10000n = 20000 0.35
(a) (b) (c)constraintscoreCB LconstraintscoreCBLc onstraintscoreCBL025 50751000255075100025 5075100MethodPercent ageNonlinear SCM123 (a) (b) (c)制約CBL制約CBL制約CBL制約CBL02550751000255075 2575100MethodPercent ageNonlinear SCM123 0.33
(a) (b) (c)constraintCBLorac leconstraintCBLoracl econstraintCBLoracle 02550751000255075100 0255075100MethodPerc entageNonlinear SCM123 (a) (b) c)constrain tcbloracleconstrain tcbloracleconstrain tcblbl25507510002575 10002575100methodper centagenonlinear scm123 0.35
(a) (b) (c)constraintCBLorac leconstraintCBLoracl econstraintCBLoracle 02550751000255075100 0255075100MethodPerc entageEstimatedStruc tureX®YY®XX~YNANonlinear SCMn = 5000n = 10000n = 20000 (a) (b) (c)制約CBLoracleconstraintC BLoracleconstraintCB Loracle0257510002550 7510002575100MethodP ercentageEstimatedSt ructureX®Y®XX~YNANonlinear SCMn = 5000n = 10000n = 20000 0.32
(a) (b) (c)constraintCBLorac leconstraintCBLoracl econstraintCBLoracle 02550751000255075100 0255075100MethodPerc entageNonlinear SCMn = 5000n = 10000n = 20000 (a) (b) (c)制約CBLoracleconstraintC BLoracleconstraintCB Loracle0257510002550 7510002575100MethodP ercentageNonlinear SCMn = 5000n = 10000n = 20000 0.34
(a) (b) (c)constraintCBLorac leconstraintCBLoracl econstraintCBLoracle 02550751000255075100 0255075100MethodPerc entageNonlinear SCM123 (a) (b) c)constrain tcbloracleconstrain tcbloracleconstrain tcblbl25507510002575 10002575100methodper centagenonlinear scm123 0.35
(a) (b) (c)constraintCBLorac leconstraintCBLoracl econstraintCBLoracle 02550751000255075100 0255075100MethodPerc entageEstimatedStruc tureX®YY®XX~YNANonlinear SCM123 (a) (b) c)constrain tcbloracleconstrain tcbloracleconstrain tcblbl25507510002575 100025757575100metho dpercentageestimated structurex®yy®xx~ynanonlinear scm123 0.31
(a) (b) (c)constraintCBLorac leconstraintCBLoracl econstraintCBLoracle 02550751000255075100 0255075100MethodPerc entageEstimatedStruc tureX®YY®XX~YNANonlinear SCMn = 2500n = 5000n = 10000 (a) (b) (c)制約CBLoracleconstraintC BLoracleConstraintCB Loracle0257510002550 7510002575100MethodP ercentageEstimatedSt ructureX®Y®XX~YNANonlinear SCMn = 2500n = 5000n = 10000 0.32
(a) (b) (c)constraintscoreCB LconstraintscoreCBLc onstraintscoreCBL025 50751000255075100025 5075100MethodPercent ageLinear SCMn = 5000n = 10000n = 20000 (a) (b) (c)制約スコアCBL制約スコアCBL制約スコアCBL02575100025507510 002575100MethodPerce ntageLinear SCMn = 5000n = 10000n = 20000 0.35
(a) (b) (c)constraintscoreCB LconstraintscoreCBLc onstraintscoreCBL025 50751000255075100025 5075100MethodPercent ageNonlinear SCM123 (a) (b) (c)制約CBL制約CBL制約CBL制約CBL02550751000255075 2575100MethodPercent ageNonlinear SCM123 0.33
(a) (b) (c)constraintCBLorac leconstraintCBLoracl econstraintCBLoracle 02550751000255075100 0255075100MethodPerc entageNonlinear SCM123 (a) (b) c)constrain tcbloracleconstrain tcbloracleconstrain tcblbl25507510002575 10002575100methodper centagenonlinear scm123 0.35
(a) (b) (c)constraintCBLorac leconstraintCBLoracl econstraintCBLoracle 02550751000255075100 0255075100MethodPerc entageEstimatedStruc tureX®YY®XX~YNANonlinear SCMn = 5000n = 10000n = 20000 (a) (b) (c)制約CBLoracleconstraintC BLoracleconstraintCB Loracle0257510002550 7510002575100MethodP ercentageEstimatedSt ructureX®Y®XX~YNANonlinear SCMn = 5000n = 10000n = 20000 0.32
(a) (b) (c)constraintCBLorac leconstraintCBLoracl econstraintCBLoracle 02550751000255075100 0255075100MethodPerc entageNonlinear SCMn = 5000n = 10000n = 20000 (a) (b) (c)制約CBLoracleconstraintC BLoracleconstraintCB Loracle0257510002550 7510002575100MethodP ercentageNonlinear SCMn = 5000n = 10000n = 20000 0.34
(a) (b) (c)constraintCBLorac leconstraintCBLoracl econstraintCBLoracle 02550751000255075100 0255075100MethodPerc entageNonlinear SCM123 (a) (b) c)constrain tcbloracleconstrain tcbloracleconstrain tcblbl25507510002575 10002575100methodper centagenonlinear scm123 0.35
(a) (b) (c)constraintCBLorac leconstraintCBLoracl econstraintCBLoracle 02550751000255075100 0255075100MethodPerc entageEstimatedStruc tureX®YY®XX~YNANonlinear SCM123 (a) (b) c)constrain tcbloracleconstrain tcbloracleconstrain tcblbl25507510002575 100025757575100metho dpercentageestimated structurex®yy®xx~ynanonlinear scm123 0.31
(a) (b) (c)constraintCBLorac leconstraintCBLoracl econstraintCBLoracle 02550751000255075100 0255075100MethodPerc entageEstimatedStruc tureX®YY®XX~YNANonlinear SCM (a) (b) c)constrain tcbloracleconstrain tcbloracleconstrain tcblbl25507510002575 100025757575100metho dpercentageestimated structurex®yy®xx~ynanonlinear scm 0.31
英語(論文から抽出)日本語訳スコア
Figure 3: Simulation results for our multivariate experiment, benchmarking against RFCI and GES. 図3: 多変量実験のシミュレーション結果、RFCI と GES に対するベンチマーク。 0.72
Whiskers represent standard errors. ウィスカーは標準エラーを表す。 0.61
(ATE) via backdoor adjustment. (ATE) バックドアの調整による。 0.62
For this experiment, we simulate data from a partially linear model as originally parametrized by Robinson [1988]: この実験では、元来ロビンソン [1988] によってパラメータ化された部分線型モデルからのデータをシミュレートする。 0.76
X = f (Z) + X , Y = βX + g(Z) + Y , X = f (Z) + > X , Y = βX + g(Z) + >Y である。 0.89
E[X | Z] = 0, E[Y | Z, X] = 0, E[...X | Z] = 0, E[...Y | Z, X] = 0, 0.39
with X ∈ {0, 1} and Y ∈ R. The goal is to estimate β, which corresponds to the ATE. X ∈ {0, 1} と Y ∈ R で、目標は β を推定することであり、これは ATE に対応する。 0.90
We run our pipeline with three different estimators: double machine learning (DML) [Chernozhukov et al , 2018], inverse propensity weighting (IPW) [Rosenbaum and Rubin, 1983], and targeted maximum likelihood estimation (TMLE) [van der Laan and Rose, 2011]. double machine learning (dml) [chernozhukov et al , 2018], inverse propensity weighting (ipw) [rosenbaum and rubin, 1983], target maximum likelihood estimation (tmle) [van der laan and rose, 2011] の3つの異なる推定器でパイプラインを実行しています。 0.77
For all three methods, models are fit with gradient boosting and parameters estimated via cross-fitting to avoid regularization bias. これら3つの手法は、正規化バイアスを避けるために、勾配の上昇とクロスフィッティングによって推定されるパラメータに適合する。
訳抜け防止モード: すべての3つの方法において、モデルは勾配上昇とクロスフィットにより推定されるパラメータに適合する 正規化バイアスを避けるためです
0.66
We simulate 1000 datasets with β = 1, dZ = 100, n = 10000, and SNR ∈ {1/2, 1, 2}. β = 1, dZ = 100, n = 10000, SNR ∈ {1/2, 1, 2} で1000個のデータセットをシミュレートする。 0.91
We find that all three methods provide consistent ATE estimates, with TMLE generally performing best in terms of bias and variance (see Fig 4). これら3つの手法が一貫した ATE 推定を提供しており、TMLE は一般にバイアスと分散の点で最もよく機能している(図4参照)。 0.63
This illustrates how CBL can be combined with existing algorithms to go beyond causal discovery and into causal inference. これは、CBLを既存のアルゴリズムと組み合わせて因果的発見を超えて因果的推論へと導く方法を示している。 0.65
Figure 4: Average treatment effects estimated by combining CBL with three different algorithms at varying SNRs. 図4: CBLと3つの異なるアルゴリズムを異なるSNRで組み合わせた平均処理効果を推定する。 0.85
Y → X. We observe that weak edges pose problems for all causal discovery procedures. y → x. 弱辺がすべての因果的発見手順に問題を引き起こすことを観測する。 0.65
Indeed, one motivation for taking an inclusive approach to background variables is the hope that a sufficiently large confounder blanket should include at least some strong edges that can be exploited to learn structural information about GX. 実際、背景変数に包括的アプローチをとる動機の1つは、十分に大きな共同設立者の毛布には、gxの構造情報を学ぶために活用できる少なくともいくつかの強力なエッジが含まれているべきだという希望である。 0.61
CBL relies on the assumption of faithfulness, which has been challenged by numerous authors [Cartwright, 2001, Steel, 2006, Zhang and Spirtes, 2008, Andersen, 2013, Uhler et al , 2013]. CBLは忠実性の仮定に依存しており、多くの著者 (Cartwright, 2001, Steel, 2006 Zhang and Spirtes, 2008 Andersen, 2013 Uhler et al , 2013) が異議を唱えている。 0.76
Several weaker variants have been proposed, including SGS-minimality [Spirtes et al , 2000], P-minimality [Pearl, 2009a], frugality [Forster et al , 2018], and 2-adjacency faithfulness [Marx et al , 2021]. sgs-minimality [spirtes et al , 2000], p-minimality [pearl, 2009a], frugality [forster et al , 2018], 2-adjacency honestness [marx et al , 2021]など,いくつかの弱い変種が提案されている。 0.82
One direction for future work is to extend CBL under these relaxed assumptions. 将来の研究の1つの方向は、これらの緩和された仮定の下でCBLを拡張することである。 0.46
The current implementation of CBL is order-dependent, insomuch as estimated subgraphs for the same dataset may vary if columns are reordered. 現在のCBLの実装は順序に依存しており、列が再順序付けされた場合、同じデータセットの推定サブグラフが変更される可能性があるため不確実である。 0.49
This can be addressed using methods previously devised for constraint-based causal discovery [Colombo and Maathuis, 2014]. これは制約に基づく因果発見のために以前に考案された手法(Colombo and Maathuis, 2014)で対処できる。 0.64
Acknowledgments. This work was supported by ONR grant 62909-19-1-2096. 認定。 この工事はonr grant 62909-19-1-2096によって支援された。 0.41
We thank Joshua Loftus for helpful comments on an earlier draft of this manuscript. 我々はジョシュア・ロフトス(joshua loftus)に、この写本の初期の草稿に関する有益なコメントに感謝する。 0.46
7 Discussion We have proposed a novel method for learning ancestral relationships in downstream subgraphs based on the confounder blanket principle, which advises against combinatorial search for conditioning sets in cases where scale-free sparsity cannot be safely assumed. 7 議論では,コンビネータブランケット原理に基づく下流部分グラフにおける祖先関係の学習法を提案し,スケールフリースパーシティを安全に想定できない場合の条件付き集合の組合せ探索を推奨した。 0.78
Our CBL algorithm is provably sound and complete with respect to a lazy oracle. 我々のCBLアルゴリズムは、遅延オラクルに関して、確実に健全で完全である。 0.57
Our sample version controls errors of commission with high probability and compares favorably to constraint- and score-based alternatives in a range of trials. サンプルバージョンは高い確率でコミッショニングの誤差を制御し,様々な試行において制約やスコアに基づく代替品と良好に比較する。 0.73
In addition to accurately learning ancestral relationships, CBL identifies valid adjustment sets for causal effect estimation. 祖先関係の正確な学習に加えて、CBLは因果効果推定のための有効な調整セットを特定する。 0.62
We note several limitations of our method. 我々の方法にはいくつかの制限がある。 0.62
First, CBL will struggle in the presence of weak edges. まず、cblは弱いエッジの存在下で苦闘する。 0.61
For instance, if the true graph is Z → X → Y and I(X; Y ) (cid:29) I(X; Z), then conditioning on Y in finite samples could deactivate some path(s) from Z to X, leading to the erroneous inference 例えば、真のグラフが Z → X → Y で I(X; Y ) (cid:29) I(X; Z) であれば、有限標本における Y 上の条件付けは Z から X への経路を不活性化し、誤った推論をもたらす。 0.87
References Holly Andersen. Holly Andersenを参照。 0.86
When to expect violations of causal faithfulness and why it matters. 因果的誠実さの違反となぜそれが重要なのかを期待する時。 0.52
Phil. Sci. , 80(5):672– 683, 2013. Phil Sci , 80(5):672– 683, 2013. 0.34
Peter Bühlmann and Bin Yu. ピーター・ビュールマンとビン・ユー 0.59
Boosting with the L2 loss. L2損失で上昇する。 0.73
J. Am. Stat. Assoc. J.A.。 統計。 Assoc 0.58
, 98(462):324–339, 2003. , 98(462):324–339, 2003. 0.45
Emmanuel Candès, Yingying Fan, Lucas Janson, and Jinchi Lv. エマニュエル・カンデス、yingying fan、lucas janson、jinchi lv。 0.57
Panning for gold: ‘model-X’ knockoffs for high dimensional controlled variable selection. 金のパネル:高次元制御された可変選択のための'モデルX'ノックオフ。 0.65
J. R. Statist. Soc. J.R.統計学者。 Soc 0.38
B, 80(3):551–577, 2018. b, 80(3):551–577, 2018年。 0.76
Nancy Cartwright. ナンシー・カートライト。 0.50
What is wrong with Bayes nets? ベイズネットのどこが悪いの? 0.69
Monist, 84(2):242–264, 2001. モニスト、84(2):242-264、2001。 0.56
Victor Chernozhukov, Denis Chetverikov, Mert Demirer, Esther Duflo, Christian Hansen, Whitney Newey, and James Robins. Victor Chernozhukov, Denis Chetverikov, Mert Demirer, Esther Duflo, Christian Hansen, Whitney Newey, James Robins
訳抜け防止モード: victor chernozhukov, denis chetverikov, mert demirer, esther duflo クリスチャン・ハンセン、ホイットニー・ニューリー、ジェイムズ・ロビンズ。
0.66
Double/debiased machine learning for ダブル/デバイアス機械学習 0.73
8 sparsity = 0.25sparsity = 0.75dZ=50dZ=10050010002000400080 00500100020004000800 00.50.70.90.50.70.9S ample SizeAccuracyMethodCB LGESRFCIsparsity = 0.25sparsity = 0.75dZ=50dZ=10050010002000400080 00500100020004000800 00.50.70.90.50.70.9S ample SizeAccuracyMethodCB LGESRFCISNR = 0.5SNR = 1SNR = 2DMLIPWTMLEDMLIPWTML EDMLIPWTMLE0.91.01.1 1.2EstimatorATE 8 sparsity = 0.25sparsity = 0.75dZ=50dZ=10050020004000500200 0400080000.50.90.50. 70.9Sample MethodCBLGESRFCIspar sity = 0.25dZ=50dZ=10050020004000100020 004,00080000.50.70.9 0.50.70.9Sample SizeAccuracyMethodCB LGESRFCISNR = 0.5SNR = 1SNR = 2DMLIPWTMLEDMLIPWTML EDMLIPWTMLEDMLIPWTLI PTeLE0.91.0.11.2Esti matorATE 0.26
英語(論文から抽出)日本語訳スコア
treatment and structural parameters. 治療と構造的パラメータ 0.73
Econom. J., 21 (1):C1–C68, 2018. エコノミー。 J., 21:C1-C68, 2018。 0.65
Miguel A Hernán and James M Robins. ミゲル・ア・ハーナンとジェームズ・M・ロビンズ。 0.49
Causal Inference: What If. Chapman & Hall/CRC, Boca Raton, 2009. 因果推論: もし? chapman & hall/crc、boca raton、2009年。 0.42
David Maxwell Chickering. デビッド・マクスウェル・チカリング 0.38
Optimal structure identification with greedy search. グリーディ探索による最適構造同定 0.66
J. Mach. Learn. Res., 3: 507–554, 2003. j・マッハ 学ぶ。 2003年、507-554頁。 0.60
David Maxwell Chickering, David Heckerman, and Christopher Meek. デヴィッド・マクスウェル・チカリング、デヴィッド・ヘッカーマン、クリストファー・ミーク。 0.38
Large-sample learning of Bayesian networks is NP-hard. ベイズネットワークの大規模学習はNPハードである。 0.63
J. Mach. Learn. Res., 5:1287–1330, 2004. j・マッハ 学ぶ。 2004年 5:1287-1330頁。 0.56
Tom Claassen and Tom Heskes. トム・クラッセンと トム・ヘスクス 0.65
A logical characterization of constraint-based causal discovery. 制約に基づく因果発見の論理的特徴付け 0.81
In Proceedings of the 27th Conference on Uncertainty in Artificial Intelligence, pages 135–144, 2011. 第27回人工知能不確実性会議の議事録では、2011年135-144頁。 0.64
Diego Colombo and Marloes H. Maathuis. Diego ColomboとMarloes H. Maathuis。 0.87
Orderindependent constraint-based causal structure learning. 順序独立制約に基づく因果構造学習 0.78
J. Mach. Learn. Res., 15(116):3921–3962, 2014. j・マッハ 学ぶ。 15(116):3921–3962, 2014年。 0.69
Diego Colombo, Marloes H. Maathuis, Markus Kalisch, and Thomas S. Richardson. ディエゴ・コロンボ、marloes h. maathuis、markus kalisch、thomas s. richardson。 0.54
Learning high-dimensional directed acyclic graphs with latent and selection variables. 潜在変数と選択変数を持つ高次元非巡回グラフの学習 0.70
Ann. Statist. , 40(1):294 – 321, 2012. アン 統計官 , 40(1):294 – 321, 2012. 0.42
A P Dawid. a p dawid の略。 0.54
Conditional independence in statistical theory. 統計的理論における条件付き独立性。 0.61
J. R. Statist. Soc. J.R.統計学者。 Soc 0.38
B, 41(1):1–31, 1979. b, 41(1):1–31, 1979年。 0.81
Peng Ding and Luke Miratrix. ペン・ディンとルーク・ミラトリクス 0.49
To adjust or not to adjust? 調整するか調整しないか? 0.83
Sensitivity analysis of M-bias and butterfly-bias. M-bias と Butterfly-bias の感度解析 0.72
J. Causal Inference, 3(1):41–57, 2015. J. Causal Inference, 3(1):41-57, 2015 0.44
Bradley Efron, Trevor Hastie, Iain Johnstone, and Robert Tibshirani. ブラッドリー・エフロン、トレヴァー・ハスティ、イアン・ジョンストン、ロバート・ティブシラニ。 0.57
Least angle regression. Ann. 最小角度の回帰。 アン 0.54
Stat. , 32(2): 407 – 499, 2004. 統計。 , 32(2): 407 – 499, 2004. 0.57
Doris Entner, Patrik Hoyer, and Peter Spirtes. ドリス・エントナー、パトリク・ホイヤー、ピーター・スピリッツ。 0.50
Datadriven covariate selection for nonparametric estimation of causal effects. 因果効果の非パラメトリック推定のためのデータ駆動共変量選択 0.72
In Proceedings of the 16th International Conference on Artificial Intelligence and Statistics, pages 256–264, 2013. 第16回人工知能と統計に関する国際会議紀要』、256-264頁、2013年。 0.71
Malcolm Forster, Garvesh Raskutti, Reuben Stern, and Naftali Weinberger. Malcolm Forster、Garvesh Raskutti、Reuben Stern、Naftali Weinberger。 0.35
The frugal inference of causal relations. 因果関係の曖昧な推論。 0.24
Br. J. Philos. Br。 J・フィロス 0.46
Sci. , 69(3):821–848, 2018. Sci , 69(3):821–848, 2018. 0.35
Jerome H. Friedman. ジェローム・h・フリードマン 0.58
Greedy function approximation: A gradient boosting machine. グリーディ関数近似:勾配促進機。 0.65
Ann. Statist. , 29(5):1189 – 1232, 2001. アン 統計官 , 29(5):1189 – 1232, 2001. 0.42
Jerome H. Friedman, Trevor Hastie, and Rob Tibshirani. Jerome H. Friedman、Trevor Hastie、Rob Tibshirani。 0.37
Regularization paths for generalized linear models via coordinate descent. 座標降下による一般化線形モデルの正規化経路 0.81
J. Stat. Softw. J. Stat 柔らかくて 0.45
, 33(1):1–22, 2010. , 33(1):1–22, 2010. 0.45
Clark Glymour, Kun Zhang, and Peter Spirtes. クラーク・グリモア、クン・ジン、ピーター・スピルテス。 0.49
Review of causal discovery methods based on graphical models. グラフィカルモデルに基づく因果発見法の検討 0.63
Front. Genet. フロント。 Genet 0.47
, 10:524, 2019. , 10:524, 2019. 0.44
Trevor Hastie, Robert Tibshirani, and Martin Wainwright. Trevor Hastie、Robert Tibshirani、Martin Wainwright。 0.35
Statistical learning with sparsity: The lasso and generalizations. sparsity: the lasso and generalizations による統計学習。 0.83
Chapman & Hall/CRC, Boca Raton, FL, 2015. chapman & hall/crc、boca raton、fl、2015年。 0.59
Trevor Hastie, Robert Tibshirani, and Ryan Tibshirani. トレバー・ハスティ、ロバート・ティブシラニ、ライアン・ティブシラニ。 0.50
Best subset, forward stepwise or lasso? ベストサブセット、ステップワイズ、それともラッソ? 0.57
Analysis and recommendations based on extensive comparisons. 広範囲な比較に基づく分析と勧告。 0.83
Statist. Sci. , 35(4):579–592, 2020. 統計官 Sci , 35(4):579–592, 2020. 0.37
Markus Kalisch, Martin Mächler, Diego Colombo, Marloes H. Maathuis, and Peter Bühlmann. Markus Kalisch、Martin Mächler、Diego Colombo、Marloes H. Maathuis、Peter Bühlmann。 0.38
Causal inference using graphical models with the R package pcalg. Rパッケージpcalgを用いたグラフィカルモデルによる因果推論 0.74
J. Stat. Softw. J. Stat 柔らかくて 0.45
, 47(11):1–26, 2012. , 47(11):1–26, 2012. 0.45
Guolin Ke, Qi Meng, Thomas Finley, Taifeng Wang, Wei Chen, Weidong Ma, Qiwei Ye, and Tie-Yan Liu. Guolin Ke, Qi Meng, Thomas Finley, Taifeng Wang, Wei Chen, Weidong Ma, Qiwei Ye, Tie-Yan Liu
訳抜け防止モード: guolin ke, qi meng, thomas finley, taifeng wang。 wei chen, weidong ma, qiwei ye, and tie - ヤン・リウ。
0.64
Lightgbm: A highly efficient gradient boosting decision tree. Lightgbm: 意思決定ツリーの効率的な勾配向上。 0.76
In Advances in Neural Information Processing Systems, volume 30, 2017. ニューラル・インフォメーション・プロセッシング・システム(ニューラル・インフォメーション・プロセッシング・システム)の進歩、第30巻、2017年。 0.45
Sara Magliacane, Tom Claassen, and Joris M. Mooij. Sara Magliacane、Tom Claassen、Joris M. Mooij。 0.74
Ancestral causal inference. Ancestral causal inference 0.28
In Advances in Neural Information Processing Systems 30, page 4473–4481, 2016. ニューラル・インフォメーション・プロセッシング・システムズ30ページ4473-4481, 2016 年。 0.47
Subramani Mani, Peter Spirtes, and Gregory Cooper. スプラマニ・マニ、ピーター・スピルテス、グレゴリー・クーパー。 0.47
A theoretical study of Y structures for causal discovery. 因果発見のためのy構造の理論的研究。 0.83
In Proceedings of the 22nd Conference on Uncertainty in Artificial Intelligence, pages 314–323, 2006. 第22回人工知能不確実性会議では、2006年314-323頁。 0.65
Alexander Marx, Arthur Gretton, and Joris M. Mooij. アレクサンドル・マルクス、アーサー・グレットン、ジョリス・M・ムーイ。 0.55
A weaker faithfulness assumption based on triple interactions. 三重相互作用に基づくより弱い忠実性の仮定。 0.73
In Proceedings of the 37th Conference on Uncertainty in Artificial Intelligence, pages 451–460, 2021. 第37回人工知能不確実性会議の議事録451-460, 2021頁。 0.67
Christopher Meek. クリストファー・ミーク。 0.50
Graphical Models: Selecting Causal and Statistical Models. グラフィカルモデル:因果モデルと統計モデルの選択。 0.82
PhD thesis, Carnegie Mellon University, 1997. 1997年、カーネギーメロン大学博士号取得。 0.66
Nicolai Meinshausen and Peter Bühlmann. ニコライ・ミンスハウゼンとピーター・ビュールマン。 0.58
Stability selec- tion. 安定セレック- ティメント 0.45
J. R. Statist. Soc. J.R.統計学者。 Soc 0.38
B, 72(4):417–473, 2010. b, 72(4):417–473, 2010 0.47
Judea Pearl. Causality: Models, Reasoning, and Inference. ユダヤ真珠。 因果性: モデル、推論、推論。 0.53
Cambridge University Press, New York, 2nd edition, 2009a. ケンブリッジ大学出版局、2009年、第2版。 0.52
Judea Pearl. Myth, confusion, and science in causal analysis. ユダヤ真珠。 因果分析における神話、混乱、科学。 0.63
UCAL Cognitive Systems Lab, Technical Report TR-348, 2009b. UCAL Cognitive Systems Lab, Technical Report TR-348, 2009b. 0.47
Thomas Richardson. トーマス・リチャードソン。 0.69
Markov properties for acyclic directed mixed graphs. 非巡回有向混合グラフのマルコフ特性 0.57
Scand. J. Stat. スキャンした J. Stat 0.52
, 30(1):145–157, 2003. , 30(1):145–157, 2003. 0.45
P. M. Robinson. Root-n-consistent semiparametric regres- p・m・ロビンソン Root-n-consistent semiparametric regres- 0.45
sion. Econometrica, 56(4):931–954, 1988. イオン Econometrica, 56(4):931–954, 1988。 0.56
Paul R. Rosenbaum and Donald B. Rubin. ポール・R・ローゼンバウムとドナルド・B・ルービン。 0.53
The central role of the propensity score in observational studies for causal effects. 因果効果の観察研究における確率スコアの中心的役割 0.71
Biometrika, 70(1):41–55, 1983. ビオメトリカ 70(1):41–55, 1983。 0.70
Rajen D. Shah and Jonas Peters. Rajen D. ShahとJonas Peters。 0.44
The hardness of conditional independence testing and the generalised covariance measure. 条件付き独立性テストの難しさと一般化共分散尺度 0.78
Ann. Statist. , 48(3):1514 – 1538, 2020. アン 統計官 , 48(3):1514 – 1538, 2020. 0.42
Rajen D. Shah and Richard J. Samworth. Rajen D. ShahとRichard J. Samworth。 0.47
Variable selection with error control: Another look at stability selection. エラー制御による変数選択: 安定性選択に関する別の考察。 0.83
J. R. Statist. Soc. J.R.統計学者。 Soc 0.38
B, 75(1):55–80, 2013. B, 75(1):55-80, 2013。 0.44
Peter Spirtes, Clark N. Glymour, and Richard Scheines. ピーター・スピルテス、クラーク・n・グリモア、リチャード・シェーンズ。 0.59
Causation, Prediction, and Search. 因果関係、予測、探索。 0.58
The MIT Press, Cambridge, MA, 2nd edition, 2000. MIT Press, Cambridge, MA, 2nd edition, 2000 0.37
9 9 0.42
英語(論文から抽出)日本語訳スコア
Daniel Steel. ダニエル・スチール。 0.71
Homogeneity, selection, and the faithfulness 均質性・選択・忠実性 0.59
condition. Minds Mach. 条件だ マッハを思い浮かべる。 0.52
, 16(3):303–317, 2006. , 16(3):303–317, 2006. 0.45
Caroline Uhler, Garvesh Raskutti, Peter Buhlmann, and Bin Yu. キャロライン・ウラー(Caroline Uhler)、ガルヴェシュ・ラスクッティ(Garvesh Raskutti)、ピーター・ビュールマン(Peter Buhlmann)、ビン・ユ(Bin Yu)。 0.40
Geometry of the faithfulness assumption in causal inference. 因果推論における忠実性仮定の幾何学 0.69
Ann. Statist. , 41(2):436–463, 2013. アン 統計官 , 41(2):436–463, 2013. 0.41
Mark J. van der Laan and Sherri Rose. mark j. van der laanとsherri rose。 0.74
Targeted learning: Causal Inference for Observational and Experimental Data. 目標学習: 観測データおよび実験データに対する因果推論。 0.86
Springer, New York, 2011. 2011年、ニューヨーク。 0.40
Jiji Zhang. On the completeness of orientation rules for causal discovery in the presence of latent confounders and selection bias. ジジ・ジャン 潜在共同設立者と選択バイアスの存在下での因果発見のための方向性規則の完全性について 0.50
Artif. Intell. アーティフ インテリ。 0.49
, 172(16):1873–1896, 2008. , 172(16):1873–1896, 2008. 0.45
Jiji Zhang and Peter Spirtes. ジジ・チャンとピーター・スピルテス 0.51
Detection of unfaithfulness and robust causal inference. 不信感と頑健な因果推論の検出 0.57
Minds Mach. マッハを思い浮かべる。 0.40
, 18(2): 239–271, 2008. , 18(2): 239–271, 2008. 0.50
10 10 0.43
英語(論文から抽出)日本語訳スコア
A Proofs A.1 Proof of Theorem 1 CBL-Oracle exhaustively applies (R1), (R2), and (R3) only to non-descendants that were confirmed to be such either by assumption (Z) or by previous application of the rules. 証明 a.1 定理 1 CBL-Oracle の証明は (R1, (R2) および (R3) を、仮定 (Z) または以前の規則の適用によって確認された非従属者に対してのみ、徹底的に適用する。 0.73
Therefore, it boils down to the soundness of the rules themselves, as the starting set of non-descendants for all X ∈ X is Z. As we mentioned in the main text, (R3) is a direct application of faithfulness since the conditioning set contains no descendants of X or Y . したがって、すべての x ∈ x に対する非デセンダントの開始集合は z であるので、規則自体の健全性にボイルダウンする(r3) は x や y の子孫が存在しないので、(r3) は忠実さの直接的な応用である。 0.71
The correctness of (R1) and (R2) are a direct application of Lemma 1 of Magliacane et al [2016] and the partial order knowledge. R1) と (R2) の正しさは、Magliacane et al [2016] の Lemma 1 と部分順序知識の直接的な応用である。 0.77
In order to obtain Mij = i ≺ j, it must be the case that (R1) was used with some A = Z ∪ {X ∈ X\{Xi, Xj} : X (cid:22) {Xi, Xj}} to detect a minimal deactivation of the form W ⊥⊥ Xj | A\W ∪ [Xi] for some W ∈ A. Since this confirms that Xi ≺ Xj, we satisfy the assumptions of Entner et al [2013]’s (R1). Mij = i {\displaystyle Mij=i} を得るには、 (R1) がある A = Z {\displaystyle Z} のとき、ある W ∈ A の形の最小の非活性化を検出するために (cid:22) {Xi, Xj}} を用いていた必要がある。
訳抜け防止モード: Mij = i {\displaystyle j} を得るには、 ( R1 ) {\displaystyle (R1)} が A = Z {\displaystyle X\{Xi} で使われた場合でなければならない。 Xj } : X ( cid:22 ) { Xi, Xj } は、ある W ∈ A に対して W > Xj | A\W > [ Xi ] という形の最小の非活性化を検出する。 私たちはEntner et al [ 2013 ] の仮定 (R1 ) を満たす。
0.82
Therefore, using the same arguments, we conclude that both A and A\W are valid adjustment sets for (Xi, Xj). したがって、同じ引数を用いて、A と A\W の両方が (Xi, Xj) に対する有効な調整集合であると結論付ける。 0.73
(cid:3) A.2 Proof of Theorem 2 Without loss of generality, for any dX, assume that set X1, X2, . . . , XdX some Xj for j > i. (第3話) A.2 一般性の損失のない定理 2 の証明は、任意の dx に対して、集合 x1, x2, . . , xdx を j > i に対して xj と仮定する。
訳抜け防止モード: (第3話) A.2 一般性を失うことなく、任意の dx に対する定理 2 の証明 集合 x1 , x2 , . . , xdx を j > i に対して xj とする。
0.52
Let us start with dX = 2. dX = 2 から始めましょう。 0.65
By hypothesis, X1 has a vertex Z that is adjacent to it but not to X2. 仮説により、X1 は、その近傍にあるが X2 にはない頂点 Z を持つ。 0.79
Moreover, there is no active backdoor path between Z and X2 given Z\{Z}. さらに、Z と X2 の間の活性なバックドア経路は存在しない。 0.71
It is also the case that Z\{Z} will block all backdoor paths between X1 and X2. また、z\{z} は x1 と x2 の間のすべてのバックドアパスをブロックする。 0.79
To see this, imagine any path between X1 and X2, given Z\{Z}, starting with (X1, Z) as the initial edge. これを見るために、Z\{Z} が与えられた X1 と X2 の間の任意の経路を (X1, Z) を始端とする。 0.85
If Z is a collider on this path, it will be inactive. Z がこの経路上のコライダーであれば、それは不活性である。 0.52
But even if Z is not a collider, the rest of this path is not active by hypothesis. しかし、z が衝突型加速器でなくても、この経路の残りの部分は仮説によりアクティブではない。 0.57
Therefore, if the edge X1 → X2 exists, (R1) will activate and we will learn the relation X1 ≺ X2. したがって、エッジ X1 → X2 が存在する場合、(R1) は活性化し、X1 > X2 の関係を学ぶ。 0.81
If the edge does not exist, (R3) will activate and we will learn the relation X1 ∼ X2. エッジが存在しない場合、(R3) は活性化し、X1 > X2 の関係を学ぶ。 0.81
Now, assume we are able to solve all ancestral relations for GX. さて、GX のすべての祖先関係を解くことができると仮定する。 0.72
As X1 and XdX satisfy the premises with ancestral set Z, we will learn either X1 ≺ XdX . X1 と XdX が祖先集合 Z の前提を満たすので、X1 は XdX のいずれかを学ぶ。 0.77
Hence, we will know all the common ancestors of X2 and XdX which are in X. We also know that conditioning on all of these ancestors will not create an active backdoor path , since we know that Z is a valid adjustment set for (X1, X2) and either Z or Z ∪ {X1} is a between X2 and XdX valid adjustment set for (X2, X3). したがって、X2 と XdX のすべての共通祖先は、X2 と XdX の間にあり、Z が (X1, X2) の有効な調整集合であり、Z と Z のどちらかが (X2, X3) の有効な調整集合であるので、これらの祖先の条件付けが活性なバックドアパスを作らないことも分かっている。 0.83
We can redefine a new Z by adding X1 to it, and iterate the argument. X1を追加して新しいZを再定義し、引数を繰り返すことができる。 0.80
(cid:3) is indexed so that no Xi is a descendant of (第3話) Xi が Xi の子孫でないようにインデックス付けされる 0.60
or X1 ∼ XdX あるいは X1 > XdX 0.89
A.3 Proof of Theorem 3 Given that CBL-Oracle performs all possible tests allowed for a lazy oracle algorithm (subject to the conditions of finding all possible non-descendants at each iteration), this boils down to guaranteeing we are not failing to take into account further implications of (R1)-(R3) and that the non-ancestral relationships are built up properly as iterations progress. A.3 定理の証明 3 cbl-oracleが遅延オラクルアルゴリズムで許される全ての可能なテスト(各イテレーションで可能なすべての非デシデントを見つける条件に代入する)を実行するとすると、これは(r1)-(r3)のさらなる意味を考慮にとらないこと、そして、非祖先関係が反復が進行するにつれて適切に構築されることを保証できる。 0.68
Let’s start with the case dX = 2, and then prove the general case by induction. まずは dX = 2 の場合から始めて、帰納法によって一般的な場合を証明する。 0.75
The case dX = 2 is similar to Entner et al [2013], except we do not assume a causal order between X1 and X2. dX = 2 のケースは Entner et al [2013] と似ているが、X1 と X2 の間の因果順序は仮定しない。 0.90
This implies, for instance, that we cannot distinguish Z → X1 ← X2 from Z → X1 ↔ X2, unlike the algorithm of Entner et al [2013]. これは例えば、Entner et al [2013] のアルゴリズムとは異なり、Z → X1, X2 と Z → X1, X2 を区別できないことを意味する。 0.89
When dX = 2, we can refer to (R1)-(R3) with A = Z and, without loss of generality, X = X1 and Y = X2. dX = 2 のとき、(R1)-(R3) を A = Z で、一般性を失うことなく、X = X1 と Y = X2 を呼ぶことができる。 0.90
There is at most one possible modification that can be made to M, so we only need to consider Z as the set of non-descendants of {X1, X2}. m にできる修正は少なくとも一つあるので、z を {x1, x2} の非退化集合として考えるだけでよい。
訳抜け防止モード: 少なくとも一つは M に修正できる可能性がある。 したがって、Z を { X1, X2 } の非-子孫の集合と考えるだけでよい。
0.78
If some lazy oracle algorithm A dominates CBL-Oracle, then there exists some DAG G(cid:48) that is indistinguishable from G according to (R1)-(R3), but for which A draws a more informative inference. 遅延オラクルアルゴリズム A が CBL-Oracle を支配しているなら、(R1)-(R3) に従って G と区別できない DAG G(cid:48) が存在するが、A はより情報的な推論を引き出す。 0.82
Assume, for concreteness, that CBL-Oracle outputs X1 (cid:22) X2 but A outputs X1 ≺ X2. 具体的には、CBL-Oracle は X1 (cid:22) X2 を出力するが、A は X1 を出力する。 0.67
The completeness of our (R1) follows from the completeness of (R1) in Entner et al [2013]. 我々の (R1) の完全性は、Entner et al [2013] における (R1) の完全性から従う。 0.75
That proof makes no use of the presumed ancestrality relationship between X1 and X2, except that their algorithm does not need to flip the roles of X1 and X2 when applying the rules. この証明は、X1 と X2 の間の推定祖先関係を使わないが、それらのアルゴリズムはルールを適用する際に X1 と X2 の役割を反転させる必要はない。 0.80
We do the flip, but as shown before, the algorithm remains sound. 我々はフリップを行うが、前述したようにアルゴリズムは健全なままだ。 0.67
Assume (R3) cannot be applied G. It is clear that it cannot be applied to G(cid:48) either, since adding an edge to G (that is, X1 → X2) cannot introduce further independencies. G(cid:48) にも適用できないことは明らかであり、G に辺を加えると(つまり X1 → X2) はさらなる独立性を導入することができない。 0.65
Assume (R1) cannot be applied to G. Now, given X1 (cid:54)⊥⊥G X2 | Z (that is, (R3) does not apply to G), there is at least one path P := X1 ← ··· → X2 which is active given Z in G. We will show that no W ∈ Z exists such that W ⊥⊥G(cid:48) X2 | Z\W ∪ [X1], i.e., (R1) does not apply to G(cid:48) either. すなわち、(R3) が G に対して適用できないとき、少なくとも 1 つの経路 P := X1 シュ ···· → X2 が存在して G において Z が与えられたとき、W ∈ Z が存在しないことを示し、W >G(cid:48) X2 | Z\W シュ [X1],すなわち (R1) が G(cid:48) にも適用されない。 0.82
To see this, assume that (R1) does apply to G(cid:48). これを見るためには、(R1) が G(cid:48) に適用できると仮定する。 0.69
Then, W ⊥⊥G(cid:48) X2 | Z\W ∪ {X1}, which implies W ⊥⊥G X2 | Z\W ∪ {X1}, since adding edge X1 → X2 cannot create any new independence. すると、辺 X1 → X2 を付加しても新しい独立性は生じないので、W > G (cid:48) X2 | Z\W > {X1} となる。 0.85
It is not possible that W (cid:54)⊥⊥G X2 | Z\W , otherwise (R1) would fire and incorrectly imply that X1 → X2 in G. Hence, W ⊥⊥G X2 | Z\W . W (cid:54) = G X2 | Z\W であり、そうでなければ (R1) は G において X1 → X2 を発射し、誤った意味を持つ。 0.84
Given that X1 ⊥⊥G X2 | Z\W ∪ {W} by hypothesis, W cannot be in P. Since X1 → X2 is not in the equivalent P path in G(cid:48), W must be connected to X1 via some other path P(cid:48) into X1 that is active given Z\W in order for X1 to d-separate X2 from W . x1 → x2 は g(cid:48) の同値な p 経路には存在しないので、w は x1 と他の経路 p(cid:48) を介して x1 に接続され、x1 が w から d-分離するために z\w が与えられる x1 に接続されなければならない。 0.77
But the concatenation of P(cid:48) with P in G(cid:48) will しかし、g(cid:48) における p(cid:48) と p との結合は成立する。 0.59
11 11 0.43
英語(論文から抽出)日本語訳スコア
contradict W ⊥⊥G(cid:48) X2 | Z\W ∪ {X1}. 矛盾 W > G(cid:48) X2 | Z\W > {X1} である。 0.61
By symmetry with the case where X2 → X1 is added, (R1) cannot be applied to either G nor G(cid:48). X2 → X1 が加わった場合の対称性により、(R1) は G にも G(cid:48) にも適用できない。 0.78
Assume (R2) cannot be applied to G. Now, assume there exists some W ∈ Z such that W (cid:54)⊥⊥G(cid:48) X2 | Z\W ∪ [X1], i.e., (R2) applies to G(cid:48). W (cid:54) = G(cid:48) X2 | Z\W > [X1], すなわち (R2) が G(cid:48) に適用されるような W ∈ Z が存在すると仮定する。 0.80
This will also imply W ⊥⊥G X2 | Z\W , as adding the edge could not have created a new independence. これはまた、エッジを追加することで新たな独立を創出できなかったため、W-G X2 | Z\W も意味する。 0.66
Therefore, it must be the case that W ⊥⊥G X2 | Z\W ∪ {X1}, otherwise (R2) would fire for G. This again results in a path P(cid:48) which, concatenated with X1 → X2, will contradict W ⊥⊥G(cid:48) X2 | Z\W . したがって、W > G X2 | Z\W > {X1} でなければ(R2) は G に対して発火するはずであり、これは再び P(cid:48) の経路となり、X1 → X2 と連結して W > G(cid:48) X2 | Z\W と矛盾する。 0.77
Hence, for dX = 2, any failure to infer a structural relationship present in G using (R1)-(R3) also means that there exists some different graph, with the same answers to the oracle, where that structural feature is not present. したがって、dX = 2 の場合、(R1)-(R3) を用いて G に存在している構造的関係を推論できないことは、いくつかの異なるグラフが存在し、その構造的特徴が存在しないオラクルに対して同じ答えがあることを意味する。 0.73
Assume this is the case for all G with dX = n, for some n > 2. これは dX = n のすべての G に対して、ある n > 2 に対して成り立つと仮定する。 0.78
We will show this is also the case for dX = n + 1. これは dx = n + 1 の場合でもある。 0.55
Let Xd be any foreground vertex in G that has no children. Xd を子供を持たない G の任意の前景頂点とする。 0.77
The graph implied by the removal of Xd, G\d, will have all of its lazy oracle identifiable pairwise ancestral relationships in M resolved by the induction hypothesis and the fact that no descendants of a pair {Xi, Xj} can be used in the conditioning set of an oracle query. Xd, G\d の除去によって表されるグラフは、帰納仮説によって解決された M における遅延オラクルの識別可能なペアの祖先関係と、対 {Xi, Xj} の子孫がオラクルクエリの条件付けセットに使用できないという事実を全て持つ。 0.76
Assuming there exists some t by which we will find all possible non-descendants of Xi ∈ X\Xd (which is the case for the exhaustive search done by CBL-Oracle), the oracle can then be invoked to sort all pairwise ancestral relationships involving Xd for iterations greater than t. ある t が存在して Xi ∈ X\Xd(これは CBL-Oracle による徹底的な探索のケースである)のすべての非依存項が見つかると仮定すると、このオラクルは t より大きい反復に対して Xd に関するすべてのペア祖先関係をソートするために呼び出される。
訳抜け防止モード: ある t が存在すると仮定すると、Xi ∈ X\Xd (Xi ∈ X\Xd) のすべての可能な非-子孫を見つける。 CBL - Oracleによる徹底的な検索の場合 を呼び出します。 to sort all pairwise ancestral relationship with Xd for iterations than t。
0.85
(cid:3) A.4 Proof of Theorem 4 As noted in the text, this is simply an instance of Shah and Samworth [2013]’s Eq 8, adapted for our modified target, which is a conjunction of inclusion and exclusion statements rather than a single selection event. (第3話) A.4 Theorem 4の証明 テキストで述べたように、これは単にShahとSamworth [2013]のEq 8の例であり、修正されたターゲットに適応している。
訳抜け防止モード: (第3話) A.4 Theorem 4 の証明 テキストで述べたように、これは単に Shah の例である Samworth [2013 ]のEq 8は、修正されたターゲットに適応しました。 これは単一の選択イベントではなく、インクルージョンと排他的なステートメントを組み合わせたものです。
0.48
The arguments from their proof go through just the same so long as empirical rates ˆrφ(Z)ψ for all Z ∈ Lθ,φ,ψ are −1/4-concave distributed. それらの証明からの議論は、すべての z ∈ lθ, φ,ψ に対して経験率 srφ(z)ψ が −1/4-凸分布である限り、ちょうど同じである。
訳抜け防止モード: 彼らの証明から得られる議論は、同じ限り同じである。 すべての Z ∈ Lθ に対して、φ(Z) は −1/4-凹凸である。
0.79
See Appendix B for empirical evidence supporting this assumption. この仮定を支持する実証的な証拠については、Appendix Bを参照。 0.51
12 12 0.42
英語(論文から抽出)日本語訳スコア
Figure 5: Example probability mass functions of ˆrφ(Zk)ψ, Zk ∈ Lθ,φ,ψ (black points), alongside the −1/4-concave distribution (smooth line), which has maximum tail probability beyond 0.4. 図5: 確率質量関数の例としては、0.4を超える最大テール確率を持つ−1/4-凸分布(スムース線)と並行して、zk ∈ lθ, φ,ψ(黒点)がある。 0.80
Differences in expected values are due to variation in θ across rates. 期待値の違いは θ の速度の変動に起因する。 0.66
See [Shah and Samworth, 2013, Appx. A.4]. Shah and Samworth, 2013, Appx. A.4]を参照。 0.86
B Stability Selection The following definition of r-concavity is from Shah and Samworth [2013, Sect. 3.3]. b安定性選択 r-concavity の定義は shah and samworth [2013, sect. 3.3] による。 0.79
To define the r-concave distribution, recall that the rth generalized mean Mr(a, b; λ) of a, b ≥ 0 is given by r-凹面分布を定義するために、rth を一般化した a, b ≥ 0 の m(a, b; λ) が与えられることを思い出す。 0.79
Mr(a, b; λ) = {(1 − λ)ar + λbr}1/r mr(a, b; λ) = {(1 − λ)ar + λbr}1/r 0.47
for r > 0. This is also well-defined for r < 0 if we take Mr(a, b; λ) = 0 when ab = 0, and define 0r = ∞. r > 0 の場合 これはまた ab = 0 のとき Mr(a, b; λ) = 0 とすると r < 0 に対して well-defined であり、0r = ∞ を定義する。 0.79
In addition, we may define M0(a, b; λ) := lim r→0 M−∞(a, b; λ) := lim r→−∞ Mr(a, b; λ) = min(a, b). さらに、私たちは M0(a, b; λ) := lim r→0 M−∞(a, b; λ) := lim r→−∞ Mr(a, b; λ) = min(a, b)。
訳抜け防止モード: さらに、私たちは m0(a, b; λ ) : = lim r→0 m−∞(a, b ; λ ) : = lim r→−∞ mr(a, b ; λ ) = min(a,) b)であった。
0.66
Mr(a, b; λ) = a1−λbλ mr(a, b; λ) = a1−λbλ 0.39
We may now define r-concavity. r-コンベビティを定義することができる。 0.43
Definition 8. A non-negative function f on an interval I ⊂ R is r-concave if, for every x, y ∈ I and λ ∈ (0, 1), we have: 定義8。 もしすべての x, y ∈ I と λ ∈ (0, 1) に対して、ある区間 I, R 上の非負函数 f が r-凹であるなら、 0.63
f ((1 − λ)x + λy) ≥ Mr(f f ((1 − λ)x + λy) ≥ Mr(f) 0.48
(x), f (y); λ). (x),f (y) λ) である。 0.55
Definition 9. A probability mass function f supported on {0, 1/B, 2/B, . . . , 1} is r-concave if the linear interpolant to {(i, f (i/B)) : i = 0, 1, . . . , B} is r-concave. 定員9名。 0, 1/B, 2/B, . . . , 1} で支持される確率質量関数 f は、 {(i, f (i/B)) : i = 0, 1, . . . . . . . . B} への線型補間が r-concave であれば r-concave となる。 0.66
We find that the empirical probability mass functions of (de)activation rates for low-rate features are approximately −1/4-concave. 低速度特徴に対する(de)アクティベーションレートの実証的確率質量関数は約−1/4-凹凸である。 0.71
The fit is tightest for the lowest rates, which occur with the greatest frequency. 最も低いレートでは最もタイトで、最も高い周波数で発生する。 0.54
See Fig 5, especially the bottom left quadrants of all four panels, which account for the vast majority of probability mass. fig 5、特に4つのパネルの左下四分の一は確率質量の大部分を占める。
訳抜け防止モード: fig 5、特に4つのパネルの左下四分の一を参照。 確率質量の大部分を占めています
0.69
Missing observed probabilities (typically at x-axis values above 0.6) correspond to zero-frequency events, e g no feature is deactivated in 80% of training/validation splits. 観察された確率の欠如(通常0.6以上のx軸値)はゼロ周波数イベントに対応し、egはトレーニング/バリデーション分裂の80%で非活性化される。 0.67
θ = d−1(cid:80)d θ = d−1(cid:80)d 0.39
Following the recommendations of Shah and Samworth [2013, Sect. 3.4], we use B = 50 complementary pairs and fix Shah and Samworth [2013, Sect. 3.4] の勧告に従えば、B = 50補対と修正を使う。 0.83
k=1 ˆrφ(Zk)ψ for each φ ∈ {d, a}, ψ ∈ {i (cid:22) j, j (cid:22) i}. 各 φ ∈ {d, a}, ψ ∈ {i (cid:22) j, j (cid:22) i} に対して k=1 は r φ(zk)ψ である。 0.85
See Alg. 2. Algを参照。 2. 0.60
13 ActivationDeactivati onX→YY→X0.000.250.500.751.0 00.000.250.500.751.0 0481216481216ValuePr obability-1/4 13 ActivationDeactivati onX→YY→X0.000.250.500.751.0 00.250.500.751.00481 216ValueProbability- 1/4 0.44
英語(論文から抽出)日本語訳スコア
err 翻訳エラー 0.00
英語(論文から抽出)日本語訳スコア
C Sample Algorithm The sample version of our CBL-Oracle algorithm is provided in pseudocode below. c サンプルアルゴリズム cbl-oracle アルゴリズムのサンプルバージョンは、以下の擬似コードで提供されます。 0.69
The sample function draws uniformly without replacement from its first argument, producing a set of size equal to its second argument. サンプル関数は第1引数から置き換えることなく均一に描画され、第2引数に等しい大きさの集合を生成する。 0.73
The feature selection method s is a function with three arguments: a matrix of predictors, a vector of responses, and a set of row indices on which to operate. 特徴選択法sは、3つの引数を持つ関数である:予測子の行列、応答のベクトル、操作する行のインデックスである。 0.70
The output is an active set of features, as determined by the chosen method (e g , lasso or stepwise regression). 出力は、選択された方法(rasso、ステップワイズ回帰など)によって決定される、アクティブな特徴のセットである。 0.78
Algorithm 3 CBL-Sample アルゴリズム3 CBLサンプル 0.79
Input: Background variables Z, foreground variables X, feature selection method s, number of complementary subsamples B, omission threshold γ Output: Ancestrality matrix M Initialize: converged ← FALSE, M ← [NA] while not converged do 入力:背景変数 Z, 前景変数 X, 特徴選択メソッド s, 補足部分サンプル数 B, 省略しきい値 γ 出力: アンセストラリティ行列 M 初期化: 収束: FALSE, M > [NA] が収束しないが、収束しない。 0.82
converged ← TRUE for Xi, Xj ∈ X such that i > j, Mij = NA do Xi, Xj ∈ X に対し、i > j, Mij = NA が成立するような収束 ~ TRUE 0.81
A ← Z ∪ {X ∈ X\{Xi, Xj} : X (cid:22)M {Xi, Xj}} for b ∈ [B] do b ∈ [B] に対する A > Z > {X ∈ X\{Xi, Xj} : X (cid:22)M {Xi, Xj}} 0.81
D2b−1 ← sample([n],(cid:98)n/2(cid:99) ) D2b ← [n]\D2b−1 D2b−1>サンプル([n],(cid:98)n/2(cid:99) )D2b > [n]\D2b−1 0.33
end for for b ∈ [2B] do b ∈ [2B] do の終了 0.75
i (Db) ← s(A, Xi,Db), ˆS1 ˆS0 j (Db) ← s(A, Xj,Db), ˆS1 ˆS0 end for j (Db)}/2B i ← #{b : Xi (cid:54)∈ ˆS1 r0 j ← #{b : Xj (cid:54)∈ ˆS1 i (Db)}/2B r0 i > γ ∨ r0 if r0 Mij ← i ∼ j, converged ← FALSE for A ∈ A do i (Db) シュ s(A, Xi,Db) シュ s(A, Xi,Db) シュ s(A, Xj,Db) シュ s(A, Xj,Db) シュ S1 シュ S0 end for j (Db)/2B i シュ #{b : Xi (cid:54)公開されている シュ S1 r0 j シュ #{b : Xj (cid:54)公開されている シュ シュ S1 i (Db)/2B r0 i > γ r0 if r0 Mij > i シュ j は A ∈ A の FALSE に収束する。
訳抜け防止モード: i ( Db ) > s(A, Xi, Db ) s(A, Xj, Db) は s(A, Xj, Db) である。 j ( Db)}/2B i > # { b : Xi ( cid:54) ) # { b : Xj ( cid:54) ) # { b : Xj ( cid:54) ) > S1 i ( Db)/2B r0 i > γ > r0 ならば、r0 Mij > i > j である。 A ∈ A do に対する収束 > FALSE
0.75
j > γ then else j > γ ならば その他 0.75
i (Db) ← s(A ∪ Xj, Xi,Db) j (Db) ← s(A ∪ Xi, Xj,Db) i(Db) > s(A, Xj, Xi,Db) j(Db) > s(A, Xi, Xj,Db) 0.38
rd(A)i(cid:22)j ← #{b : A ∈ ˆS0 ra(A)i(cid:22)j ← #{b : A (cid:54)∈ ˆS0 rd(A)j(cid:22)i ← #{b : A ∈ ˆS0 ra(A)j(cid:22)i ← #{b : A (cid:54)∈ ˆS0 rd(a)i(cid:22)j ] #{b : a ∈ ]s0 ra(a)i(cid:22)j ] #{b : a (cid:54)html ]s0 rd(a)j(cid:22)i ] #{b : a ∈ ]s0 ra(a)j(cid:22)i ] #{b : a (cid:54)に指定されている。 0.75
j (Db) ∧ A (cid:54)∈ ˆS1 i (Db) ∧ A ∈ ˆS1 i (Db) ∧ A (cid:54)∈ ˆS1 j (Db) ∧ A ∈ ˆS1 j (Db) ^ A (cid:54) ^ S1 i (Db) ^ A ∈ ^ S1 i (Db) ^ A (cid:54) ^ ^ S1 j (Db) ^ A ∈ ^ S1 i (Db) 0.33
j (Db)}/2B i (Db)}/2B i (Db)}/2B j (Db)}/2B j(Db)/2B i(Db)/2B i(Db)/2B j(Db)/2B 0.94
 ← maxτ min{(cid:80) は、maxτ min{(cid:80)である。 0.49
end for for φ ∈ {d, a}, ψ ∈ {i (cid:22) j, j (cid:22) i} do φ ∈ {d, a} の終点 φ ∈ {i (cid:22) j, j (cid:22) i} は 0.85
φ∈{d,a} #{k : rφ(Ak)i(cid:22)j ≥ τ},(cid:80) φinfty{d,a} #{k : rφ(Ak)i(cid:22)j ≥ τ},(cid:80) 0.46
Rφ,ψ ← {A ∈ A : rφ(A)ψ} Mij ← StabilitySelection(R φ,ψ, , B) if Mij (cid:54)= NA then もし mij (cid:54) = na ならば、rφ,ψ , {a ∈ a : rφ(a)ψ} mij , stabilityselection(r φ,ψ, \,b) if mij (cid:54)= na である。 0.67
converged ← FALSE end if end for 収束... 偽り 終われば終われば 0.44
end if end for end while 最後まで終われば終わりだ 0.63
φ∈{d,a} #{k : rφ(Ak)j(cid:22)i ≥ τ}} = 0 φ φ{d,a} #{k : rφ(ak)j(cid:22)i ≥ τ}} = 0 0.46
15 15 0.42
英語(論文から抽出)日本語訳スコア
D Experiments Complete code for all experiments can be found at https://github.com/d swatson/many_ancesto rs. D 実験 すべての実験のための完全なコードは https://github.com/d swatson/many_ancesto rs にある。 0.58
Our simulation design is as follows: 我々のシミュレーション設計は以下の通りである。 0.70
• Background variables Z are drawn from a multivariate normal distribution N (0, Σ), where 0 denotes a length-dZ vector of 0’s and Σ is a Toeplitz matrix with autocorrelation ρ = 0.25. • 背景変数 Z は多変量正規分布 N (0, Σ) から引き出され、0 は 0 の長さ dZ ベクトルを表し、Σ は自己相関 ρ = 0.25 のトープリッツ行列である。 0.88
Variance for all Z’s is fixed at 1/dZ. すべてのZの変数は 1/dZ で固定される。 0.83
• In nonlinear settings, we create a new matrix ˜Z in which 80% of background variables undergo some nonlinear •非線形環境では、背景変数の80%が非線形になるような新しい行列を創る。 0.74
transformation. トランスフォーメーション。 0.53
Specifically, the following transformations are applied with equal probability: 具体的には、以下の変換を等確率で適用する。 0.66
– Quadratic: ˜Z = Z 2 -四面体:Z = Z 2 0.39
– Square root: ˜Z =(cid:112)|Z| -四角根:(cid:112)|Z| 0.40
– Softplus: ˜Z = log(1 + exp(Z)) – ReLU: ˜Z = max(0, Z) -ソフトプラス: シュズ = log(1 + exp(Z)) – ReLU: シュズ = max(0, Z) 0.80
are given by a linear combination of parents, Xi =(cid:80) 親の線形結合によって与えられる Xi =(cid:80) 0.81
• Edges from Z to X are randomly generated with some fixed probability. • Z から X へのエッジは、一定の確率でランダムに生成される。 0.76
In the linear case, foreground variables j<i βijAj + i, where Aj ∈ A = Z ∪ X≺i. 線型の場合、フォアグラウンド変数 j<i βijaj + si は aj ∈ a = z {\displaystyle x} である。 0.65
In the nonlinear case, we substitute ˜A for A, with transformations described above. 非線形の場合、上述の変換を伴って、A を A に置換する。 0.74
Nonzero weights β (cid:54)= 0 are Rademacher distributed, i.e. drawn uniformly from {−1, 1}. 非零重み β (cid:54)= 0 はラデマッハ分布、すなわち {−1, 1} から一様に描画される。 0.68
Residuals i are independent Gaussians with variance selected to ensure the target SNR. 残余は独立ガウスであり、ターゲットSNRを保証するために分散が選択される。 0.62
For our bivariate experiments, we draw 100 random graphs according to each data generating process (with expected sparsity 1/2 and SNR = 2) and record results with lasso regression (for linear systems) and gradient boosting (for nonlinear systems). 二変量実験では、各データ生成プロセスに応じて100個のランダムグラフを描画し(sparsity 1/2とsnr = 2)、ラッソ回帰(線形系)と勾配ブースティング(非線形系)で結果を記録した。 0.76
The data generating process for the unidentifiable setting 識別不能な設定のためのデータ生成プロセス 0.86
(c) is identical to (b)’s, except that half the shared parents of X and Y are removed from Z. CBL begins by splitting the data intro training and test sets, with the conventional ratio 4:1. (c)は同一である (b)XとYの共用親の半数がZから除去される以外は、CBLは、従来の比4:1で、データイントロトレーニングとテストセットを分割することから始まる。 0.86
For both lasso and GBM, features are selected according to model performance on the test set. ラッソとGBMでは、テストセットのモデルパフォーマンスに応じて特徴が選択される。 0.73
For the former, this requires a sequence of values for the regularization parameter λ, automatically generated by the glmnet package [Friedman et al , 2010]. 前者に対しては、これは glmnet パッケージ [friedman et al , 2010] によって自動的に生成される正規化パラメータ λ の値列を必要とする。 0.80
For the latter, we train a forest of up to 3500 trees with early stopping if performance does not improve after 10 rounds. 後者では,10ラウンド後に性能が向上しなかった場合,森林を3500本まで訓練し,早期停止を行う。 0.78
This is efficiently implemented via the lightgbm package [Ke et al , 2017]. これは Lightgbm パッケージ [Ke et al , 2017] を通じて効率的に実装されます。 0.75
Features never selected for splits are automatically discarded, which is how GBMs naturally accommodate sparse model fits [Bühlmann and Yu, 2003]. スプリットに選択されない機能は自動的に破棄され、gbmsは自然にスパースモデルに適合する[bühlmann and yu, 2003]。 0.75
To implement Entner et al [2013]’s constraint-based benchmark, we follow the authors’ advice in using conditional independence tests to infer both conditional dependence (for low p-values) and independence (for high p-values). Entner et al [2013]の制約ベースのベンチマークを実装するため、条件付き独立テストを用いて条件付き依存(p-値が低い)と独立(p-値が高い)の両方を推測する。 0.80
We set decision thresholds of p < 0.1 and p > 0.5 for these respective tasks. これらの課題に対して, p < 0.1 および p > 0.5 の判定閾値を設定した。 0.60
We sample 1000 variable-subset pairs for linear data and 500 for nonlinear, as the testing subroutine in the latter case is more computationally intensive. 線形データでは1000個の可変部分集合対,非線形データでは500個をサンプリングし,後者の場合のテストサブルーチンはより計算集約的である。
訳抜け防止モード: 線形データに1000の変数-サブセット対、非線形に500の変数をサンプリングする。 後者の場合 テストサブルーチンは より計算集約的です
0.77
Since instances of W ⊥⊥ Y | A\W ∪ [X] proved far more elusive than instances of X ⊥⊥ Y | A—i.e., the method finds separating sets with much higher frequency than it does minimal deactivators—we used different thresholds for these two cases. W > Y | A\W > [X] の例は X > Y | A の例よりもはるかに発散性があることが証明されたので、この手法は最小の非活性化器よりもはるかに高い周波数の集合を分離することを見出した。 0.61
Specifically, we declare X → Y if minimal deactivations are detected in just 0.5% of all trials, while we infer X ∼ Y if separating sets are found in 20% of trials. 具体的には、x → y を最小のデアクティベーションがすべての試行のわずか 0.5% で検出された場合と宣言する一方、分離集合が試験の20%で見つかった場合、x → y を推測する。 0.65
These parameters were established after considerable experimentation, as the authors provide little guidance on such matters. これらのパラメータは、著者がそのような問題についてのガイダンスをほとんど提供していないため、かなりの実験の末に確立された。 0.38
Different data generating processes will likely require different thresholds to guarantee reasonable results. 異なるデータ生成プロセスは、妥当な結果を保証するために異なるしきい値を必要とする可能性が高い。 0.55
For the score-based benchmark, we fit our model quartet with either lasso (for linear data) or GBM (for nonlinear data) and compute the proportion of variance explained on a test set of m samples via the formula スコアベースのベンチマークでは、モデル四重項をラッソ(線形データ)またはGBM(非線形データ)に適合させ、式を通してmサンプルのテストセットに説明される分散の割合を計算する。 0.78
PVE = 1 − (cid:80)m (cid:80)m i=1(yi − y)2 , PVE = 1 − (cid:80)m (cid:80)m i=1(yi − y)2 , 0.43
i=1 2 i where i denotes the model residual for sample i and Y is the outcome variable with empirical mean y. i=1/2i ここで、i はサンプル i と y のモデル残差を表すが、結果変数は経験的平均 y である。 0.56
Then, using the same indexing as above, we score the hypotheses as follows: X → Y : ˆg1 = (PVE0 X ← Y : ˆg2 = (PVE0 X ∼ Y : ˆg3 = (PVE0 すると、上記のような索引付けを用いて、次の仮説をスコアする: X → Y : シュグ1 = (PVE0 X ) Y : シュグ2 = (PVE0 X ) Y : シュグ3 = (PVE0)。 0.79
X + PVE1 Y + PVE1 X + PVE0 X + PVE1 Y + PVE1 X + PVE0 0.45
Y )/2 X )/2 Y )/2. Y)/2 X )/2 Y )/2。 0.86
We evaluate potential dependencies between residuals and predictors via Pearson correlation with α = 0.1. α = 0.1 とのピアソン相関を通じて残差と予測因子の潜在的な依存性を評価する。 0.59
Multivariate experiments were run using the RFCI and GES implementations distributed with the pcalg package [Kalisch et al , 2012]. pcalgパッケージで配布されたRFCIとGES実装(Kalisch et al , 2012)を用いて多変量実験を行った。 0.71
16 16 0.42
                                 ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。