論文の概要、ライセンス

# (参考訳) 明示的知識の指導による意味制御可能なシーン生成 [全文訳有]

Semantically Controllable Scene Generation with Guidance of Explicit Knowledge ( http://arxiv.org/abs/2106.04066v1 )

ライセンス: CC BY 4.0
Wenhao Ding, Bo Li, Kim Ji Eun, Ding Zhao(参考訳) 深部生成モデル(DGM)は、現実的なデータを生成する優れた能力で知られている。 純粋にデータ駆動アプローチを拡張するため、最近の特殊なDGMは、運転シーンに交通標識を埋め込むなど、ニューロンや機能レベルでパターンを操作することで、制御可能な追加要件を満たすことができる。 本稿では,意味的に制御可能なシーン生成を実現するために,生成プロセスにドメイン知識 \textit{explicitly} を組み込む新しい手法を提案する。 そこで,本研究では,2種類の知識を自然シーンの合成と整合性に分類し,第1のタイプがオブジェクトの特性を表し,第2のタイプがオブジェクト間の関係を表す。 次に,ノードとエッジがそれぞれ2種類の知識に対応している複雑なシーン表現を学習するための木構造生成モデルを提案する。 知識を明示的に統合することで、ツリー構造内のノードとエッジのプロパティにセマンティックルールを付与することで、セマンティック制御可能なシーン生成を可能にする。 クリーンな環境下での制御性と説明可能性を示すための合成例を構築した。 さらに, 現実的な自動運転車走行環境への合成例を拡張し, 提案手法が明示的な知識として規定された交通ルールを満たす3Dポイントクラウドセグメンテーションモデルに対して, 敵の交通シーンを効果的に識別することを示した。

Deep Generative Models (DGMs) are known for their superior capability in generating realistic data. Extending purely data-driven approaches, recent specialized DGMs may satisfy additional controllable requirements such as embedding a traffic sign in a driving scene, by manipulating patterns \textit{implicitly} in the neuron or feature level. In this paper, we introduce a novel method to incorporate domain knowledge \textit{explicitly} in the generation process to achieve semantically controllable scene generation. We categorize our knowledge into two types to be consistent with the composition of natural scenes, where the first type represents the property of objects and the second type represents the relationship among objects. We then propose a tree-structured generative model to learn complex scene representation, whose nodes and edges are naturally corresponding to the two types of knowledge respectively. Knowledge can be explicitly integrated to enable semantically controllable scene generation by imposing semantic rules on properties of nodes and edges in the tree structure. We construct a synthetic example to illustrate the controllability and explainability of our method in a clean setting. We further extend the synthetic example to realistic autonomous vehicle driving environments and conduct extensive experiments to show that our method efficiently identifies adversarial traffic scenes against different state-of-the-art 3D point cloud segmentation models satisfying the traffic rules specified as the explicit knowledge.
公開日: Tue, 8 Jun 2021 02:51:33 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 n u J 1 2 0 2 n u J 0.85
8 ] V C . 8 ] 略称はC。 0.73
s c [ 1 v 6 6 0 4 0 sc [ 1 v 6 6 0 4 0 0.68
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
Semantically Controllable Scene Generation with セマンティック制御可能なシーン生成 0.80
Guidance of Explicit Knowledge Wenhao Ding 明示的知識の指導 Wenhao Ding 0.83
Carnegie Mellon University wenhaod@andrew.cmu.e du カーネギーメロン大学ウェンハウド@andrew.cmu.edu 0.55
Bo Li UIUC Bo Li UIUC 0.85
lbo@illinois.edu lbo@illinois.edu 0.78
Ding Zhao ding zhao氏 0.53
Carnegie Mellon University dingzhao@andrew.cmu. edu カーネギーメロン大学 dingzhao@andrew.cmu. edu 0.58
Abstract Kim Ji Eun 概要 Kim (複数形 Kims) 0.45
Robert Bosch LLC JiEun.Kim@us.bosch.c om ロバート・ボッシュ JiEun.Kim@us.bosch.c om 0.50
Deep Generative Models (DGMs) are known for their superior capability in generating realistic data. 深部生成モデル(DGM)は、現実的なデータを生成する優れた能力で知られている。 0.72
Extending purely data-driven approaches, recent specialized DGMs may satisfy additional controllable requirements such as embedding a traffic sign in a driving scene, by manipulating patterns implicitly in the neuron or feature level. 純粋にデータ駆動アプローチを拡張することで、最近のDGMは、運転シーンに交通標識を埋め込むなどの制御可能な追加要件を満たすことができる。 0.60
In this paper, we introduce a novel method to incorporate domain knowledge explicitly in the generation process to achieve semantically controllable scene generation. 本稿では,意味的に制御可能なシーン生成を実現するために,ドメイン知識を生成プロセスに明示的に組み込む新しい手法を提案する。 0.72
We categorize our knowledge into two types to be consistent with the composition of natural scenes, where the first type represents the property of objects and the second type represents the relationship among objects. そこで,本研究では,2種類の知識を自然シーンの合成と整合性に分類し,第1のタイプがオブジェクトの特性を表し,第2のタイプがオブジェクト間の関係を表す。 0.79
We then propose a tree-structured generative model to learn complex scene representation, whose nodes and edges are naturally corresponding to the two types of knowledge respectively. 次に,ノードとエッジがそれぞれ2種類の知識に対応している複雑なシーン表現を学習するための木構造生成モデルを提案する。 0.84
Knowledge can be explicitly integrated to enable semantically controllable scene generation by imposing semantic rules on properties of nodes and edges in the tree structure. 知識を明示的に統合することで、ツリー構造内のノードとエッジのプロパティにセマンティックルールを付与することで、セマンティック制御可能なシーン生成を可能にする。 0.62
We construct a synthetic example to illustrate the controllability and explainability of our method in a clean setting. クリーンな環境下での制御性と説明可能性を示すための合成例を構築した。 0.65
We further extend the synthetic example to realistic autonomous vehicle driving environments and conduct extensive experiments to show that our method efficiently identifies adversarial traffic scenes against different state-of-the-art 3D point cloud segmentation models satisfying the traffic rules specified as the explicit knowledge. さらに, 現実的な自動運転車走行環境への合成例を拡張し, 提案手法が明示的な知識として規定された交通ルールを満たす3Dポイントクラウドセグメンテーションモデルに対して, 敵の交通シーンを効果的に識別することを示した。 0.74
1 Introduction The recent breakthrough in machine learning enables us to learn complex distributions behind data with sophisticated models. 1 はじめに 最近の機械学習のブレークスルーにより、洗練されたモデルを使ってデータの背後にある複雑な分布を学習できる。
訳抜け防止モード: 1 はじめに 機械学習の最近のブレークスルーは データの背後にある複雑な分布を 洗練されたモデルで学べます
0.70
These models help us understand the data generation process, so as to realize controllable data generation Abdal et al [2019], Tripp et al [2020], Ding et al [2021]. これらのモデルはデータ生成プロセスを理解するのに役立ち、制御可能なデータ生成Abdal et al [2019], Tripp et al [2020], Ding et al [2021]を実現するのに役立ちます。 0.87
Deep Generative Models (DGMs) Goodfellow et al [2014], Kingma and Welling [2013], Dinh et al [2016], which approximate the data distribution with neural networks (NN), are representative methods to generate data targeting a specific style, category, or attribute. Deep Generative Models (DGMs) Goodfellow et al [2014], Kingma and Welling [2013], Dinh et al [2016]は、ニューラルネットワーク(NN)でデータ分布を近似し、特定のスタイル、カテゴリ、属性をターゲットにしたデータを生成する代表的な方法である。 0.82
However, existing controllable generative models focus on manipulating implicit patterns in the neuron or feature level. しかし、既存の制御可能な生成モデルは、ニューロンや特徴レベルの暗黙のパターンを操作することに焦点を当てている。
訳抜け防止モード: しかし 既存の制御可能な生成モデルは ニューロンまたは特徴レベルで暗黙のパターンを操作する。
0.77
For instance, Bau et al [2020] dissects DGMs to build the relationship between neurons and generated data, while Plumerault et al [2020] interpolates in the latent space to obtain vectors that control the poses of objects. 例えば、Bau et al [2020] は DGM を分解してニューロンと生成されたデータの関係を構築し、Plumerault et al [2020] は潜在空間に補間してオブジェクトのポーズを制御するベクトルを得る。 0.77
One main limitation of these existing models is that they cannot explicitly incorporate unseen semantic rules, which may lead to meaningless generated data that violates common sense. これらの既存モデルの1つの大きな制限は、無意味なセマンティクスルールを明示的に組み込めないことであり、これは常識に違反する無意味なデータを生み出す可能性がある。
訳抜け防止モード: 既存のモデルの1つの大きな制限は、目に見えないセマンティックルールを明示的に組み込むことができないことである。 常識に反する無意味なデータを生み出します
0.67
For example, to build diverse scenes for training autonomous vehicles, the generated cars should follow semantic traffic rules and physical laws, which cannot be enforced by directly manipulating neurons. 例えば、自動運転車を訓練するための多様なシーンを構築するためには、生成された車はセマンティックな交通規則や物理的な法則に従う必要がある。 0.71
Preprint. Under review. プレプリント。 レビュー中。 0.63
英語(論文から抽出)日本語訳スコア
Figure 1: Diagram of proposed SCG. 図1: 提案されたSCGのダイアグラム。 0.70
A: Stage one. a: 第1ステージ。 0.72
Train T-VAE model to learn the representation of structured data. 構造化データの表現を学ぶためのT-VAEモデルを訓練する。 0.66
B: Stage two. b: 第2ステージ。 0.83
Integrate node-level and edge-level knowledge during the generation and generate controllable samples for the downstream task. 生成中にノードレベルとエッジレベルの知識を統合し、下流タスクのコントロール可能なサンプルを生成する。 0.68
In light of the limitations of previous work, we aim to develop a structured generative framework to integrate explicit knowledge Dienes and Perner [1999] during the generation process and thus control the generated scene to be compliant to semantic knowledge rules. 先行研究の限界に照らして,生成過程において明示的な知識ダインズとパーナー [1999] を統合し,意味的知識ルールに準拠するように生成シーンを制御する構造的生成フレームワークの開発を目標とする。 0.81
Natural scenes can be described with objects and their various relationship. 自然のシーンは、オブジェクトとその様々な関係で記述できる。 0.82
Thus, in this paper, we categorize the semantic knowledge that describes scenes into two types, where the first type denoted as node-level knowledge represents the properties of single objects and the second type denoted as edge-level knowledge represents the relationship among objects. そこで,本稿では,シーンを記述した意味知識を2つのタイプに分類する。1つはノードレベルの知識,もう1つはエッジレベルの知識,もう1つはオブジェクト間の関係を表す。 0.79
We also observe that tree structure is highly consistent with this categorization for constructing scenes, where nodes of the tree represent objects and edges the relationship. また,木構造は,木ノードがオブジェクトを表現し,その関係をエッジするシーンを構成する上で,この分類と高度に一致していることも観察した。 0.67
By automatically controlling the tree structure during the generation, we explicitly integrate the node-level and edge-level knowledge. 生成中の木構造を自動的に制御することにより,ノードレベルの知識とエッジレベルの知識を明確に統合する。 0.62
In detail, we propose a general framework, Semantically Controllable Generation (SCG), which consists of two stages as shown in Figure 1. 本稿では,図1に示すように,2つの段階から構成されるセマンティック制御可能生成(SCG)の一般的なフレームワークを提案する。 0.70
In stage one, we train a tree-structured generative model that parameterizes nodes and edges of trees with NN to learn the representation of structured data. ステージ1では、構造化データの表現を学ぶためにnnで木のノードとエッジをパラメータ化する木構造生成モデルを訓練する。 0.73
In stage two, explicit knowledge is applied to different levels of the tree to achieve semantically controllable scene generation for downstream tasks such as reducing the performance of recognition algorithms. ステージ2では、認識アルゴリズムの性能低下などの下流タスクに対して意味制御可能なシーン生成を実現するために、ツリーの異なるレベルに明示的な知識を適用する。
訳抜け防止モード: 第二段階では、明確な知識が木の様々なレベルに適用される 認識アルゴリズムの性能低下などの下流タスクに対して意味制御可能なシーン生成を実現する。
0.79
To verify the proposed SCG, we first construct a synthetic scene reconstruction example to illustrate the advantages of SCG and provide analysis on its controllability and explainability. 提案したSCGを検証するために,まず,SCGの利点を説明する合成シーン再構築例を構築し,その可制御性と説明可能性について分析する。 0.72
With SCG, it is possible to generate natural scenes that follow semantic rules, e g , boxes with the same color should be positioned together. SCGでは、セマンティックルールに従う自然なシーンを生成することが可能であり、例えば、同じ色のボックスを一緒に配置する必要がある。 0.77
To demonstrate the practicality of SCG, we conduct extensive experiments on adversarial LiDAR scene generation against state-of-the-art 3D segmentation models. SCGの実用性を実証するために, 最先端の3Dセグメンテーションモデルに対する逆LiDARシーン生成の広範な実験を行った。 0.69
We show that our generated traffic scenes successfully attack victim models and meanwhile follow the specified semantic rules. 生成したトラフィックシーンが被害者モデルに対する攻撃に成功し、一方で特定のセマンティックルールに従うことを示す。 0.59
In addition, compared with traditional attack methods, scenes generated by our method achieve stronger adversarial transferability across different victim models. さらに,従来の攻撃手法と比較して,本手法によって生成されたシーンは,被害者モデル間でより強力な対向移動性を実現する。 0.60
Our technical contributions are summarized below: (1) We propose a semantically controllable generative framework (SCG) via integrating explicit knowledge, and categorize the knowledge into two types according to the composition of scenes. 1)明示的な知識を統合することによって意味的に制御可能な生成フレームワーク(SCG)を提案し,シーンの構成に応じて知識を2つのタイプに分類する。
訳抜け防止モード: 技術的貢献を以下にまとめる。 : (1 ) 明示的な知識を統合することによって意味制御可能な生成フレームワーク(SCG)を提案する。 知識を2つのタイプに分類します
0.84
(2) We propose a tree-structured generative model based on our knowledge categorization, and construct a synthetic example to demonstrate the effectiveness of our knowledge integration. 2) 知識分類に基づく木構造生成モデルを提案し, 知識統合の有効性を示すための合成例を構築した。 0.76
(3) We propose the first semantic adversarial point cloud attack based on SCG, named Scene Attack, (3)SCGをベースとした最初のセマンティック対向点雲攻撃,Scene Attackを提案する。 0.72
against state-of-the-art segmentation algorithms, demonstrating several important properties. 最先端のセグメンテーションアルゴリズムに対して、いくつかの重要な特性を示す。 0.47
2 Preliminaries and Problem Formulation 2 予備と問題定式化 0.84
2.1 Variational Auto-encoder (VAE) 2.1 変分自動エンコーダ(VAE) 0.74
VAE Kingma and Welling [2013] is a powerful DGM that combines auto-encoder and variational inference Blei et al [2017]. vae kingma and welling [2013] は自動エンコーダと変分推論 blei et al [2017] を組み合わせた強力な dgm である。 0.70
It estimates a mapping between data x and latent code z to find the low-dimensional manifold of the data space, which makes it possible to convert structured data generation problems into continuous latent space searching. これはデータ空間の低次元多様体を見つけるためにデータxと潜在コードzの間のマッピングを推定するので、構造化データ生成問題を連続的潜在空間探索に変換することができる。 0.82
The objective function of training VAE VAE訓練の客観的機能 0.71
2 Latent CodeAzBzScene RendererNode-level KnowledgeTask FeedbackKnowledge GuidanceLatent CodeForward GenerationDecoderLoc alInformationObjectG lobalInformationRoot DownstreamTaskEncode rDecoderNoInformatio nEmptyEdge-level Knowledge 2 Latent CodeAzBzScene RendererNode-level KnowledgeTask FeedbackKnowledge GuidanceLatent CodeForward GenerationDecoderLoc alInformationObjectG lobalInformationRoot DownstreamTaskEncode rDecoderNoInformatio nEmptyEdge-level Knowledge 0.48
英語(論文から抽出)日本語訳スコア
is to maximize a lower bound of the log-likelihood of training data, which is so-called Evidence Lower Bound (ELBO) いわゆるエビデンス下限(elbo)である、トレーニングデータのログライク性の下限を最大化すること。 0.57
ELBO = −KL(q(z|x; φ)||p(z)) + Eq(z|x;φ) [log p(x|z; θ)] ELBO = −KL(q(z|x; φ)||p(z)) + Eq(z|x;φ) [log p(x|z; θ)] 0.92
(1) where KL is Kullback–Leibler (KL) divergence. 1) KL はKullback-Leibler (KL) の発散点である。 0.73
q(z|x; φ) is an encoder with parameters φ, and p(x|z; θ) is a decoder with parameters θ. q(z|x; φ) はパラメータ φ を持つエンコーダであり、p(x|z; θ) はパラメータ θ を持つデコーダである。 0.85
The prior distribution of the latent code p(z) is usually a Gaussian distribution for simplification of KL divergence calculation. 潜在符号 p(z) の事前分布は、通常、kl 分岐計算の単純化のためのガウス分布である。 0.82
2.2 Proximal Algorithms 2.2 近位アルゴリズム 0.69
Proximal algorithms Parikh and Boyd [2014] are a type of optimization method that is constrained to a finite region at each step. 近似アルゴリズム Parikh と Boyd [2014] は各ステップにおいて有限領域に制約された最適化手法の一種である。 0.88
In our setting, the explicit knowledge can be treated as the trusted region to limit and guide the optimization of the downstream task. この設定では、明示的な知識は、下流タスクの最適化を制限しガイドする信頼された領域として扱うことができる。 0.58
The cost function f (x) of a optimization problem is separated into two parts f (x) = g(x) + h(x), where h(x) is usually easy to optimize. 最適化問題のコスト関数 f(x) は、2つの部分 f(x) = g(x) + h(x) に分割される。
訳抜け防止モード: 最適化問題のコスト関数 f(x) は、2つの部分 f(x) = g(x) + h(x) に分割される。 h(x ) は通常最適化が容易である。
0.86
The proximal mapping (or proximal operator) of the function h is 函数 h の近位写像(または近位作用素)は、 0.71
(cid:18) (cid:19) (cid:18) (cid:19) 0.78
proxh(x) = arg min proxh(x) = arg min 0.85
z h(z) + (cid:107)z − x(cid:107)2 z h(z) + (cid:107)z − x(cid:107)2 0.85
2 1 2 Then the proximal gradient algorithm has the following update: 2 1 2 次に、近位勾配アルゴリズムには以下のアップデートがある。 0.79
x(t) = proxηh(x(t−1) − η∇xg(x(t−1))) x(t) = proxηh(x(t−1) − η\xg(x(t−1)) 0.87
(2) (3) where a gradient descend step is applied before the proximal operator.Then, the new candidate x(t) will be obtained by solving the projection (2). (2) (3) ここでは、近位演算子の前に勾配降下ステップを適用し、次に射影 (2) を解くことで新しい候補 x(t) を得る。 0.82
3 Semantically Controllable Generation for Scenes 3 シーンのセマンティック制御可能な生成 0.78
We first describe the proposed tree-structured generative model used for learning the semantically controllable hierarchical representations. まず,意味制御可能な階層表現の学習に用いる木構造生成モデルについて述べる。 0.73
Then we explain the two types of knowledge to be integrated into tree structures and the generation algorithm that uses explicit knowledge as guidance. 次に,木構造に統合すべき2種類の知識と,明示的な知識を指導として用いる生成アルゴリズムについて説明する。 0.79
3.1 Notations and Formulation We define the tree of scene x ∈ X in the data space and the latent code z ∈ Z in the latent space. 3.1 表記と定式化 データ空間におけるシーン x ∈ X のツリーと潜在空間における潜在符号 z ∈ Z を定義する。 0.82
This paper aims to generate scene x that satisfies certain specified semantic rules Yt, which are related to the downstream task t ∈ T . 本稿では,下流タスク t ∈ T に関連する特定の意味ルール Yt を満たすシーン x を生成することを目的とする。 0.81
We also assume the scene x is used to solve the downstream task t by minimizing an objective function Lt(x). また、シーンxを目標関数Lt(x)を最小化することにより、下流タスクtを解くために使用すると仮定する。 0.71
3.2 Tree-structured Variational Auto-encoder (T-VAE) 3.2 木構造変分オートエンコーダ(T-VAE) 0.58
One typical characteristic of natural scenes is the variable data dimension caused by the variable number of objects, which is impossible to represent with a fixed number of parameters as in traditional models Kingma and Welling [2013]. 自然界の典型的な特徴の1つは、オブジェクトの変動数によって引き起こされる変動データ次元であり、従来のKingmaとWelling [2013]のように、一定の数のパラメータで表現することは不可能である。 0.74
Besides, previous structured generative models Tan et al [2021], Li et al [2019] do not consider the hierarchy of natural scenes and incorporation of explicit knowledge. さらに、以前の構造化生成モデル Tan et al [2021], Li et al [2019] は自然の場面の階層構造や明示的な知識の取り込みを考慮していない。 0.84
Based on the node-level and edge-level knowledge categorization, we propose a novel tree-structured model named T-VAE leveraging the stick-breaking construction Sethuraman [1994]. ノードレベルでの知識分類とエッジレベルでの知識分類に基づいて,Sethuraman [1994] を用いた新しい木構造モデル T-VAE を提案する。 0.73
Suppose the scene has maximum width W , we have multiple divisions in 1D: シーンの幅Wが最大であると仮定すると、1Dに複数の分割がある。 0.60
W = w(n,i), ∀n ∈ {1,··· , N} W = w(n,i) は、n ∈ {1,··· , N} である。 0.88
(4) i=1 where (n, i) means the i-th node of the n-th level of the tree, and Kn is the total number of node in the n-th level. (4) i=1 ここで (n, i) は木の n 番目のレベルの i 番目のノードを意味し、 kn は n 番目のレベルのノードの総数である。 0.74
The index starts from 1 and the root node has index (1, 1). インデックスは1から始まり、ルートノードはインデックス(1, 1)を持つ。 0.74
wn,i is a segment (also a node of the tree) obtained by continuously breaking the stick whose length is W . wn,iは、長さwの棒を連続的に割って得られるセグメント(木のノードでもある)である。 0.80
The recursive function of breaking the stick follows 棒を割る再帰的な機能は次のとおりである 0.56
(5) where α(n,i) ∈ [0, 1] is the splitting ratio for w(n,i) and j is the index in n + 1-th level. (5) ここで α(n, i) ∈ [0, 1] は w(n, i) の分割比であり、j は n + 1 階の指数である。 0.77
A 2dimensional generation example is illustrated in Figure 2. 2次元生成例を図2に示します。 0.81
w(n+1,j) = w(n,i)α(n,i), w(n+1,j+1) = w(n,i)(1 − α(n,i)) w(n+1,j) = w(n,i)α(n,i), w(n+1,j+1) = w(n,i)(1 − α(n,i)) 0.95
3 Kn(cid:88) 3 kn(cid:88) 0.79
英語(論文から抽出)日本語訳スコア
Figure 2: Generation of an example scene. 図2: 例のシーンの生成。 0.72
A: The tree x of an example scene has four types of nodes. A: 例のシーンのツリーxには4種類のノードがあります。 0.86
The index (n, i) is explained in (4) B: The hierarchical division process of a 2-dimensional space. 指数 (n, i) は (4) B で説明される: 2次元空間の階層的分割過程。 0.78
The color is corresponding to the node type. 色はノードタイプに対応しています。 0.85
C: The knowledge integration example in Section 3.3. C: セクション3の知識統合の例。 0.60
Assume there are M kinds of nodes in the scene (See Appendix for detailed definition of the node), we define a batch of encoders Em and decoders Dm for all m ∈ M, シーンに m 種類のノードが存在すると仮定する(ノードの詳細な定義の付録を参照)、すべての m ∈ m に対して、エンコーダ em とデコーダ dm のバッチを定義する。 0.80
f (n,j) = Em([f (n+1,i),··· , f (n+1,i+lm), g(n+1,i)]; φm), n ∈ {1,··· , N} [f (n+1,j),··· , f (n+1,j+lm), ˆg(n+1,j)] = Dm(f (n,i); θm), n ∈ {1,··· , N} f (n,j) = em([f (n+1,i),·· , f (n+1,i+lm), g(n+1,i)]; φm), n ∈ {1,··· , n} [f (n+1,j),··· , f (n+1,j+lm), sg(n+1,j)] = dm(f (n,i); θm), n ∈ {1,····· , n} である。 0.89
(6) where f (n,i) and g(n,i) are the feature vector and property vector of node (n, i). (6) ここで f (n, i) と g(n, i) はノード (n, i) の特徴ベクトルおよび特性ベクトルである。 0.84
f (n,i) is used for passing the message to children nodes and g(n,i) is used for storing the splitting ratio αn,i and other properties. f(n,i) は子ノードへのメッセージ転送に使われ、g(n,i) は分割比 αn,i などのプロパティを格納するために使われる。 0.72
ˆg(n+1,j) is the predicted property vector and lm is the number of child of node m. Besides the encoders and decoders, we also define a Classifier to determine the child node type and a Sampler to infer the distribution of the latent code, エンコーダとデコーダに加えて、子ノードの型を決定する分類器と、潜伏コードの分布を推測するサンプリング器も定義します。
訳抜け防止モード: g(n+1,j ) は予測された特性ベクトルであり、lm はノード m の子数である。 分類器も定義します to determine the child node type and a Sampler to infer the distribution of the latent code。
0.71
ˆc(n,i) = Classifier(f (n,i); θc) [zµ, zσ] = Sampler(f (1,1); φs) c(n,i) = Classifier(f (n,i); θc) [zμ, zσ] = Sampler(f (1,1); φs) 0.93
(7) where ˆc(n,i) is the predicted node type and [zµ, zσ] is used to calculate the latent code z with the reparameterization trick Blei et al [2017]. (7) c(n,i) は予測ノード型であり、[zμ, zσ] は再パラメータ化トリック blei et al [2017] で潜在コード z を計算するために使われる。 0.82
The entire parameters for the encoder q(z|x; φ) and decoder p(x|z; θ) are denoted as φ = {φ1,··· , φm, φs} and θ = {θ1,··· , θm, θc}. エンコーダ q(z|x; φ) とデコーダ p(x|z; θ) のパラメータ全体は φ = {φ1,·· , φm, φs} と θ = {θ1,·· , θm, θc} と表記される。 0.92
The final structures of the encoder and decoder depend on the tree of the data point and vary in the dataset. エンコーダとデコーダの最終的な構造は、データポイントのツリーに依存し、データセットによって異なる。 0.80
We follow Recursive Neural Networks (RvNN) Socher et al [2011] to build tree neural networks recursively. Recursive Neural Networks (RvNN) Socher et al [2011]をフォローして、再帰的にツリーニューラルネットワークを構築する。 0.83
Finally, the tree x of a scene is summarized as 最後に、シーンのツリーxを要約します。 0.71
x = {c, g} = {c(1,1),··· , c(N,KN ),··· , g(1,1),··· , g(N,KN )} x = {c, g} = {c(1,1),··· , c(n,kn ),··· , g(1,1),··· , g(n,kn )} である。 0.83
Following (1), the ELBO of T-VAE to be maximized is 1)T-VAEのELBOを最大化する。 0.55
ELBO = Eq [log p(c|z; θ)] ELBO = Eq[log p(c|z; θ)] 0.97
+ Eq [log p(g|z; θ)] + eq [log p(g|z; θ)] 0.98
−KL (N (zµ, zσ)(cid:107) N (0, I)) −KL(N(zμ, zσ)(cid:107)N(0, I)) 0.84
(cid:124) (cid:123)(cid:122) (cid:124) (cid:123)(cid:122) 0.77
(cid:125) (cid:124) (cid:125) (cid:124) 0.78
−LC (ˆc,c) LC (複数形 LCs) 0.57
−LR(ˆg,g) (cid:125) -lr(g,g) (cid:125) 0.72
where the equality holds because c and g are independent conditioned on z. 等式が成り立つのは c と g が z 上の独立条件だからです 0.69
The LC term represents the cross-entropy loss (CE) of all nodes in p(x|z; θ), LC項は、p(x|z; θ) における全てのノードのクロスエントロピー損失(CE)を表す。 0.76
(8) (9) (cid:123)(cid:122) Kn(cid:88) (8) (9) (cid:123)(cid:122)Kn (cid:88) 0.82
N(cid:88) LC(ˆc, c) = n(cid:88) LC(-c, c) = 0.81
1(cid:80)N 1(cid:80)N 0.88
n Kn n=1 i=1 n Kn n=1 i=1 0.68
CE(ˆc(n,i), c(n,i); p(c)) ce(c(n,i), c(n,i); p(c)) 0.67
(10) where the prior distribution of node type p(c) is calculated from the training dataset and serves as weights. (10) トレーニングデータセットからノードタイプp(c)の事前分布を算出し、重みとして機能する。 0.78
To make the reconstructed tree same as the original one, we use Teacher Forcing Williams and Zipser [1989] to expand the tree during the training stage. 復元された木を原木と同じものにするために,教師強制ウィリアムズとZipser [1989]を用いてトレーニングステージに木を拡大する。 0.72
While in the generation stage, we take the node with maximum probability as the child to expand the tree. 生成段階では、最大限の確率でノードを子としてツリーを拡張する。 0.61
The LR term uses mean square error (MSE) to approximate the log-likelihood of node property, LR項は平均二乗誤差(MSE)を用いてノード特性の対数類似度を近似する。 0.68
LR(ˆg, g) = LR(g, g) = 0.85
1 c(n,i) = m 1 c(n,i) = m 0.85
(11) (cid:105)(cid:107)ˆg(n,i) − g(n,i)(cid:107)2 (11) (cid:105)(cid:107)-g (n,i)-g(n,i)(cid:107 )2 0.89
2 M(cid:88) 2 m(cid:88) 0.81
m=1 1 Nm N(cid:88) m=1。 1Nm n(cid:88) 0.68
Kn(cid:88) kn(cid:88) 0.72
(cid:104) n=1 (cid:104) n=1 0.69
i=1 4 abcdeabcfghidefghiOb ject NodeObject NodeEmpty NodeAB(1, 1)(2, 4)(2, 3)(2, 1)(2, 2)(3, 1)(3, 2)(3, 3)(3, 4)C(n, i)Node IndexWHαSeparated byn, iRoot NodeTree of a scenexx’Ytggggg’g’g’g’Blue colorggRed colorLY i=1 4 abcdeabcfghidefghiOb ject NodeObject NodeEmpty NodeAB(1, 1)(2, 4)(2, 3)(2, 1)(2, 2)(3, 1)(3, 3)(3, 4)C(n, i)Node IndexWHαSeparated byn, iRoot NodeTree of a scenexx’Ytggggg’g’g’g’Blue colorggRed 0.75
英語(論文から抽出)日本語訳スコア
Algorithm 1: SCG Framework アルゴリズム1:scgフレームワーク 0.66
Input: Dataset D, Task loss Lt(x), Searching Output: Generated scene xs 入力: Dataset D, Task loss Lt(x), Searching Output: Generated scene xs 0.78
budget B, Knowledge Yt Initialize model parameters {θ, φ} for x in D do 予算b 知識yt D do における x に対するモデルパラメータ {θ, φ} を初期化する 0.61
1 Stage 1: Train T-VAE 2 3 4 5 6 1ステージ1:T-VAE 2 3 4 5 6 0.79
Encode z ← q(z|x; φ) Decode ˆx ← p(x|z; θ) Update parameters {θ, φ} by maximizing ELBO (9) z > q(z|x; φ) Decode > p(x|z; θ) Update parameters {θ, φ} by maximize ELBO (9) 0.76
end 7 8 Store the mapping p(x|z; θ) 終わり 7 8 は写像 p(x|z; θ) を格納する 0.72
Initialize latent code zs ∼ N (0, I) while B is not used up do if Lt(x) is differentiable then 潜在コード zs が n (0, i) を初期化するが、lt(x) が微分可能であれば b は使われない。 0.73
9 Stage 2: Knowledge-guided Generation 10 11 12 13 14 15 16 17 18 19 9ステージ2:知識誘導世代10,11,12,13,14,15,16 ,17,18,19 0.57
end Apply Yt to get LY (p(x|zs; θ), Yt(x)) zs ← proxLY end Yt を LY (p(x|zs; θ), Yt(x)) zs > proxLY とする。 0.82
zs ← zs − η∇Lt(p(x|zs; θ)) zs ← Black-box optimization zs (x|zs; θ)) zs (x|zs; θ)) ブラックボックス最適化 0.67
(zs) with GD 20 Decode the scene xs = p(x|zs; θ) (zs) with GD 20 Decode the scene xs = p(x|zs; θ) 0.94
end else function. 終わり その他 機能。 0.69
In (11), we normalize the MSE with Nm instead of(cid:80)N 11 では、(cid:80)N の代わりに Nm で MSE を正規化する。 0.80
where Nm is the times that node m appears in the forward calculation and 1 [·] is the indicator n Kn to avoid the influence caused ここで Nm はノード m が前方の計算に現れる時間であり、1[·] は引き起こされる影響を避けるための指標 n Kn である 0.81
by imbalanced node type in the tree. 木のノードタイプが不均衡です 0.65
The advantage of this hierarchical structure is that we only need to store the global information in the root node and use local information in other nodes, making the model easier to capture the feature from different scales in the scene. この階層構造の利点は、グローバル情報をルートノードに格納し、他のノードにローカル情報を使用するだけで、モデルがシーン内のさまざまなスケールから機能を簡単にキャプチャできる点にあります。 0.74
Moreover, this hierarchy makes it possible to explicitly apply semantic knowledge in Stage 2. さらに、この階層により、ステージ2で意味知識を明示的に適用することができる。 0.68
n ,··· , y(1) n ,··· , y(1) 0.76
3.3 Knowledge-guided Generation Suppose there is a function set F, where the function f (A) ∈ F returns true or false for a given input node A of a tree x. 3.3 知識誘導生成 関数集合 F が存在し、関数 f (A) ∈ F が木 x の与えられた入力ノード A に対して真あるいは偽を返すとする。 0.88
Then, we define the two types of propositional knowledge Yt using the first-order logic Smullyan [1995] as following. 次に、一階述語論理smulyan [1995] を用いて2種類の命題的知識 yt を定義する。 0.75
Definition 1 The node-level knowledge yn is denoted as f (A) for a function f ∈ F, where A is a single node. 定義 1 ノードレベルの知識 yn は関数 f ∈ f に対して f(a) と表記される。
訳抜け防止モード: 定義 1 ノード-レベル知識 yn は関数 f ∈ F に対して f ( A ) と表される。 A は 1 つのノードである。
0.89
The edge-level knowledge ye is denoted as f1(A) → ∀i f2(Bi) for two functions f1, f2 ∈ F, where A is the parent node for Bi. エッジレベルの知識 ye は、2つの函数 f1, f2 ∈ F に対して f1(A) → .i f2(Bi) と表される。 0.79
In the tree context, yn describes the properties of a single node, and ye describes the relationship between the parent node and its children. ツリーのコンテキストでは、ynは単一ノードの特性を記述し、yeは親ノードとその子との関係を記述する。 0.77
Finally, the knowledge set Yt is constructed as Yt = e ,···} and the operation Yt(x) converts x to x(cid:48), which is a modified tree satisfying all {y(1) propositions included in Yt. 最後に、知識集合 Yt は Yt = e ,···} として構成され、演算 Yt(x) は x を x(cid:48) に変換する。
訳抜け防止モード: 最後に、知識集合 Yt は Yt = e, · · · } と演算 Yt(x ) は x を x(cid:48 ) に変換する。 これはYtに含まれるすべての { y(1 ) 命題を満たす修正木である。
0.74
Then, we apply explicit knowledge to the decoder of T-VAE by extending the proximal gradient algorithm. 次に、近位勾配アルゴリズムを拡張してT-VAEの復号器に明示的な知識を適用する。 0.63
Firstly, the original task objective Lt(x) is augmented to La(x) = Lt(x) + LY (x, Yt(x)) まず、元のタスク対象 Lt(x) を La(x) = Lt(x) + LY (x, Yt(x)) に拡張する。 0.75
where LY (x, Yt(x)) measures the distance between x and Yt(x). ここで LY (x, Yt(x)) は x と Yt(x) の間の距離を測定する。 0.86
Specifically, yn changes the property vector g of single node A in x to g(cid:48) that make f (A) be true, and ye traverses the tree x to find node A that satisfy f1 in ye then change the type vector c or the property vector g of the children of A to c(cid:48) and g(cid:48) respectively. 具体的には、yn は x において単ノード A のプロパティベクトル g を g(cid:48) に変更し、f(A) を真とする。 ye は木 x を横切り f1 を満たすノード A を探し出し、A の子供のタイプベクトル c またはプロパティベクトル g をそれぞれ c(cid:48) と g(cid:48) に変更する。 0.86
The reference vector c(cid:48) and g(cid:48) are related to the downstream task and are pre-defined in the function f. Then LY consists of two parts, MSE is used between the property vector g and g(cid:48), and CE is used between the type vector c and c(cid:48). 基準ベクトル c(cid:48) と g(cid:48) は下流タスクに関連付けられ、関数 f で予め定義されている。その後、LY は2つの部分から構成され、特性ベクトル g と g(cid:48) の間に MSE が、型ベクトル c と c(cid:48) の間に CE が使用される。 0.79
For instance, the explicit knowledge described as “if one box is blue, its children nodes should be red” will be implemented by the following operations. 例えば、“ひとつのボックスが青なら、その子ノードは赤になる”という明示的な知識は、以下の操作によって実装されます。 0.73
We find all box nodes whose colors are red in the tree and collect the colors g of its children nodes, then we change their property vectors g to g(cid:48), which represents the blue color. 木の中で色が赤いすべてのボックスノードを見つけ、その子ノードの色gを収集し、そのプロパティベクトルgを、青い色を表すg(cid:48)に変更する。 0.73
Next, LY is obtained by calculating MSE between all g(cid:48) and the original g. This process is illustrated in C of Figure 2. 次に、LYはすべての g(cid:48) と元の g の間の MSE を計算することで得られる。
訳抜け防止モード: 次に、すべてのg(cid:48 )間のMSEを計算することでLYを得る。 この過程は図2のCで示される。
0.76
In most applications, Lt(x) requires much resources to compute, while LY is efficient to evaluate since it only involves the inference of p(x|z; θ). ほとんどのアプリケーションでは、Lt(x) は計算に多くの資源を必要とするが、LY は p(x|z; θ) の推論のみを含むため、効率的に評価できる。 0.75
Thus, we define a proximal operator based on (2), したがって、(2)に基づいて近似作用素を定義する。 0.66
(cid:18) proxLY (cid:18) proxly 0.72
(z) = arg min z(cid:48) (z) = arg min z(cid:48) 1.00
LY (p(x|z(cid:48); φ), Yt(x)) + LY (p(x|z(cid:48); φ), Yt(x)) + 0.98
(cid:107)z − z(cid:48)(cid:107)2 (cid:107)z − z(cid:48)(cid:107)2 0.82
2 1 2 5 (cid:19) 2 1 2 5 (cid:19) 0.83
(12) (12) 0.85
英語(論文から抽出)日本語訳スコア
Figure 4: Results of synthetic scene reconstruction experiment from five methods with random and good initialization. 図4: ランダムかつ良好な初期化を含む5つの手法による合成シーン再構築実験の結果 0.81
I shows the results of T-VAE using SCG. SCGを用いたT-VAEの結果を示す。 0.79
With the combination of knowledge xyz, we can almost reach the optimal solution even from a random initialization, while baseline methods can realize the target only when start from the good initialization. 知識xyzの組み合わせにより、ランダムな初期化からでもほぼ最適解に到達できるが、ベースライン法は良い初期化から始める場合にのみターゲットを実現できる。 0.70
which projects the candidate z to another point that minimize the knowledge inconsistency caused by LY . lyによって引き起こされる知識の一貫性を最小化する別のポイントに候補zを投影する。 0.52
(12) is solved by gradient descent since the decoder p(x|z; θ) is differentiable. (12) はデコーダ p(x|z; θ) が微分可能であるため勾配降下によって解かれる。 0.70
For the updating step, we can keep using gradient descent (GD) for a differentiable Lt(x) as shown in (3) or change to black-box optimization methods Audet and Hare [2017] when Lt(x) is non-differentiable. 更新ステップでは、(3)に示すように微分可能なLt(x)に対して勾配降下(GD)を使い続けるか、Lt(x) が微分不可能な場合、Audet と Hare [2017] をブラックボックス最適化メソッドに変更することができる。 0.66
Finally, the explicit knowledge incorporation and downstream task objective are iteratively optimized under this proximal optimization framework. 最後に、明示的な知識の取り込みと下流タスクの目的を、この近位最適化フレームワークの下で反復的に最適化する。 0.52
The complete algorithm is summarized in Algorithm 1. 完全アルゴリズムはアルゴリズム1にまとめられている。 0.79
4 Experiments Firstly, we design a synthetic scene to illustrate the controllability and explainability of the proposed framework. 4つの実験 まず,提案手法の可制御性と説明可能性を示す合成シーンを設計する。 0.71
The synthetic scene emulates the driving scene with a simplified setting to unveil the essence of the knowledge-guided generation. 合成シーンは、運転シーンを簡易な設定でエミュレートし、知識誘導世代の本質を明らかにする。 0.78
After that, we propose Scene Attack based on SCG and evaluate its performance on semantic adversarial traffic scene generation. その後、SCGに基づくシーンアタックを提案し、セマンティック・敵の交通シーン生成の性能を評価する。 0.64
4.1 Synthetic Scene Reconstruction Task Description: This task aims to reconstruct a scene from a given image as shown in Figure 3. 合成シーンの再構築 タスク記述: このタスクは、図3に示すように、所定の画像からシーンを再構築することを目的としています。 0.63
The task loss minimizes a reconstruction error Lt(x) = (cid:107)S − R(x)(cid:107)2, where R is a differentiable image renderer Kato et al [2018] and S is the image of target scene. タスク損失は、再構成誤差Lt(x) = (cid:107)S − R(x)(cid:107)2を最小化する。
訳抜け防止モード: タスク損失は、再構成誤差 Lt(x ) = ( cid:107)S − R(x)(cid:107)2 を最小化する。 R は微分可能な画像レンダラーである Kato et al [2018 ] Sはターゲットシーンのイメージです。
0.84
Under this clear setting, it is possible to analyze and compares the contribution of explicit knowledge integration, since we can access the optimal solution easily. この明確な設定の下では、最適なソリューションに簡単にアクセスできるので、明示的な知識統合の貢献を分析して比較することができる。 0.78
Based on the target scene, We define three knowledge rules to help with minimizing the task loss: x The scene has at most two plates; y The colors of the boxes that belong to the same plate should be the same; z The distance between the boxes that belong to the same plate should be smaller than a threshold γ. 対象のシーンに基づいて、タスク損失を最小化するための3つの知識ルールを定義する。 x シーンは少なくとも2つのプレートを持ち、y は同一のプレートに属するボックスの色は同じであり、z は同一のプレートに属するボックス間の距離は閾値 γ よりも小さい。
訳抜け防止モード: ターゲットシーンに基づいて。 タスク損失を最小化するために、3つの知識ルールを定義します。 x シーンには少なくとも2つのプレートがあります ;y 同一のプレートに属する箱の色は同じでなければならない ; z 同じプレートに属するボックス間の距離は、しきい値 γ よりも小さくなければならない。
0.85
We compare our method with three baselines: Direct Search (DS), VAE, and Grammar-VAE (GVAE) Kusner et al [2017]. 本手法をdirect search (ds), vae, and grammar-vae (gvae) kusner et al [2017]の3つのベースラインと比較した。 0.73
DS directly optimizes the positions and colors of boxes and plates in the data space. DSはデータ空間におけるボックスとプレートの位置と色を直接最適化する。 0.82
In contrast, VAE and GVAE optimize in the latent space and generate the scene from their decoders. 対照的に、VAEとGVAEは潜在空間を最適化し、デコーダからシーンを生成する。 0.68
GVAE leverages knowledge by integrating rules during the training stage, however, it cannot explicitly integrate semantic knowledge during the generation. GVAEは、トレーニング段階でルールを統合することで知識を活用するが、生成時に意味知識を明示的に統合することはできない。 0.62
Experiment Settings: DS and VAE need to access the number of boxes and plates in the target image (e g 2 plates and 8 boxes) to fix the dimension of the input feature. 実験の設定: dsとvaeは、入力機能の次元を固定するために、ターゲットイメージ(例えば2つのプレートと8つのボックス)内のボックスとプレートの数にアクセスする必要がある。 0.72
In contrast, GVAE and T-VAE do not need this assumption. 対照的に、GVAE と T-VAE はこの仮定を必要としない。 0.62
The good initial points for DS are obtained by adding a small DS のよい初期点は小を加えて得られる 0.73
Figure 3: A Target scene. 図3: ターゲットシーン。 0.62
B Knowledge losses of integrating semantic rules xyz separately. b 意味ルールxyzを別々に統合する知識損失。 0.65
6 6 0.85
英語(論文から抽出)日本語訳スコア
perturbation to the position and color of the target scene. ターゲットのシーンの位置と色に対する摂動。 0.70
The good initial points for other methods are obtained by adding a small perturbation to the optimal latent code, which is obtained by passing the target scene to the encoder. ターゲットシーンをエンコーダに渡すことで得られる最適な潜在コードに小さな摂動を加えることで、他の方法にとって良い初期点を得る。 0.67
We synthesize the training dataset for VAE, GVAE, and T-VAE by randomly generating boxes and plates. ボックスやプレートをランダムに生成することで,VAE,GVAE,T-VAEのトレーニングデータセットを合成する。 0.69
The data samples are similar to the target scene but are different in colors and the number of object number, and we repeat the target scene 10 times in the entire 10,000 samples. データサンプルは、ターゲットシーンと似ているが、色や対象番号が異なるため、ターゲットシーンを1万のサンプル全体で10回繰り返す。 0.65
Since the entire pipeline is differentiable, we use gradient descent to optimize Lt(x). パイプライン全体が微分可能であるので、勾配降下を使ってLt(x)を最適化する。 0.62
Method Random 86.0±9.4 110.4±10.6 123.7±9.5 135.1±16.9 14.5±1.3 方法 Random 86.0±9.4 110.4±10.6 123.7±9.5 135.1±16.9 14.5±1.3 0.49
Good 7.9±1.2 13.4±6.1 19.7±10.2 14.1±2.5 11.8±2.1 Good 7.9±1.2 13.4±6.1 19.7±10.2 14.1±2.5 11.8±2.1 0.22
Table 1: Reconstruction Error Initialization 表1:再構成エラー初期化 0.79
Direct Search VAE GVAE T-VAE T-VAE w/ SCG 直接検索VAE GVAE T-VAE T-VAE w/SCG 0.67
Evaluation Results: The generated results from five models are displayed in Figure 4 and Table. 評価結果: 5つのモデルから生成された結果は図4と表に表示される。 0.80
1. With good initial points, all models find a similar scene to the target one, while with random initial points, all models are trapped in local minimums. 1. 良い初期点では、全てのモデルはターゲットのものと類似のシーンを見つけ、一方、ランダムな初期点では、全てのモデルは局所的な最小値に閉じ込められる。 0.78
However, obtaining good initialization is not practical in most real-world applications, indicating that this task is non-trivial and all models without knowledge cannot solve it. しかし、ほとんどの実世界のアプリケーションでは良い初期化を得ることは実用的ではなく、このタスクは非自明であり、知識のないすべてのモデルでは解決できないことを示している。 0.54
After integrating the knowledge into the T-VAE model, we obtain I of Figure 4. 知識をT-VAEモデルに統合した後、図4のIを得る。 0.80
We can see that all of the three knowledge have positive guidance for the optimization, e g , the boxes concentrate on the centers of plates with knowledge z. 3つの知識の全てに最適化のための肯定的なガイダンスがあることが分かる、例えば、ボックスは知識を持つプレートの中心に集中している。 0.71
When combining the three knowledge, even from a random initialization, our T-VAE with knowledge-enhanced generation can still find the target scene. 3つの知識をランダムな初期化からでも組み合わせると、t-vaeと知識エンハンスドジェネレーションがターゲットシーンを見つけることができます。 0.62
To explore the contribution of each knowledge during the generation, we plot the knowledge losses of xyz in B of Figure 3 together with the task loss. 生成過程における各知識の寄与を調べるために、図3のbにおけるxyzの知識損失とタスク損失をプロットする。 0.74
We can see that the knowledge losses decrease quickly at the beginning and help optimize the downstream task. 知識の損失は最初は急速に減少し、ダウンストリームタスクの最適化に役立ちます。 0.69
4.2 Adversarial Traffic Scenes Generation 4.2 対人交通シーンの生成 0.63
Task Description: In this task, we aim to generate realistic adversarial traffic scenes against point cloud segmentation algorithms, while satisfying certain semantic knowledge rules. タスク記述: このタスクでは、特定の意味的知識ルールを満たしながら、ポイントクラウドセグメンテーションアルゴリズムに対して現実的な逆トラフィックシーンを生成します。 0.80
To generated adversarial LiDAR scenes containing various fore-/background rather than the point cloud of single 3D object as existing works Lang et al [2020], Sun et al [2020a], a couple of challenges should be considered: First, LiDAR scenes with millions of points are hard to be directly operated; Second, generated scenes need to be realistic and follow traffic rules. 既存の作品であるLang et al [2020], Sun et al [2020a]のように、単一の3Dオブジェクトのポイントクラウドではなく、様々なフォア/バックグラウンドを含む敵のLiDARシーンを生成するには、いくつかの課題を考慮する必要がある。
訳抜け防止モード: 既存の作品であるLang et al[2020]のように、単一の3Dオブジェクトの点雲ではなく、様々なフォア/バックグラウンドを含む逆LiDARシーンを生成する。 Sun ら [ 2020a ] はいくつかの課題を考慮すべきである。 まず、数百万点のLiDARシーンを直接操作するのは難しい 次に、生成されたシーンは現実的で、トラフィックルールに従う必要があります。
0.66
Since there are no existing baselines to directly compare with, we implement three methods: (1) Point Attack: a point-wise attack baseline Xiang et al [2019] that adds small disturbance to points; (2) Pose Attack: a scene generation method developed by us that searches poses of a fixed number of vehicles; (3) Scene Attack: a semantically controllable traffic generative method based on our T-VAE and SCG. 1)ポイントアタック:ポイントに小さな障害を加えるXiang et al[2019]、(2)ポスアタック:一定の数の車両のポーズを検索する私たちが開発したシーン生成方法、(3)シーンアタック:T-VAEとSCGに基づくセマンティックに制御可能なトラフィック生成手法。
訳抜け防止モード: 直接比較するベースラインが存在しないため。 1 ) ポイントアタック : a point - wise attack baseline Xiang et al [ 2019 ] which add small disturbance to points ; ( 2 ) Pose Attack : usによって開発された、一定数の車両のポーズを検索するシーン生成手法。 (3)Scene Attack : 我々のT-VAEとSCGに基づく意味制御可能なトラフィック生成手法。
0.77
We explore the attack effectiveness against different models of these methods, as well as their transferability. これらの手法の異なるモデルに対する攻撃効果と伝達性について検討する。 0.69
For Pose Attack and Scene Attack, we implement an efficient LiDAR model Rp(x, B) Möller and Trumbore [1997] (refer to Appendix for details) to convert the generated scene x to a point cloud scene with an background B. ポーズアタックとシーンアタックのために、効率的なライダーモデルrp(x, b) möllerとtrumbore [1997](詳細は付録を参照)を実装し、生成されたシーンxを背景bのポイントクラウドシーンに変換する。
訳抜け防止モード: ポーズアタックとシーンアタックのために,効率的なLiDARモデルRp(x,)を実装した。 B) Möller と Trumbore [1997 ] (詳細は Appendix を参照) は生成されたシーン x を背景Bのあるポイントクラウドシーンに変換する。
0.80
The task objective minLt(x) = maxLP (R(x, B)) is defined by maximizing the loss function LP of segmentation algorithms P . タスク目的minLt(x) = maxLP(R(x,B))は、セグメント化アルゴリズムPの損失関数LPを最大化することにより定義される。 0.85
We design three explicit knowledge rules: x roads follow a given layout (location, width, and length); y vehicles on the lane follow the direction of the lane; z vehicles should gather together but keep a certain distance. 我々は3つの明確な知識ルールを設計する: x道路は所定のレイアウト(位置、幅、長さ)に従っており、車線上のy車両は車線の方向に沿っている。 0.69
The reason is that x y make sure generated vehicles follow the layout of the background B and z makes the scene contain more vehicles. 理由は、x yは生成された車両が背景Bとzのレイアウトに従っていることを保証するためである。 0.73
Experiment Settings: We select 4 point cloud semantic segmentation algorithms (PointNet++ Qi et al [2017], PolarSeg Zhang et al [2020], SqueezeSegV3 Xu et al [2020], Cylinder3D Zhou et al [2020]) as our victim models, all of which are pre-trained on Semantic Kitti dataset Behley et al [2019]. 実験設定: 4点クラウドセマンティックセマンティックセマンティックアルゴリズム(PointNet++ Qi et al [2017], PolarSeg Zhang et al [2020], SqueezeSegV3 Xu et al [2020], Cylinder3D Zhou et al [2020])を犠牲者モデルとして選択し、これらはすべてSemantic KittiデータセットのBehley et al [2019]で事前トレーニングします。 0.84
We collect two backgrounds B (Highway and Intersection) in Carla simulator Dosovitskiy et al [2017]. カルラシミュレーター Dosovitskiy et al [2017] において、2つの背景 (Highway and Intersection) を収集する。 0.69
This background can also be obtained from the real-world sensors to reduce the sim-toreal gap. この背景は現実世界のセンサーから得ることができ、シム-トリアルギャップを減らすことができる。 0.54
Since it is usually unable to access the parameters of segmentation algorithms, we focus on the black-box attack in this task. 通常、セグメンテーションアルゴリズムのパラメータにアクセスすることができないため、このタスクではブラックボックス攻撃に焦点を当てる。 0.76
Point Attack optimizes Lt(x) with SimBA Guo et al [2019], while Pose Attack and Scene Attack optimizes Lt(x) with Bayesian Optimization (BO) Pelikan et al [1999]. Point Attack は SimBA Guo et al [2019] で Lt(x) を最適化し、Pose Attack and Scene Attack は Bayesian Optimization (BO) Pelikan et al [1999] で Lt(x) を最適化する。 0.90
For the training of T-VAE, We build a dataset by extracting the pose information of vehicles together with road and lane information from Argoverse dataset Chang et al [2019]. T-VAEのトレーニングのために,Argoverse データセット Chang et al [2019] から道路や車線情報とともに車両のポーズ情報を抽出してデータセットを構築する。 0.77
7 7 0.85
英語(論文から抽出)日本語訳スコア
Figure 5: The IoU values during the attack process for four victim models. 図5: 4つの犠牲者モデルに対する攻撃プロセス中のIoU値。 0.85
We compare three methods on two different backgrounds. 2つの異なる背景の3つの方法を比較する。 0.65
Highway background is illustrated with solid line and Intersection background is with dash line. 高速道路の背景はソリッドラインで、交差点の背景はダッシュラインで示されています。 0.57
Both Pose Attack and Scene Attack successfully attack all victims. ポーズ攻撃とシーン攻撃の両方がすべての犠牲者をうまく攻撃した。 0.58
Figure 6: Generated scenes from Pose Attack and Scene Attack for PointNet++ model under Highway and Intersection background, where red points represent vehicles. 図6: 高速道路と交差点の背景にあるpointnet++モデルのポーズ攻撃とシーン攻撃から生成されたシーン。 0.73
Scenes generated by Scene Attack are complicated and follow basic traffic rules, while scenes generated by Pose Attack violate basic physical laws and traffic rules. シーンアタックによって生成されるシーンは複雑であり、基本的なトラフィックルールに従う一方、ポーズアタックによって生成されるシーンは基本的な物理法則やトラフィックルールに違反する。 0.53
Evaluation Results: We show the Intersection over Union (IoU) metric for the vehicle during the attack in Figure 5. 評価結果: 攻撃時の車両のIoU(Intersection over Union)測定値について, 図5で示す。 0.79
Generally, it is harder to find adversarial scenes in the highway background than in the intersection background since the latter has much more vehicles. 一般論として、交差点の背景よりも高速道路の背景で敵のシーンを見つけるのは困難である。 0.65
Within 100 iterations, Point Attack method nearly has no influence to the performance since it operates in very high dimensions. 100イテレーション以内に、ポイントアタックメソッドは、非常に高次元で動作するため、パフォーマンスにほとんど影響を与えない。 0.71
In contrast, Pose Attack and Scene Attack efficiently reduce the IoU value. 対照的に、ポースアタックとシーンアタックは、IoU値を効率的に減少させる。 0.59
Although Pose Attack achieves comparable results to our method, scenes generated by it (shown in Figure 6) are unrealistic due to the overlaps between vehicles and traffic rules violation. ポーズアタックは,本手法に匹敵する結果が得られたが,車両間の重なりや交通規則違反により生成したシーン(図6に示す)は現実的ではない。 0.72
In contrast, scenes generated by our method (shown in Figure 6) only modify the vehicles within the traffic constraints. 対照的に、この方法によって生成されたシーン(図6に示す)は、トラフィック制約内でのみ車両を変更する。 0.65
In Table 2, we explore the transferability of Point Attack and Scene Attack. 表2では、ポイントアタックとシーンアタックの転送可能性について検討する。 0.58
Source models are used to generate scenes, and target models are used to be evaluated. ソースモデルはシーン生成に使用され、ターゲットモデルは評価に使用される。 0.82
To make the comparison fair, we run 20,000 iterations to get the value for Point Attack. 比較を公平にするために、ポイントアタックの値を得るために20,000回のイテレーションを実行します。 0.61
Although Point Attack method dramatically reduces the performance of all 4 victims, the generated scenes have weak transferability and cannot decrease the performance of other victim models. ポイントアタック法は4つの犠牲者全てのパフォーマンスを劇的に低下させるが、生成されたシーンは移動性が弱く、他の犠牲者モデルの性能を低下させることができない。 0.56
However, scenes generated by Scene Attack successfully attack all models even those not targeted during the training, which demonstrates strong adversarial transferability. しかし、シーンアタックによって生成されたシーンは、訓練中に標的にされていないモデルでさえも攻撃に成功し、強力な対向性を示す。 0.55
5 Related Work Incorporating Knowledge in Neural Networks. 5 関連作業 ニューラルネットワークに知識を組み込む。 0.79
Integrating knowledge to data-driven models has been explored in various forms from training methods, meta-modeling, embedding to rules used for reasoning. データ駆動モデルへの知識の統合は、トレーニングメソッド、メタモデリング、推論に使用されるルールへの埋め込みなど、さまざまな形で研究されてきた。
訳抜け防止モード: データ駆動モデルに知識を統合する トレーニング方法、メタモデリング、 推論に使用される規則に埋め込まれています
0.65
Hu et al [2016] distills logical rules with a teacher-student framework under Posterior Regularization Ganchev et al [2010]. Hu et al [2016] は後正規化 Ganchev et al [2010] の下で教師学生の枠組みで論理ルールを蒸留する。 0.76
Another way of knowledge distillation is encoding knowledge into vectors then refining the features from the model that are in line with the encoded knowledge もう一つの知識蒸留の方法は、知識をベクトルにエンコードし、エンコードされた知識と一致するモデルから特徴を精錬することである。
訳抜け防止モード: もう1つの知識蒸留法は 知識をベクトルにエンコードし、エンコードされた知識に沿ったモデルから特徴を洗練する
0.84
8 8 0.85
英語(論文から抽出)日本語訳スコア
Table 2: Transferability of Adversarial Scenes (Point Attack IoU / Scene Attack IoU). 表2: 敵シーンの転送可能性(ポイントアタックIoU / シーンアタックIoU) 0.70
Scene Attack has lower IoU for all evaluation pairs, which demonstrates its better adversarial transferability. シーンアタックは全ての評価ペアに対してIoUを低くし、より優れた逆転性を示す。 0.63
Source \ Target PointNet++ Source \ Target PointNet++ 0.84
SqueezeSegV3 SqueezeSegV3 0.78
PolarSeg Cylinder3D PolarSeg Cylinder3D 0.71
PointNet++ PointNet++ 0.59
- / - 0.954 / 0.606 0.952 / 0.528 0.951 / 0.507 - / - 0.954 / 0.606 0.952 / 0.528 0.951 / 0.507 0.69
SqueezeSegV3 0.916 / 0.768 SqueezeSegV3 0.916 / 0.768 0.59
- / - 0.904 / 0.753 0.903 / 0.688 - / - 0.904 / 0.753 0.903 / 0.688 0.70
PolarSeg 0.936 / 0.854 0.932 / 0.855 PolarSeg 0.936 / 0.854 0.932 / 0.855 0.70
- / - 0.934 / 0.877 - / - 0.934 / 0.877 0.72
Cylinder3D 0.955 / 0.918 0.956 / 0.892 0.953 / 0.908 Cylinder3D 0.955 / 0.918 0.956 / 0.892 0.953 / 0.908 0.52
- / - Gu et al [2019]. - / - 2019年)。 0.54
These methods need to access Knowledge Graphs Ehrlinger and Wöß [2016] during the training, which heavily depends on human experts. これらの方法は、トレーニング中にehrlingerとwöß[2016]の知識グラフにアクセスする必要がある。 0.61
Meta-modeling of complex fluid is integrated into the neural network to improve the performance of purely data-driven networks in Mahmoudabadbozchelou et al [2021]. 複雑流体のメタモデリングをニューラルネットワークに統合し,Hahmoudabadbozchelo u et al[2021]における純粋にデータ駆動ネットワークの性能を向上させる。 0.79
In addition, Yang and Perdikaris [2018] explored restricting generative models’ output to satisfy given physical laws expressed by partial differential equations. さらに、ヤンとパーディカリスは、偏微分方程式で表される与えられた物理法則を満たすために生成モデルの出力を制限することを検討した。
訳抜け防止モード: 加えて, Yang と Perdikaris [2018 ] 偏微分方程式で表される与えられた物理法則を満たすために生成モデルの出力を制限する。
0.75
In the reinforcement learning area, reward shaping Ng et al [1999] is recognized as a technique to incorporate heuristic knowledge to guide the training of agents. 強化学習領域では,報酬シェーピング ng et al [1999] が,エージェントの訓練指導にヒューリスティックな知識を組み込む手法として認識されている。 0.82
Structured Deep Generative Models. 構造的深部生成モデル。 0.83
The original DGMs, such as Generative Adversarial Networks Goodfellow et al [2014] and Variational Auto-encoder Kingma and Welling [2013], are mostly used for unstructured data. The original DGMs, such as Generative Adversarial Networks Goodfellow et al [2014] and Variational Auto-encoder Kingma and Welling [2013], are most used for unstructured data。 0.82
These models make full use of the powerful feature extraction capability of neural networks, thus achieve impressive results Karras et al [2019], Brock et al [2018]. これらのモデルは、ニューラルネットワークの強力な特徴抽出能力をフル活用することで、Karas et al [2019], Brock et al [2018]という素晴らしい結果が得られる。 0.72
However, the physical world is complex and objects in this world have diverse connections. しかし、物理的世界は複雑で、この世界の物体には様々なつながりがある。 0.68
Domain specific structured generative models were developed via tree structures (RvNN-VAE Li et al [2019]) or graph structure (Graph-VAE Simonovsky and Komodakis [2018]). ドメイン固有構造生成モデルは木構造 (RvNN-VAE Li et al [2019]) やグラフ構造 (Graph-VAE Simonovsky and Komodakis [2018]) を介して開発された。 0.87
Rule-based generative models are also explored by sampling from pre-defined rules to form a parse tree Kusner et al [2017], Kar et al [2019], Devaranjan et al [2020]. ルールベースの生成モデルは、事前定義されたルールからサンプリングしてパースツリー kusner et al [2017], kar et al [2019], devaranjan et al [2020]を形成することでも検討される。 0.70
Typical applications of this kind of model are molecular structure generation Guo and Zhao [2020], Jin et al [2018, 2020], natural scene generation Para et al [2020], Deng et al [2021], and automatic program generation Dai et al [2018]. このモデルの典型的な応用例としては、分子構造生成guoとzhao [2020]、jin et al [2018, 2020]、natural scene generation para et al [2020]、deng et al [2021]、automated program generation dai et al [2018]などがある。 0.73
Unlike these previous works, our method explicitly integrates knowledge during the generation process. これらの先行研究とは異なり,本手法は生成過程において知識を明示的に統合する。 0.53
One valuable application of DGMs is generating samples that meet the requirements of downstream tasks Engel et al [2017], Tripp et al [2020]. DGMの1つの重要な応用は、下流のEngel et al [2017], Tripp et al [2020]の要求を満たすサンプルを生成することである。 0.70
Abdal et al [2019, 2020] searches in the latent space of StyleGAN Karras et al [2019] to obtain images that are similar to a given image. Abdal et al [2019, 2020] は、StyleGAN Karras et al [2019] の潜在空間を探索し、与えられた画像に類似した画像を取得する。 0.82
For structured data, such a searching framework transforms discrete space optimization into continuous space optimization, which is more efficient Luo et al [2018]. 構造化データの場合、そのような探索フレームワークは離散空間最適化を連続空間最適化に変換し、より効率的なluo et al [2018] である。 0.74
However, it cannot guarantee the rationality of generated structured data due to the loss of interpretability and constraints in the latent space Dai et al [2018]. しかし、潜在空間 dai et al [2018] における解釈可能性と制約の喪失のため、生成された構造化データの合理性を保証することはできない。 0.69
Scene Generation. シーン・ジェネレーション。 0.61
Traditional ways of scene generation focus on sampling from pre-defined rules and grammars, such as probabilistic scene graphs used in Prakash et al [2019] and heuristic rules applied in Dosovitskiy et al [2017]. 伝統的なシーン生成の方法は、prakash et al [2019]で使われる確率的シーングラフやdosovitskiy et al [2017]で適用されるヒューリスティックなルールなど、事前定義されたルールや文法からのサンプリングに焦点を当てている。 0.66
These methods rely on domain expertise and cannot be easily extensible to large-scale scenes. これらの手法はドメインの専門知識に依存しており、大規模シーンに容易に拡張できない。 0.59
Recently, data-driven generative models Devaranjan et al [2020], Tan et al [2021], Para et al [2020], Li et al [2019], Kundu et al [2018] are proposed to learn the distribution of objects and decouple the generation of scene into sequence Tan et al [2021] and graph Para et al [2020], Li et al [2019] of objects. 近年,データ駆動生成モデルdevaranjan et al [2020], tan et al [2021], para et al [2020], li et al [2019], kundu et al [2018], kundu et al [2018] が提案されている。
訳抜け防止モード: 最近のデータ駆動生成モデルDevaranjan et al [2020 ] Tan et al [2021 ], Para et al [2020 ] Li et al [ 2019 ], Kundu et al [ 2018 ] が提案されている。 物体の分布を学習し シーンの生成をSequence Tan et al[2021 ]に分離する そして、オブジェクトのPara et al [2020 ]、Li et al [2019 ]をグラフ化します。
0.81
Although they reduce the gap between simulation and reality, generated scenes cannot guarantee to satisfy specific constraints. シミュレーションと現実のギャップを縮めるが、生成されたシーンは特定の制約を満たすことは保証できない。 0.62
Another substantial body of literature Eslami et al [2016], Kosiorek et al [2018], Gu et al [2019] explored learning scene graphs from images or generating scene images directly via an end-to-end framework. Eslami et al [2016], Kosiorek et al [2018], Gu et al [2019] は、画像からシーングラフを学習したり、エンドツーエンドのフレームワークを通じてシーンイメージを直接生成したりした。 0.74
The understanding and generation of high-dimensional data are extremely difficult, making them less effective than modularized methods Kundu et al [2018], Wu et al [2017], Devaranjan et al [2020]. 高次元データの理解と生成は極めて困難であり、モジュール化された手法であるkundu et al [2018], wu et al [2017], devaranjan et al [2020]よりも効果的ではない。 0.77
Semantically Adversarial Examples. 意味的に逆向きな例。 0.45
Early adversarial attack works focused on the pixel-wise attack in the image field, where Lp-norm is used to constrain the adversarial perturbation. 初期の対向攻撃は、Lp-ノルムが対向的摂動を抑制するために使用されるイメージフィールドにおけるピクセルワイズアタックに焦点を当てている。 0.66
For the sake of the interpretability of the adversarial samples, recent works begin to consider semantic attacks Ding et al [2021, 2020a, 2018, 2020b]. 敵のサンプルの解釈可能性のため,近年ではDing et al[2021, 2020a, 2018, 2020b]のセマンティックアタックが検討されている。 0.77
They attack the rendering process of images by modifying the light condition Liu et al [2018], Zeng et al [2019] or manipulating the position and shape of objects Alcorn et al [2019], Xiao et al [2019], Jain et al [2019]. 彼らは、光条件のLiu et al [2018], Zeng et al [2019] を変更するか、Alcorn et al [2019], Xiao et al [2019], Jain et al [2019] を操作することによって、画像のレンダリングプロセスを攻撃する。 0.74
This paper explores the generation of adversarial point cloud scenes, which already has similar prior works Tu et al [2020], Abdelfattah et al [2021], Sun et al [2020b]. 本稿では,すでに類似の先行作品であるtu et al [2020], abdelfattah et al [2021], sun et al [2020b] を扱っている,敵対的ポイントクラウドシーンの生成を考察する。 0.86
Tu et al [2020], Abdelfattah et al [2021] modify the environment by adding objects on the top of existing vehicles to make them disappear. Tu et al [2020], Abdelfattah et al [2021] は、既存の車両の上部にオブジェクトを追加して、それらを消滅させる環境を改変する。 0.83
Sun et al [2020b] create a Sun と al [2020b] が生成する 0.86
9 9 0.85
英語(論文から抽出)日本語訳スコア
ghost vehicle by adding an ignoble number of points. ゴースト車両は無意味な点数を追加する。 0.55
However, they simply modify a single object without considering the structural relationship of the whole scene. しかし、シーン全体の構造的関係を考慮せずに、単一のオブジェクトを単に修正する。 0.78
6 Conclusion In this paper, we explore semantically controllable data generation tasks with explicit knowledge integration. 6 結論 本稿では,明示的な知識統合による意味制御可能なデータ生成タスクについて検討する。 0.65
Inspired by the categorization of knowledge for the scene description, we design a treestructured generative model to represent structured data. シーン記述のための知識の分類に着想を得て,構造データを表す木構造生成モデルを設計する。 0.84
We show that the two types of knowledge can be explicitly injected into the tree structure to guide and restrict the generation process efficiently and effectively. この2種類の知識をツリー構造に明示的に注入して生成プロセスを効率的かつ効果的に誘導・制限できることを示す。 0.83
After considering explicit semantic knowledge, we verify that the generated data indeed contain fewer semantic constraint violations. 明示的な意味的知識を考慮すると、生成されたデータが意味的制約違反が少ないことを確認する。 0.51
Meanwhile, the generated data still maintain the diversity property and follow its original underlying distribution. 一方、生成されたデータは依然として多様性を保ち、元の分布に従う。 0.67
Although we focus on the scene generation application, the SCG framework can be extended to other structured data generation tasks, such as chemical molecules and programming languages, which also show hierarchical property. シーン生成アプリケーションにフォーカスしていますが、scgフレームワークを化学分子やプログラミング言語といった他の構造化データ生成タスクにも拡張することができます。
訳抜け防止モード: 我々はシーン生成アプリケーションに焦点を当てているが、SCGフレームワークは他の構造化データ生成タスクにも拡張できる。 化学分子やプログラミング言語は 階層的な性質も示しています
0.79
One assumption of this work is that the knowledge is helpful or at least harmless as they are summarized and provided by domain experts, which needs careful examination in the future. この研究の前提の一つは、知識は、将来慎重に検討する必要があるドメインの専門家によって要約され提供され、提供され、少なくとも無害であるということである。
訳抜け防止モード: この研究の前提の一つは、知識が役に立ち、少なくとも無害であるということである。 ドメインの専門家が まとめて提供します 将来 精査が必要です
0.56
References Rameen Abdal, Yipeng Qin, and Peter Wonka. Rameen Abdal、Yipeng Qin、Peter Wonkaなどを参照。 0.78
Image2stylegan: How to embed images into the stylegan latent space? image2stylegan:style ganの潜在空間にどのように画像を埋め込むか? 0.70
In Proceedings of the IEEE/CVF International Conference on Computer Vision, pages 4432–4441, 2019. In Proceedings of the IEEE/CVF International Conference on Computer Vision, page 4432–4441, 2019。 0.91
Austin Tripp, Erik Daxberger, and José Miguel Hernández-Lobato. Austin Tripp、Erik Daxberger、José Miguel Hernández-Lobato。 0.83
Sample-efficient optimization in the latent space of deep generative models via weighted retraining. 重み付き再学習による深部生成モデルの潜時空間におけるサンプル効率最適化 0.74
Advances in Neural Information Processing Systems, 33, 2020. ニューラル情報処理システムの進歩 -2020年3月33日- 0.73
Wenhao Ding, Baiming Chen, Bo Li, Kim Ji Eun, and Ding Zhao. Wenhao Ding、Baiming Chen、Bo Li、Kim Ji Eun、Ding Zhao。 0.66
Multimodal safety-critical scenarios generation for decision-making algorithms evaluation. 意思決定アルゴリズム評価のためのマルチモーダル安全クリティカルシナリオの生成 0.73
IEEE Robotics and Automation Letters, 6(2):1551–1558, 2021. IEEE Robotics and Automation Letters, 6(2):1551–1558, 2021 0.93
Ian J Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, and Yoshua Bengio. Ian J Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, Yoshua Bengio 0.86
Generative adversarial networks. 生成的敵ネットワーク。 0.74
arXiv preprint arXiv:1406.2661, 2014. arXiv preprint arXiv:1406.2661, 2014 0.80
Diederik P Kingma and Max Welling. dieerik p kingmaとmax welling。 0.58
Auto-encoding variational bayes. 自動エンコーディング変分ベイズ。 0.67
arXiv:1312.6114, 2013. 2013年、arxiv:1312.6114。 0.33
arXiv preprint arXiv プレプリント 0.83
Laurent Dinh, Jascha Sohl-Dickstein, and Samy Bengio. ローラン・ディン、ジャッシャ・ソル=ディックスタイン、サミー・ベンジオ。 0.30
Density estimation using real nvp. 実nvpを用いた密度推定 0.85
arXiv preprint arXiv:1605.08803, 2016. arXiv arXiv:1605.08803, 2016 0.81
David Bau, Jun-Yan Zhu, Hendrik Strobelt, Agata Lapedriza, Bolei Zhou, and Antonio Torralba. David Bau, Jun-Yan Zhu, Hendrik Strobelt, Agata Lapedriza, Bolei Zhou, Antonio Torralba 0.75
Understanding the role of individual units in a deep neural network. ディープニューラルネットワークにおける個々のユニットの役割を理解する。 0.75
Proceedings of the National Academy of Sciences, 117(48):30071–30078, 2020. 国立科学アカデミー紀要, 117(48):30071-30078, 2020 0.63
Antoine Plumerault, Hervé Le Borgne, and Céline Hudelot. アントワーヌ・プラメロー、エルヴェ・ル・ボルニュ、セリーヌ・フデロット。 0.38
Controlling generative models with 生成モデルによる制御 0.88
continuous factors of variations. 変化の連続的な要因。 0.69
arXiv preprint arXiv:2001.10238, 2020. arXiv preprint arXiv:2001.10238, 2020 0.81
Zoltan Dienes and Josef Perner. ゾルタン・ディーンズとヨーゼフ・ペナー。 0.39
A theory of implicit and explicit knowledge. 暗黙的かつ明示的な知識の理論。 0.77
Behavioral and brain sciences, 22(5):735–808, 1999. 行動と脳 学説 22(5):735–808, 1999。 0.75
David M Blei, Alp Kucukelbir, and Jon D McAuliffe. David M Blei、Alp Kucukelbir、Jon D McAuliffe。 0.66
Variational inference: A review for statisticians. 変分推論:統計学者のレビュー。 0.69
Journal of the American statistical Association, 112(518):859–877, 2017. journal of the american statistical association, 112 (518):859–877, 2017年。 0.85
Neal Parikh and Stephen Boyd. ニール・パリフとスティーブン・ボイド。 0.45
Proximal algorithms. Foundations and Trends in optimization, 1(3): 近似アルゴリズム。 最適化の基礎と動向 1(3) 0.60
127–239, 2014. 127–239, 2014. 0.84
Shuhan Tan, Kelvin Wong, Shenlong Wang, Sivabalan Manivasagam, Mengye Ren, and Raquel Urtasun. Shuhan Tan, Kelvin Wong, Shenlong Wang, Sivabalan Manivasagam, Mengye Ren, Raquel Urtasun 0.69
Scenegen: Learning to generate realistic traffic scenes. Scenegen: 現実的なトラフィックシーンを生成するための学習。 0.66
arXiv preprint arXiv:2101.06541, 2021. arXiv preprint arXiv:2101.06541, 2021 0.80
10 10 0.85
英語(論文から抽出)日本語訳スコア
Manyi Li, Akshay Gadi Patil, Kai Xu, Siddhartha Chaudhuri, Owais Khan, Ariel Shamir, Changhe Tu, Baoquan Chen, Daniel Cohen-Or, and Hao Zhang. Manyi Li, Akshay Gadi Patil, Kai Xu, Siddhartha Chaudhuri, Owais Khan, Ariel Shamir, Changhe Tu, Baoquan Chen, Daniel Cohen-Or, Hao Zhang 0.81
Grains: Generative recursive autoencoders for indoor scenes. Grains: 屋内シーンのための生成的再帰的オートエンコーダ。 0.60
ACM Transactions on Graphics (TOG), 38(2):1–16, 2019. ACM Transactions on Graphics (TOG), 38(2):1-16, 2019 0.83
Jayaram Sethuraman. Jayaram Sethuraman 0.56
A constructive definition of dirichlet priors. dirichlet priors のコンストラクティブな定義。 0.64
Statistica sinica, pages 639–650, Statistica sinica, page 639-650, 0.89
1994. Richard Socher, Cliff Chiung-Yu Lin, Andrew Y Ng, and Christopher D Manning. 1994. Richard Socher、Cliff Chiung-Yu Lin、Andrew Y Ng、Christopher D Manning。 0.82
Parsing natural scenes and natural language with recursive neural networks. 自然のパーシング 再帰的ニューラルネットワークによるシーンと自然言語です 0.77
In ICML, 2011. 2011年、ICML。 0.69
Ronald J Williams and David Zipser. ロナルド・J・ウィリアムズとデヴィッド・ジプサー。 0.52
A learning algorithm for continually running fully recurrent フルリカレントを継続的に実行する学習アルゴリズム 0.79
neural networks. ニューラルネットワーク。 0.65
Neural computation, 1(2):270–280, 1989. 神経計算、1(2):270–280, 1989。 0.66
Raymond M Smullyan. レイモンド m スムリヤン 0.65
First-order logic. Courier Corporation, 1995. 一階論理。 1995年、Courier Corporation。 0.74
Charles Audet and Warren Hare. チャールズ・オーデットとウォーレン・ヘア 0.58
Derivative-free and blackbox optimization, 2017. デリバティブフリーおよびブラックボックス最適化、2017年。 0.54
Hiroharu Kato, Yoshitaka Ushiku, and Tatsuya Harada. 加藤広治、牛久義隆、原田辰也。 0.36
Neural 3d mesh renderer. ニューラル3dメッシュレンダラー。 0.70
In Proceedings of in Proceedings of ~ 0.79
the IEEE conference on computer vision and pattern recognition, pages 3907–3916, 2018. IEEE Conference on computer vision and pattern recognition, page 3907–3916, 2018 0.80
Matt J Kusner, Brooks Paige, and José Miguel Hernández-Lobato. Matt J Kusner、Brooks Paige、José Miguel Hernández-Lobato。 0.82
Grammar variational autoencoder. 文法変分オートエンコーダ。 0.67
In International Conference on Machine Learning, pages 1945–1954. 機械学習に関する国際会議、1945-1954頁。 0.74
PMLR, 2017. 2017年、PMLR。 0.66
Itai Lang, Uriel Kotlicki, and Shai Avidan. Itai Lang、Uriel Kotlicki、Shai Avidan。 0.58
Geometric adversarial attacks and defenses on 3d point 3次元点における幾何学的対向攻撃と防御 0.64
clouds. arXiv preprint arXiv:2012.05657, 2020. 雲だ arXiv preprint arXiv:2012.05657, 2020 0.74
Jiachen Sun, Karl Koenig, Yulong Cao, Qi Alfred Chen, and Z Morley Mao. Jiachen Sun、Karl Koenig、Yulong Cao、Qi Alfred Chen、Z Morley Mao。 0.72
On the adversarial robustness of 3d point cloud classification. 逆境について 3次元点雲分類のロバスト性 0.58
arXiv preprint arXiv:2011.11922, 2020a. arXiv preprint arXiv:2011.11922, 2020a 0.73
Chong Xiang, Charles R Qi, and Bo Li. Chong Xiang、Charles R Qi、Bo Li。 0.66
Generating 3d adversarial point clouds. 3次元対向点雲の生成 0.66
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 9136–9144, 2019. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 9136–9144, 2019。 0.92
Tomas Möller and Ben Trumbore. Tomas MöllerとBen Trumbore。 0.82
Fast, minimum storage ray-triangle intersection. 高速で最小限の記憶線三角形の交差。 0.51
Journal of graphics tools, 2(1):21–28, 1997. 日誌 グラフィックツール 2(1):21–28, 1997。 0.66
Charles R Qi, Li Yi, Hao Su, and Leonidas J Guibas. Charles R Qi, Li Yi, Hao Su, and Leonidas J Guibas 0.75
Pointnet++: Deep hierarchical feature learning pointnet++: 深い階層的機能学習 0.74
on point sets in a metric space. 距離空間内の点集合について。 0.59
arXiv preprint arXiv:1706.02413, 2017. arXiv preprint arXiv:1706.02413, 2017 0.79
Yang Zhang, Zixiang Zhou, Philip David, Xiangyu Yue, Zerong Xi, Boqing Gong, and Hassan Foroosh. Yang Zhang, Zixiang Zhou, Philip David, Xiangyu Yue, Zerong Xi, Boqing Gong, Hassan Foroosh 0.70
Polarnet: An improved grid representation for online lidar point clouds semantic segmentation. polarnet: オンラインlidarポイントクラウドのセマンティクスセグメンテーションのためのグリッド表現の改善。 0.81
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 9601–9610, 2020. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 9601–9610, 2020。 0.92
Chenfeng Xu, Bichen Wu, Zining Wang, Wei Zhan, Peter Vajda, Kurt Keutzer, and Masayoshi Tomizuka. Chenfeng Xu, Bichen Wu, Zining Wang, Wei Zhan, Peter Vajda, Kurt Keutzer, Tomizuka
訳抜け防止モード: Chenfeng Xu, Bichen Wu, Zining Wang, Wei Zhan Peter Vajda, Kurt Keutzer, and Masayoshi Tomizuka
0.71
Squeezesegv3: Spatially-adaptive convolution for efficient point-cloud segmentation. squeezesegv3: 効率的なポイントクラウドセグメンテーションのための空間適応畳み込み。 0.51
In European Conference on Computer Vision, pages 1–19. 欧州コンピュータビジョン会議』、1-19頁。 0.69
Springer, 2020. スプリンガー、2020年。 0.59
Hui Zhou, Xinge Zhu, Xiao Song, Yuexin Ma, Zhe Wang, Hongsheng Li, and Dahua Lin. Hui Zhou, Xinge Zhu, Xiao Song, Yuexin Ma, Zhe Wang, Hongsheng Li, Dahua Lin 0.70
Cylinder3d: An effective 3d framework for driving-scene lidar semantic segmentation. Cylinder3d: ドライブシーンのライダーセマンティックセグメンテーションに有効な3dフレームワーク。 0.66
arXiv preprint arXiv:2008.01550, 2020. arXiv preprint arXiv:2008.01550, 2020 0.81
J. Behley, M. Garbade, A. Milioto, J. Quenzel, S. Behnke, C. Stachniss, and J. Gall. J. Behley, M. Garbade, A. Milioto, J. Quenzel, S. Behnke, C. Stachniss, J. Gall 0.94
SemanticKITTI: A Dataset for Semantic Scene Understanding of LiDAR Sequences. SemanticKITTI: LiDARシーケンスのセマンティックシーン理解のためのデータセット。 0.75
In Proc. of the IEEE/CVF International Conf. Proc。 IEEE/CVF国際会議に参加。 0.63
on Computer Vision (ICCV), 2019. コンピュータビジョン(ICCV)、2019年。 0.67
Alexey Dosovitskiy, German Ros, Felipe Codevilla, Antonio Lopez, and Vladlen Koltun. Alexey Dosovitskiy, German Ros, Felipe Codevilla, Antonio Lopez, Vladlen Koltun 0.71
Carla: An open urban driving simulator. Carla: An オープン都市運転シミュレーター 0.71
In Conference on robot learning, pages 1–16. ロボット学習に関する会議では、1-16頁。 0.64
PMLR, 2017. 2017年、PMLR。 0.66
Chuan Guo, Jacob Gardner, Yurong You, Andrew Gordon Wilson, and Kilian Weinberger. Chuan Guo, Jacob Gardner, Yurong You, Andrew Gordon Wilson, Kilian Weinberger 0.68
Simple black-box adversarial attacks. 単純なブラックボックス攻撃。 0.78
In International Conference on Machine Learning, pages 2484–2493. 機械学習に関する国際会議』2484-2493頁。 0.75
PMLR, 2019. 2019年、PMLR。 0.72
Martin Pelikan, David E Goldberg, Erick Cantú-Paz, et al Boa: The bayesian optimization algorithm. Martin Pelikan, David E Goldberg, Erick Cantú-Paz, et al Boa: ベイズ最適化アルゴリズム。 0.86
In Proceedings of the genetic and evolutionary computation conference GECCO-99, volume 1, pages 525–532. GECCO-99, volume 1, page 525–532。 0.33
Citeseer, 1999. 1999年、Citeseer。 0.70
11 11 0.85
英語(論文から抽出)日本語訳スコア
Ming-Fang Chang, John Lambert, Patsorn Sangkloy, Jagjeet Singh, Slawomir Bak, Andrew Hartnett, De Wang, Peter Carr, Simon Lucey, Deva Ramanan, et al Argoverse: 3d tracking and forecasting with rich maps. Ming-Fang Chang, John Lambert, Patsorn Sangkloy, Jagjeet Singh, Slawomir Bak, Andrew Hartnett, De Wang, Peter Carr, Simon Lucey, Deva Ramanan, et al Argoverse: 3d Tracking and forecasting with rich map。 0.87
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 8748–8757, 2019. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 8748–8757, 2019。 0.92
Zhiting Hu, Xuezhe Ma, Zhengzhong Liu, Eduard Hovy, and Eric Xing. Zhiting Hu、Xuezhe Ma、Zhengzhong Liu、Eduard Hovy、Eric Xing。 0.63
Harnessing deep neural networks with logic rules. 深い神経のハーネス 論理ルールを持つネットワーク。 0.78
arXiv preprint arXiv:1603.06318, 2016. arXiv preprint arXiv:1603.06318, 2016 0.79
Kuzman Ganchev, Joao Graça, Jennifer Gillenwater, and Ben Taskar. Kuzman Ganchev、Joao Graça、Jennifer Gillenwater、Ben Taskar。 0.70
Posterior regularization for structured latent variable models. 構造化潜在変数モデルに対する後続正則化 0.72
The Journal of Machine Learning Research, 11:2001–2049, 2010. The Journal of Machine Learning Research, 11:2001–2049, 2010 0.89
Jiuxiang Gu, Handong Zhao, Zhe Lin, Sheng Li, Jianfei Cai, and Mingyang Ling. Jiuxiang Gu, Handong Zhao, Zhe Lin, Sheng Li, Jianfei Cai, Mingyang Ling 0.66
Scene graph generation with external knowledge and image reconstruction. 外部知識と画像再構成を用いたシーングラフ生成 0.85
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 1969–1978, 2019. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 1969–1978, 2019 0.94
Lisa Ehrlinger and Wolfram Wöß. Lisa EhrlingerとWolfram Wöß。 0.75
Towards a definition of knowledge graphs. 知識グラフの定義に向けて。 0.82
SEMANTiCS (Posters, SEMAN TiCS (Posters) 0.81
Demos, SuCCESS), 48:1–4, 2016. Demos, SuCCESS, 48:1–4, 2016)。 0.74
Mohammadamin Mahmoudabadbozchelou , Marco Caggioni, Setareh Shahsavari, William H Hartt, Em Karniadakis, Safa Jamali, et al Data-driven physics-informed constitutive metamodeling of complex fluids: A multifidelity neural network (mfnn) framework. Mohammadamin Mahmoudabadbozchelou , Marco Caggioni, Setareh Shahsavari, William H Hartt, Em Karniadakis, Safa Jamali, et al Data-driven Physics-informed constitutive metamodeling of complex fluids: A multifidelity Neural Network (mfnn) framework。 0.91
Journal of Rheology, 65(2), 2021. Journal of Rheology, 65(2), 2021。 0.74
Yibo Yang and Paris Perdikaris. Yibo YangとParis Perdikaris。 0.79
Physics-informed deep generative models. 物理インフォームド深部生成モデル。 0.72
arXiv preprint arXiv プレプリント 0.83
arXiv:1812.03511, 2018. arXiv:1812.03511, 2018。 0.60
Andrew Y Ng, Daishi Harada, and Stuart Russell. Andrew Y Ng、原田大志、スチュアート・ラッセル。 0.60
Policy invariance under reward transformations: 報酬変換による政策不変性 0.77
Theory and application to reward shaping. 報酬形成の理論と応用 0.63
In Icml, volume 99, pages 278–287, 1999. Icml, volume 99, page 278-287, 1999。 0.83
Tero Karras, Samuli Laine, and Timo Aila. tero karras、samuli laine、timo aila。 0.43
A style-based generator architecture for generative adversarial networks. 生成逆ネットワークのためのスタイルベースジェネレータアーキテクチャ 0.73
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 4401–4410, 2019. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 4401–4410, 2019。 0.94
Andrew Brock, Jeff Donahue, and Karen Simonyan. アンドリュー・ブロック、ジェフ・ドナヒュー、カレン・シモンヤン。 0.52
Large scale gan training for high fidelity natural 高忠実性自然の大規模gan訓練 0.70
image synthesis. arXiv preprint arXiv:1809.11096, 2018. 画像合成。 arXiv preprint arXiv:1809.11096, 2018 0.74
Martin Simonovsky and Nikos Komodakis. マーティン・シノフスキーとニコス・コモダキス。 0.59
Graphvae: Towards generation of small graphs using variational autoencoders. graphvae: 変分オートエンコーダを用いた小さなグラフの生成に向けて。 0.66
In International Conference on Artificial Neural Networks, pages 412– 422. International Conference on Artificial Neural Networks, page 412–422。 0.79
Springer, 2018. 2018年、スプリンガー。 0.51
Amlan Kar, Aayush Prakash, Ming-Yu Liu, Eric Cameracci, Justin Yuan, Matt Rusiniak, David Acuna, Antonio Torralba, and Sanja Fidler. Amlan Kar、Aayush Prakash、Ming-Yu Liu、Eric Cameracci、Justin Yuan、Matt Rusiniak、David Acuna、Antonio Torralba、Sanja Fidler。 0.78
Meta-sim: Learning to generate synthetic datasets. Meta-sim: 合成データセットを生成する学習。 0.70
In Proceedings of the IEEE/CVF International Conference on Computer Vision, pages 4551–4560, 2019. In Proceedings of the IEEE/CVF International Conference on Computer Vision, page 4551–4560, 2019。 0.92
Jeevan Devaranjan, Amlan Kar, and Sanja Fidler. Jeevan Devaranjan、Amlan Kar、Sanja Fidler。 0.68
Meta-sim2: Unsupervised learning of scene In European Conference on Computer Vision, pages Meta-sim2: Unsupervised learning of scene in European Conference on Computer Vision, Page 0.97
structure for synthetic data generation. 合成データ生成のための構造 0.85
715–733. Springer, 2020. 715–733. スプリンガー、2020年。 0.65
Xiaojie Guo and Liang Zhao. Xiaojie GuoとLiang Zhao。 0.76
A systematic survey on deep generative models for graph generation. グラフ生成のための深部生成モデルに関する系統的調査 0.82
arXiv preprint arXiv:2007.06686, 2020. arXiv preprint arXiv:2007.06686, 2020 0.81
Wengong Jin, Regina Barzilay, and Tommi Jaakkola. Wengong Jin、Regina Barzilay、Tommi Jaakkola。 0.61
Junction tree variational autoencoder for molecular graph generation. 分子グラフ生成のためのジャンクションツリー変分オートエンコーダ 0.77
In International Conference on Machine Learning, pages 2323–2332. 国際機械学習会議において、2323-2332頁。 0.76
PMLR, 2018. 2018年、PMLR。 0.68
Wengong Jin, Regina Barzilay, and Tommi Jaakkola. Wengong Jin、Regina Barzilay、Tommi Jaakkola。 0.61
Hierarchical generation of molecular graphs using structural motifs. 構造モチーフを用いた分子グラフの階層的生成 0.84
In International Conference on Machine Learning, pages 4839–4848. 機械学習に関する国際会議』4839-4848頁。 0.72
PMLR, 2020. PMLR、2020年。 0.88
Wamiq Para, Paul Guerrero, Tom Kelly, Leonidas Guibas, and Peter Wonka. Wamiq Para、Paul Guerrero、Tom Kelly、Leonidas Guibas、Peter Wonka。 0.69
Generative layout modeling using constraint graphs. 生成的レイアウト 制約グラフを使ったモデリング 0.78
arXiv preprint arXiv:2011.13417, 2020. arXiv preprint arXiv:2011.13417, 2020 0.81
12 12 0.85
英語(論文から抽出)日本語訳スコア
Fei Deng, Zhuo Zhui, Donghun Lee, and Sungjin Ahn. Fei Deng, Zhuo Zhui, Donghun Lee, Sungjin Ahn 0.63
Generative scene graph networks. 生成シーングラフネットワーク。 0.71
International Conference on Learning Representations, 2021. 英語) international conference on learning representations, 2021 0.83
In Hanjun Dai, Yingtao Tian, Bo Dai, Steven Skiena, and Le Song. 院 Hanjun Dai、Yingtao Tian、Bo Dai、Steven Skiena、Le Song。 0.57
Syntax-directed variational autoencoder for structured data. 構文指向変分法 構造化データのオートエンコーダ 0.68
arXiv preprint arXiv:1802.08786, 2018. arXiv preprint arXiv:1802.08786, 2018 0.80
Jesse Engel, Matthew Hoffman, and Adam Roberts. ジェシー・エンゲル、マシュー・ホフマン、アダム・ロバーツ。 0.47
Latent constraints: Learning to generate 潜在制約: 生成する学習 0.68
conditionally from unconditional generative models. 非条件生成モデルからの条件付き 0.76
arXiv preprint arXiv:1711.05772, 2017. arXiv preprint arXiv:1711.05772, 2017 0.80
Rameen Abdal, Yipeng Qin, and Peter Wonka. Rameen Abdal、Yipeng Qin、Peter Wonka。 0.68
Image2stylegan++: How to edit the embedded images? Image2stylegan++: 埋め込みイメージの編集方法? 0.80
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 8296–8305, 2020. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 8296–8305, 2020。 0.92
Renqian Luo, Fei Tian, Tao Qin, Enhong Chen, and Tie-Yan Liu. Renqian Luo, Fei Tian, Tao Qin, Enhong Chen, Tie-Yan Liu 0.74
Neural architecture optimization. ニューラルネットワークの最適化。 0.42
arXiv preprint arXiv:1808.07233, 2018. arXiv preprint arXiv:1808.07233, 2018 0.79
Aayush Prakash, Shaad Boochoon, Mark Brophy, David Acuna, Eric Cameracci, Gavriel State, Omer Shapira, and Stan Birchfield. Aayush Prakash、Shaad Boochoon、Mark Brophy、David Acuna、Eric Cameracci、Gavriel State、Omer Shapira、Stan Birchfield。 0.73
Structured domain randomization: Bridging the reality gap by context-aware synthetic data. 構造化ドメインランダム化:コンテキスト対応合成データによる現実のギャップを埋める。 0.72
In 2019 International Conference on Robotics and Automation (ICRA), pages 7249–7255. 2019年、International Conference on Robotics and Automation (ICRA) 7249-7255頁。 0.82
IEEE, 2019. 2019年、IEEE。 0.67
Abhijit Kundu, Yin Li, and James M Rehg. Abhijit Kundu、Yin Li、James M Rehg。 0.67
3d-rcnn: Instance-level 3d object reconstruction via render-and-compare. 3d-rcnn: render-and-compareによるインスタンスレベルの3dオブジェクト再構築。 0.48
In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 3559–3568, 2018. Proceedings of the IEEE conference on computer vision and pattern recognition, page 3559–3568, 2018。 0.84
SM Eslami, Nicolas Heess, Theophane Weber, Yuval Tassa, David Szepesvari, Koray Kavukcuoglu, and Geoffrey E Hinton. SM Eslami、Nicolas Heess、Theophane Weber、Yuval Tassa、David Szepesvari、Koray Kavukcuoglu、Geoffrey E Hinton。 0.67
Attend, infer, repeat: Fast scene understanding with generative models. Attend, infer, repeat: 生成モデルによる高速なシーン理解。 0.84
arXiv preprint arXiv:1603.08575, 2016. arXiv preprint arXiv:1603.08575, 2016 0.80
Adam R Kosiorek, Hyunjik Kim, Ingmar Posner, and Yee Whye Teh. Adam R Kosiorek, Hyunjik Kim, Ingmar Posner, Yee Whye Teh 0.65
Sequential attend, infer, repeat: 連続的出席, 推測, 繰り返し 0.63
Generative modelling of moving objects. 動く物体の生成的モデリング。 0.80
arXiv preprint arXiv:1806.01794, 2018. arXiv preprint arXiv:1806.01794, 2018 0.79
Jiajun Wu, Joshua B Tenenbaum, and Pushmeet Kohli. jiajun wu、joshua b tenenbaum、pushmeet kohli。 0.52
Neural scene de-rendering. 神経シーンのデレンダリング。 0.54
In Proceedings of in Proceedings of ~ 0.79
the IEEE Conference on Computer Vision and Pattern Recognition, pages 699–707, 2017. IEEE Conference on Computer Vision and Pattern Recognition, pages 699–707, 2017 0.81
Wenhao Ding, Baiming Chen, Minjun Xu, and Ding Zhao. Wenhao Ding、Baiming Chen、Minjun Xu、Ding Zhao。 0.65
Learning to collide: An adaptive safetycritical scenarios generating method. 衝突への学習: 適応的安全クリティカルシナリオ生成方法。 0.85
In 2020 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 2243–2250. 2020年ieee/rsj international conference on intelligent robots and systems (iros)、2243-2250頁。 0.80
IEEE, 2020a. IEEE、2020a。 0.89
Wenhao Ding, Wenshuo Wang, and Ding Zhao. Wenhao Ding、Wenshuo Wang、Ding Zhao。 0.62
A new multi-vehicle trajectory generator to simulate シミュレートする新しい多車軌道生成装置 0.80
vehicle-to-vehicle encounters. arXiv preprint arXiv:1809.05680, 2018. 車両対車両衝突。 arXiv preprint arXiv:1809.05680, 2018 0.63
Wenhao Ding, Mengdi Xu, and Ding Zhao. Wenhao Ding、Mengdi Xu、Ding Zhao。 0.63
Cmts: A conditional multiple trajectory synthesizer for generating safety-critical driving scenarios. Cmts: 安全クリティカルな運転シナリオを生成するための条件付き多重軌道合成器。 0.71
In 2020 IEEE International Conference on Robotics and Automation (ICRA), pages 4314–4321. 2020年、IEEE International Conference on Robotics and Automation (ICRA)、4314–4321頁。 0.84
IEEE, 2020b. IEEE、2020年。 0.87
Hsueh-Ti Derek Liu, Michael Tao, Chun-Liang Li, Derek Nowrouzezahrai, and Alec Jacobson. Hsueh-Ti Derek Liu, Michael Tao, Chun-Liang Li, Derek Nowrouzahrai, Alec Jacobson 0.85
Beyond pixel norm-balls: Parametric adversaries using an analytically differentiable renderer. ピクセルノルムボールを超えて:解析的に微分可能なレンダラーを使用するパラメトリックの敵。 0.50
arXiv preprint arXiv:1808.02651, 2018. arXiv preprint arXiv:1808.02651, 2018 0.79
Xiaohui Zeng, Chenxi Liu, Yu-Siang Wang, Weichao Qiu, Lingxi Xie, Yu-Wing Tai, Chi-Keung Tang, and Alan L Yuille. Xiaohui Zeng, Chenxi Liu, Yu-Siang Wang, Weichao Qiu, Lingxi Xie, Yu-Wing Tai, Chi-Keung Tang, Alan L Yuille 0.90
Adversarial attacks beyond the image space. 画像空間を超えた敵攻撃。 0.74
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 4302–4311, 2019. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 4302–4311, 2019。 0.93
Michael A Alcorn, Qi Li, Zhitao Gong, Chengfei Wang, Long Mai, Wei-Shinn Ku, and Anh Nguyen. Michael A Alcorn, Qi Li, Zhitao Gong, Chengfei Wang, Long Mai, Wei-Shinn Ku, Anh Nguyen 0.77
Strike (with) a pose: Neural networks are easily fooled by strange poses of familiar objects. Strike (with) a pose: ニューラルネットワークは、よく知られたオブジェクトの奇妙なポーズに簡単に騙される。 0.68
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 4845–4854, 2019. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 4845–4854, 2019。 0.93
Chaowei Xiao, Dawei Yang, Bo Li, Jia Deng, and Mingyan Liu. Chaowei Xiao、Dawei Yang、Bo Li、Jia Deng、Mingyan Liu。 0.68
Meshadv: Adversarial meshes for visual recognition. Meshadv: 視覚認識のための対向メッシュ。 0.75
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 6898–6907, 2019. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 6898–6907, 2019。 0.93
13 13 0.85
英語(論文から抽出)日本語訳スコア
Lakshya Jain, Varun Chandrasekaran, Uyeong Jang, Wilson Wu, Andrew Lee, Andy Yan, Steven Chen, Somesh Jha, and Sanjit A Seshia. Lakshya Jain, Varun Chandrasekaran, Uyeong Jang, Wilson Wu, Andrew Lee, Andy Yan, Steven Chen, Somesh Jha, Sanjit A Seshia 0.76
Analyzing and improving neural networks by generating semantic counterexamples through differentiable rendering. 微分可能レンダリングによる意味的反例生成によるニューラルネットワークの解析と改善。 0.67
arXiv preprint arXiv:1910.00727, 2019. arXiv preprint arXiv:1910.00727, 2019 0.81
James Tu, Mengye Ren, Sivabalan Manivasagam, Ming Liang, Bin Yang, Richard Du, Frank Cheng, and Raquel Urtasun. James Tu, Mengye Ren, Sivabalan Manivasagam, Ming Liang, Bin Yang, Richard Du, Frank Cheng, Raquel Urtasun 0.72
Physically realizable adversarial examples for lidar object detection. lidarオブジェクト検出のための物理的に実現可能な敵の例。 0.57
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 13716–13725, 2020. The Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 13716–13725, 2020。 0.91
Mazen Abdelfattah, Kaiwen Yuan, Z Jane Wang, and Rabab Ward. Mazen Abdelfattah, Kaiwen Yuan, Z Jane Wang, Rabab Ward 0.63
Towards universal physical attacks 普遍的物理的攻撃に向けて 0.55
on cascaded camera-lidar 3d object detection models. カメラライダーの3Dオブジェクト検出モデルです 0.75
arXiv preprint arXiv:2101.10747, 2021. arXiv preprint arXiv:2101.10747, 2021 0.80
Jiachen Sun, Yulong Cao, Qi Alfred Chen, and Z Morley Mao. Jiachen Sun、Yulong Cao、Qi Alfred Chen、Z Morley Mao。 0.70
Towards robust lidar-based perception in autonomous driving: General black-box adversarial sensor attack and countermeasures. 自律運転におけるlidarに基づくロバストな認識に向けて:一般ブラックボックス逆センサ攻撃と対策 0.62
In 29th USENIX Security Symposium (USENIX Security 20), pages 877–894, 2020b. 第29回USENIXセキュリティシンポジウム (USENIX Security 20) では、877–894, 2020b が開催された。 0.62
14 14 0.85
                             ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。