このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200110となっている論文です。

PDF登録状況(公開日: 20200110)

TitleAuthorsAbstract論文公表日・翻訳日
# 技術倫理はもっと政治哲学を必要とする

Ethics of Technology needs more Political Philosophy ( http://arxiv.org/abs/2001.03511v1 )

ライセンス: Link先を確認
Johannes Himmelreich(参考訳) 自動運転車の倫理に関する議論は、一般的に倫理的問題に答える2つのアプローチ(道徳哲学と社会科学)に焦点を当てている。 この2つのアプローチはどちらも欠落していると私は主張する。 個人の道徳理論から答えを導き出すべきではないし、社会科学に完全な答えを期待すべきでもない。 これらのアプローチを補完するためには、政治哲学に目を向けるべきである。 私たちが直面する問題は、自分たちが価値を持つ理由を考慮に入れた個々の決定ではなく、一緒に行う集合的な決定です。 政治哲学は、合理的な多元主義、人的エージェンシー、正当性という3つの基本的な懸念を我々の概念ツールキットに追加する。 これら3つの懸念は、自動運転車の倫理に関する議論で見過ごされてきた。

The ongoing debate on the ethics of self-driving cars typically focuses on two approaches to answering ethical questions: moral philosophy and social science. I argue that these two approaches are both lacking. We should neither deduce answers from individual moral theories nor should we expect social science to give us complete answers. To supplement these approaches, we should turn to political philosophy. The issues we face are collective decisions that we make together rather than individual decisions we make in light of what we each have reason to value. Political philosophy adds three basic concerns to our conceptual toolkit: reasonable pluralism, human agency, and legitimacy. These three concerns have so far been largely overlooked in the debate on the ethics of self-driving cars.
翻訳日:2023-06-08 07:19:37 公開日:2020-01-10
# 政策指向エージェントに基づく組織犯罪への採用モデル

A Policy-oriented Agent-based Model of Recruitment into Organized Crime ( http://arxiv.org/abs/2001.03494v1 )

ライセンス: Link先を確認
Gian Maria Campedelli, Francesco Calderoni, Mario Paolucci, Tommaso Comunale, Daniele Vilone, Federico Cecconi, and Giulia Andrighetto(参考訳) 犯罪組織は、彼らの犯罪活動と事業を実行するために、地域や地域社会における彼らの存在を利用して新しい労働者を募集している。 個人を引き付ける能力は、これらの集団が定住する領域の権力と支配を維持するために不可欠である。 本研究では,パレルモ地区(シチリア)を模擬したエージェントベースモデル(ABM)の形式化,開発,分析を行い,個人を組織犯罪グループ(OCG)に採用する経路を理解することを目的とする。 分析対象地域の社会・経済・犯罪状況に関する実証データを用いて,このシナリオをシミュレートするために多層ネットワークアプローチを用いる。 最終目標として、OCGへの採用に対抗すべく、さまざまな政策を試す。 これらのシナリオは、予防と介入の2つの異なる次元に基づいている。 (i)第一・第二の社会化及び 二 法執行機関の戦略

Criminal organizations exploit their presence on territories and local communities to recruit new workforce in order to carry out their criminal activities and business. The ability to attract individuals is crucial for maintaining power and control over the territories in which these groups are settled. This study proposes the formalization, development and analysis of an agent-based model (ABM) that simulates a neighborhood of Palermo (Sicily) with the aim to understand the pathways that lead individuals to recruitment into organized crime groups (OCGs). Using empirical data on social, economic and criminal conditions of the area under analysis, we use a multi-layer network approach to simulate this scenario. As the final goal, we test different policies to counter recruitment into OCGs. These scenarios are based on two different dimensions of prevention and intervention: (i) primary and secondary socialization and (ii) law enforcement targeting strategies.
翻訳日:2023-06-08 07:19:24 公開日:2020-01-10
# テロリスト集団の潜在クラスタを見つけるための複雑なネットワークアプローチ

A Complex Networks Approach to Find Latent Clusters of Terrorist Groups ( http://arxiv.org/abs/2001.03367v1 )

ライセンス: Link先を確認
Gian Maria Campedelli, Iain Cruickshank, and Kathleen M. Carley(参考訳) テロ活動に参加する俳優や集団の極端な異質性を考えると、それらの特性を調査し評価することは、関連する情報を抽出し、その行動に関する知識を高めることが重要である。 本研究は,複雑なネットワークアプローチによる目標達成を目指す。 このアプローチにより、同様のテロ集団の潜伏クラスタを、その運用特性に関する情報を使って見つけることができる。 具体的には、テロ攻撃のオープンアクセスデータを用いて、テログループや、戦術、武器、標的、活動地域に関する関連情報を含むマルチパートネットワークを構築します。 本稿では,モデム重み付けにフォン・ノイマンエントロピー(Von Neumann entropy)を応用することにより,ガウエルの類似性係数のみを用いたクラスタ形成アルゴリズムを提案する。 この手法は,グループイデオロギーにのみ焦点をあてた,従来のGowerベースの手法とヒューリスティッククラスタリング手法と比較する。 比較分析は、エントロピーに基づくアプローチは、ベースラインのGowerベースの手法から自然に現れるデータ構造を確実に反映する傾向があることを示した。 さらに、テロ集団の行動的およびイデオロギー的特徴の観点から興味深い結果をもたらす。 さらに、イデオロギーに基づく手順は、既存のパターンを歪ませたり隠したりする傾向があることを示す。 主な統計結果のうち, 対立するイデオロギーに属する集団は, 共通の行動の共有が可能であり, イスラム教やジハード主義の集団は, 他の集団に対して独特の行動的特徴を持っていることが明らかとなった。 制限や潜在的な作業方向についても論じられ、動的エントロピーベースのフレームワークの概念が導入された。

Given the extreme heterogeneity of actors and groups participating in terrorist actions, investigating and assessing their characteristics can be important to extract relevant information and enhance the knowledge on their behaviors. The present work will seek to achieve this goal via a complex networks approach. This approach will allow finding latent clusters of similar terror groups using information on their operational characteristics. Specifically, using open access data of terrorist attacks occurred worldwide from 1997 to 2016, we build a multi-partite network that includes terrorist groups and related information on tactics, weapons, targets, active regions. We propose a novel algorithm for cluster formation that expands our earlier work that solely used Gower's coefficient of similarity via the application of Von Neumann entropy for mode-weighting. This novel approach is compared with our previous Gower-based method and a heuristic clustering technique that only focuses on groups' ideologies. The comparative analysis demonstrates that the entropy-based approach tends to reliably reflect the structure of the data that naturally emerges from the baseline Gower-based method. Additionally, it provides interesting results in terms of behavioral and ideological characteristics of terrorist groups. We furthermore show that the ideology-based procedure tends to distort or hide existing patterns. Among the main statistical results, our work reveals that groups belonging to opposite ideologies can share very common behaviors and that Islamist/jihadist groups hold peculiar behavioral characteristics with respect to the others. Limitations and potential work directions are also discussed, introducing the idea of a dynamic entropy-based framework.
翻訳日:2023-06-08 07:19:07 公開日:2020-01-10
# オブジェクトスタンプの生成

Generating Object Stamps ( http://arxiv.org/abs/2001.02595v2 )

ライセンス: Link先を確認
Youssef Alami Mejjati and Zejiang Shen and Michael Snower and Aaron Gokaslan and Oliver Wang and James Tompkin and Kwang In Kim(参考訳) GANアーキテクチャを用いて,様々な前景オブジェクトを生成し,背景画像に合成するアルゴリズムを提案する。 オブジェクトクラス、ユーザが提供する境界ボックス、背景イメージが与えられた後、まずマスクジェネレータを使用してオブジェクト形状を作成し、次にテクスチャジェネレータを使用して、テクスチャが背景と統合するようにマスクを埋めます。 これら2つの段階にオブジェクトを挿入する問題を分離することにより、提案した背景画像と一致する多様なオブジェクト生成の現実性を改善することができることを示す。 挑戦的なCOCOデータセットの結果,最先端のオブジェクト挿入手法と比較して,全体的な品質と多様性が向上した。

We present an algorithm to generate diverse foreground objects and composite them into background images using a GAN architecture. Given an object class, a user-provided bounding box, and a background image, we first use a mask generator to create an object shape, and then use a texture generator to fill the mask such that the texture integrates with the background. By separating the problem of object insertion into these two stages, we show that our model allows us to improve the realism of diverse object generation that also agrees with the provided background image. Our results on the challenging COCO dataset show improved overall quality and diversity compared to state-of-the-art object insertion approaches.
翻訳日:2023-01-16 09:37:12 公開日:2020-01-10
# ゴール距離勾配を用いた強化学習

Reinforcement Learning with Goal-Distance Gradient ( http://arxiv.org/abs/2001.00127v2 )

ライセンス: Link先を確認
Kai Jiang, XiaoLong Qin(参考訳) 強化学習は通常、エージェントを訓練するために環境のフィードバック報酬を使用する。 しかし、実際の環境における報酬は乏しく、一部の環境でも報酬が得られない。 現在の手法のほとんどは、スパース報酬や非リワード環境での優れたパフォーマンスを得るのが難しい。 形をした報酬は、少ない報酬タスクの解くのに有効であるが、特定の問題に限定されており、学習もまた局所的なオプティマに影響を受けやすい。 一般環境におけるスパース報酬の問題を解決するために,環境報酬に依存しないモデルフリー手法を提案する。 本手法では, 環境報酬の代替として, 状態間の遷移を最小限にし, 政策改善のための目標距離勾配を提案する。 また,本手法の特徴に基づくブリッジポイント計画手法を導入し,探索効率を向上し,より複雑な課題を解決する。 実験により, 複雑な環境下でのスパース報酬や局所最適問題に対して, 従来よりも優れた性能が得られた。

Reinforcement learning usually uses the feedback rewards of environmental to train agents. But the rewards in the actual environment are sparse, and even some environments will not rewards. Most of the current methods are difficult to get good performance in sparse reward or non-reward environments. Although using shaped rewards is effective when solving sparse reward tasks, it is limited to specific problems and learning is also susceptible to local optima. We propose a model-free method that does not rely on environmental rewards to solve the problem of sparse rewards in the general environment. Our method use the minimum number of transitions between states as the distance to replace the rewards of environmental, and proposes a goal-distance gradient to achieve policy improvement. We also introduce a bridge point planning method based on the characteristics of our method to improve exploration efficiency, thereby solving more complex tasks. Experiments show that our method performs better on sparse reward and local optimal problems in complex environments than previous work.
翻訳日:2023-01-16 09:12:10 公開日:2020-01-10
# 増分モノイド文法

Incremental Monoidal Grammars ( http://arxiv.org/abs/2001.02296v2 )

ライセンス: Link先を確認
Dan Shiebler, Alexis Toumi, Mehrnoosh Sadrzadeh(参考訳) この研究では、形式文法を自由モノイド圏(free monoidal category)の観点で定義し、形式文法の圏からオートマトンの圏への関手を定義する。 ブールから任意の半環への一般化により、重み付き形式文法と重み付きオートマトンへ構成を拡張する。 これにより、自然言語のカテゴリー的視点と確率的言語モデルの標準的な機械学習概念を結びつけることができる。

In this work we define formal grammars in terms of free monoidal categories, along with a functor from the category of formal grammars to the category of automata. Generalising from the Booleans to arbitrary semirings, we extend our construction to weighted formal grammars and weighted automata. This allows us to link the categorical viewpoint on natural language to the standard machine learning notion of probabilistic language model.
翻訳日:2023-01-16 04:40:22 公開日:2020-01-10
# 正規化フローによる生成スピングラスの自己教師付き学習

Self-Supervised Learning of Generative Spin-Glasses with Normalizing Flows ( http://arxiv.org/abs/2001.00585v2 )

ライセンス: Link先を確認
Gavin S. Hartnett, Masoud Mohseni(参考訳) スピングラス(英: spin-glasss)は、統計物理学と計算機科学のインターフェイスにおいて多体系の複雑な挙動を捉えることのできる普遍的なモデルである。 このような複雑な系の基底構造と力学の計算は、状態空間の組合せ爆発のため、非常に困難である。 本稿では,一般化離散問題におけるモデル相関に対する正規化フローを伴う深い生成的連続スピングラス分布を開発する。 スピングラス自体からデータを自動的に生成することにより,自己教師あり学習パラダイムを用いる。 スピングラス相の重要な物理的および計算的性質は,多モード定常状態分布や準安定状態間の位相構造を含む,うまく学習できることを実証する。 注目すべきは、学習そのものがトレーニングされた正規化フローの層内のスピングラス相転移に対応することである。 逆正規化フローは、典型的な可逆的正規化群手法とは大きく異なる可逆的多スケール粗粒化演算を実行するように学習する。

Spin-glasses are universal models that can capture complex behavior of many-body systems at the interface of statistical physics and computer science including discrete optimization, inference in graphical models, and automated reasoning. Computing the underlying structure and dynamics of such complex systems is extremely difficult due to the combinatorial explosion of their state space. Here, we develop deep generative continuous spin-glass distributions with normalizing flows to model correlations in generic discrete problems. We use a self-supervised learning paradigm by automatically generating the data from the spin-glass itself. We demonstrate that key physical and computational properties of the spin-glass phase can be successfully learned, including multi-modal steady-state distributions and topological structures among metastable states. Remarkably, we observe that the learning itself corresponds to a spin-glass phase transition within the layers of the trained normalizing flows. The inverse normalizing flows learns to perform reversible multi-scale coarse-graining operations which are very different from the typical irreversible renormalization group techniques.
翻訳日:2023-01-16 03:45:25 公開日:2020-01-10
# スピングラス系の確率密度理論

A Probability Density Theory for Spin-Glass Systems ( http://arxiv.org/abs/2001.00927v2 )

ライセンス: Link先を確認
Gavin S. Hartnett, Masoud Mohseni(参考訳) スピングラスシステムは、統計物理学や計算機科学における多体現象を表す普遍的なモデルである。 np-ハードコンビネート最適化問題の高品質解はスピングラス系の低エネルギー状態に符号化できる。 一般に、そのようなモデルの物理的および計算的性質の評価は、相転移の近傍での臨界的な減速のために難しい。 理想的には、これらの複雑なシステムの低エネルギー特性を特徴づけるために、ディープラーニングの最近の進歩を利用することができる。 残念ながら、最も有望な機械学習アプローチの多くは連続変数上の分布に対してのみ有効であり、したがって離散スピングラスモデルに直接適用することはできない。 この目的のために、任意の次元、相互作用、局所場を持つスピングラス系の連続確率密度理論を開発する。 本稿では, スピングラスの物理特性と計算特性を, クエンチド障害平均化を必要とせずに, どのように幾何学的に符号化するかを示す。 提案手法は平均場理論を超越し,臨界温度より温度が低くなるにつれて対流から非凸エネルギー環境への遷移を同定する。 我々は、シェリントン・カークパトリック(SK)モデル、ランダムアード・H{o}s-R\enyiグラフ上のスピン、ランダム制限ボルツマンマシンなど、多くのスピングラスモデルに適用する。

Spin-glass systems are universal models for representing many-body phenomena in statistical physics and computer science. High quality solutions of NP-hard combinatorial optimization problems can be encoded into low energy states of spin-glass systems. In general, evaluating the relevant physical and computational properties of such models is difficult due to critical slowing down near a phase transition. Ideally, one could use recent advances in deep learning for characterizing the low-energy properties of these complex systems. Unfortunately, many of the most promising machine learning approaches are only valid for distributions over continuous variables and thus cannot be directly applied to discrete spin-glass models. To this end, we develop a continuous probability density theory for spin-glass systems with arbitrary dimensions, interactions, and local fields. We show how our formulation geometrically encodes key physical and computational properties of the spin-glass in an instance-wise fashion without the need for quenched disorder averaging. We show that our approach is beyond the mean-field theory and identify a transition from a convex to non-convex energy landscape as the temperature is lowered past a critical temperature. We apply our formalism to a number of spin-glass models including the Sherrington-Kirkpatrick (SK) model, spins on random Erd\H{o}s-R\'enyi graphs, and random restricted Boltzmann machines.
翻訳日:2023-01-14 17:35:55 公開日:2020-01-10
# 大規模マルチエージェント強化学習のための表現値関数アプローチ

Represented Value Function Approach for Large Scale Multi Agent Reinforcement Learning ( http://arxiv.org/abs/2001.01096v2 )

ライセンス: Link先を確認
Weiya Ren(参考訳) 本稿では,大規模マルチエージェント強化学習の問題点について考察する。 まず,エージェント間の相互作用の複雑さを低減するために,ペア値関数の表現問題を考察した。 第二に、近似値関数の自明な項が有界であることを保証するために、l2-normのトリックを採用する。 第3に, バトルゲーム実験の結果から, 提案手法の有効性が示された。

In this paper, we consider the problem of large scale multi agent reinforcement learning. Firstly, we studied the representation problem of the pairwise value function to reduce the complexity of the interactions among agents. Secondly, we adopt a l2-norm trick to ensure the trivial term of the approximated value function is bounded. Thirdly, experimental results on battle game demonstrate the effectiveness of the proposed approach.
翻訳日:2023-01-14 12:38:26 公開日:2020-01-10
# アーキテクチャ的特徴から畳み込みニューラルネットワークの精度を推定する

Inferring Convolutional Neural Networks' accuracies from their architectural characterizations ( http://arxiv.org/abs/2001.02160v2 )

ライセンス: Link先を確認
Duc Hoang (1), Jesse Hamer (2), Gabriel N. Perdue (3), Steven R. Young (4), Jonathan Miller (5), Anushree Ghosh (5) ((1) Rhodes College, (2) The University of Iowa, (3) Fermi National Accelerator Laboratory, (4) Oak Ridge National Laboratory, (5) Universidad T\'ecnica Federico Santa Mar\'ia)(参考訳) 畳み込みニューラルネットワーク(cnns)は、粒子イメージング検出器を含む多くの領域の科学データを分析することに強い期待を示している。 しかし、特定のアプリケーションや異なるデータセットに対して適切なネットワークアーキテクチャ(深さ、カーネル形状、アクティベーション関数など)を選択するという課題はまだよく分かっていない。 本稿では,CNNアーキテクチャとCNNアーキテクチャの関係について,学習時間前に異なるCNNアーキテクチャの比較に有用な体系言語を提案する。 我々は、CNNのアーキテクチャを異なる属性で特徴づけ、その特性が2つの特定のコンピュータビジョンに基づく物理問題(フェルミ国立加速器研究所のMINERvA実験における事象頂点探索とハドロン多重度分類)におけるネットワーク性能の予測可能であることを示す。 そこで我々は,Multi-node Evolutionary Neural Networks for Deep Learning (MENNDL)と呼ばれるモデル選択アルゴリズムの出力である物理問題に対する最適化ネットワークアーキテクチャから,いくつかのアーキテクチャ特性を抽出した。 我々は機械学習モデルを用いて、トレーニング前にネットワークが一定のしきい値精度よりも優れた性能を発揮できるかどうかを予測する。 モデルはランダムな推測よりも16-20%よい。 さらに,ネットワークの集団に対する精度の回帰において,通常の最小二乗モデルに対して0.966の判定係数が得られた。

Convolutional Neural Networks (CNNs) have shown strong promise for analyzing scientific data from many domains including particle imaging detectors. However, the challenge of choosing the appropriate network architecture (depth, kernel shapes, activation functions, etc.) for specific applications and different data sets is still poorly understood. In this paper, we study the relationships between a CNN's architecture and its performance by proposing a systematic language that is useful for comparison between different CNN's architectures before training time. We characterize CNN's architecture by different attributes, and demonstrate that the attributes can be predictive of the networks' performance in two specific computer vision-based physics problems -- event vertex finding and hadron multiplicity classification in the MINERvA experiment at Fermi National Accelerator Laboratory. In doing so, we extract several architectural attributes from optimized networks' architecture for the physics problems, which are outputs of a model selection algorithm called Multi-node Evolutionary Neural Networks for Deep Learning (MENNDL). We use machine learning models to predict whether a network can perform better than a certain threshold accuracy before training. The models perform 16-20% better than random guessing. Additionally, we found an coefficient of determination of 0.966 for an Ordinary Least Squares model in a regression on accuracy over a large population of networks.
翻訳日:2023-01-13 20:34:54 公開日:2020-01-10
# 時間差学習の分散化の再検討

Reanalysis of Variance Reduced Temporal Difference Learning ( http://arxiv.org/abs/2001.01898v2 )

ライセンス: Link先を確認
Tengyu Xu, Zhe Wang, Yi Zhou, Yingbin Liang(参考訳) 時間差(TD)学習は、強化学習における政策評価の一般的なアルゴリズムであるが、バニラTDは本質的に最適化のばらつきに悩まされる可能性がある。 Korda and La (2015) が提案した分散還元型TD (VRTD) アルゴリズムは, マルコフサンプルを用いたオンラインTD学習に直接分散還元法を適用した。 本稿では,Korda と La (2015) における VRTD の解析における技術的誤りを最初に指摘し,その非漸近収束と分散低減性能の数学的に固形解析を行う。 我々は,VRTDが線形収束速度でTDの固定点解の近傍に収束することが保証されていることを示す。 さらに、バニラTDと比較して分散低減のバッチサイズによって、分散誤差(i.d.\とマルコフサンプリングの両方)とVRTDのバイアス誤差(マルコフサンプリング)が著しく減少する。 結果として、与えられた正確な解がマルコフサンプリングの下でのTDよりも優れ、かつ十分小さな条件数でサンプリングされたTDよりも優れた、VRTDの全体的な計算複雑性が得られる。

Temporal difference (TD) learning is a popular algorithm for policy evaluation in reinforcement learning, but the vanilla TD can substantially suffer from the inherent optimization variance. A variance reduced TD (VRTD) algorithm was proposed by Korda and La (2015), which applies the variance reduction technique directly to the online TD learning with Markovian samples. In this work, we first point out the technical errors in the analysis of VRTD in Korda and La (2015), and then provide a mathematically solid analysis of the non-asymptotic convergence of VRTD and its variance reduction performance. We show that VRTD is guaranteed to converge to a neighborhood of the fixed-point solution of TD at a linear convergence rate. Furthermore, the variance error (for both i.i.d.\ and Markovian sampling) and the bias error (for Markovian sampling) of VRTD are significantly reduced by the batch size of variance reduction in comparison to those of vanilla TD. As a result, the overall computational complexity of VRTD to attain a given accurate solution outperforms that of TD under Markov sampling and outperforms that of TD under i.i.d.\ sampling for a sufficiently small conditional number.
翻訳日:2023-01-13 20:18:13 公開日:2020-01-10
# 炭化ケイ素中のシリコン空洞中心からのスピン制御による識別不能光子の生成

Spin-controlled generation of indistinguishable and distinguishable photons from silicon vacancy centres in silicon carbide ( http://arxiv.org/abs/2001.02455v2 )

ライセンス: Link先を確認
Naoya Morioka, Charles Babin, Roland Nagy, Izel Gediz, Erik Hesselmeier, Di Liu, Matthew Joliffe, Matthias Niethammer, Durga Dasari, Vadim Vorobyov, Roman Kolesov, Rainer St\"ohr, Jawad Ul-Hassan, Nguyen Tien Son, Takeshi Ohshima, P\'eter Udvarhelyi, Gerg\H{o} Thiering, Adam Gali, J\"org Wrachtrup, Florian Kaiser(参考訳) 分離不可能な光子生成とスピンベースの量子情報処理を組み合わせた量子システムは、リモート量子アプリケーションやネットワークに必須である。 しかし、スケーラブルなプラットフォームで適切なシステムを特定することは依然として課題である。 本研究では,炭化ケイ素中のシリコン空白中心を調査し,コヒーレントなスピン操作による識別不能光子の放出制御を示す。 超安定なゼロフォノン線光遷移から強い非共鳴励起と光子を集めることで、香港-奥羽-マンデル型実験では90%に近い2光子干渉コントラストを示す。 さらに, 連続発光光子の色と不明瞭さを制御し, スピン光子の親密な関係を生かした。 本研究は, このシステムのスピンフォノン光子物理の深い知見を提供し, 測定に基づく絡み合い分布とフォトニッククラスター状態生成のための産業対応型炭化ケイ素プラットフォームの可能性を明らかにした。 最近実証された個々の核スピンに基づく量子レジスタへの追加結合により、エラー修正や絡み合いの浄化といった高レベルなネットワーク関連量子情報処理が可能になる。

Quantum systems combining indistinguishable photon generation and spin-based quantum information processing are essential for remote quantum applications and networking. However, identification of suitable systems in scalable platforms remains a challenge. Here, we investigate the silicon vacancy centre in silicon carbide and demonstrate controlled emission of indistinguishable and distinguishable photons via coherent spin manipulation. Using strong off-resonant excitation and collecting photons from the ultra-stable zero-phonon line optical transitions, we show a two-photon interference contrast close to 90% in Hong-Ou-Mandel type experiments. Further, we exploit the system's intimate spin-photon relation to spin-control the colour and indistinguishability of consecutively emitted photons. Our results provide a deep insight into the system's spin-phonon-photon physics and underline the potential of the industrially compatible silicon carbide platform for measurement-based entanglement distribution and photonic cluster state generation. Additional coupling to quantum registers based on recently demonstrated coupled individual nuclear spins would further allow for high-level network-relevant quantum information processing, such as error correction and entanglement purification.
翻訳日:2023-01-13 12:37:48 公開日:2020-01-10
# 顔認識訓練データへの包含が顔識別に与える影響の検討

Investigating the Impact of Inclusion in Face Recognition Training Data on Individual Face Identification ( http://arxiv.org/abs/2001.03071v2 )

ライセンス: Link先を確認
Chris Dulhanty, Alexander Wong(参考訳) 現代の顔認識システムは、数十万の特定の個人の顔の画像を含むデータセットを活用して、深い畳み込みニューラルネットワークを訓練し、任意の個人の顔と自身のアイデンティティのベクトル表現をマッピングする埋め込み空間を学ぶ。 顔認証(1:1)における顔認識システムの性能と顔識別(1:N)タスクは、埋め込み空間が同一性間で識別する能力に直接関連している。 近年、MS-Celeb-1MやMegaFaceのような大規模な顔認識トレーニングデータセットのソースとプライバシに関する重要な調査が行われている。 しかし、個人がトレーニングデータに含まれることが、派生したシステムの認識能力に与える影響は、これまで研究されていない。 本研究では,現在最先端のオープンソース顔認識システムであるArcFaceを,100万枚以上の妨害画像を用いた大規模顔識別実験で評価する。 モデルのトレーニングデータに含まれている個人に対して、ランク1の顔を識別する精度は79.71%であり、存在しない人では75.73%である。 この微妙な精度の違いは、ディープラーニングを用いた顔認識システムが、トレーニング対象の個人にとってよりうまく機能していることを示しており、主要なオープンソース顔認識トレーニングデータセットが、収集中に個人からインフォームドコンセントを受け取らない場合、深刻なプライバシー上の意味がある。

Modern face recognition systems leverage datasets containing images of hundreds of thousands of specific individuals' faces to train deep convolutional neural networks to learn an embedding space that maps an arbitrary individual's face to a vector representation of their identity. The performance of a face recognition system in face verification (1:1) and face identification (1:N) tasks is directly related to the ability of an embedding space to discriminate between identities. Recently, there has been significant public scrutiny into the source and privacy implications of large-scale face recognition training datasets such as MS-Celeb-1M and MegaFace, as many people are uncomfortable with their face being used to train dual-use technologies that can enable mass surveillance. However, the impact of an individual's inclusion in training data on a derived system's ability to recognize them has not previously been studied. In this work, we audit ArcFace, a state-of-the-art, open source face recognition system, in a large-scale face identification experiment with more than one million distractor images. We find a Rank-1 face identification accuracy of 79.71% for individuals present in the model's training data and an accuracy of 75.73% for those not present. This modest difference in accuracy demonstrates that face recognition systems using deep learning work better for individuals they are trained on, which has serious privacy implications when one considers all major open source face recognition training datasets do not obtain informed consent from individuals during their collection.
翻訳日:2023-01-13 05:15:19 公開日:2020-01-10
# 超対称アルゴリズムによる全実スペクトルを持つ非エルミートハミルトニアンの構成について

On the construction of non-Hermitian Hamiltonians with all-real spectra through supersymmetric algorithms ( http://arxiv.org/abs/2001.02794v2 )

ライセンス: Link先を確認
Kevin Zelaya, Sara Cruz y Cruz, and Oscar Rosas-Ortiz(参考訳) 2つの異なる量子系のエネルギースペクトルは超対称アルゴリズムによってペアリングされる。 システムの1つはエルミート型であり、もう1つは複素値ポテンシャルによって特徴づけられ、どちらもスペクトル内の実固有値のみを持つ。 これらの系を連結する超ポテンシャルは複素数値化され、エルマコフ方程式の解によってパラメータ化され、非線形形式または適切に選択された複素数値関数の対数微分として表される。 非エルミート系はパリティ時間対称または非パリティ時間対称に構成できる。

The energy spectra of two different quantum systems are paired through supersymmetric algorithms. One of the systems is Hermitian and the other is characterized by a complex-valued potential, both of them with only real eigenvalues in their spectrum. The superpotential that links these systems is complex-valued, parameterized by the solutions of the Ermakov equation, and may be expressed either in nonlinear form or as the logarithmic derivative of a properly chosen complex-valued function. The non-Hermitian systems can be constructed to be either parity-time-symmetric or non-parity-time-symmetric.
翻訳日:2023-01-13 05:05:30 公開日:2020-01-10
# 人間と機械ビジョンのための符号化:スケーラブルな画像符号化アプローチ

Towards Coding for Human and Machine Vision: A Scalable Image Coding Approach ( http://arxiv.org/abs/2001.02915v2 )

ライセンス: Link先を確認
Yueyu Hu, Shuai Yang, Wenhan Yang, Ling-Yu Duan, Jiaying Liu(参考訳) 過去数十年間、ビッグデータ時代における画像とビデオのコーディング技術の急速な発展を目撃してきた。 しかし、信号フィデリティ駆動のコーディングパイプライン設計は、既存の画像/ビデオコーディングフレームワークがマシンと人間の両方のビジョンのニーズを満たす能力を制限する。 本稿では,機械ビジョンと人間の知覚タスクを協調的に支援するために,圧縮モデルと生成モデルの両方を活用する新しい画像符号化フレームワークを提案する。 入力画像が与えられた後、まず特徴解析を適用し、次に生成モデルを用いて特徴と追加の参照画素による画像再構成を行い、この作業でコンパクトなエッジマップを抽出して両視覚をスケーラブルに接続する。 コンパクトエッジマップは機械ビジョンタスクの基本層として機能し、参照画素は人間の視覚に対する信号忠実性を保証するための拡張層として機能する。 高度な生成モデルを導入することで、コンパクトな特徴表現と参照画素から画像を再構成するフレキシブルネットワークを訓練する。 実験の結果,人間の視覚的品質と顔のランドマーク検出の両方において,我々の枠組みが優れていることが示され,MPEG VCM(Video Coding for Machine)の標準化努力の新たな証拠となる。

The past decades have witnessed the rapid development of image and video coding techniques in the era of big data. However, the signal fidelity-driven coding pipeline design limits the capability of the existing image/video coding frameworks to fulfill the needs of both machine and human vision. In this paper, we come up with a novel image coding framework by leveraging both the compressive and the generative models, to support machine vision and human perception tasks jointly. Given an input image, the feature analysis is first applied, and then the generative model is employed to perform image reconstruction with features and additional reference pixels, in which compact edge maps are extracted in this work to connect both kinds of vision in a scalable way. The compact edge map serves as the basic layer for machine vision tasks, and the reference pixels act as a sort of enhanced layer to guarantee signal fidelity for human vision. By introducing advanced generative models, we train a flexible network to reconstruct images from compact feature representations and the reference pixels. Experimental results demonstrate the superiority of our framework in both human visual quality and facial landmark detection, which provide useful evidence on the emerging standardization efforts on MPEG VCM (Video Coding for Machine).
翻訳日:2023-01-13 04:56:28 公開日:2020-01-10
# エンドツーエンドデータ分析のための多層最適化

Multi-layer Optimizations for End-to-End Data Analytics ( http://arxiv.org/abs/2001.03541v1 )

ライセンス: Link先を確認
Amir Shaikhha, Maximilian Schleich, Alexandru Ghita, Dan Olteanu(参考訳) マルチリレーショナルデータよりも機械学習モデルを訓練する問題を考える。 メインストリームのアプローチは、まず、入力データベース上の特徴抽出クエリを使用してトレーニングデータセットを構築し、次に選択した統計ソフトウェアパッケージを使用してモデルをトレーニングする。 本稿では,代替手法を実現するフレームワークである反復的機能集約クエリ(ifaq)を提案する。 ifaqは、機能抽出クエリと学習タスクを、jupyterノートブックで一般的に使用されているpythonのサブセットを取り込み、機械学習アプリケーションの迅速なプロトタイピングを行うifaqのドメイン固有言語で与えられる1つのプログラムとして扱う。 このプログラムは、代数変換、ループ変換、スキーマの特殊化、データレイアウトの最適化、そして最後に、与えられたワークロードとデータに特化した効率的な低レベルのC++コードにコンパイルされる。 IFAQのScala実装は、複数のリレーショナルデータセット上の線形回帰木モデルと回帰木モデルにおいて、mlpack、Scikit、TensorFlowよりも数桁優れていることを示す。

We consider the problem of training machine learning models over multi-relational data. The mainstream approach is to first construct the training dataset using a feature extraction query over input database and then use a statistical software package of choice to train the model. In this paper we introduce Iterative Functional Aggregate Queries (IFAQ), a framework that realizes an alternative approach. IFAQ treats the feature extraction query and the learning task as one program given in the IFAQ's domain-specific language, which captures a subset of Python commonly used in Jupyter notebooks for rapid prototyping of machine learning applications. The program is subject to several layers of IFAQ optimizations, such as algebraic transformations, loop transformations, schema specialization, data layout optimizations, and finally compilation into efficient low-level C++ code specialized for the given workload and data. We show that a Scala implementation of IFAQ can outperform mlpack, Scikit, and TensorFlow by several orders of magnitude for linear regression and regression tree models over several relational datasets.
翻訳日:2023-01-12 23:56:06 公開日:2020-01-10
# 多変量時系列を用いた畳み込みニューラルネットワークによる株価予測

Stock Price Prediction Using Convolutional Neural Networks on a Multivariate Timeseries ( http://arxiv.org/abs/2001.09769v1 )

ライセンス: Link先を確認
Sidra Mehtab and Jaydip Sen(参考訳) 株価の将来の動きを予測することは、多くの研究課題となっている。 本研究では,機械学習とディープラーニングを用いた株価予測のハイブリッド手法を提案する。 我々は、2015年1月から2019年12月までの4年間にわたって、インド国立証券取引所のNIFTY50指数を選定する。 この期間のNIFTYデータに基づいて、機械学習アプローチを使用して様々な予測モデルを構築し、そのモデルを使用して、2019年のNIFTY 50のクローズバリューを1週間の予測地平線で予測する。 NIFTY指数運動パターンの予測には,多くの分類法を用い,NIFTY指数の実際の閉値の予測には様々な回帰モデルを構築した。 そして,畳み込みニューラルネットワークを用いた深層学習に基づく回帰モデルを構築することにより,モデルの予測能力を向上する。 CNNモデルはパラメータに対して微調整され、検証損失は反復回数の増加とともに安定化し、トレーニングと検証の精度が収束する。 予測に用いる変数の数,モデル全体のサブモデル数,モデルのトレーニングのための入力データのサイズの3つのアプローチを用いて,cnnのパワーを活用して,将来のニッチ指標値を予測する。 すべての分類モデルと回帰モデルについて、様々な指標について広範な結果を示す。 その結果,cnnを用いた多変量予測モデルが最も効果的で正確な指標値の変動を予測できることがわかった。

Prediction of future movement of stock prices has been a subject matter of many research work. In this work, we propose a hybrid approach for stock price prediction using machine learning and deep learning-based methods. We select the NIFTY 50 index values of the National Stock Exchange of India, over a period of four years, from January 2015 till December 2019. Based on the NIFTY data during the said period, we build various predictive models using machine learning approaches, and then use those models to predict the Close value of NIFTY 50 for the year 2019, with a forecast horizon of one week. For predicting the NIFTY index movement patterns, we use a number of classification methods, while for forecasting the actual Close values of NIFTY index, various regression models are built. We, then, augment our predictive power of the models by building a deep learning-based regression model using Convolutional Neural Network with a walk-forward validation. The CNN model is fine-tuned for its parameters so that the validation loss stabilizes with increasing number of iterations, and the training and validation accuracies converge. We exploit the power of CNN in forecasting the future NIFTY index values using three approaches which differ in number of variables used in forecasting, number of sub-models used in the overall models and, size of the input data for training the models. Extensive results are presented on various metrics for all classification and regression models. The results clearly indicate that CNN-based multivariate forecasting model is the most effective and accurate in predicting the movement of NIFTY index values with a weekly forecast horizon.
翻訳日:2023-01-12 23:55:26 公開日:2020-01-10
# スピン鎖における多粒子交絡転移

Multipartite entanglement transfer in spin chains ( http://arxiv.org/abs/2001.03529v1 )

ライセンス: Link先を確認
Tony J. G. Apollaro, Claudio Sanavio, Wayne Jordan Chetcuti, Salvatore Lorenzo(参考訳) 近距離 xx 型相互作用を持つスピン1/2 チェーン上での真の多成分絡み合いの移動について検討する。 我々は、量子ワイヤの各端でスピンのブロックが弱結合している摂動状態に注目し、それぞれマルチビット送信機と受信機の役割を具現化している。 3つの励起が鎖の反対端に伝達されると同時に、高品質なマルチパーティタイトエンタングルメント転送が達成される。 さらに, 有限コンカレンスと三分極負性の両方がより短い時間で達成され, GHZ-蒸留プロトコルが実現可能であることがわかった。 最後に, 本プロトコルの非摂動結合性や量子線長の増加に関して, 頑健性について検討する。

We investigate the transfer of genuine multipartite entanglement across a spin-1/2 chain with nearest-neighbor XX-type interaction. We focus on the perturbative regime, where a block of spins is weakly coupled at each edge of a quantum wire, embodying the role of a multiqubit sender and receiver, respectively. We find that high-quality multipartite entanglement transfer is achieved at the same time that three excitations are transferred to the opposite edge of the chain. Moreover, we find that both a finite concurrence and tripartite negativity is attained at much shorter time, making GHZ-distillation protocols feasible. Finally, we investigate the robustness of our protocol with respect to non-perturbative couplings and increasing lengths of the quantum wire.
翻訳日:2023-01-12 23:49:00 公開日:2020-01-10
# 高速線形レートLDPC量子符号のシングルショット復号

Single-Shot Decoding of Linear Rate LDPC Quantum Codes with High Performance ( http://arxiv.org/abs/2001.03568v1 )

ライセンス: Link先を確認
Nikolas P. Breuckmann and Vivien Londe(参考訳) 低密度パリティチェック (ldpc) 量子符号の線形符号化速度, 多項式スケーリング距離, 効率的な復号化方式を構築, 解析した。 コード族は、グスとルボツキーが最初に示唆したように、閉四次元双曲多様体のテッセルレーションに基づいている。 この研究の主な貢献は、コクセター群の有限表現による適当な多様体の構築であり、ガロア体上の線型表現と位相被覆である。 エンコードレート~k/nは~13/72 = 0.180である。 . そして、境界は構築する例に厳密であることを示します。 数値シミュレーションは、計算複雑性の低い並列化可能な復号化スキームが高性能になることを示す。 これらの復号方式はシンドロームノイズに対処できるため、パリティチェックの測定を復号するために繰り返す必要はない。 本研究は,一発性雑音を伴う現象学的ノイズモデルにおける約4%の閾値と一致している。

We construct and analyze a family of low-density parity check (LDPC) quantum codes with a linear encoding rate, polynomial scaling distance and efficient decoding schemes. The code family is based on tessellations of closed, four-dimensional, hyperbolic manifolds, as first suggested by Guth and Lubotzky. The main contribution of this work is the construction of suitable manifolds via finite presentations of Coxeter groups, their linear representations over Galois fields and topological coverings. We establish a lower bound on the encoding rate~k/n of~13/72 = 0.180... and we show that the bound is tight for the examples that we construct. Numerical simulations give evidence that parallelizable decoding schemes of low computational complexity suffice to obtain high performance. These decoding schemes can deal with syndrome noise, so that parity check measurements do not have to be repeated to decode. Our data is consistent with a threshold of around 4% in the phenomenological noise model with syndrome noise in the single-shot regime.
翻訳日:2023-01-12 23:48:47 公開日:2020-01-10
# 改良型変形型指数型ポテンシャル(IDEP)の熱力学特性

Thermodynamic Properties of Improved Deformed Exponential-type Potential (IDEP) for some Diatomic Molecules ( http://arxiv.org/abs/2001.04799v1 )

ライセンス: Link先を確認
Uduakobong S. Okorie, Akpan N. Ikot, Ephraim O. Chukwuocha(参考訳) 非相対論的量子力学の枠組みの中で、改良された変形指数型ポテンシャルモデルのロ-振動エネルギースペクトルはグリーン・アルドリッチ近似法と適切な座標変換を用いて得られる。 エネルギースペクトルの助けを借りて、振動分割関数およびその他の熱力学関数の解析式は、ポアソン和式を用いて導出される。 これらの熱力学的機能は、温度と上界振動量子数によって異なるため、水素二量体、一酸化炭素、窒素二量体、水素化リチウム二原子分子の電子状態について研究される。

Within the framework of non-relativistic quantum mechanics, the ro-vibrational energy spectra of the improved deformed exponential-type potential model are obtained using the Greene-Aldrich approximation scheme and an appropriate coordinate transformation. With the help of the energy spectra, analytical expressions of the vibrational partition function and other thermodynamic functions are derived by employing the Poisson summation formula. These thermodynamic functions are studied for the electronic states of hydrogen dimer, carbon monoxide, nitrogen dimer and lithium hydride diatomic molecules, as they vary with temperature and upper bound vibration quantum number.
翻訳日:2023-01-12 23:48:31 公開日:2020-01-10
# 非文脈局所実数モデルを用いたベル理論の不完全性

Incompleteness in the Bell Theorem Using Non-contextual Local Realistic Model ( http://arxiv.org/abs/2001.07507v1 )

ライセンス: Link先を確認
Koji Nagata, Tadao Nakamura and Han Geurdes(参考訳) 本稿では, n-dichotomic observables がサイトごとに測定される場合, マルチパーティイト状態によって記述されるシステムのベル実験について考察する。 n が 2 であれば、2 つの集合ベルの実験を考える。 n が 3 ならば、三点ベル実験を考える。 2セットモデル(英: Twosetting model)は、2セットベル実験で与えられる相関関数の値に対する明示的な局所現実モデルである。 3セットモデル(3セットモデル)は、3セットベル実験で与えられる相関関数の値に対する明示的な局所現実モデルである。 非コンテキストシナリオでは、3セットモデルと2セットモデルの違いはありません。 この場合、局所現実理論を分類することはできない。 これにより、2セットモデルから3セットモデルを構築することができる。 驚くべきことに、ベルの定理の不完全性は非文脈モデルを用いて議論できる。 一方、文脈的シナリオでは、3つの設定モデルと2つの設定モデルの違いがある。 これは、3セットモデルと2セットモデルとを区別しなければならないことを意味する。 この場合 局所的な現実的な理論を分類できます

Here, we consider the Bell experiment for a system described by multipartite states in the case where n-dichotomic observables are measured per site. If n is two, we consider a two-setting Bell experiment. If n is three, we consider a three-setting Bell experiment. Twosetting model is an explicit local realistic model for the values of a correlation function, given in a two-setting Bell experiment. Three-setting model is an explicit local realistic model for the values of a correlation function, given in a three-setting Bell experiment. In the non-contextual scenario, there is not the difference between three-setting model and two-setting model. And we cannot classify local realistic theories in this case. This says that we can construct three-setting model from two-setting model. Surprisingly we can discuss incompleteness in the Bell theorem using non-contextual model. On the other hand, in the contextual scenario, there is the difference between three-setting model and two-setting model. This says that we must distinguish three-setting model from two-setting model. And we can classify local realistic theories in this case.
翻訳日:2023-01-12 23:48:22 公開日:2020-01-10
# RTM3D: 自律運転のためのオブジェクトキーポイントからのリアルタイム単眼3D検出

RTM3D: Real-time Monocular 3D Detection from Object Keypoints for Autonomous Driving ( http://arxiv.org/abs/2001.03343v1 )

ライセンス: Link先を確認
Peixuan Li, Huaici Zhao, Pengfei Liu, Feidao Cao(参考訳) 本研究では,単発撮影で効率よく高精度な単分子3D検出フレームワークを提案する。 最も成功した3D検出器は、3Dバウンディングボックスから2Dボックスへの投射制約を重要な構成要素としている。 2Dボックスの4つのエッジは4つの制約しか提供せず、2D検出器の小さなエラーによって性能が劇的に低下する。 これらのアプローチと異なり,画像空間における3次元境界ボックスの9つの視点キーポイントを予測し,3次元視点と2次元視点の幾何学的関係を利用して3次元空間の次元,位置,方向を復元する。 本手法では,キーポイントの推定が非常にノイズの多い場合でも,オブジェクトの特性を安定して予測できるので,小さなアーキテクチャで高速な検出速度を得ることができる。 トレーニング このメソッドは、外部ネットワークや監督データを必要としないオブジェクトの3dプロパティのみを使用する。 提案手法は,KITTIベンチマークの最先端性能を達成しつつ,モノクロ画像の3次元検出を行う最初のリアルタイムシステムである。 コードはhttps://github.com/Banconxuan/RTM3Dでリリースされる。

In this work, we propose an efficient and accurate monocular 3D detection framework in single shot. Most successful 3D detectors take the projection constraint from the 3D bounding box to the 2D box as an important component. Four edges of a 2D box provide only four constraints and the performance deteriorates dramatically with the small error of the 2D detector. Different from these approaches, our method predicts the nine perspective keypoints of a 3D bounding box in image space, and then utilize the geometric relationship of 3D and 2D perspectives to recover the dimension, location, and orientation in 3D space. In this method, the properties of the object can be predicted stably even when the estimation of keypoints is very noisy, which enables us to obtain fast detection speed with a small architecture. Training our method only uses the 3D properties of the object without the need for external networks or supervision data. Our method is the first real-time system for monocular image 3D detection while achieves state-of-the-art performance on the KITTI benchmark. Code will be released at https://github.com/Banconxuan/RTM3D.
翻訳日:2023-01-12 23:48:08 公開日:2020-01-10
# 作業グリッドからのトポロジカルセマンティックマップの学習

Learning Topometric Semantic Maps from Occupancy Grids ( http://arxiv.org/abs/2001.03676v1 )

ライセンス: Link先を確認
Markus Hiller, Chen Qiu, Florian Particke, Christian Hofmann and J\"orn Thielecke(参考訳) 今日の移動ロボットは、人間と共有する複雑な環境で動作することが期待されている。 人間とロボットの直感的なコラボレーションを可能にするために、ロボットは意味的に分類されたインスタンスの観点から、人間のような環境を理解する必要がある。 本稿では,このようなインスタンスベースの意味マップを占有グリッドから純粋に導出する新しい手法を提案する。 我々は、ランダムな大きさの地図からドア仮説を検出し、セグメンテーションし、抽出するために、深層学習技術を組み合わせている。 抽出は後処理チェーンで行い,アプローチの精度をさらに高めるとともに,3つのクラスルーム,ドア,廊下の配置分類を行う。 全ての検出および分類された実体は共通座標系で特定されたインスタンスとして記述され、トポロジカルマップはそれらの空間リンクをキャプチャするために導かれる。 検出とマップセグメンテーションに使用される2つのニューラルネットワークをトレーニングするために、必要なトレーニングデータを自動生成して注釈付けするシミュレータをコントリビュートする。 さらに、ドアウェイを検出するためにどの機能が学習されているか、シミュレーションされたトレーニングデータを現実世界のグリッドマップに直接適用するためのトレーニングネットワークにどのように拡張できるか、といった知見を提供する。 提案手法を,公開されている実世界の複数のデータセットに対して評価する。 使用済みネットワークはシミュレーションデータにのみ訓練されているが,本手法は実世界の屋内環境において高い堅牢性と有効性を示す。

Today's mobile robots are expected to operate in complex environments they share with humans. To allow intuitive human-robot collaboration, robots require a human-like understanding of their surroundings in terms of semantically classified instances. In this paper, we propose a new approach for deriving such instance-based semantic maps purely from occupancy grids. We employ a combination of deep learning techniques to detect, segment and extract door hypotheses from a random-sized map. The extraction is followed by a post-processing chain to further increase the accuracy of our approach, as well as place categorization for the three classes room, door and corridor. All detected and classified entities are described as instances specified in a common coordinate system, while a topological map is derived to capture their spatial links. To train our two neural networks used for detection and map segmentation, we contribute a simulator that automatically creates and annotates the required training data. We further provide insight into which features are learned to detect doorways, and how the simulated training data can be augmented to train networks for the direct application on real-world grid maps. We evaluate our approach on several publicly available real-world data sets. Even though the used networks are solely trained on simulated data, our approach demonstrates high robustness and effectiveness in various real-world indoor environments.
翻訳日:2023-01-12 23:42:03 公開日:2020-01-10
# 道路計画の分散最適化 -都市間比較研究-

Decentralized Optimization of Vehicle Route Planning -- A Cross-City Comparative Study ( http://arxiv.org/abs/2001.03384v1 )

ライセンス: Link先を確認
Brionna Davis, Grace Jennings, Taylor Pothast, Ilias Gerostathopoulos, Evangelos Pournaras, Raphael E. Stern(参考訳) 新しいモビリティの概念は、スマートシティの研究とイノベーションの最前線にある。 接続された自動運転車の導入は、車両ルーティングの新しい可能性を可能にします。 具体的には、ネットワーク内の各エージェントの出所と目的地を知ることで、車両のリアルタイムルーティングによるネットワークパフォーマンスの最適化が可能になる。 しかし、これは個々の車両が「利他的」であること、すなわちネットワークレベルの性能目標を達成するために代替の非予測経路を受け入れることに依存している。 本研究では,エージェントの利他主義のレベルの違いと,ネットワークレベルのトラフィック性能に与える影響を比較検討する。 具体的には,基盤となる都市構造の違いがネットワーク全体の性能に与える影響を比較し,分散最適化ルータを用いたルーティング改善を実現するネットワークの特性について検討する。 主な発見は、車両利他性の増加に伴い、ネットワークのリンク間のトラフィックフローのバランスをとることができることである。 分散最適化ルータは,都市特性の影響を調査しながら,高負荷のネットワークにおいてより効果的であることを示す。特に,単位面積当たりのノード数(断面積)やエッジ数(断面積)の大きいネットワークでは,代替経路がより多くなり,ネットワーク性能を向上させる可能性が高くなる。

New mobility concepts are at the forefront of research and innovation in smart cities. The introduction of connected and autonomous vehicles enables new possibilities in vehicle routing. Specifically, knowing the origin and destination of each agent in the network can allow for real-time routing of the vehicles to optimize network performance. However, this relies on individual vehicles being "altruistic" i.e., being willing to accept an alternative non-preferred route in order to achieve a network-level performance goal. In this work, we conduct a study to compare different levels of agent altruism and the resulting effect on the network-level traffic performance. Specifically, this study compares the effects of different underlying urban structures on the overall network performance, and investigates which characteristics of the network make it possible to realize routing improvements using a decentralized optimization router. The main finding is that, with increased vehicle altruism, it is possible to balance traffic flow among the links of the network. We show evidence that the decentralized optimization router is more effective with networks of high load while we study the influence of cities characteristics, in particular: networks with a higher number of nodes (intersections) or edges (roads) per unit area allow for more possible alternate routes, and thus higher potential to improve network performance.
翻訳日:2023-01-12 23:41:35 公開日:2020-01-10
# Web テーブルを用いたオープンドメイン質問応答

Open Domain Question Answering Using Web Tables ( http://arxiv.org/abs/2001.03272v1 )

ライセンス: Link先を確認
Kaushik Chakrabarti, Zhimin Chen, Siamak Shakeri, Guihong Cao(参考訳) webドキュメントから抽出されたテーブルは、多くのweb検索クエリに直接答えることができる。 ウェブテーブルを用いた質問応答(QA)に関するこれまでの研究は、ファクトイドクエリ(人名や数字のような短い文字列で答えられるもの)に焦点を当ててきた。 しかし、テーブルを使って応答可能なクエリの多くは、本質的に非ファクトである。 本稿では,ファクトイドクエリと非ファクトイドクエリの両方に対応可能なWebテーブルを用いたオープンドメインQAアプローチを提案する。 私たちの重要な洞察は、クエリとテーブル間の深いニューラルネットワークベースの意味的類似性と、ドキュメント内のテーブルの支配性とテーブル内の情報の品質を定量化する特徴を組み合わせることです。 実生活Web検索クエリの実験により、我々のアプローチは最先端のベースラインアプローチよりも大幅に優れていることが示された。 当社のソリューションは,主要な商用Web検索エンジンで実運用に使用されており,毎月数千万の実際のユーザクエリに対して直接回答を提供する。

Tables extracted from web documents can be used to directly answer many web search queries. Previous works on question answering (QA) using web tables have focused on factoid queries, i.e., those answerable with a short string like person name or a number. However, many queries answerable using tables are non-factoid in nature. In this paper, we develop an open-domain QA approach using web tables that works for both factoid and non-factoid queries. Our key insight is to combine deep neural network-based semantic similarity between the query and the table with features that quantify the dominance of the table in the document as well as the quality of the information in the table. Our experiments on real-life web search queries show that our approach significantly outperforms state-of-the-art baseline approaches. Our solution is used in production in a major commercial web search engine and serves direct answers for tens of millions of real user queries per month.
翻訳日:2023-01-12 23:41:13 公開日:2020-01-10
# 長期記憶技術に基づく取引の新しい手法

A new approach for trading based on Long Short Term Memory technique ( http://arxiv.org/abs/2001.03333v1 )

ライセンス: Link先を確認
Zineb Lanbouri and Saaid Achchab(参考訳) 株式市場の予測は常に利害関係者、トレーダー、投資家にとって重要だった。 我々は,翌日の閉会価格(一歩先)を予測するために,2時間周波数(年次および日次パラメータ)を含むLong Term Memory(LSTM)モデルを開発した。 4段階のアプローチに基づいて、この手法は2つのLSTMアルゴリズムのシリアルな組み合わせである。 実証実験はニューヨーク証券取引所417社に適用される。 オープン・ハイ・ロー・クローズな指標やその他の金融比率に基づいて、このアプローチは株式市場の予測を改善することができることを証明している。

The stock market prediction has always been crucial for stakeholders, traders and investors. We developed an ensemble Long Short Term Memory (LSTM) model that includes two-time frequencies (annual and daily parameters) in order to predict the next-day Closing price (one step ahead). Based on a four-step approach, this methodology is a serial combination of two LSTM algorithms. The empirical experiment is applied to 417 NY stock exchange companies. Based on Open High Low Close metrics and other financial ratios, this approach proves that the stock market prediction can be improved.
翻訳日:2023-01-12 23:40:19 公開日:2020-01-10
# グラフ時間変化の制約を考慮した時変グラフ学習

Time-Varying Graph Learning with Constraints on Graph Temporal Variation ( http://arxiv.org/abs/2001.03346v1 )

ライセンス: Link先を確認
Koki Yamada, Yuichi Tanaka, Antonio Ortega(参考訳) 時空間計測から時変グラフを学習するための新しい枠組みを提案する。 信号の時間的振舞いの適切な事前を前提として,本提案手法では,少数の測定値から時間変化グラフを推定できる。 これを実現するために、時間変動ネットワークの時間変動のスパース性を制限する凸最適化問題に2つの正規化項を導入する。 さらに,最適化問題を効率的に解くために計算スカラーアルゴリズムを導入する。 合成および実データ(点雲と温度データ)による実験結果は,提案手法が既存の最先端手法よりも優れていることを示す。

We propose a novel framework for learning time-varying graphs from spatiotemporal measurements. Given an appropriate prior on the temporal behavior of signals, our proposed method can estimate time-varying graphs from a small number of available measurements. To achieve this, we introduce two regularization terms in convex optimization problems that constrain sparseness of temporal variations of the time-varying networks. Moreover, a computationally-scalable algorithm is introduced to efficiently solve the optimization problem. The experimental results with synthetic and real datasets (point cloud and temperature data) demonstrate our proposed method outperforms the existing state-of-the-art methods.
翻訳日:2023-01-12 23:40:10 公開日:2020-01-10
# オープン量子システムの保護的測定

Protective measurement of open quantum systems ( http://arxiv.org/abs/2001.03647v1 )

ライセンス: Link先を確認
Maximilian Schlosshauer(参考訳) 環境存在下での保護量子測定とデコヒーレンスについて検討する。 我々は、測定中にスピン環境と相互作用する保護測定量子ビットのモデルを考える。 環境への結合が保護測定の2つの特性に与える影響について検討した。 (i)制度の状態をほぼ変わらずに残す能力 (ii)期待値に関する情報を装置ポインタに転送すること。 その結果,初期量子状態のデコヒーレンスを達成できないほど環境との相互作用が弱い場合でも,測定の終了時に装置ポインターの位置に対する確率分布が著しく広がることがわかった。 このポインタ位置の洗浄は、ポインタの読み出しから所望の期待値を測定することができる精度を著しく低下させる。 さらに,環境との結合が選択されても,システムの状態がデコヒーレンスに免疫されている場合でも,その環境がポインタの読み出しに有害であることを示す。

We study protective quantum measurements in the presence of an environment and decoherence. We consider the model of a protectively measured qubit that also interacts with a spin environment during the measurement. We investigate how the coupling to the environment affects the two characteristic properties of a protective measurement, namely, (i) the ability to leave the state of the system approximately unchanged and (ii) the transfer of information about expectation values to the apparatus pointer. We find that even when the interaction with the environment is weak enough not to lead to appreciable decoherence of the initial qubit state, it causes a significant broadening of the probability distribution for the position of the apparatus pointer at the conclusion of the measurement. This washing out of the pointer position crucially diminishes the accuracy with which the desired expectation values can be measured from a readout of the pointer. We additionally show that even when the coupling to the environment is chosen such that the state of the system is immune to decoherence, the environment may still detrimentally affect the pointer readout.
翻訳日:2023-01-12 23:31:48 公開日:2020-01-10
# 逐次測定とエントロピー

Sequential measurements and entropy ( http://arxiv.org/abs/2001.04400v1 )

ライセンス: Link先を確認
Heinz-J\"urgen Schmidt and Jochen Gemmer(参考訳) 我々は、フォン・ノイマンエントロピーの基本性質に関する量子情報理論に対するいわゆるj方程式の応用をスケッチする。 j-方程式は近年、ジャージンスキー方程式の様々なバージョンの前駆体として提案されている。 これは、ここでわずかに一般化された逐次測定の一般的な枠組みで導出されている。

We sketch applications of the so-called J-equation to quantum information theory concerning fundamental properties of the von Neumann entropy. The J-equation has recently be proposed as a sort of progenitor of the various versions of the Jarzynski equation. It has been derived within a general framework of sequential measurements that is slightly generalised here.
翻訳日:2023-01-12 23:31:32 公開日:2020-01-10
# 人工知能ガバナンスは中央集権化するべきか? 歴史から学ぶデザインの教訓

Should Artificial Intelligence Governance be Centralised? Design Lessons from History ( http://arxiv.org/abs/2001.03573v1 )

ライセンス: Link先を確認
Peter Cihon, Matthijs M. Maas, Luke Kemp(参考訳) 人工知能のための効果的な国際統治は、依然として断片化されているのか? 我々は、AIガバナンスの中央集権化における利点とデメリットを特定するために、他の国際体制の歴史を描きます。 効率性や政治的権力などいくつかの考慮事項は中央集権化を支持する。 逆に、緩やかで脆い組織を作るリスクは、厳格なルールを作成しながら参加を確保することの難しさと同様に、それに反対している。 その他の考慮事項は、中央組織の設計に依存する。 十分に設計された団体は、フォーラムの買い物を抑止し、ポリシーの調整を確保することができる。 しかし、フォーラムショッピングは有益であり、施設の断片化された景観を自己組織化することができる。 中央集権化にはトレードオフと詳細が伴う。 我々は2つの主要な推奨事項で締めくくる。 第一に、結果は中央機関の正確な設計に依存します。 コヒーレントな問題の集合をカバーするよく設計された中央集権的な体制は有益である。 しかし、不適切な構造のロックインは、断片化よりもひどい運命をもたらす可能性がある。 第二に、今のところ断片化は続くだろう。 これは、自己組織化されているか、あるいは単に不十分であるかどうかを注意深く監視する必要がある。

Can effective international governance for artificial intelligence remain fragmented, or is there a need for a centralised international organisation for AI? We draw on the history of other international regimes to identify advantages and disadvantages in centralising AI governance. Some considerations, such as efficiency and political power, speak in favour of centralisation. Conversely, the risk of creating a slow and brittle institution speaks against it, as does the difficulty in securing participation while creating stringent rules. Other considerations depend on the specific design of a centralised institution. A well-designed body may be able to deter forum shopping and ensure policy coordination. However, forum shopping can be beneficial and a fragmented landscape of institutions can be self-organising. Centralisation entails trade-offs and the details matter. We conclude with two core recommendations. First, the outcome will depend on the exact design of a central institution. A well-designed centralised regime covering a set of coherent issues could be beneficial. But locking-in an inadequate structure may pose a fate worse than fragmentation. Second, for now fragmentation will likely persist. This should be closely monitored to see if it is self-organising or simply inadequate.
翻訳日:2023-01-12 23:31:29 公開日:2020-01-10
# 数値データモデリングのための確率分布の見直し

Review of Probability Distributions for Modeling Count Data ( http://arxiv.org/abs/2001.04343v1 )

ライセンス: Link先を確認
F. William Townes(参考訳) 非負整数値のカウントデータは、線形回帰や主成分分析のような標準線形ガウス法を用いて適切に解析することが困難である。 一般化線形モデルはポアソンや負二項のような分布を用いた回帰文脈におけるカウントの直接モデリングを可能にする。 カウントが相対情報のみを含む場合、多項モデルやディリクレ多項モデルの方が適切である。 確率論から多重項モデルとカウントモデルとの基本的な関係を概説し、詳細な証明を与える。 これらの関係は、テキストデータやゲノミクスのトピックモデリングのような応用における手法開発に有用である。

Count data take on non-negative integer values and are challenging to properly analyze using standard linear-Gaussian methods such as linear regression and principal components analysis. Generalized linear models enable direct modeling of counts in a regression context using distributions such as the Poisson and negative binomial. When counts contain only relative information, multinomial or Dirichlet-multinomial models can be more appropriate. We review some of the fundamental connections between multinomial and count models from probability theory, providing detailed proofs. These relationships are useful for methods development in applications such as topic modeling of text data and genomics.
翻訳日:2023-01-12 23:31:15 公開日:2020-01-10
# 周期整合型対位訓練による関節症音声の明瞭度向上

Improving Dysarthric Speech Intelligibility Using Cycle-consistent Adversarial Training ( http://arxiv.org/abs/2001.04260v1 )

ライセンス: Link先を確認
Seung Hee Yang, Minhwa Chung(参考訳) Dysarthriaは何百万人もの人に影響を及ぼす運動障害である。 dystorric speechは、非dysarthric speakersのそれよりもはるかに知性が低く、重大なコミュニケーションの困難を引き起こす。 本研究の目的は,周期整合ganを用いた健常者への構音変換モデルの開発である。 前回の研究では、音声キーボードの自動認識を目的として録音された18,700個のダイアースリックと8,610個の健康管理韓国語発話を用いて、生成器はスペクトル領域の健全な音声に変換するように訓練され、その後、音声に変換される。 ホールドアウトテストセット上で生成された発話の自動音声認識を用いた客観的評価は、絶対 wer を33.4%下げたために、逆行訓練を行った後、元の義足音声と比較して認識性能が向上したことを示す。 提案手法は, 変形性音声の聴力向上に有用であることを示す。

Dysarthria is a motor speech impairment affecting millions of people. Dysarthric speech can be far less intelligible than those of non-dysarthric speakers, causing significant communication difficulties. The goal of our work is to develop a model for dysarthric to healthy speech conversion using Cycle-consistent GAN. Using 18,700 dysarthric and 8,610 healthy control Korean utterances that were recorded for the purpose of automatic recognition of voice keyboard in a previous study, the generator is trained to transform dysarthric to healthy speech in the spectral domain, which is then converted back to speech. Objective evaluation using automatic speech recognition of the generated utterance on a held-out test set shows that the recognition performance is improved compared with the original dysarthic speech after performing adversarial training, as the absolute WER has been lowered by 33.4%. It demonstrates that the proposed GAN-based conversion method is useful for improving dysarthric speech intelligibility.
翻訳日:2023-01-12 23:31:07 公開日:2020-01-10
# マルチスケールスプライン補間による画像処理

Image Inpainting by Multiscale Spline Interpolation ( http://arxiv.org/abs/2001.03270v1 )

ライセンス: Link先を確認
Ghazale Ghorbanzade, Zahra Nabizadeh, Nader Karimi, Shadrokh Samavi(参考訳) 画像の欠落領域の復元は、イメージインペインティングと呼ばれるタスクである。 欠落地の形状によって、文献に異なる方法が紹介されている。 この問題の課題のひとつは、よりよい結果につながる機能を抽出することだ。 実験の結果,グローバル機能とローカル機能の両方がこの目的に有用であることが判明した。 本稿では,局所的特徴と大域的特徴の両方を利用したマルチスケール画像インペイント手法を提案する。 この方法の最初のステップは、欠落した領域の地図の線幅に依存する、使用するスケール数を決定することである。 そして、画像の損傷領域に適応画像インペインティングを適用し、失われた画素を予測する。 各スケールは塗装され、その結果は元のサイズにリサイズされる。 そして、投票プロセスが最終結果を生成する。 提案手法はスクラッチやクリーゼで損傷した画像に対してテストを行う。 我々のアプローチを評価するために使われる計量はPSNRである。 既存の塗装法に比べて平均1.2dBの改善を実現した。

Recovering the missing regions of an image is a task that is called image inpainting. Depending on the shape of missing areas, different methods are presented in the literature. One of the challenges of this problem is extracting features that lead to better results. Experimental results show that both global and local features are useful for this purpose. In this paper, we propose a multi-scale image inpainting method that utilizes both local and global features. The first step of this method is to determine how many scales we need to use, which depends on the width of the lines in the map of the missing region. Then we apply adaptive image inpainting to the damaged areas of the image, and the lost pixels are predicted. Each scale is inpainted and the result is resized to the original size. Then a voting process produces the final result. The proposed method is tested on damaged images with scratches and creases. The metric that we use to evaluate our approach is PSNR. On average, we achieved 1.2 dB improvement over some existing inpainting approaches.
翻訳日:2023-01-12 23:30:49 公開日:2020-01-10
# 畳み込みニューラルネットワークを用いたクラス不均衡問題のための焦点損失:イヌ赤血球形態分類の事例研究

Convolutional Neural Networks based Focal Loss for Class Imbalance Problem: A Case Study of Canine Red Blood Cells Morphology Classification ( http://arxiv.org/abs/2001.03329v1 )

ライセンス: Link先を確認
Kitsuchart Pasupa, Supawit Vatathanavaro, Suchat Tungjitnob(参考訳) 赤血球の形態は通常病理学者によって解釈される。 時間と労力がかかる。 さらに、過度に分類された赤血球の形態が偽疾患の診断と不適切な治療につながる。 したがって、まともな病理学者は本当に赤血球形態の分類の専門家でなければならない。 過去10年間、ヒト赤血球の形態を分類するための多くのアプローチが提案されてきた。 しかし、これらのアプローチは分類におけるクラス不均衡の問題に対処していない。 クラス不均衡問題(クラス内のサンプル数が全く異なる問題)は、多数派クラスに偏ったモデルをもたらす可能性のある問題の1つである。 あらゆるタイプの異常な血液細胞形態の希少性のため、収集過程からのデータは通常不均衡である。 本研究では,犬赤血球形態の分類に特化して,局所的損失関数と協調して学習手法である畳み込みニューラルネットワーク(CNN)を応用し,クラス不均衡問題に対処する方法について検討した。 提案手法は,2つの異なるCNNを用いて焦点損失関数の有効性を検証し,最適ハイパーパラメータを5倍のクロスバリデーションにより決定する。 実験の結果, 焦点損失関数を付加したcnnモデルでは, クラス不均衡問題に対処しない従来のクロスエントロピー損失関数を付加したモデルと比較して, 両モデルともf_{1}$-scoreが高かった。 言い換えると、焦点損失関数により、cnnsモデルは、不均衡な犬赤血球データの分類タスクで行ったクロスエントロピーよりも、多数派クラスへの偏りが軽減された。

Morphologies of red blood cells are normally interpreted by a pathologist. It is time-consuming and laborious. Furthermore, a misclassified red blood cell morphology will lead to false disease diagnosis and improper treatment. Thus, a decent pathologist must truly be an expert in classifying red blood cell morphology. In the past decade, many approaches have been proposed for classifying human red blood cell morphology. However, those approaches have not addressed the class imbalance problem in classification. A class imbalance problem---a problem where the numbers of samples in classes are very different---is one of the problems that can lead to a biased model towards the majority class. Due to the rarity of every type of abnormal blood cell morphology, the data from the collection process are usually imbalanced. In this study, we aimed to solve this problem specifically for classification of dog red blood cell morphology by using a Convolutional Neural Network (CNN)---a well-known deep learning technique---in conjunction with a focal loss function, adept at handling class imbalance problem. The proposed technique was conducted on a well-designed framework: two different CNNs were used to verify the effectiveness of the focal loss function and the optimal hyper-parameters were determined by 5-fold cross-validation. The experimental results show that both CNNs models augmented with the focal loss function achieved higher $F_{1}$-scores, compared to the models augmented with a conventional cross-entropy loss function that does not address class imbalance problem. In other words, the focal loss function truly enabled the CNNs models to be less biased towards the majority class than the cross-entropy did in the classification task of imbalanced dog red blood cell data.
翻訳日:2023-01-12 23:30:37 公開日:2020-01-10
# ニューラルネットワークによる地震地平線検出

Seismic horizon detection with neural networks ( http://arxiv.org/abs/2001.03390v1 )

ライセンス: Link先を確認
Alexander Koryagin, Darima Mylzenova, Roman Khudorozhkov, Sergey Tsimfer(参考訳) 過去数年間、畳み込みニューラルネットワーク(convolutional neural networks、cnns)は、単純な分類から細かい境界アノテーションまで、様々な画像関連タスクの解決に成功している。 地震の地平線を追尾することも同様であり、時間を要するハンドピッキングを避けるためにそのようなモデルの使用を提案する論文が多数存在する。 残念なことに、そのほとんどは (i)地下構造の複雑さを完全に表現できない合成データで訓練するか。 (二)同じ立方体で訓練し、試験すること、又は (iii)モデル構築過程の再現性や正確な説明が欠如している。 本研究の主な貢献は,複数の実地震立方体上での地平線検出にバイナリセグメンテーション手法を適用し,予測モデルのキューブ間一般化に着目したオープンソースの研究である。

Over the last few years, Convolutional Neural Networks (CNNs) were successfully adopted in numerous domains to solve various image-related tasks, ranging from simple classification to fine borders annotation. Tracking seismic horizons is no different, and there are a lot of papers proposing the usage of such models to avoid time-consuming hand-picking. Unfortunately, most of them are (i) either trained on synthetic data, which can't fully represent the complexity of subterranean structures, (ii) trained and tested on the same cube, or (iii) lack reproducibility and precise descriptions of the model-building process. With all that in mind, the main contribution of this paper is an open-sourced research of applying binary segmentation approach to the task of horizon detection on multiple real seismic cubes with a focus on inter-cube generalization of the predictive model.
翻訳日:2023-01-12 23:30:09 公開日:2020-01-10
# ソーシャルメディア投稿をニュースにリンクするSamese Transformers

Linking Social Media Posts to News with Siamese Transformers ( http://arxiv.org/abs/2001.03303v1 )

ライセンス: Link先を確認
Jacob Danovitch(参考訳) 多くの計算社会科学プロジェクトは、特定のトレンドトピックを取り巻くオンラインの談話を調べている。 これらの作業は、イベントに対する反応の側面を分析するために、イベントに関連する大規模なコーパスの取得を含むことが多い。 キーワード検索は正確なリコールトレードオフを示し、クラウドソースアノテーションは有効だが、費用がかかる。 本研究の目的は,一握りのニュース記事のみを用いて,大きなコーパスからトレンドトピックについて議論するコメントの自動的かつ正確なアドホック検索を可能にすることである。

Many computational social science projects examine online discourse surrounding a specific trending topic. These works often involve the acquisition of large-scale corpora relevant to the event in question to analyze aspects of the response to the event. Keyword searches present a precision-recall trade-off and crowd-sourced annotations, while effective, are costly. This work aims to enable automatic and accurate ad-hoc retrieval of comments discussing a trending topic from a large corpus, using only a handful of seed news articles.
翻訳日:2023-01-12 23:22:47 公開日:2020-01-10
# より一般的な固体(swap)$^{1/m}$および制御された-(swap)$^{1/m}$ゲートの実装

Implementations of more general solid-state (SWAP)$^{1/m}$ and controlled-(swap)$^{1/m}$ gates ( http://arxiv.org/abs/2001.03428v1 )

ライセンス: Link先を確認
Wen-Qiang Liu and Hai-Rui Wei(参考訳) ユニバーサル量子ゲートは、量子情報処理のコア要素である。 より一般的な(SWAP)$^{1/m}$と制御された-(swap)$^{1/m}$ゲート(整数$m\geq1$)を実現するための2つのスキームを設計する。 パラメータ$m$は、2つの四分波板と1つの半波板を調整することで容易に制御できる。 2つのゲートを構成するために追加の計算キュービットは不要である。 ゲートの評価は,現在の実験技術で提案が実現可能であることを示している。

Universal quantum gates are the core elements in quantum information processing. We design two schemes to realize more general (SWAP)$^{1/m}$ and controlled--(swap)$^{1/m}$ gates (for integer $m\geq1$) by directing flying single photons to solid--state quantum dots. The parameter $m$ is easily controlled by adjusting two quarter--wave plates and one half--wave plate. Additional computational qubits are not required to construct the two gates. Evaluations of the gates indicate that our proposals are feasible with current experimental technology.
翻訳日:2023-01-12 23:22:39 公開日:2020-01-10
# カーボンナノチューブ構造上の量子ウォーク輸送

Quantum walk transport on carbon nanotube structures ( http://arxiv.org/abs/2001.03505v1 )

ライセンス: Link先を確認
Jan Mare\v{s}, Jaroslav Novotn\'y and Igor Jex(参考訳) 量子ウォークの概念を用いて、カーボンナノチューブのソースからインクへの励起輸送の研究を行う。 特に、グローバーの量子ウォークの輸送特性は、ジグザグとアームチェアのキラル性を持つ理想的および摂動型ナノチューブに焦点をあてている。 解析的および数値的手法を用いて, ナノチューブの幾何学的性質とシンクの異なる性質がトラップ状態の構造を完全に制御し, その結果, ソースからシンクへの輸送効率が向上した。 ナノチューブのキラリティは、輸送効率の挙動を、典型的にはよく分離された定量枝に分割する。 興味深い量子輸送現象、例えば管の長さを増加させることで輸送が促進され、最も薄い管では最も高い輸送効率が得られる。 また, 理想的なナノチューブ上での量子ウォークの輸送効率は, 長さとキラリティに依存する振動挙動も示している。

We study source-to-sink excitation transport on carbon nanotubes using the concept of quantum walks. In particular, we focus on transport properties of Grover coined quantum walks on ideal and percolation perturbed nanotubes with zig-zag and armchair chiralities. Using analytic and numerical methods we identify how geometric properties of nanotubes and different types of a sink altogether control the structure of trapped states and, as a result, the overall source-to-sink transport efficiency. It is shown that chirality of nanotubes splits behavior of the transport efficiency into a few typically well separated quantitative branches. Based on that we uncover interesting quantum transport phenomena, e.g. increasing the length of the tube can enhance the transport and the highest transport efficiency is achieved for the thinnest tube. We also demonstrate, that the transport efficiency of the quantum walk on ideal nanotubes may exhibit even oscillatory behavior dependent on length and chirality.
翻訳日:2023-01-12 23:22:25 公開日:2020-01-10
# 触媒による混合状態の確率的コヒーレンス蒸留

Catalyst-Assisted Probabilistic Coherence Distillation for Mixed States ( http://arxiv.org/abs/2001.03508v1 )

ライセンス: Link先を確認
C. L. Liu and D. L. Zhou(参考訳) 触媒の驚くべき現象は、触媒を加えることが状態変換に役立つことを示している。 本稿では, 厳密な不整合操作下での混合状態に対する触媒による確率的コヒーレンス蒸留の問題点を考察する。 この目的のために、まず、確率的厳密な不整合操作による初期混合状態からターゲット純コヒーレント状態を蒸留するための必要十分かつ十分な条件と、初期状態からターゲット純状態を得るための最大確率を提示する。 これらの結果の助けを借りて, 最大変換確率を増加させる触媒の存在に必要な十分条件を提示する。

The remarkable phenomenon of catalyst tells us that adding a catalyst could help state transformation. In this paper, we consider the problem of catalyst-assisted probabilistic coherence distillation for mixed states under strictly incoherent operations. To this end, we first present the necessary and sufficient conditions for distilling a target pure coherent state from an initial mixed state via stochastic strictly incoherent operations and the maximal probability of obtaining the target pure state from the initial state. With the help of these results, we present the necessary and sufficient conditions for the existence of a catalyst that increases the maximal transformation probability.
翻訳日:2023-01-12 23:22:10 公開日:2020-01-10
# ボソンサンプリングのための自発的パラメトリックダウン変換源の最適化

Optimizing spontaneous parametric down-conversion sources for boson sampling ( http://arxiv.org/abs/2001.03596v1 )

ライセンス: Link先を確認
R. van der Meer, J.J. Renema, B. Brecht, C. Silberhorn, P.W.H. Pinkse(参考訳) フォトニック量子技術の重要なステップは、ボソンサンプリングによる量子優位性の実証である。 ボソンサンプリングの古典的なシミュラビリティを防ぐために、光子はほぼ完全に同一であり、ほとんど損失なくする必要がある。 これら2つの要件はスペクトルフィルタリングによって接続され、一方の改善により他方が減少する。 単一光子を生成する方法は自発的パラメトリックダウンコンバージョン(spdc)である。 非識別性と損失の最適なトレードオフが常にspdcにあることを示す。 計算複雑性の観点から,SPDC源を用いた50光子散乱ボソンサンプリング実験が可能であると結論付けた。 この目的のために、弱いポンプと1つの空間モードでSPDC源を数値的に最適化する。

An important step for photonic quantum technologies is the demonstration of a quantum advantage through boson sampling. In order to prevent classical simulability of boson sampling, the photons need to be almost perfectly identical and almost without losses. These two requirements are connected through spectral filtering, improving one leads to a decrease of the other. A proven method of generating single photons is spontaneous parametric downconversion (SPDC). We show that an optimal trade-off between indistinguishability and losses can always be found for SPDC. We conclude that a 50-photon scattershot boson-sampling experiment using SPDC sources is possible from a computational complexity point of view. To this end, we numerically optimize SPDC sources under the regime of weak pumping and with a single spatial mode.
翻訳日:2023-01-12 23:21:09 公開日:2020-01-10
# 転倒検出のための圧縮センシングに基づくプライバシー

Compressive sensing based privacy for fall detection ( http://arxiv.org/abs/2001.03463v1 )

ライセンス: Link先を確認
Ronak Gupta, Prashant Anand, Santanu Chaudhury, Brejesh Lall, Sanjay Singh(参考訳) 転倒検出は、タイムリーな検出が即時医療支援を可能にする医療分野において非常に重要である。 本研究では,フォール検出のための3次元インセプションモジュールからなる3次元ConvNetアーキテクチャを提案する。 提案アーキテクチャはInflated 3D(I3D)アーキテクチャのカスタムバージョンであり、I3D畳み込みニューラルネットワークの場合のように、ビデオシーケンスを入力としてではなく圧縮センシングフレームワークから得られる時空間入力として圧縮されたビデオシーケンスの測定を行う。 これは、プライバシーが、これらのRGBカメラを通して監視されている患者に大きな関心を抱くため、採用されている。 転倒検出のためのフレームワークは、多種多様な測定行列に対して十分に柔軟である。 Kinetics-400からランダムに選択された10のアクションクラスは、元のビデオクリップ上のさまざまな種類のセンシング行列を用いて、圧縮センシング後の3D ConvNetをトレーニングするために使用される。 以上の結果から,3D ConvNetの性能はセンサの異なる行列で変化しないことがわかった。 また,速度論的に事前学習した3d convnetによるベンチマークデータセットからの圧縮センシングフォールビデオの性能は,最先端技術よりも優れている。

Fall detection holds immense importance in the field of healthcare, where timely detection allows for instant medical assistance. In this context, we propose a 3D ConvNet architecture which consists of 3D Inception modules for fall detection. The proposed architecture is a custom version of Inflated 3D (I3D) architecture, that takes compressed measurements of video sequence as spatio-temporal input, obtained from compressive sensing framework, rather than video sequence as input, as in the case of I3D convolutional neural network. This is adopted since privacy raises a huge concern for patients being monitored through these RGB cameras. The proposed framework for fall detection is flexible enough with respect to a wide variety of measurement matrices. Ten action classes randomly selected from Kinetics-400 with no fall examples, are employed to train our 3D ConvNet post compressive sensing with different types of sensing matrices on the original video clips. Our results show that 3D ConvNet performance remains unchanged with different sensing matrices. Also, the performance obtained with Kinetics pre-trained 3D ConvNet on compressively sensed fall videos from benchmark datasets is better than the state-of-the-art techniques.
翻訳日:2023-01-12 23:14:36 公開日:2020-01-10
# sviro: 合成自動車内装後部座席占有データとベンチマーク

SVIRO: Synthetic Vehicle Interior Rear Seat Occupancy Dataset and Benchmark ( http://arxiv.org/abs/2001.03483v1 )

ライセンス: Link先を確認
Steve Dias Da Cruz, Oliver Wasenm\"uller, Hans-Peter Beise, Thomas Stifter, Didier Stricker(参考訳) SVIROは、10台の異なる車両の旅客室における風景の合成データセットであり、限られたバリエーション(例えば、同じ背景やテクスチャ、クラスごとのインスタンス数)で訓練された場合、一般化能力と信頼性に関する機械学習ベースのアプローチを分析する。 これは、一般的なタスクの最先端の改善に焦点を当てた、共通ベンチマークデータセットの本質的に高い変動性とは対照的である。 我々のデータセットは、オブジェクト検出のためのバウンディングボックス、インスタンスセグメンテーションマスク、各合成シーンのポーズ推定と深度画像のキーポイント、および各座席の分類用画像を含む。 我々のユースケースの利点は2つある: 新しい状況下で新しいアプローチをベンチマークするための現実的なアプリケーションに近づきつつ、複雑さをよりトラクタブルな環境に減らし、アプリケーションや理論的疑問をおもちゃの問題としてより困難なデータセット上でテストすることができる。 データと評価サーバはhttps://sviro.kl.dfki.de.comで入手できる。

We release SVIRO, a synthetic dataset for sceneries in the passenger compartment of ten different vehicles, in order to analyze machine learning-based approaches for their generalization capacities and reliability when trained on a limited number of variations (e.g. identical backgrounds and textures, few instances per class). This is in contrast to the intrinsically high variability of common benchmark datasets, which focus on improving the state-of-the-art of general tasks. Our dataset contains bounding boxes for object detection, instance segmentation masks, keypoints for pose estimation and depth images for each synthetic scenery as well as images for each individual seat for classification. The advantage of our use-case is twofold: The proximity to a realistic application to benchmark new approaches under novel circumstances while reducing the complexity to a more tractable environment, such that applications and theoretical questions can be tested on a more challenging dataset as toy problems. The data and evaluation server are available under https://sviro.kl.dfki.de.
翻訳日:2023-01-12 23:14:17 公開日:2020-01-10
# 低ランク・スパース分解による変形可能なグループ画像登録

Deformable Groupwise Image Registration using Low-Rank and Sparse Decomposition ( http://arxiv.org/abs/2001.03509v1 )

ライセンス: Link先を確認
Roland Haase, Stefan Heldmann, Jan Lellmann(参考訳) 低ランクかつスパースな分解とロバストなPCA(RPCA)は画像処理において非常に成功した技術であり、最近はグループワイドな画像登録に使われている。 本稿では、画像登録における最も一般的なRPCA-dissimi\-larityメトリックの欠点を調査し、改良版を導出する。 特に、この新しい計量は、罰則ではなく明示的な制約によって低ランク要求をモデル化し、確立された計量の落とし穴を避ける。 総変分正規化を基本とした一階主元双対最適化に基づく理論的に正当化されたマルチレベルスキームを提案する。 数値実験で確認されたように,我々の測定基準は,物体の出現頻度やスパース摂動の経時的変化に伴うデータに特に寄与する。 我々はその変形をいくつかの関連するアプローチと比較する。

Low-rank and sparse decompositions and robust PCA (RPCA) are highly successful techniques in image processing and have recently found use in groupwise image registration. In this paper, we investigate the drawbacks of the most common RPCA-dissimi\-larity metric in image registration and derive an improved version. In particular, this new metric models low-rank requirements through explicit constraints instead of penalties and thus avoids the pitfalls of the established metric. Equipped with total variation regularization, we present a theoretically justified multilevel scheme based on first-order primal-dual optimization to solve the resulting non-parametric registration problem. As confirmed by numerical experiments, our metric especially lends itself to data involving recurring changes in object appearance and potential sparse perturbations. We numerically compare its peformance to a number of related approaches.
翻訳日:2023-01-12 23:13:56 公開日:2020-01-10
# せん断応力エントロピー評価のためのベイズ的モンテカルロ不確かさモデル

A Bayesian Monte-Carlo Uncertainty Model for Assessment of Shear Stress Entropy ( http://arxiv.org/abs/2001.04802v1 )

ライセンス: Link先を確認
Amin Kazemian-Kale-Kale, Azadeh Gholami, Mohammad Rezaie-Balf, Amir Mosavi, Ahmed A Sattar, Bahram Gharabaghi, Hossein Bonakdari(参考訳) 近年, 円チャネル内のせん断応力分布を評価するために, エントロピーモデルが多くの研究で採用されている。 しかし、その予測と信頼性の不確実性は、まだ明らかな疑問である。 本稿では,円管内のせん断応力推定において,シャノン,シャノンパワーロー (pl), ツァリス, レーニーを含む4つの一般的なエントロピーモデルの不確かさを評価する新しい手法を提案する。 95%信頼境界 (CB) を考慮したベイジアンモンテカルロ(BMC)の不確実性法を単純化する。 我々は,誤差推定範囲(free)と観測データの割合(nin)を組み合わせた統計指標を用いて,freeopt-based ocb (focb) と呼ばれる新しい統計指標を開発した。 シャノンとシャノンのplエントロピーはそれぞれ8.781と9.808に等しいfocbの密接な値を持ち、円形流路のせん断応力値の計算において最も確実であり、続いて従来の一様せん断応力と14.491と14.895のtsallisモデルがあった。 しかし、FOCBの値が57.726と非常に高いレニイエントロピーは、他のモデルよりもせん断応力の推定において確実性が低い。 本研究では, せん断応力計算におけるエントロピー手法の信頼性の量を用いて, 異なる種類の開水路の設計と実装を行い, その安定性について検討した。

The entropy models have been recently adopted in many studies to evaluate the distribution of the shear stress in circular channels. However, the uncertainty in their predictions and their reliability remains an open question. We present a novel method to evaluate the uncertainty of four popular entropy models, including Shannon, Shannon-Power Low (PL), Tsallis, and Renyi, in shear stress estimation in circular channels. The Bayesian Monte-Carlo (BMC) uncertainty method is simplified considering a 95% Confidence Bound (CB). We developed a new statistic index called as FREEopt-based OCB (FOCB) using the statistical indices Forecasting Range of Error Estimation (FREE) and the percentage of observed data in the CB (Nin), which integrates their combined effect. The Shannon and Shannon PL entropies had close values of the FOCB equal to 8.781 and 9.808, respectively, had the highest certainty in the calculation of shear stress values in circular channels followed by traditional uniform flow shear stress and Tsallis models with close values of 14.491 and 14.895, respectively. However, Renyi entropy with much higher values of FOCB equal to 57.726 has less certainty in the estimation of shear stress than other models. Using the presented results in this study, the amount of confidence in entropy methods in the calculation of shear stress to design and implement different types of open channels and their stability is determined.
翻訳日:2023-01-12 23:05:18 公開日:2020-01-10
# オンラインコミュニティポストを活用するスケーラブルなチャットボットプラットフォーム:概念実証研究

A Scalable Chatbot Platform Leveraging Online Community Posts: A Proof-of-Concept Study ( http://arxiv.org/abs/2001.03278v1 )

ライセンス: Link先を確認
Sihyeon Jo, Seungryong Yoo, Sangwon Im, Seung Hee Yang, Tong Zuo, Hee-Eun Kim, SangWook Han, Seong-Woo Kim(参考訳) 自然言語処理アルゴリズムの開発と会話データの爆発的成長は、人間とコンピュータの会話の研究を奨励している。 それでも、大規模な会話データの取得は困難で費用がかかる。 本稿では,データ駆動型チャットボット構築の実現可能性について,擬似会話データとして利用することによって検証する。 さまざまな目的のためのチャットボットは、コミュニティポストの共通構造を利用したパイプラインを通じて、広範囲に構築できると我々は主張する。 我々の実験は、パイプラインに沿って生成されたチャットボットが適切な応答を得られることを示した。

The development of natural language processing algorithms and the explosive growth of conversational data are encouraging researches on the human-computer conversation. Still, getting qualified conversational data on a large scale is difficult and expensive. In this paper, we verify the feasibility of constructing a data-driven chatbot with processed online community posts by using them as pseudo-conversational data. We argue that chatbots for various purposes can be built extensively through the pipeline exploiting the common structure of community posts. Our experiment demonstrates that chatbots created along the pipeline can yield the proper responses.
翻訳日:2023-01-12 23:04:50 公開日:2020-01-10
# 構文は木に育つ必要があるか? sequence-to-sequence networkにおける階層的帰納的バイアスの源

Does syntax need to grow on trees? Sources of hierarchical inductive bias in sequence-to-sequence networks ( http://arxiv.org/abs/2001.03632v1 )

ライセンス: Link先を確認
R. Thomas McCoy, Robert Frank, Tal Linzen(参考訳) 同じトレーニングデータに露出した学習者は、誘導バイアスが異なるため、異なる一般化を行う可能性がある。 ニューラルネットワークモデルでは、帰納バイアスは理論上モデルアーキテクチャのあらゆる側面から生じる可能性がある。 英語質問生成と英語時制再帰という2つの構文課題を訓練した神経シーケンスからシーケンスへのモデルの一般化行動にどのような建築的要因が影響するかを検討した。 どちらのタスクにおいても、トレーニングセットは階層構造に基づく一般化と線形順序に基づく一般化と一致する。 検討したすべてのアーキテクチャ要因は,階層構造との明確な関係を持たない因子を含む,モデルの一般化の仕方に影響した。 例えば、LSTMとGRUは質的に異なる誘導バイアスを示した。 しかし、タスク間の階層的バイアスに一貫して寄与する唯一の要因は、連続的な反復モデルではなく木構造モデルを使用することであり、人間のような構文一般化はアーキテクチャの構文構造を必要とすることを示唆している。

Learners that are exposed to the same training data might generalize differently due to differing inductive biases. In neural network models, inductive biases could in theory arise from any aspect of the model architecture. We investigate which architectural factors affect the generalization behavior of neural sequence-to-sequence models trained on two syntactic tasks, English question formation and English tense reinflection. For both tasks, the training set is consistent with a generalization based on hierarchical structure and a generalization based on linear order. All architectural factors that we investigated qualitatively affected how models generalized, including factors with no clear connection to hierarchical structure. For example, LSTMs and GRUs displayed qualitatively different inductive biases. However, the only factor that consistently contributed a hierarchical bias across tasks was the use of a tree-structured model rather than a model with sequential recurrence, suggesting that human-like syntactic generalization requires architectural syntactic structure.
翻訳日:2023-01-12 23:04:24 公開日:2020-01-10
# マルチ・多目的最適化解集合の比較のためのMIP法による支配移動計算

Dominance Move calculation using a MIP approach for comparison of multi and many-objective optimization solution sets ( http://arxiv.org/abs/2001.03657v1 )

ライセンス: Link先を確認
Claudio Lucio do Val Lopes, Fl\'avio Vin\'icius Cruzeiro Martins, and Elizabeth Fialho Wanner(参考訳) 支配移動(Dominance move, DoM)は、多目的最適化に使用できるバイナリ品質指標である。 解集合を収束、拡散、均一性、濃度といった重要な特徴を表現しながら比較することができる。 DoM は直感的な概念を持ち、パレートが他の集合を支配するのに必要な集合の最小移動を考える。 上記の特性にもかかわらず、DoMは計算が難しい。 元の定式化は、バイオオブジェクトの場合のみに計算する効率的で正確な方法を示す。 この研究は、3つ以上の目的を扱うためにDoMを計算および拡張するための新しいアプローチを示す。 その考え方は、混合整数プログラミング(MIP)アプローチを使ってDoMを計算することである。 双目的空間におけるいくつかの実験は、モデルの正確性を検証するために行われた。 さらに,3,5,10の目的関数を用いて,高次元の場合においてモデルがどのように振る舞うかを示す実験を行った。 ibea, moead, nsgaiii, nsgaii, spea2などのアルゴリズムは解集合を生成するのに使われたが、domインジケータで他のアルゴリズムを使うことができる。 その結果、3つ以上の目的関数を持つ問題におけるMIP DoMの有効性が確認された。 最終注記、考察、今後の研究は、いくつかの解集合の特異性を活用し、モデルとその他の状況への利用を改善するために議論される。

Dominance move (DoM) is a binary quality indicator that can be used in multiobjective optimization. It can compare solution sets while representing some important features such as convergence, spread, uniformity, and cardinality. DoM has an intuitive concept and considers the minimum move of one set needed to weakly Pareto dominate the other set. Despite the aforementioned properties, DoM is hard to calculate. The original formulation presents an efficient and exact method to calculate it in a biobjective case only. This work presents a new approach to calculate and extend DoM to deal with three or more objectives. The idea is to use a mixed integer programming (MIP) approach to calculate DoM. Some initial experiments, in the biobjective space, were done to verify the model correctness. Furthermore, other experiments, using three, five, and ten objective functions were done to show how the model behaves in higher dimensional cases. Algorithms such as IBEA, MOEAD, NSGAIII, NSGAII, and SPEA2 were used to generate the solution sets, however any other algorithms could be used with DoM indicator. The results have confirmed the effectiveness of the MIP DoM in problems with more than three objective functions. Final notes, considerations, and future research are discussed to exploit some solution sets particularities and improve the model and its use for other situations.
翻訳日:2023-01-12 23:04:07 公開日:2020-01-10
# PROMOTHEE法による遺伝的アルゴリズムのハイブリダイゼーションによる最適化:多基準局所化の管理

Optimization by Hybridization of a Genetic Algorithm with the PROMOTHEE Method: Management of Multicriteria Localization ( http://arxiv.org/abs/2002.04068v1 )

ライセンス: Link先を確認
Myriem Alijo, Otman Abdoun, Mostafa Bachran, Amal Bergam(参考訳) 1つまたは複数の国の経済活動を特定する決定は多くのパラメータと基準を考慮している。 この分野ではいくつかの研究が行われてきたが、一般的には少ない文脈で情報を使用する。 この研究は、遺伝的アルゴリズム、経済インテリジェンス(EI)、マルチ基準分析(MCA)を通じて、領域のローカライゼーションの意思決定を改善するためのハイブリダイゼーション(ハイブリダイゼーション)である。 その目的は、企業が競争上の優位性を享受できる場所にその活動を見つけるように導くことだ。 この研究はまた、経済関係者の決定に影響を及ぼすすべてのパラメータを特定し、それらに、その場所に適した国、地域、部門をマッピングするために利用可能なすべての国内および国際データを使用するツールを提供する。 本研究を通じて, 遺伝的アルゴリズムを用いたマルチ基準に基づくハイブリッド型経済インテリジェンスモデルの実現を目指して, ローカライゼーションの決定を最適化する目的で, 様々なビジョンと様々な視点の最良の妥協を得られる ProMETHEE (Preference Ranking Organization for Enrichment Evaluation) の手法を選択した。

The decision to locate an economic activity of one or several countries is made taking into account numerous parameters and criteria. Several studies have been carried out in this field, but they generally use information in a reduced context. The majority are based solely on parameters, using traditional methods which often lead to unsatisfactory solutions.This work consists in hybridizing through genetic algorithms, economic intelligence (EI) and multicriteria analysis methods (MCA) to improve the decisions of territorial localization. The purpose is to lead the company to locate its activity in the place that would allow it a competitive advantage. This work also consists of identifying all the parameters that can influence the decision of the economic actors and equipping them with tools using all the national and international data available to lead to a mapping of countries, regions or departments favorable to the location. Throughout our research, we have as a goal the realization of a hybrid conceptual model of economic intelligence based on multicriteria on with genetic algorithms in order to optimize the decisions of localization, in this perspective we opted for the method of PROMETHEE (Preference Ranking Organization for Method of Enrichment Evaluation), which has made it possible to obtain the best compromise between the various visions and various points of view.
翻訳日:2023-01-12 23:03:46 公開日:2020-01-10
# 救急車の経路と位置に関する包括的調査

A Comprehensive Survey on the Ambulance Routing and Location Problems ( http://arxiv.org/abs/2001.05288v1 )

ライセンス: Link先を確認
Joseph Tassone, Salimur Choudhury(参考訳) 本研究では, 救急経路問題(ARP)と救急位置問題(ALP)の最近の進展について, 広範な文献レビューを行った。 どちらも、車両ルーティング問題(VRP)と最大被覆問題(MCP)のそれぞれの修正であり、目的関数や制約に対する修正である。 同様に、重要な違いは緊急サービスシステム(EMS)が重要であり、その結果、これらの最適化がより重要になっていることである。 親問題と同様に、これらはNPハードであり、空間サイズが大きすぎると近似に頼らなければならない。 現在の作業の多くは、より受け入れられる結果を達成するためにシミュレーションを通じて既存のシステムを変更することにある。 メタヒューリスティックの使用は試みられているが、実際の実験はvrpやmcpと比較すると不足している。 この研究の貢献は、現在の方法論の包括的な調査、要約モデル、今後の改善の提案である。

In this research, an extensive literature review was performed on the recent developments of the ambulance routing problem (ARP) and ambulance location problem (ALP). Both are respective modifications of the vehicle routing problem (VRP) and maximum covering problem (MCP), with modifications to objective functions and constraints. Although alike, a key distinction is emergency service systems (EMS) are considered critical and the optimization of these has become all the more important as a result. Similar to their parent problems, these are NP-hard and must resort to approximations if the space size is too large. Much of the current work has simply been on modifying existing systems through simulation to achieve a more acceptable result. There has been attempts towards using meta-heuristics, though practical experimentation is lacking when compared to VRP or MCP. The contributions of this work are a comprehensive survey of current methodologies, summarized models, and suggested future improvements.
翻訳日:2023-01-12 23:03:22 公開日:2020-01-10
# 360{\deg}画像における視覚的質問応答

Visual Question Answering on 360{\deg} Images ( http://arxiv.org/abs/2001.03339v1 )

ライセンス: Link先を確認
Shih-Han Chou, Wei-Lun Chao, Wei-Sheng Lai, Min Sun, Ming-Hsuan Yang(参考訳) 本稿では,360 画像上で視覚的質問応答を行う新しいタスクである VQA 360 を紹介する。 通常の視野画像とは異なり、360度画像はカメラの光学中心周辺の視覚コンテンツをキャプチャし、より洗練された空間理解と推論を要求する。 この問題に対処するために、我々はVQA 360の最初のデータセットを収集し、様々な質問タイプのための17,000の現実世界の画像検索用トリプルを含む。 次に,vqa 360上の2つのvqaモデルについて検討した。入力として等角像(内在的歪みを伴う)を取る従来モデルと,まずキューブマップに360画像を投影し,その後に複数の空間分解能から情報を集約する専用モデルである。 マルチレベル融合およびアテンション拡散を伴う立方体マップモデルが他の変種や等方形モデルに対して好適に動作することを示す。 それでも、人間と機械の性能のギャップは、より高度なVQA 360アルゴリズムの必要性を明らかにしている。 したがって、我々のデータセットと研究がこの挑戦的なタスクにおける将来の開発のためのベンチマークになることを期待しています。 データセット、コード、事前訓練されたモデルはオンラインで入手できる。

In this work, we introduce VQA 360, a novel task of visual question answering on 360 images. Unlike a normal field-of-view image, a 360 image captures the entire visual content around the optical center of a camera, demanding more sophisticated spatial understanding and reasoning. To address this problem, we collect the first VQA 360 dataset, containing around 17,000 real-world image-question-answer triplets for a variety of question types. We then study two different VQA models on VQA 360, including one conventional model that takes an equirectangular image (with intrinsic distortion) as input and one dedicated model that first projects a 360 image onto cubemaps and subsequently aggregates the information from multiple spatial resolutions. We demonstrate that the cubemap-based model with multi-level fusion and attention diffusion performs favorably against other variants and the equirectangular-based models. Nevertheless, the gap between the humans' and machines' performance reveals the need for more advanced VQA 360 algorithms. We, therefore, expect our dataset and studies to serve as the benchmark for future development in this challenging task. Dataset, code, and pre-trained models are available online.
翻訳日:2023-01-12 23:02:50 公開日:2020-01-10
# Cat Swarm Optimization Algorithm -- 調査と性能評価

Cat Swarm Optimization Algorithm -- A Survey and Performance Evaluation ( http://arxiv.org/abs/2001.11822v1 )

ライセンス: Link先を確認
Aram M. Ahmed, Tarik A. Rashid, Soran Ab. M. Saeed(参考訳) 本稿では,キャットスワム最適化(CSO)アルゴリズムの詳細な調査と性能評価について述べる。 CSOは強力なメタヒューリスティックなSwarmベースの最適化アプローチであり、その出現以来非常に肯定的なフィードバックを受けている。 多くの最適化問題に対処しており、多くのバリエーションが導入されている。 しかし、この点については詳細な調査や性能評価が欠けている。 そこで本論文は,開発や応用など,これらすべての成果をレビューし,それに応じてグループ化する試みである。 さらに、CSOは23の古典的なベンチマーク関数と10のモダンなベンチマーク関数(CEC 2019)でテストされている。 結果は、Dragonflyアルゴリズム(DA)、Butterfly最適化アルゴリズム(BOA)、Fitness Dependent Optimizer(FDO)の3つの新しい強力な最適化アルゴリズムと比較される。 これらのアルゴリズムはフリードマンテストに従ってランク付けされ、結果からcsoが全体第1位であることが分かる。 最後に、統計学的手法を用いてCSOアルゴリズムの性能を更に確認する。

This paper presents an in-depth survey and performance evaluation of the Cat Swarm Optimization (CSO) Algorithm. CSO is a robust and powerful metaheuristic swarm-based optimization approach that has received very positive feedback since its emergence. It has been tackling many optimization problems and many variants of it have been introduced. However, the literature lacks a detailed survey or a performance evaluation in this regard. Therefore, this paper is an attempt to review all these works, including its developments and applications, and group them accordingly. In addition, CSO is tested on 23 classical benchmark functions and 10 modern benchmark functions (CEC 2019). The results are then compared against three novel and powerful optimization algorithms, namely Dragonfly algorithm (DA), Butterfly optimization algorithm (BOA) and Fitness Dependent Optimizer (FDO). These algorithms are then ranked according to Friedman test and the results show that CSO ranks first on the whole. Finally, statistical approaches are employed to further confirm the outperformance of CSO algorithm.
翻訳日:2023-01-12 22:57:01 公開日:2020-01-10
# 自律型水中車両の経路追従のためのディープインタラクティブ強化学習

Deep Interactive Reinforcement Learning for Path Following of Autonomous Underwater Vehicle ( http://arxiv.org/abs/2001.03359v1 )

ライセンス: Link先を確認
Qilei Zhang, Jinying Lin, Qixin Sha, Bo He and Guangliang Li(参考訳) 自律型水中車両(AUV)は、海洋探査においてますます重要な役割を担っている。 既存のAUVは通常完全に自律的ではなく、一般に事前計画や事前プログラミングに限られる。 強化学習(RL)と深層強化学習がAUVの設計と研究に導入され、その自律性が改善されている。 しかし,これらの手法は低報酬と低学習効率のため,実際のAUVシステムに直接適用することは依然として困難である。 本稿では,深部強化学習と対話的RLの利点を組み合わせることで,AUVの経路追従に対する深い対話的強化学習法を提案する。 また、ヒトトレーナーは、海中を走行中はauvに対して人間の報酬を提供できず、auvは変化する環境に適応する必要があるため、人間の報酬と環境報酬の両方から同時に学習する深い強化学習方法を提案する。 提案手法は,ガゼボプラットフォーム上でのシミュレーションにより,AUVの直線と正弦波曲線の2つの経路で検証する。 実験の結果,提案手法により,AUVは環境報酬のみからDQN学習者よりも高速に収束できることがわかった。 さらに,人間と環境の両方からの深いrlによるauv学習は,深層対話型rl法と同等あるいはそれ以上の性能を達成でき,環境報酬からさらに学習することで実際の環境に適応することができる。

Autonomous underwater vehicle (AUV) plays an increasingly important role in ocean exploration. Existing AUVs are usually not fully autonomous and generally limited to pre-planning or pre-programming tasks. Reinforcement learning (RL) and deep reinforcement learning have been introduced into the AUV design and research to improve its autonomy. However, these methods are still difficult to apply directly to the actual AUV system because of the sparse rewards and low learning efficiency. In this paper, we proposed a deep interactive reinforcement learning method for path following of AUV by combining the advantages of deep reinforcement learning and interactive RL. In addition, since the human trainer cannot provide human rewards for AUV when it is running in the ocean and AUV needs to adapt to a changing environment, we further propose a deep reinforcement learning method that learns from both human rewards and environmental rewards at the same time. We test our methods in two path following tasks---straight line and sinusoids curve following of AUV by simulating in the Gazebo platform. Our experimental results show that with our proposed deep interactive RL method, AUV can converge faster than a DQN learner from only environmental reward. Moreover, AUV learning with our deep RL from both human and environmental rewards can also achieve a similar or even better performance than that with the deep interactive RL method and can adapt to the actual environment by further learning from environmental rewards.
翻訳日:2023-01-12 22:56:45 公開日:2020-01-10
# 階層エッジコンピューティングにおけるIoTデータの適応的異常検出

Adaptive Anomaly Detection for IoT Data in Hierarchical Edge Computing ( http://arxiv.org/abs/2001.03314v1 )

ライセンス: Link先を確認
Mao V. Ngo, Hakima Chaouchi, Tie Luo, Tony Q.S. Quek(参考訳) ディープニューラルネットワーク(DNN)の進歩は、異常なIoTデータのリアルタイム検出を大幅に加速させる。 しかし、IoTデバイスは計算能力とエネルギー供給が限られているため、複雑なDNNモデルにはほとんど余裕がない。 異常検出タスクをクラウドにオフロードすることも可能だが、長時間の遅延が発生し、何千ものIoTデバイスが同時にクラウドにデータをストリーミングする場合、大きな帯域幅が必要になる。 本稿では,階層型エッジコンピューティング(hec)システムに対する適応的異常検出手法を提案する。 具体的には、複雑性を増大させる3つの異常検出DNNモデルを構築し、それらを、IoTデバイス、エッジサーバ、クラウドという、下位から上位までの3つのHECのレイヤと関連付ける。 そこで我々は,入力データから抽出した文脈情報に基づいてモデルの1つを選択する適応型スキームを設計し,異常検出を行う。 この選択は文脈的バンディット問題として定式化され、高い検出精度と低い検出遅延を同時に達成する1ステップのマルコフ決定プロセスによって特徴付けられる。 提案手法を実際のIoTデータセットを用いて評価し,検出タスクをクラウドにオフロードするのとほぼ同じ精度を維持しながら,検出遅延を84%削減できることを実証した。 さらに,評価結果から,他のベースライン方式よりも優れた性能を示した。

Advances in deep neural networks (DNN) greatly bolster real-time detection of anomalous IoT data. However, IoT devices can barely afford complex DNN models due to limited computational power and energy supply. While one can offload anomaly detection tasks to the cloud, it incurs long delay and requires large bandwidth when thousands of IoT devices stream data to the cloud concurrently. In this paper, we propose an adaptive anomaly detection approach for hierarchical edge computing (HEC) systems to solve this problem. Specifically, we first construct three anomaly detection DNN models of increasing complexity, and associate them with the three layers of HEC from bottom to top, i.e., IoT devices, edge servers, and cloud. Then, we design an adaptive scheme to select one of the models based on the contextual information extracted from input data, to perform anomaly detection. The selection is formulated as a contextual bandit problem and is characterized by a single-step Markov decision process, with an objective of achieving high detection accuracy and low detection delay simultaneously. We evaluate our proposed approach using a real IoT dataset, and demonstrate that it reduces detection delay by 84% while maintaining almost the same accuracy as compared to offloading detection tasks to the cloud. In addition, our evaluation also shows that it outperforms other baseline schemes.
翻訳日:2023-01-12 22:56:21 公開日:2020-01-10
# 機械学習のためのテンソルネットワークの空間勾配最適化

Tangent-Space Gradient Optimization of Tensor Network for Machine Learning ( http://arxiv.org/abs/2001.04029v1 )

ライセンス: Link先を確認
Zheng-zhi Sun, Shi-ju Ran and Gang Su(参考訳) 深層機械学習モデルの勾配に基づく最適化手法は、特に計算グラフが深い場合には、勾配の消失と爆発に苦しむ。 本研究では,確率モデルに対して,勾配の消滅や爆発を防止するために,タンジェント空間勾配最適化(TSGO)を提案する。 中心となる考え方は、変動パラメータと勾配の間の直交性を保証することである。 次に、勾配方向の回転パラメータベクトルにより最適化を行う。 テンソルネットワーク(TN)におけるTSGOの説明と検証を行い、TNはヒルベルト空間における結合確率分布を正規化状態 $\left| \psi \right\rangle $ と記述する。 勾配は$\left\langle \psi \right の接空間において制限可能であることを示す。 左| \psi \right\rangle = 1$ hyper-sphere。 深層学習における学習率を制御するための追加の適応的手法の代わりに、TSGOの学習率は自然に$\theta $ as $\eta = \tan \theta $である。 数値計算の結果,市販のAdamと比較してTSGOの収束性は良好であった。

The gradient-based optimization method for deep machine learning models suffers from gradient vanishing and exploding problems, particularly when the computational graph becomes deep. In this work, we propose the tangent-space gradient optimization (TSGO) for the probabilistic models to keep the gradients from vanishing or exploding. The central idea is to guarantee the orthogonality between the variational parameters and the gradients. The optimization is then implemented by rotating parameter vector towards the direction of gradient. We explain and testify TSGO in tensor network (TN) machine learning, where the TN describes the joint probability distribution as a normalized state $\left| \psi \right\rangle $ in Hilbert space. We show that the gradient can be restricted in the tangent space of $\left\langle \psi \right.\left| \psi \right\rangle = 1$ hyper-sphere. Instead of additional adaptive methods to control the learning rate in deep learning, the learning rate of TSGO is naturally determined by the angle $\theta $ as $\eta = \tan \theta $. Our numerical results reveal better convergence of TSGO in comparison to the off-the-shelf Adam.
翻訳日:2023-01-12 22:55:14 公開日:2020-01-10
# tableqna: webテーブルでリストインテントクエリに応答する

TableQnA: Answering List Intent Queries With Web Tables ( http://arxiv.org/abs/2001.04828v1 )

ライセンス: Link先を確認
Kaushik Chakrabarti, Zhimin Chen, Siamak Shakeri, Guihong Cao, Surajit Chaudhuri(参考訳) web には膨大な html テーブルのコーパスがある。 多くのWebクエリに対する直接的な回答を提供するために使用できる。 私たちはこれらのテーブルでクエリの2つのクラスに答えることに集中しています。エンティティのリストを求めるもの(例:カリフォルニアのシティ)と最上級のエンティティを求めるもの(例:カリフォルニア最大の都市)です。 主な課題は、かなりのカバレッジで高精度を達成することです。 既存のアプローチでは、候補からの回答を選択するために機械学習モデルをトレーニングしている。クエリとテーブルの内容のテキストマッチング機能と、テーブルの品質/インポータンスをキャプチャする機能に依存している。 これらの特徴だけでは、上記の目標を達成するには不十分です。 主な洞察は 精度を向上できることです i) 上記クエリクラスに対するクエリから最初にインテント(構造化情報)を抽出し、 (ii)次に、抽出した意図と回答を選択する候補との間に構造認識マッチング(単にテキストマッチングではなく)を行う。 私たちは (i)シーケンスタグ付けタスクとして。 単語埋め込みによる最先端のディープニューラルネットワークモデルを活用する。 本モデルでは,手作業によるラベリングで取得に費用がかかる大規模トレーニングデータを必要とするため,トレーニングデータを自動的に生成する新しい手法を開発した。 のために (II) 構造認識マッチングを計算し, 機械学習モデルを訓練する新機能を開発する。 実生活におけるweb検索クェリの実験から i) リストおよび最上級のインテントクエリのインテント抽出器は,ベースラインアプローチに比べて精度とカバレッジが有意に高い。 (ii)我々の表回答セレクタは,最先端のベースラインアプローチを著しく上回っている。 この技術は、MicrosoftのBing検索エンジンで2016年から生産されている。

The web contains a vast corpus of HTML tables. They can be used to provide direct answers to many web queries. We focus on answering two classes of queries with those tables: those seeking lists of entities (e.g., `cities in california') and those seeking superlative entities (e.g., `largest city in california'). The main challenge is to achieve high precision with significant coverage. Existing approaches train machine learning models to select the answer from the candidates; they rely on textual match features between the query and the content of the table along with features capturing table quality/importance. These features alone are inadequate for achieving the above goals. Our main insight is that we can improve precision by (i) first extracting intent (structured information) from the query for the above query classes and (ii) then performing structure-aware matching (instead of just textual matching) between the extracted intent and the candidates to select the answer. We model (i) as a sequence tagging task. We leverage state-of-the-art deep neural network models with word embeddings. The model requires large scale training data which is expensive to obtain via manual labeling; we therefore develop a novel method to automatically generate the training data. For (ii), we develop novel features to compute structure-aware match and train a machine learning model. Our experiments on real-life web search queries show that (i) our intent extractor for list and superlative intent queries has significantly higher precision and coverage compared with baseline approaches and (ii) our table answer selector significantly outperforms the state-of-the-art baseline approach. This technology has been used in production by Microsoft's Bing search engine since 2016.
翻訳日:2023-01-12 22:54:54 公開日:2020-01-10
# 驚くべき密度を持つ説明可能な部分グラフ:サブグループ発見アプローチ

Explainable Subgraphs with Surprising Densities: A Subgroup Discovery Approach ( http://arxiv.org/abs/2002.00793v1 )

ライセンス: Link先を確認
Junning Deng, Bo Kang, Jefrey Lijffijt, Tijl De Bie(参考訳) グラフの接続構造は典型的にはノードの属性と関連している。 例えば、ソーシャルネットワークでは、2人の友人関係の確率は、年齢、住所、趣味などの属性に依存する。 したがって、グラフの接続性は「性質 X を持つ個人の部分群は、性質 Y を持つ別の部分群に属する個人としばしば(あるいは稀に)親しくなる」という形式のパターンで理解することができる。 このような規則はグラフに対する潜在的に作用可能で一般化可能な洞察を与える。 本稿では,興味のある情報理論的な定義を用いて,エッジ密度が興味深いか低い一対のノード部分群を探索する手法を提案する。 この興味深い点は、分析者がグラフについて持つ事前情報とは対照的に、主観的に定量化される。 この考え方はすぐにこのようなパターンの反復的なマイニングを可能にします。 本研究は,高密度部分グラフマイニング(すなわち,単一部分群によって誘発される部分グラフ)の先行研究を一般化する。 さらに,提案手法がより一般的であるだけでなく,単一部分群特殊ケースに対する実用的メリットも示している。

The connectivity structure of graphs is typically related to the attributes of the nodes. In social networks for example, the probability of a friendship between two people depends on their attributes, such as their age, address, and hobbies. The connectivity of a graph can thus possibly be understood in terms of patterns of the form 'the subgroup of individuals with properties X are often (or rarely) friends with individuals in another subgroup with properties Y'. Such rules present potentially actionable and generalizable insights into the graph. We present a method that finds pairs of node subgroups between which the edge density is interestingly high or low, using an information-theoretic definition of interestingness. This interestingness is quantified subjectively, to contrast with prior information an analyst may have about the graph. This view immediately enables iterative mining of such patterns. Our work generalizes prior work on dense subgraph mining (i.e. subgraphs induced by a single subgroup). Moreover, not only is the proposed method more general, we also demonstrate considerable practical advantages for the single subgroup special case.
翻訳日:2023-01-12 22:54:29 公開日:2020-01-10
# seismiqb - 地震データを用いた深層学習のための新しい枠組み

SeismiQB -- a novel framework for deep learning with seismic data ( http://arxiv.org/abs/2001.06416v1 )

ライセンス: Link先を確認
Alexander Koryagin, Roman Khudorozhkov, Sergey Tsimfer, Darima Mylzenova(参考訳) 近年、深層ニューラルネットワークは、単純な分類から細かい境界アノテーションまで、様々な画像関連タスクを解決するために多くの領域でうまく採用されている。 当然、多くの研究が地質問題の解決にそれを使うことを提案した。 残念なことに、多くの耐震処理ツールは機械学習の時代以前に開発され、地震キューブを格納するための最も一般的なSEG-Yデータフォーマットを含む。 その低負荷速度は実験の速度を著しく阻害し、許容される結果を得るのに不可欠である。 さらに悪いことに、体積(例えば地震地平線)の中に表面を保存するために広く使われる形式は存在しない。 これらの問題に対処するため、ニューラルネットワークの操作を重視したオープンソースのPythonフレームワークを開発しました。 (i)複数のデータフォーマットで高速に地震波キューブをロードし、それらを変換する。 (二 所望の形状の作物を生産し、様々な変遷により増補すること。) (iii)立方体データをラベル付き地平線その他のジオボディーと組み合わせること。

In recent years, Deep Neural Networks were successfully adopted in numerous domains to solve various image-related tasks, ranging from simple classification to fine borders annotation. Naturally, many researches proposed to use it to solve geological problems. Unfortunately, many of the seismic processing tools were developed years before the era of machine learning, including the most popular SEG-Y data format for storing seismic cubes. Its slow loading speed heavily hampers experimentation speed, which is essential for getting acceptable results. Worse yet, there is no widely-used format for storing surfaces inside the volume (for example, seismic horizons). To address these problems, we've developed an open-sourced Python framework with emphasis on working with neural networks, that provides convenient tools for (i) fast loading seismic cubes in multiple data formats and converting between them, (ii) generating crops of desired shape and augmenting them with various transformations, and (iii) pairing cube data with labeled horizons or other types of geobodies.
翻訳日:2023-01-12 22:53:55 公開日:2020-01-10
# より良い圧縮と敵対的ロバスト性を実現するためのガイド

Guess First to Enable Better Compression and Adversarial Robustness ( http://arxiv.org/abs/2001.03311v1 )

ライセンス: Link先を確認
Sicheng Zhu, Bang An, Shiyu Niu(参考訳) 機械学習モデルは一般的に、人間の頑健さとは対照的に、敵対的な例に弱い。 本稿では,人間認識のメカニズムの1つを活用し,ラベル仮説に基づいてモデル推論を行うバイオインスパイアされた分類フレームワークを提案する。 本稿では,このフレームワークの学習目標のクラスと,推論中にラベル情報を破棄できるという利点を生かした情報ボトルネック調整器を提案する。 このフレームワークは、扱いやすい推論の複雑さを犠牲にして、学習能力を失うことなく、入力と潜在表現の間の相互情報のより優れた圧縮を可能にする。 ラベル情報の圧縮と削除により, 自然な精度を損なうことなく, 敵の頑健性がさらに向上し, 実験で実証された。

Machine learning models are generally vulnerable to adversarial examples, which is in contrast to the robustness of humans. In this paper, we try to leverage one of the mechanisms in human recognition and propose a bio-inspired classification framework in which model inference is conditioned on label hypothesis. We provide a class of training objectives for this framework and an information bottleneck regularizer which utilizes the advantage that label information can be discarded during inference. This framework enables better compression of the mutual information between inputs and latent representations without loss of learning capacity, at the cost of tractable inference complexity. Better compression and elimination of label information further bring better adversarial robustness without loss of natural accuracy, which is demonstrated in the experiment.
翻訳日:2023-01-12 22:46:45 公開日:2020-01-10
# 低損失でサンプルを選択するSGD Robust

Choosing the Sample with Lowest Loss makes SGD Robust ( http://arxiv.org/abs/2001.03316v1 )

ライセンス: Link先を確認
Vatsal Shah, Xiaoxia Wu, Sujay Sanghavi(参考訳) 外れ値の存在は、確率勾配降下(SGD)によってトレーニングされた機械学習モデルのパラメータを著しく歪める可能性がある。 本稿では,単純な sgd 法の簡易な変種を提案する。各ステップでまず k 個のサンプルを選択し,それから最小の電流損失を持つサンプルを選択し,このサンプルで sgd 風の更新を行う。 バニラ SGD は k = 1、すなわち選択しない; k >= 2 は、しかしながら非凸代理損失を効果的に最小化する新しいアルゴリズムを表す。 我々の主な貢献は、凸損失の和であるML問題に対するこの考え方の堅牢性に関する理論的解析である。

The presence of outliers can potentially significantly skew the parameters of machine learning models trained via stochastic gradient descent (SGD). In this paper we propose a simple variant of the simple SGD method: in each step, first choose a set of k samples, then from these choose the one with the smallest current loss, and do an SGD-like update with this chosen sample. Vanilla SGD corresponds to k = 1, i.e. no choice; k >= 2 represents a new algorithm that is however effectively minimizing a non-convex surrogate loss. Our main contribution is a theoretical analysis of the robustness properties of this idea for ML problems which are sums of convex losses; these are backed up with linear regression and small-scale neural network experiments
翻訳日:2023-01-12 22:46:32 公開日:2020-01-10
# ニューラルネットワークを用いた学習におけるプラトー現象のデータ依存 ---統計力学的解析-

Data-Dependence of Plateau Phenomenon in Learning with Neural Network --- Statistical Mechanical Analysis ( http://arxiv.org/abs/2001.03371v1 )

ライセンス: Link先を確認
Yuki Yoshida, Masato Okada(参考訳) 学習過程で損失値の減少が止まる高原現象は、様々な研究者によって報告されている。 この現象は1990年代に積極的に検査され、ニューラルネットワークモデルの基本階層構造に起因することが判明した。 その後、この現象は避けられなくなった。 しかし、この現象は近年の深層学習の文脈ではほとんど起こらない。 理論と現実の間にはギャップがある。 本稿では,統計力学的定式化を用いて,台地現象と得られたデータの統計特性の関係を明らかにする。 共分散が小さく分散した固有値を持つデータは高原現象を目立たずにする傾向がある。

The plateau phenomenon, wherein the loss value stops decreasing during the process of learning, has been reported by various researchers. The phenomenon is actively inspected in the 1990s and found to be due to the fundamental hierarchical structure of neural network models. Then the phenomenon has been thought as inevitable. However, the phenomenon seldom occurs in the context of recent deep learning. There is a gap between theory and reality. In this paper, using statistical mechanical formulation, we clarified the relationship between the plateau phenomenon and the statistical property of the data learned. It is shown that the data whose covariance has small and dispersed eigenvalues tend to make the plateau phenomenon inconspicuous.
翻訳日:2023-01-12 22:46:19 公開日:2020-01-10
# エントロピー正規化パワーk平均クラスタリング

Entropy Regularized Power k-Means Clustering ( http://arxiv.org/abs/2001.03452v1 )

ライセンス: Link先を確認
Saptarshi Chakraborty, Debolina Paul, Swagatam Das, Jason Xu(参考訳) 既知の欠点にもかかわらず、$k$-meansは、データクラスタリングにおいて最も広く使われているアプローチの1つだ。 現在の研究は、シンプルさを保ちながら、欠陥に取り組み続けている。 近年,平滑な表面を熱処理することで局所ミニマのトラップを避けるために,textit{power $k$-means}アルゴリズムが提案されている。 しかし、このアプローチは理論的正当性が欠如しており、多くの特徴が無関係な場合には高次元で失敗する。 本稿では,アニーリング中に特徴の関連性を学ぶために, \textit{entropy regularization} を導入することで,これらの問題に対処する。 提案手法の一貫性を証明し,クローズドフォーム更新と収束保証を楽しむスケーラブルなメジャー化最小化アルゴリズムを導出する。 特に,本手法は,$k$-meansと$k$-meansの計算複雑性を保ちながら,両者よりも大幅に改善されている。 その利点は、実データと合成データの実験で徹底的に評価されている。

Despite its well-known shortcomings, $k$-means remains one of the most widely used approaches to data clustering. Current research continues to tackle its flaws while attempting to preserve its simplicity. Recently, the \textit{power $k$-means} algorithm was proposed to avoid trapping in local minima by annealing through a family of smoother surfaces. However, the approach lacks theoretical justification and fails in high dimensions when many features are irrelevant. This paper addresses these issues by introducing \textit{entropy regularization} to learn feature relevance while annealing. We prove consistency of the proposed approach and derive a scalable majorization-minimization algorithm that enjoys closed-form updates and convergence guarantees. In particular, our method retains the same computational complexity of $k$-means and power $k$-means, but yields significant improvements over both. Its merits are thoroughly assessed on a suite of real and synthetic data experiments.
翻訳日:2023-01-12 22:45:56 公開日:2020-01-10
# 一般化を必要とするGANベンチマークに向けて

Towards GAN Benchmarks Which Require Generalization ( http://arxiv.org/abs/2001.03653v1 )

ライセンス: Link先を確認
Ishaan Gulrajani, Colin Raffel, Luke Metz(参考訳) 非条件画像生成のベンチマークとして一般的に用いられる多くの評価指標において、トレーニングセットの記憶は最先端と見なされるモデルよりも良好なスコアが得られる。 評価指標がこのように振る舞わないために必要条件を明らかにする: 関数を推定するには、モデルから大きなサンプルが必要となる。 このようなメトリクスを探索する際、分布を区別するために訓練されたニューラルネットワークの用語で定義されるニューラルネットワーク分散(NND)に目を向ける。 結果として得られたベンチマークは、セットの暗記をトレーニングすることで“悪くなる”ことはできないが、サンプルからのみ知覚的に相関し、計算可能である。 評価にNNDを使うことに関する過去の研究を調査し、これらのアイデアに基づいたブラックボックスメトリクスの例を実装した。 実験により,多様性,サンプル品質,一般化を効果的に測定できることを示す。

For many evaluation metrics commonly used as benchmarks for unconditional image generation, trivially memorizing the training set attains a better score than models which are considered state-of-the-art; we consider this problematic. We clarify a necessary condition for an evaluation metric not to behave this way: estimating the function must require a large sample from the model. In search of such a metric, we turn to neural network divergences (NNDs), which are defined in terms of a neural network trained to distinguish between distributions. The resulting benchmarks cannot be "won" by training set memorization, while still being perceptually correlated and computable only from samples. We survey past work on using NNDs for evaluation and implement an example black-box metric based on these ideas. Through experimental validation we show that it can effectively measure diversity, sample quality, and generalization.
翻訳日:2023-01-12 22:45:39 公開日:2020-01-10
# network of steel: ヘビーメタルからコーポレートロゴへのニューラルネットワークフォントスタイル転送

Network of Steel: Neural Font Style Transfer from Heavy Metal to Corporate Logos ( http://arxiv.org/abs/2001.03659v1 )

ライセンス: Link先を確認
Aram Ter-Sarkisov(参考訳) 本稿では,重金属バンドのロゴからVGG16ネットワークを用いた企業ロゴへのスタイル転送手法を提案する。 我々は,異なるレイヤと損失係数の寄与を,スタイルの学習,アーティファクトの最小化,企業ロゴの可読性維持に確立する。 ヘビーメタルスタイルと企業ロゴの可読性との間に良いトレードオフをもたらす層と損失係数を見つけます。 これは、分散フォントスタイル転送と、生成ネットワークを用いた企業ロゴのデコレーションへの第一歩である。 ヘビーメタルとコーポレートのロゴは芸術的には全く異なり、感情と可読性を強調しているため、モデルを訓練して両者を融合させることは興味深い問題である。

We introduce a method for transferring style from the logos of heavy metal bands onto corporate logos using a VGG16 network. We establish the contribution of different layers and loss coefficients to the learning of style, minimization of artefacts and maintenance of readability of corporate logos. We find layers and loss coefficients that produce a good tradeoff between heavy metal style and corporate logo readability. This is the first step both towards sparse font style transfer and corporate logo decoration using generative networks. Heavy metal and corporate logos are very different artistically, in the way they emphasize emotions and readability, therefore training a model to fuse the two is an interesting problem.
翻訳日:2023-01-12 22:45:12 公開日:2020-01-10
# 音声の非同期部分タギングのための機械学習アプローチ

Machine Learning Approaches for Amharic Parts-of-speech Tagging ( http://arxiv.org/abs/2001.03324v1 )

ライセンス: Link先を確認
Ibrahim Gashaw and H L. Shashirekha(参考訳) 意味の曖昧さ、情報検索、情報処理、パース、質問応答、機械翻訳など、多くの自然言語処理(nlp)アプリケーションに必要な基本だが必要なツールの一つとして、pos(part-of-speech)タグがある。 アムハラ語における現在のPOSタグのパフォーマンスは、英語や他のヨーロッパの言語で利用可能な現代のPOSタグほど良くない。 この作業の目的は、91%を超えなかったAmharic言語のPOSタグ性能を改善することである。 形態的知識の利用,既存の注釈付きデータの拡張,特徴抽出,グリッド探索によるパラメータチューニング,タグ付けアルゴリズムなどについて検討し,先行研究と有意な性能差が得られた。 POS実験には3つの異なるデータセットを使用しました。

Part-of-speech (POS) tagging is considered as one of the basic but necessary tools which are required for many Natural Language Processing (NLP) applications such as word sense disambiguation, information retrieval, information processing, parsing, question answering, and machine translation. Performance of the current POS taggers in Amharic is not as good as that of the contemporary POS taggers available for English and other European languages. The aim of this work is to improve POS tagging performance for the Amharic language, which was never above 91%. Usage of morphological knowledge, an extension of the existing annotated data, feature extraction, parameter tuning by applying grid search and the tagging algorithms have been examined and obtained significant performance difference from the previous works. We have used three different datasets for POS experiments.
翻訳日:2023-01-12 22:44:59 公開日:2020-01-10
# retouchdown: streetlearnにタッチダウンを追加して、street viewで言語グラウンドタスクを共有する

Retouchdown: Adding Touchdown to StreetLearn as a Shareable Resource for Language Grounding Tasks in Street View ( http://arxiv.org/abs/2001.03671v1 )

ライセンス: Link先を確認
Harsh Mehta, Yoav Artzi, Jason Baldridge, Eugene Ie, Piotr Mirowski(参考訳) Touchdownデータセット(Chen et al., 2019)は、ニューヨーク市の通りを通るナビゲーションや、特定の場所での空間的記述の解決のための、人間のアノテーションによる指示を提供する。 幅広い研究コミュニティがTouchdownタスクを効果的に扱えるようにするために、Touchdownに必要な29kのストリートビューパノラマを公開しています。 私たちは、streetlearnデータリリース(mirowski et al., 2019)で使用されたプロセスに従って、個人を特定する情報のためにパノラマをチェックし、必要に応じてぼやけます。 これらはStreetLearnデータセットに追加され、以前StreetLearnで使用したのと同じプロセスで取得できる。 また,視覚と言語ナビゲーション(VLN)と空間記述分解能(SDR)という,タッチダウンタスクの参照実装も提供する。 chen et al.(2019)のモデル結果と比較し、streetlearnに追加したパノラマがタッチダウンタスクの両方を完全にサポートし、さらなる研究と比較に効果的に使用できることを示した。

The Touchdown dataset (Chen et al., 2019) provides instructions by human annotators for navigation through New York City streets and for resolving spatial descriptions at a given location. To enable the wider research community to work effectively with the Touchdown tasks, we are publicly releasing the 29k raw Street View panoramas needed for Touchdown. We follow the process used for the StreetLearn data release (Mirowski et al., 2019) to check panoramas for personally identifiable information and blur them as necessary. These have been added to the StreetLearn dataset and can be obtained via the same process as used previously for StreetLearn. We also provide a reference implementation for both of the Touchdown tasks: vision and language navigation (VLN) and spatial description resolution (SDR). We compare our model results to those given in Chen et al. (2019) and show that the panoramas we have added to StreetLearn fully support both Touchdown tasks and can be used effectively for further research and comparison.
翻訳日:2023-01-12 22:38:43 公開日:2020-01-10
# 自己スーパービジョンを用いた畳み込みニューラルネットワーク

Pruning Convolutional Neural Networks with Self-Supervision ( http://arxiv.org/abs/2001.03554v1 )

ライセンス: Link先を確認
Mathilde Caron, Ari Morcos, Piotr Bojanowski, Julien Mairal and Armand Joulin(参考訳) 教師なしのトレーニングを受けた畳み込みニューラルネットワークは、教師付き事前トレーニングのパフォーマンスに近くなるが、時にはさらに多くのパラメータが犠牲になる。 これらの大規模非教師付きコンネットからサブネットを抽出し、保存性能を低下させることが特に関心がある。 典型的なpruningメソッドは、同じタスクでprunedネットワークのパフォーマンスを維持しながら、タスクのトレーニング中に動作します。 しかし, 自己指導型特徴学習では, 下流タスクへの表現伝達性には依存しない。 したがって、この目的のために性能を維持することは、プルンされたサブネットワークが下流タスクの解決に効果的であることを保証するものではない。 本研究では,ラベルのないネットワーク(すなわち自己教師付きタスク)に対して,教師付き学習を主目的に開発された標準的な刈り取り手法について検討する。 ラベルの再学習において,ラベルの有無に関わらず得られたプルーニングマスクは同等の性能を示した。 興味深いことに、プルーニングは自己教師付きサブネットワーク表現の転送性能を保っている。

Convolutional neural networks trained without supervision come close to matching performance with supervised pre-training, but sometimes at the cost of an even higher number of parameters. Extracting subnetworks from these large unsupervised convnets with preserved performance is of particular interest to make them less computationally intensive. Typical pruning methods operate during training on a task while trying to maintain the performance of the pruned network on the same task. However, in self-supervised feature learning, the training objective is agnostic on the representation transferability to downstream tasks. Thus, preserving performance for this objective does not ensure that the pruned subnetwork remains effective for solving downstream tasks. In this work, we investigate the use of standard pruning methods, developed primarily for supervised learning, for networks trained without labels (i.e. on self-supervised tasks). We show that pruned masks obtained with or without labels reach comparable performance when re-trained on labels, suggesting that pruning operates similarly for self-supervised and supervised learning. Interestingly, we also find that pruning preserves the transfer performance of self-supervised subnetwork representations.
翻訳日:2023-01-12 22:38:22 公開日:2020-01-10
# トピックワードに着目したインダクティブ・ドキュメント・ネットワーク埋め込み

Inductive Document Network Embedding with Topic-Word Attention ( http://arxiv.org/abs/2001.03369v1 )

ライセンス: Link先を確認
Robin Brochier, Adrien Guille and Julien Velcin(参考訳) document network embeddedは、構造化されたテキストコーパスの表現を学習することを目的としている。 最近のアルゴリズムは、ノードに関連付けられたテキストコンテンツを定式化することで、ネットワーク埋め込みアプローチを拡張する。 ほとんどの場合、学習した表現を解釈することは困難である。 また,ネットワーク内では観測されない新しい文書の一般化にはほとんど重要でない。 本稿では,解釈可能かつインダクティブな文書ネットワークの埋め込み手法を提案する。 本稿では,単語と話題表現の相互作用に基づいて文書表現を生成する新しいメカニズムであるトピックワード注意(TWA)を紹介する。 我々は、ドキュメントネットワークの接続を利用して、これらの単語とトピックベクトルを一般モデルであるインダクティブドキュメントネットワーク埋め込み(IDNE)を通して訓練する。 定量的評価により,提案手法は様々なネットワーク上での最先端性能を実現し,そのモデルが意味的かつ解釈可能な単語,話題,文書の表現を生成することを示す。

Document network embedding aims at learning representations for a structured text corpus i.e. when documents are linked to each other. Recent algorithms extend network embedding approaches by incorporating the text content associated with the nodes in their formulations. In most cases, it is hard to interpret the learned representations. Moreover, little importance is given to the generalization to new documents that are not observed within the network. In this paper, we propose an interpretable and inductive document network embedding method. We introduce a novel mechanism, the Topic-Word Attention (TWA), that generates document representations based on the interplay between word and topic representations. We train these word and topic vectors through our general model, Inductive Document Network Embedding (IDNE), by leveraging the connections in the document network. Quantitative evaluations show that our approach achieves state-of-the-art performance on various networks and we qualitatively show that our model produces meaningful and interpretable representations of the words, topics and documents.
翻訳日:2023-01-12 22:38:01 公開日:2020-01-10
# カプセルネットワークを用いた野生大腸ポリープの診断

Diagnosing Colorectal Polyps in the Wild with Capsule Networks ( http://arxiv.org/abs/2001.03305v1 )

ライセンス: Link先を確認
Rodney LaLonde, Pujan Kandel, Concetto Spampinato, Michael B. Wallace, Ulas Bagci(参考訳) 大腸がんは、主にポリープと呼ばれる前駆的病変から発生し、がん関連死の主要な原因の1つである。 現在の臨床基準では、光学生検法の検査精度と感度が推奨レベルを下回るため、ポリープの切除および病理組織学的解析が必要である。 本研究では,大腸ポリープの光学的生検の可能性を改善するために,新しいカプセルネットワークアーキテクチャ(D-Caps)を設計する。 提案手法では,カプセル平均プーリング(cap)方式によるカプセル構造を改良し,大規模画像分類の効率化を図る。 従来の最先端畳み込みニューラルネットワーク(CNN)アプローチよりも最大43%改善した結果を実証した。 この研究は、新しいmayo polypデータセットに関する重要なベンチマークを提供しており、これまでのpolyp研究よりもかなり困難で大きなデータセットであり、利用可能なすべてのカテゴリ、イメージングデバイスとモダリティ、ai駆動の大腸癌スクリーニングシステムへの今後の方向性を促進するためのフォーカスモードを階層化している。 コードはhttps://github.com/lalonderodney/D-Capsで公開されている。

Colorectal cancer, largely arising from precursor lesions called polyps, remains one of the leading causes of cancer-related death worldwide. Current clinical standards require the resection and histopathological analysis of polyps due to test accuracy and sensitivity of optical biopsy methods falling substantially below recommended levels. In this study, we design a novel capsule network architecture (D-Caps) to improve the viability of optical biopsy of colorectal polyps. Our proposed method introduces several technical novelties including a novel capsule architecture with a capsule-average pooling (CAP) method to improve efficiency in large-scale image classification. We demonstrate improved results over the previous state-of-the-art convolutional neural network (CNN) approach by as much as 43%. This work provides an important benchmark on the new Mayo Polyp dataset, a significantly more challenging and larger dataset than previous polyp studies, with results stratified across all available categories, imaging devices and modalities, and focus modes to promote future direction into AI-driven colorectal cancer screening systems. Code is publicly available at https://github.com/lalonderodney/D-Caps .
翻訳日:2023-01-12 22:37:30 公開日:2020-01-10
# 時系列予測のための時折畳み込み畳み込みニューラルネットワーク

Temporally Folded Convolutional Neural Networks for Sequence Forecasting ( http://arxiv.org/abs/2001.03340v1 )

ライセンス: Link先を確認
Matthias Weissenbacher(参考訳) 本研究では,時系列予測に畳み込みニューラルネットワークを利用する新しい手法を提案する。 空間次元$D=1,2$のシーケンシャルデータの時間方向は、時空間$(D+1)$-次元畳み込みニューラルネットワークの入力として民主的に考慮される。 後者は、データストリームを$d +1 \to d$ 次元に減らし、続いて、この情報を使用して次の時間ステップを予測するインクリミテータセルが続く。 我々は,この戦略を,逐次MNISTおよびJSB合唱データセット上でのLSTMとLSTMの畳み込み性能とを実証的に比較した。 時間的折り畳み畳み畳み型畳み込みニューラルネットワーク (tfc) は, 従来の再帰的戦略を上回る可能性がある。

In this work we propose a novel approach to utilize convolutional neural networks for time series forecasting. The time direction of the sequential data with spatial dimensions $D=1,2$ is considered democratically as the input of a spatiotemporal $(D+1)$-dimensional convolutional neural network. Latter then reduces the data stream from $D +1 \to D$ dimensions followed by an incriminator cell which uses this information to forecast the subsequent time step. We empirically compare this strategy to convolutional LSTM's and LSTM's on their performance on the sequential MNIST and the JSB chorals dataset, respectively. We conclude that temporally folded convolutional neural networks (TFC's) may outperform the conventional recurrent strategies.
翻訳日:2023-01-12 22:37:13 公開日:2020-01-10
# microbatchgan:多者識別による多様性の促進

microbatchGAN: Stimulating Diversity with Multi-Adversarial Discrimination ( http://arxiv.org/abs/2001.03376v1 )

ライセンス: Link先を確認
Gon\c{c}alo Mordido, Haojin Yang, Christoph Meinel(参考訳) 本稿では,複数の識別器を用い,マイクロバッチと呼ばれる各ミニバッチの異なる部分を識別器に割り当てることで,GANのモード崩壊問題に取り組むことを提案する。 我々は,各識別器のタスクを,実検体と偽検体を区別することから,推定マイクロバッチ内外からの検体を多様性パラメータ$\alpha$を用いて識別することに変更する。 次に、ジェネレータは各ミニバッチのバラツキを促進させ、マイクロバッチの差別を各識別器で達成しにくくする。 したがって、フレームワーク内のすべてのモデルは、それぞれの損失を減らすために生成されたセットにバラエティを持つことの恩恵を受けます。 複数のデータセットの早期トレーニング段階から,我々のソリューションがサンプル多様性を促進する証拠を示す。

We propose to tackle the mode collapse problem in generative adversarial networks (GANs) by using multiple discriminators and assigning a different portion of each minibatch, called microbatch, to each discriminator. We gradually change each discriminator's task from distinguishing between real and fake samples to discriminating samples coming from inside or outside its assigned microbatch by using a diversity parameter $\alpha$. The generator is then forced to promote variety in each minibatch to make the microbatch discrimination harder to achieve by each discriminator. Thus, all models in our framework benefit from having variety in the generated set to reduce their respective losses. We show evidence that our solution promotes sample diversity since early training stages on multiple datasets.
翻訳日:2023-01-12 22:37:01 公開日:2020-01-10
# 最小スーパービジョンBERTによる文法誤差補正に向けて

Towards Minimal Supervision BERT-based Grammar Error Correction ( http://arxiv.org/abs/2001.03521v1 )

ライセンス: Link先を確認
Yiyuan Li, Antonios Anastasopoulos and Alan W Black(参考訳) 現在の文法的誤り訂正(GEC)モデルは、通常、タスクをシーケンス生成とみなし、大量の注釈付きデータを必要とし、データ制限された設定でアプリケーションを制限する。 我々は,事前学習した言語モデルから文脈情報を取り込んでアノテーションの活用と多言語シナリオの活用を試みる。 その結果、文法的誤り訂正タスクにおけるトランスフォーマー(bert)からの双方向エンコーダ表現の強い可能性を示す。

Current grammatical error correction (GEC) models typically consider the task as sequence generation, which requires large amounts of annotated data and limit the applications in data-limited settings. We try to incorporate contextual information from pre-trained language model to leverage annotation and benefit multilingual scenarios. Results show strong potential of Bidirectional Encoder Representations from Transformers (BERT) in grammatical error correction task.
翻訳日:2023-01-12 22:36:24 公開日:2020-01-10
# ニューラルマシン翻訳を改良するマルチタスク学習への学習

Learning to Multi-Task Learn for Better Neural Machine Translation ( http://arxiv.org/abs/2001.03294v1 )

ライセンス: Link先を確認
Poorya Zaremoodi, Gholamreza Haffari(参考訳) 並列文ペアの不足は、nmtがデータハングリーであるため、両言語による低リソースシナリオで高品質なニューラルマシン翻訳(nmt)モデルをトレーニングするための大きな課題である。 マルチタスク学習は、言語関連帰納バイアスをNMTに注入するエレガントな手法であり、補助構文および意味的タスクを用いて一般化を改善する。 しかし、課題は効果的なトレーニングスケジュールを策定することであり、トレーニングプロセス中に補助的なタスクをいつ利用すべきかを規定して、主翻訳タスクの知識ギャップを埋めることである。 トレーニングスケジュールの現在のアプローチは、様々なMTL設定で有効性が異なるハンドエンジニアリングヒューリスティックに基づいている。 そこで本研究では,MTL設定のためのトレーニングスケジュール学習,マルチタスク学習のための新しいフレームワークを提案する。 学習スケジュールをマルコフ決定プロセスとして定式化し,スケジューリング方針を学習するための政策学習手法の活用方法を提案する。 我々は,メインのnmtタスクの汎用性への貢献度に基づいて補助タスクの重要性度を動的に設定するoracle policyアルゴリズムを用いて,模倣学習フレームワーク内のトレーニングスケジュールポリシーを効果的かつ効率的に学習する。 低リソースのnmt設定による実験では、自動学習されたトレーニングスケジューラは最高のヒューリスティックと競争力があり、最大+1.1 bleuスコアの改善につながる。

Scarcity of parallel sentence pairs is a major challenge for training high quality neural machine translation (NMT) models in bilingually low-resource scenarios, as NMT is data-hungry. Multi-task learning is an elegant approach to inject linguistic-related inductive biases into NMT, using auxiliary syntactic and semantic tasks, to improve generalisation. The challenge, however, is to devise effective training schedules, prescribing when to make use of the auxiliary tasks during the training process to fill the knowledge gaps of the main translation task, a setting referred to as biased-MTL. Current approaches for the training schedule are based on hand-engineering heuristics, whose effectiveness vary in different MTL settings. We propose a novel framework for learning the training schedule, ie learning to multi-task learn, for the MTL setting of interest. We formulate the training schedule as a Markov decision process which paves the way to employ policy learning methods to learn the scheduling policy. We effectively and efficiently learn the training schedule policy within the imitation learning framework using an oracle policy algorithm that dynamically sets the importance weights of auxiliary tasks based on their contributions to the generalisability of the main NMT task. Experiments on low-resource NMT settings show the resulting automatically learned training schedulers are competitive with the best heuristics, and lead to up to +1.1 BLEU score improvements.
翻訳日:2023-01-12 22:36:17 公開日:2020-01-10