このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200526となっている論文です。

PDF登録状況(公開日: 20200526)

TitleAuthorsAbstract論文公表日・翻訳日
# 量子アニールにおけるトポロジカル欠陥生成の普遍性:キブル・ズーク機構とそれを超えるもの

Probing the Universality of Topological Defect Formation in a Quantum Annealer: Kibble-Zurek Mechanism and Beyond ( http://arxiv.org/abs/2001.11637v3 )

ライセンス: Link先を確認
Yuki Bando, Yuki Susa, Hiroki Oshiyama, Naokazu Shibata, Masayuki Ohzeki, Fernando Javier G\'omez-Ruiz, Daniel A. Lidar, Adolfo del Campo, Sei Suzuki, Hidetoshi Nishimori(参考訳) 量子相転移を駆動するシステムで生じるトポロジ的欠陥の数は、駆動時間とともにパワー・ロー・スケーリングを示す。 この普遍的なスケーリング法則は、キブルズレック機構(KZM)の鍵となる予測であり、ハードウェアベースの量子シミュレータを使ってそれをテストすることは、量子情報科学の目標である。 ここでは量子アニールを用いた実験を行う。 具体的には、2つの異なるd波量子アニーリングデバイス上での1次元横場イジングモデルによるトポロジカル欠陥形成の実験実験について報告する。 量子シミュレータの結果は、ランダム制御誤差や過渡的効果などの要因によって引き起こされるであろう理論からある程度の量的偏差とともに、位相フリップ誤差を伴うオープンシステム量子力学のkzmによって説明できることがわかった。 さらに,キンク数と崩壊の分布と累積分布における普遍性のシグネチャを同定することでkzmを超える物理学を探索し,量子シミュレータの結果と再び一致する。 これは、環境からの孤立を仮定する一般化KZM理論の理論的予測が、その元のスコープを越えてオープンシステムに適用されることを意味する。 我々はこの結果を広範な数値計算によって支援する。 これらの結果の代替的古典的解釈が可能であるかどうかを確認するために、スピンベクトルモンテカルロモデル(D-Waveデバイスの古典的記述候補)を用いた。 d波アニーリングデバイスから得られた実験データとの一致度は、古典的なスピンベクトルモンテカルロモデルよりも量子理論であるkzmの方が優れており、量子記述が好まれる。 我々の研究は、オープン量子システムにおける量子臨界ダイナミクスの実験的なテストを提供し、量子シミュレーション実験における新しい方向への道を開く。

The number of topological defects created in a system driven through a quantum phase transition exhibits a power-law scaling with the driving time. This universal scaling law is the key prediction of the Kibble-Zurek mechanism (KZM), and testing it using a hardware-based quantum simulator is a coveted goal of quantum information science. Here we provide such a test using quantum annealing. Specifically, we report on extensive experimental tests of topological defect formation via the one-dimensional transverse-field Ising model on two different D-Wave quantum annealing devices. We find that the quantum simulator results can indeed be explained by the KZM for open-system quantum dynamics with phase-flip errors, with certain quantitative deviations from the theory likely caused by factors such as random control errors and transient effects. In addition, we probe physics beyond the KZM by identifying signatures of universality in the distribution and cumulants of the number of kinks and their decay, and again find agreement with the quantum simulator results. This implies that the theoretical predictions of the generalized KZM theory, which assumes isolation from the environment, applies beyond its original scope to an open system. We support this result by extensive numerical computations. To check whether an alternative, classical interpretation of these results is possible, we used the spin-vector Monte Carlo model, a candidate classical description of the D-Wave device. We find that the degree of agreement with the experimental data from the D-Wave annealing devices is better for the KZM, a quantum theory, than for the classical spin-vector Monte Carlo model, thus favoring a quantum description of the device. Our work provides an experimental test of quantum critical dynamics in an open quantum system, and paves the way to new directions in quantum simulation experiments.
翻訳日:2023-06-05 02:47:43 公開日:2020-05-26
# Gompertzとロジスティック確率力学:進行中の探求の進歩

Gompertz and logistic stochastic dynamics: Advances in an ongoing quest ( http://arxiv.org/abs/2002.06409v2 )

ライセンス: Link先を確認
Nicola Cufaro Petroni, Salvatore De Martino and Silvio De Siena(参考訳) 本稿では,確率微分方程式 (sde) の解法とgompertz と logistic random dynamics を記述した fokker-planck 方程式の解法について概説する。 ゴアンペルツ SDE の解は完全に知られているが、ロジスティック SDE の解は明示的なプロセスとして提供されるが、その分布を閉形式で記述することはできない。 この迷路から抜け出す可能性に関する多くの詳細が論文や付録に記載されている。 また,適切な平均化や決定論的限界を行う可能性についても簡単に論じる。 量子調和振動子の確率力学にこれらの方程式を関連付ける可能性も提案されている:特に、量子定常状態に関連する方程式について検討する。

In this report we summarize a few methods for solving the stochastic differential equations (SDE) and the corresponding Fokker-Planck equations describing the Gompertz and logistic random dynamics. It is shown that the solutions of the Gompertz SDE are completely known, while for the logistic SDE's we provide the solution as an explicit process, but we can not yet write down its distributions in closed form. Many details of possible ways out of this maze are listed in the paper and its appendices. We also briefly discuss the prospects of performing a suitable averaging, or a deterministic limit. The possibility is also suggested of associating these equations to the stochastic mechanics of a quantum harmonic oscillator adopted as a tool serviceable also in the field of stochastic control: in particular we propose to investigate the equations associated to the quantum stationary states
翻訳日:2023-06-03 15:02:48 公開日:2020-05-26
# チャネルに対応する演算子システムの性質

Properties of operator systems, corresponding to channels ( http://arxiv.org/abs/2004.13661v2 )

ライセンス: Link先を確認
V.I. Yashin(参考訳) arXiv:0906.2527 で示され、有限次元ヒルベルト空間において、各作用素系はあるチャネルに対応し、この作用素系は作用素グラフとなる。 この研究は、この性質が無限次元の場合に持つ必要十分条件を見つけることに専念している。

It was shown in arXiv:0906.2527, that in finite-dimensional Hilbert spaces each operator system corresponds to some channel, for which this operator system will be an operator graph. This work is devoted to finding necessary and sufficient conditions for this property to hold in infinite-dimensional case.
翻訳日:2023-05-21 21:53:37 公開日:2020-05-26
# 古典ボソンサンプリングの高速化

Faster classical Boson Sampling ( http://arxiv.org/abs/2005.04214v2 )

ライセンス: Link先を確認
Peter Clifford and Rapha\"el Clifford(参考訳) ボソンサンプリングの導入以来、量子コンピューティングの世界では激しい研究の対象となっている。 タスクは、すべての$n \times n$ submatricesの集合から独立にサンプリングすることであり、より大きい$m \times n$ complex matrixの行から、サブマトリクスの永続性に関連する確率分布に従って作られる。 量子フォトニック効果を利用した実験システムは、原理上、高速でタスクを実行することができる。 古典計算の枠組みにおいて、aaronson と arkhipov (2011) は多項式階層が3階に崩壊しない限り、正確なボソンサンプリング問題は多項式時間では解けないことを示した。 実際、何年もの間、最も正確な古典的アルゴリズムはサンプルあたりのO({m+n-1 \choose n} n 2^n )$時間で実行され、量子計算の潜在的な速度優位性を強調した。 この利点はcliffordとclifford (2018) によって減らされ、o(n 2^n + \operatorname{poly}(m,n))$の時間と線形空間を取り、m$が$n$の多項式であるとき、1つの行列の永続性を計算する複雑さと一致するという、かなり高速な古典解が与えられた。 平均ケースタイムの複雑さが、$m$が$n$に比例する場合、ずっと高速なBoson Smplingのアルゴリズムを提示し続けます。 特に、$m = n$のとき、我々のアルゴリズムは平均でおよそ$O(n\cdot1.69^n)の時間で動作する。 この結果は、ボーソンサンプリングによる量子計算超越性を確立するのに必要な問題サイズをさらに増加させる。

Since its introduction Boson Sampling has been the subject of intense study in the world of quantum computing. The task is to sample independently from the set of all $n \times n$ submatrices built from possibly repeated rows of a larger $m \times n$ complex matrix according to a probability distribution related to the permanents of the submatrices. Experimental systems exploiting quantum photonic effects can in principle perform the task at great speed. In the framework of classical computing, Aaronson and Arkhipov (2011) showed that exact Boson Sampling problem cannot be solved in polynomial time unless the polynomial hierarchy collapses to the third level. Indeed for a number of years the fastest known exact classical algorithm ran in $O({m+n-1 \choose n} n 2^n )$ time per sample, emphasising the potential speed advantage of quantum computation. The advantage was reduced by Clifford and Clifford (2018) who gave a significantly faster classical solution taking $O(n 2^n + \operatorname{poly}(m,n))$ time and linear space, matching the complexity of computing the permanent of a single matrix when $m$ is polynomial in $n$. We continue by presenting an algorithm for Boson Sampling whose average-case time complexity is much faster when $m$ is proportional to $n$. In particular, when $m = n$ our algorithm runs in approximately $O(n\cdot1.69^n)$ time on average. This result further increases the problem size needed to establish quantum computational supremacy via Boson Sampling.
翻訳日:2023-05-20 22:17:57 公開日:2020-05-26
# Groverアルゴリズムの一般化版を用いた量子探索の最適化

Optimizing Quantum Search Using a Generalized Version of Grover's Algorithm ( http://arxiv.org/abs/2005.06468v2 )

ライセンス: Link先を確認
Austin Gilliam, Marco Pistoia, and Constantin Gonciulea(参考訳) グローバーの探索アルゴリズムは導入当時画期的なものであり、振幅増幅の基本的な手順は、量子状態に符号化された情報を抽出する他の多くのアルゴリズムやパターンの構成要素となっている。 本稿では,アルゴリズムの逆変換ステップの最適化について述べる。 この最適化は2つの目的を果たす: 実践的な観点からは、パフォーマンスの改善につながる可能性がある; 理論的には、このステップの実際の性質を新しい解釈へと導く。 このステップは反射であり、それを実現します (a)元の全零状態に戻る一般状態の重ね合わせをキャンセルすること。 b)全ゼロ状態の振幅の符号を反転させ、最後に (c) 重ね合わせ状態に戻ること。 重ね合わせをキャンセルする代わりに、我々の手法は反射をより容易にする別の状態に進むことができる。 集合と配列探索に対する我々のアプローチを検証し、実量子ハードウェア上で実験的に結果を確認する。

Grover's Search algorithm was a breakthrough at the time it was introduced, and its underlying procedure of amplitude amplification has been a building block of many other algorithms and patterns for extracting information encoded in quantum states. In this paper, we introduce an optimization of the inversion-by-the-mean step of the algorithm. This optimization serves two purposes: from a practical perspective, it can lead to a performance improvement; from a theoretical one, it leads to a novel interpretation of the actual nature of this step. This step is a reflection, which is realized by (a) cancelling the superposition of a general state to revert to the original all-zeros state, (b) flipping the sign of the amplitude of the all-zeros state, and finally (c) reverting back to the superposition state. Rather than canceling the superposition, our approach allows for going forward to another state that makes the reflection easier. We validate our approach on set and array search, and confirm our results experimentally on real quantum hardware.
翻訳日:2023-05-20 07:40:49 公開日:2020-05-26
# 自動走行システムのシナリオベーステストにおけるパスフェイル基準

Pass-Fail Criteria for Scenario-Based Testing of Automated Driving Systems ( http://arxiv.org/abs/2005.09417v2 )

ライセンス: Link先を確認
Robert Myers, Zeyn Saigol(参考訳) MUSICCプロジェクトは、自動走行システム(ADS)の検証のための型承認プロセスの一部として使用される概念実証シナリオデータベースを開発した。 このプロセスにはテスト結果を評価する高度に自動化された手段が含まれなければならない。 本稿では,ADSの動作安全性を正常な動作(例えば,コンポーネント障害や悪意のある動作を伴わない動的駆動タスクの性能)で評価するための枠組みを提案する。 ADS評価の上位評価基準を5つ同定した。 これらを実装するには、規範的(常に従わなければならない測定可能なルール)とリスクベース(あまり起こらない予期せぬ結果)の2つのタイプの結果スコアリングルールが必要です。 Scoringルールはプログラミング言語で定義され、シナリオ記述の一部として保存される。 リスクベースのルールは、1つのテストケースからパス/フェイルを決定できない。 その代わり、フレームワークは各機能シナリオ(共通の機能を持つテストケースの集合)の決定に達するように定義されます。 これは、多くの個々のテストにおける統計的パフォーマンスを考慮する。 仮説テストとシナリオ選択のためのこのフレームワークの意義を同定する。

The MUSICC project has created a proof-of-concept scenario database to be used as part of a type approval process for the verification of automated driving systems (ADS). This process must include a highly automated means of evaluating test results, as manual review at the scale required is impractical. This paper sets out a framework for assessing an ADS's behavioural safety in normal operation (i.e. performance of the dynamic driving task without component failures or malicious actions). Five top-level evaluation criteria for ADS performance are identified. Implementing these requires two types of outcome scoring rule: prescriptive (measurable rules which must always be followed) and risk-based (undesirable outcomes which must not occur too often). Scoring rules are defined in a programming language and will be stored as part of the scenario description. Risk-based rules cannot give a pass/fail decision from a single test case. Instead, a framework is defined to reach a decision for each functional scenario (set of test cases with common features). This considers statistical performance across many individual tests. Implications of this framework for hypothesis testing and scenario selection are identified.
翻訳日:2023-05-19 08:14:01 公開日:2020-05-26
# 量子多部マスク対量子誤り訂正符号

Quantum multipartite maskers vs quantum error-correcting codes ( http://arxiv.org/abs/2005.11169v2 )

ライセンス: Link先を確認
Kanyuan Han, Zhihua Guo, Huaixin Cao, Yuxing Du, and Chuan Yang(参考訳) modiらによって[prl 120, 230501 (2018)]で量子情報のマスキングが導入されたので、この話題に関する多くの議論が公開された。 本稿では,量子多部マスク(QMM)と量子誤り訂正符号(QECC)の関係について考察する。 もしすべての状態が$s|\psi\>$ of state $|\psi\>$ in $q$ が各サブシステムに対して同じ限界状態を持つなら、システムの純状態のサブセット $q$ がオペレータによって$s$ でマルチパーティタイトシステム $\h^{(n)$ にマスキングできると言う。 そのような$S$ a QMM を $Q$ と呼ぶ。 QMM を定式化することにより,QMM と QECC の関係が得られ,その範囲が任意の1つの消去チャネルの QECC である場合に限り,アイソメトリがシステムの全純状態の QMM であることを示す。 応用として、$\c^2$ から $\c^2\otimes\c^2\otimes\c^2$ への等尺普遍マスクが存在しないことを証明し、その後$\c^3$ の状態は等尺的に$\c^2\otimes\c^2\otimes\c^2$ にマスクできないことを証明する。 これは主要な結果に仮定を与え、[PRA 98, 062306 (2018)]のオープンな質問に対する否定的な回答をもたらす。 もう1つの応用は、$\C^d$の任意の量子状態は、トリパートイト系の任意の2つのサブシステム間の相関で完全に隠すことができ、一方、任意の量子状態は双パートイト系のサブシステム間の相関で完全に隠すことはできないことである [PRL 98, 080502 (2007)]。

Since masking of quantum information was introduced by Modi et al. in [PRL 120, 230501 (2018)], many discussions on this topic have been published. In this paper, we consider relationship between quantum multipartite maskers (QMMs) and quantum error-correcting codes (QECCs). We say that a subset $Q$ of pure states of a system $K$ can be masked by an operator $S$ into a multipartite system $\H^{(n)}$ if all of the image states $S|\psi\>$ of states $|\psi\>$ in $Q$ have the same marginal states on each subsystem. We call such an $S$ a QMM of $Q$. By establishing an expression of a QMM, we obtain a relationship between QMMs and QECCs, which reads that an isometry is a QMM of all pure states of a system if and only if its range is a QECC of any one-erasure channel. As an application, we prove that there is no an isometric universal masker from $\C^2$ into $\C^2\otimes\C^2\otimes\C^2$ and then the states of $\C^3$ can not be masked isometrically into $\C^2\otimes\C^2\otimes\C^2$. This gives a consummation to a main result and leads to a negative answer to an open question in [PRA 98, 062306 (2018)]. Another application is that arbitrary quantum states of $\C^d$ can be completely hidden in correlations between any two subsystems of the tripartite system $\C^{d+1}\otimes\C^{d+1}\otimes\C^{d+1}$, while arbitrary quantum states cannot be completely hidden in the correlations between subsystems of a bipartite system [PRL 98, 080502 (2007)].
翻訳日:2023-05-19 03:31:12 公開日:2020-05-26
# ブロックチェーンに基づく電子機器の逆ロジスティクスのためのトレーサビリティと監査フレームワーク--携帯電話の場合

A traceability and auditing framework for electronic equipment reverse logistics based on blockchain: the case of mobile phones ( http://arxiv.org/abs/2005.11556v2 )

ライセンス: Link先を確認
Thomas K. Dasaklis and Fran Casino and Constantinos Patsakis(参考訳) 人類は前例のないペースで電子廃棄物(e-waste)を生産する。 携帯電話や他の相互接続型スマートデバイスは、e-waste世代に大きな貢献をしている。 リバースロジスティクス(RL)活動は、携帯電話の終身管理において重要な役割を担っている。 しかし、携帯電話の再製造および/または改造は、運用の観点からだけでなく、データ管理およびプライバシーの観点からも困難である(eu一般データ保護規制指令のようなプライバシー関連規制の枠組みにより)。 本稿では,ブロックチェーン技術に基づく電子機器RLアクティビティのための,信頼性のないセキュアな分散フレームワークを提案する。 我々は,携帯電話のリメーク/リファービッシュ回収オプションを検討し,スマートコントラクト/ブロックチェーン技術に基づく自律的かつ効率的なバックエンドデータ共有アーキテクチャを開発し,リメーク/リファービッシュプロセスをすべて追跡する。 このアプローチの適用性を実証するために、スマートコントラクトとローカルプライベートブロックチェーンの機能セットを開発します。 今後の研究の成果とともに,本フレームワークのメリットをさらに議論する。

Human beings produce electronic waste (e-waste) at an unprecedented pace. Mobile phones and other inter-connected smart devices make a significant contribution to the generation of e-waste. Reverse logistics (RL) activities play an essential role in managing mobile phones during their end-of-life. However, remanufacturing and/or refurbishing of mobile phones might prove difficult not only from an operational point of view but also from a data management and privacy perspective (due to privacy-related regulatory frameworks like the EU General Data Protection Regulation directive). In this paper, we propose a distributed trustless and secure framework for electronic equipment RL activities based on blockchain technology. We consider the remanufacturing/refurbishing recovery option for mobile phones, and we develop an autonomous and effective back-end data sharing architecture based on smart contracts/blockchain technology for keeping track of all the remanufacturing/refurbishing processes. For demonstrating the applicability of our approach, we develop a functional set of smart contracts and a local private blockchain. The benefits of our framework are further discussed, along with fruitful areas for future research.
翻訳日:2023-05-18 23:28:11 公開日:2020-05-26
# フォトニック結晶導波路に結合した寒冷原子のランダム一重項位相

Random singlet phase of cold atoms coupled to a photonic crystal waveguide ( http://arxiv.org/abs/2005.11759v2 )

ライセンス: Link先を確認
David Z. Li, Marco T. Manzoni, and Darrick E. Chang(参考訳) フォトニック結晶導波路の近くに閉じ込められた冷たい原子からなるシステムは、最近量子原子-光界面のエキサイティングなプラットフォームとして登場した。 このようなシステムは、誘導光子によって媒介される原子の内部状態(スピン)間の可変な長距離相互作用の実現を可能にする。 現在、実験用プラットフォームは低い充填率で制限されており、原子番号は原子が閉じ込められる可能性のある部位の数よりもはるかに小さい。 ここでは、この状態が、典型的には短距離乱れ系に関連付けられている興味深い多体量子現象を可能にすることを示す。 例えば、全ての原子が絡み合った一重項に対になるいわゆる「ランダム一重項」をシステムがどのように実現できるかを示す。 再正規化群法を用いてランダム一重項位相におけるスピンの絡み合いの分布を求め、非相互作用ハミルトニアンの基底状態から断熱的進化を通じてこの状態が概ね到達できることを示す。 また, このランダム一重項を実験的に観測する方法について考察する。 本研究は, 完全充填格子の要求を回避することにより, 原子-ナノフォトニクス界面における強相関物質探索への道のりを早めることを期待する。

Systems consisting of cold atoms trapped near photonic crystal waveguides have recently emerged as an exciting platform for quantum atom-light interfaces. Such a system enables realization of tunable long-range interactions between internal states of atoms (spins), mediated by guided photons. Currently, experimental platforms are still limited by low filling fractions, where the atom number is much smaller than the number of sites at which atoms can potentially be trapped. Here, we show that this regime in fact enables interesting many-body quantum phenomena, which are typically associated with short-range disordered systems. As an example, we show how the system can realize the so-called "random singlet phase", in which all atoms pair into entangled singlets, but the pairing occurs over a distribution of ranges as opposed to nearest neighbors. We use a renormalization group method to obtain the distribution of spin entanglement in the random singlet phase, and show how this state can be approximately reached via adiabatic evolution from the ground state of a non-interacting Hamiltonian. We also discuss how experimentally this random singlet phase can be observed. We anticipate that this work will accelerate the route toward the exploration of strongly correlated matter in atom-nanophotonics interfaces, by avoiding the requirement of perfectly filled lattices.
翻訳日:2023-05-18 21:33:08 公開日:2020-05-26
# 乱れた2次元gross-pitaevskii格子のクエンチダイナミクス

Quench dynamics in disordered two-dimensional Gross-Pitaevskii Lattices ( http://arxiv.org/abs/2005.12490v1 )

ライセンス: Link先を確認
Arindam Mallick, Thudiyangal Mithun, Sergej Flach(参考訳) 外部障害の存在下での2次元グロス・ピタエフスキー格子における初期拘束状態のクエンチ拡大ダイナミクスを数値的に検討する。 膨張ダイナミクスはエネルギーとノルム密度の制御パラメータ空間において便利に記述される。 拡張は、障害強度に関係なく、期待された最終状態が非エルゴードな非ギブス状態の場合、実質的に減速する。 同様に、強い障害は拡張を遅らせる。 この結果と最近の量子多体クエンチ実験との比較を行った。

We numerically investigate the quench expansion dynamics of an initially confined state in a two-dimensional Gross-Pitaevskii lattice in the presence of external disorder. The expansion dynamics is conveniently described in the control parameter space of the energy and norm densities. The expansion can slow down substantially if the expected final state is a non-ergodic non-Gibbs one, regardless of the disorder strength. Likewise stronger disorder delays expansion. We compare our results with recent studies for quantum many body quench experiments.
翻訳日:2023-05-18 07:56:00 公開日:2020-05-26
# SoK: 鑑識のためのブロックチェーンソリューション

SoK: Blockchain Solutions for Forensics ( http://arxiv.org/abs/2005.12640v1 )

ライセンス: Link先を確認
Thomas K. Dasaklis and Fran Casino and Constantinos Patsakis(参考訳) 情報集約的プロセスのデジタル化が今、勢いを増している中、サイバー犯罪のこの問題にどう対処すべきかという懸念が高まっている。 この目的のために、法執行機関やセキュリティ企業は、サイバー犯罪の分析と調査に洗練されたデジタル法医学技術を使用している。 しかし、複数の司法権限、相互運用性の問題、収集された膨大な証拠(マルチメディア、テキスト等)、関与する複数の利害関係者(法執行機関、セキュリティ会社等)は、健全なデジタル法医学的手法の採用と実施を妨げる様々な課題のほんの一部に過ぎない。 ブロックチェーン技術は、堅牢なデジタル法医学メカニズムを開発するための実行可能なソリューションとして最近提案されている。 本稿では、利用可能なブロックチェーンベースのデジタル法医学ツールの概要と分類を行い、その主な特徴について述べる。 また、利用可能な文献で提案されているように、ブロックチェーン技術と現在のデジタル法医学アプローチの共生関係のさまざまなメリットと課題について、詳細な分析も提供します。 この結果に基づき, 様々な研究ギャップを特定し, デジタル法医学の分野において, 学術者, 実践者双方にとって有意義な価値を期待できる今後の研究方向性を提案する。

As the digitization of information-intensive processes gains momentum in nowadays, the concern is growing about how to deal with the ever-growing problem of cybercrime. To this end, law enforcement officials and security firms use sophisticated digital forensics techniques for analyzing and investigating cybercrimes. However, multi-jurisdictional mandates, interoperability issues, the massive amount of evidence gathered (multimedia, text etc.) and multiple stakeholders involved (law enforcement agencies, security firms etc.) are just a few among the various challenges that hinder the adoption and implementation of sound digital forensics schemes. Blockchain technology has been recently proposed as a viable solution for developing robust digital forensics mechanisms. In this paper, we provide an overview and classification of the available blockchain-based digital forensic tools, and we further describe their main features. We also offer a thorough analysis of the various benefits and challenges of the symbiotic relationship between blockchain technology and the current digital forensics approaches, as proposed in the available literature. Based on the findings, we identify various research gaps, and we suggest future research directions that are expected to be of significant value both for academics and practitioners in the field of digital forensics.
翻訳日:2023-05-18 07:54:38 公開日:2020-05-26
# デジタル化における盲点のイルミネーション -- スウェーデンの民間および公共セクターにおけるソフトウェア開発

Illuminating a Blind Spot in Digitalization -- Software Development in Sweden's Private and Public Sector ( http://arxiv.org/abs/2005.12607v1 )

ライセンス: Link先を確認
Markus Borg, Joakim Wernberg, Thomas Olsson, Ulrik Franke, Martin Andersson(参考訳) Netscapeの協同ファウンダMarc Andreessenが2011年に述べたように、ソフトウェアは世界を食べている。 社会におけるソフトウェアの利用と開発の分布に関するデータは少ないが、スウェーデンの公共部門と民間部門でソフトウェアが果たす役割の全体像を提供するために、2つの新しい調査の結果をまとめた。 スウェーデンの10社中3社は、業界全体でソフトウェアを社内で開発している。 スウェーデンの政府機関の対応する数字は10のうち4つであり、公共部門を過小評価すべきではない。 社会のデジタル化は今後も続き、ソフトウェア開発者の需要はさらに増加するだろう。 多くの民間企業が、スウェーデンにおけるソフトウェア開発者の限られた供給が、彼らの拡張計画に直接影響を与えていると報告している。 以上より,エビデンスに支障をきたす政策決定を可能にするための追加研究が必要となる方向について概説する。 我々は,学術研究者と国家統計機関が協力して行うことを理想的に主張する。

As Netscape co-founder Marc Andreessen famously remarked in 2011, software is eating the world - becoming a pervasive invisible critical infrastructure. Data on the distribution of software use and development in society is scarce, but we compile results from two novel surveys to provide a fuller picture of the role software plays in the public and private sectors in Sweden, respectively. Three out of ten Swedish firms, across industry sectors, develop software in-house. The corresponding figure for Sweden's government agencies is four out of ten, i.e., the public sector should not be underestimated. The digitalization of society will continue, thus the demand for software developers will further increase. Many private firms report that the limited supply of software developers in Sweden is directly affecting their expansion plans. Based on our findings, we outline directions that need additional research to allow evidence-informed policy-making. We argue that such work should ideally be conducted by academic researchers and national statistics agencies in collaboration.
翻訳日:2023-05-18 07:53:49 公開日:2020-05-26
# 量子シミュレーションのためのマイクロキャビティポラリトン

Microcavity Polaritons for Quantum simulation ( http://arxiv.org/abs/2005.12569v1 )

ライセンス: Link先を確認
Thomas Boulier, Maxime J. Jacquet, Anne Ma\^itre, Giovanni Lerario, Ferdinand Claude, Simon Pigeon, Quentin Glorieux, Alberto Bramati, Elisabeth Giacobino, Alberto Amo, Jacqueline Bloch(参考訳) 量子シミュレーションは量子技術の柱の1つである。 これらのシミュレーションは、高エネルギー物理学、多体物理学、宇宙論など様々な分野の洞察を与える。 超低温原子からトラップイオンによる超伝導回路まで、いくつかのプラットフォームが量子シミュレータとして提案されている。 本稿では、半導体マイクロキャビティにおけるポーラリトンという、量子シミュレーションのためのより確立されたプラットフォームにおける最近の発展を概観する。 これらの準粒子は非線形 schr\"odigner equation (nlse) に従い、媒質中のそれらの伝播は量子流体力学の観点から理解することができる。 量子シミュレーションの課題は、NLSEにおけるポテンシャルエネルギーと非線形相互作用を制御できる構成の工学である。 ここでは、マイクロキャビティにおけるポラリトンを用いたいくつかの画期的な実験を再検討し、量子シミュレーションにおいてこれらのシステムの様々な性質がどのように使われるのかを議論し、非平衡物理学を探求するポラリトン系の豊かさを強調する。

Quantum simulations are one of the pillars of quantum technologies. These simulations provide insight in fields as varied as high energy physics, many-body physics, or cosmology to name only a few. Several platforms, ranging from ultracold-atoms to superconducting circuits through trapped ions have been proposed as quantum simulators. This article reviews recent developments in another well established platform for quantum simulations: polaritons in semiconductor microcavities. These quasiparticles obey a nonlinear Schr\"odigner equation (NLSE), and their propagation in the medium can be understood in terms of quantum hydrodynamics. As such, they are considered as "fluids of light". The challenge of quantum simulations is the engineering of configurations in which the potential energy and the nonlinear interactions in the NLSE can be controlled. Here, we revisit some landmark experiments with polaritons in microcavities, discuss how the various properties of these systems may be used in quantum simulations, and highlight the richness of polariton systems to explore non-equilibrium physics
翻訳日:2023-05-18 07:53:32 公開日:2020-05-26
# 高階微分マクスウェル-シェン-サイモン理論と$\mathcal{PT}-$対称性におけるゴースト

Ghosts in higher derivative Maxwell-Chern-Simon's theory and $\mathcal{PT}-$symmetry ( http://arxiv.org/abs/2005.12552v1 )

ライセンス: Link先を確認
Biswajit Paul, Himangshu Dhar, Biswajit Saha(参考訳) 量子場理論におけるゴースト場は長年の問題であった。 特に、より高い微分を持つ理論は、一般にオストログラードスキゴーストとして知られる線形モーメント項の形でハミルトニアンに現れるゴーストを含んでいる。 より高次微分理論は、第一級と第二級の2種類の制約を含む。 興味深いことに、これらの高次微分理論は、$\mathcal{PT}-$対称性を尊重する非エルミートハミルトニアンを持つかもしれない。 本稿では,拡張マクスウェル・シェン・サイモン理論の$\mathcal{PT}-$対称性について考察し,不安定性の原因となる線形モーメント項を除去するために2級制約を用いた。 除去は完全ではなく、演算子 ${q}$ の係数の間に生じる条件であることがわかった。

Ghost fields in quantum field theory have been a long-standing problem. Specifically, theories with higher derivatives involve ghosts that appear in the Hamiltonian in the form of linear momenta term, which is commonly known as the Ostrogradski ghost. Higher derivative theories may involve both types of constraints i.e. first class and second class. Interestingly, these higher derivative theories may have non-Hermitian Hamiltonian respecting $\mathcal{PT}-$symmetries. In this paper, we have considered the $\mathcal{PT}-$symmetric nature of the extended Maxwell-Chern-Simon's theory and employed the second class constraints to remove the linear momenta terms causing the instabilities. We found that the removal is not complete rather conditions arise among the coefficients of the operator ${Q}$.
翻訳日:2023-05-18 07:53:14 公開日:2020-05-26
# 観光都市におけるcovid-19対策の持続的・弾力的戦略--エージェントベースアプローチ

Sustainable and resilient strategies for touristic cities against COVID-19: an agent-based approach ( http://arxiv.org/abs/2005.12547v1 )

ライセンス: Link先を確認
Marco D'Orazio, Gabriele Bernardini, Enrico Quagliarini(参考訳) 観光都市は地域社会に経済的影響があるため、緊急事態に悩まされる。 第1次緊急期には、このような領域を広範囲に閉鎖して「社会的距離」対策(旅行制限、人口増加による活動のロックダウンなど)を支援した。 第2段階では、個人のリスク軽減戦略(フェイスマスク)を「社会的距離」に適切に関連付けることで、観光都市を観光客に再オープンさせることが可能である。 シミュレーションツールは、活動再開に最適な経済と社会を求めるためのリスク緩和策の有効性評価を支援することができる。 本研究は,既存のエージェントベースモデルを用いて,観光客や住民の行動,移動,ウイルスの影響などを含む観光地におけるウイルスの拡散を確率論的アプローチで推定する。 国際保健機関および実験データによる以前の校正により、密接な近接性および曝露時間に基づく感染拡散ルールが組み込まれている。 観光客の能力(「ソーシャル・ディスタンシング」に基づく尺度)とその他の戦略(すなわちフェイスマスクの実施)の影響は、ウイルス関連状況(すなわち初期インフェクターの割合)によって評価される。 重要なケーススタディを表す理想的なシナリオは、ツールの能力を実証し、それらのソリューションの有効性を比較するために分析されてきた。 その結果,「社会的分散」は感染率が高いほど効果が高いと考えられるが,重要な経済効果を持つ極端な指標であることがわかった。 感染率は低下し、個人の保護策が主流になる(顔面マスク)ため、この措置は(地域社会において)完全な効果を失う。 このモデルは、観光関連の生産と都市空間や施設のスケジュール(文化・観光ビルなど)に関する他の繰り返し問題を考えるために統合することができる。

Touristic cities will suffer from COVID-19 emergency because of its economic impact on their communities. The first emergency phases involved a wide closure of such areas to support "social distancing" measures (i.e. travels limitation; lockdown of (over)crowd-prone activities). In the second phase, individual's risk-mitigation strategies (facial masks) could be properly linked to "social distancing" to ensure re-opening touristic cities to visitors. Simulation tools could support the effectiveness evaluation of risk-mitigation measures to look for an economic and social optimum for activities restarting. This work modifies an existing Agent-Based Model to estimate the virus spreading in touristic areas, including tourists and residents' behaviours, movement and virus effects on them according to a probabilistic approach. Consolidated proximity-based and exposure-time-based contagion spreading rules are included according to international health organizations and previous calibration through experimental data. Effects of tourists' capacity (as "social distancing"-based measure) and other strategies (i.e. facial mask implementation) are evaluated depending on virus-related conditions (i.e. initial infector percentages). An idealized scenario representing a significant case study has been analysed to demonstrate the tool capabilities and compare the effectiveness of those solutions. Results show that "social distancing" seems to be more effective at the highest infectors' rates, although represents an extreme measure with important economic effects. This measure loses its full effectiveness (on the community) as the infectors' rate decreases and individuals' protection measures become predominant (facial masks). The model could be integrated to consider other recurring issues on tourist-related fruition and schedule of urban spaces and facilities (e.g. cultural/leisure buildings).
翻訳日:2023-05-18 07:53:00 公開日:2020-05-26
# IBM量子経験における遅延パルスによるノイズ低減

Noise Mitigation with Delay Pulses in the IBM Quantum Experience ( http://arxiv.org/abs/2005.12520v1 )

ライセンス: Link先を確認
Sam Tomkins and Rog\'erio de Sousa(参考訳) 現在の量子コンピューティングハードウェアの最大の課題の1つは、ノイズの多いデバイスから信頼できる結果を得る方法である。 最近の論文(A. Kandala et al., Nature 567, 491 (2019))は、ゲート時間を延ばしてノイズを注入する方法を記述し、IBM-Qデバイスにおけるノイズ量の関数としての量子期待値の計算を可能にした。 ゼロノイズへの外挿は正確な結果とよく一致した。 ここでは、量子計算のノイズレベルを徐々に高めるために、idパルスを意図的に付加し、定期的に装置を配置する別の方式が記述される。 この方式はIBM-Qデバイス上の1量子ビット回路で実装されている。 ノイズの付加制御に有効な方法であると判断し、さらに、外挿を行うためにノイズの大きい結果を用いることで、外挿の実施方法に注意を払い、最終出力の改善につながると結論づける。

One of the greatest challenges for current quantum computing hardware is how to obtain reliable results from noisy devices. A recent paper [A. Kandala et al., Nature 567, 491 (2019)] described a method for injecting noise by stretching gate times, enabling the calculation of quantum expectation values as a function of the amount of noise in the IBM-Q devices. Extrapolating to zero noise led to excellent agreement with exact results. Here an alternative scheme is described that employs the intentional addition of identity pulses, pausing the device periodically in order to gradually subject the quantum computation to increased levels of noise. The scheme is implemented in a one qubit circuit on an IBM-Q device. It is determined that this is an effective method for controlled addition of noise, and further, that using noisy results to perform extrapolation can lead to improvements in the final output, provided careful attention is paid to how the extrapolation is carried out.
翻訳日:2023-05-18 07:51:56 公開日:2020-05-26
# 絡み合いエントロピーの線形応答理論

Linear Response Theory of Entanglement Entropy ( http://arxiv.org/abs/2005.12502v1 )

ライセンス: Link先を確認
Yuan-Sheng Wang, Teng Ma, Man-Hong Yung(参考訳) 線形応答理論(LRT)は、弱いプローブによって摂動される量子系の量子物質を調査するための鍵となる道具であり、実験観測可能な可観測物の力学と未観測平衡状態の相関関数を結びつける。 エンタングルメントエントロピー(EE)は量子エンタングルメントの尺度であり、量子物理学と量子情報科学の重要な量である。 EEは観測可能なものではないが、LRTの開発は興味深いことである。 本研究では、von neumannエントロピーのlrtを開量子系向けに開発する。 さらに,フォン・ノイマンエンタングルメントエントロピーの線形応答は可観測体の線形応答によって決定されることがわかった。 この可観測性を用いて、従来と同一の性質を持つEEのKubo式と感受性を定義する。 EE の LRT を用いることで,EE の線形応答は最大絡み合いあるいは分離可能な状態に対してゼロとなることが判明した。 解析的導出の数値的な検証も XX スピンチェーンモデルを用いて行う。 EEのLRTは、EEの調査と理解に有用なツールを提供する。

Linear response theory (LRT) is a key tool in investigating the quantum matter, for quantum systems perturbed by a weak probe, it connects the dynamics of experimental observable with the correlation function of unprobed equilibrium states. Entanglement entropy(EE) is a measure of quantum entanglement, it is a very important quantity of quantum physics and quantum information science. While EE is not an observable, developing the LRT of it is an interesting thing. In this work, we develop the LRT of von Neumann entropy for an open quantum system. Moreover, we found that the linear response of von Neumann entanglement entropy is determined by the linear response of an observable. Using this observable, we define the Kubo formula and susceptibility of EE, which have the same properties of its conventional counterpart. Through using the LRT of EE, we further found that the linear response of EE will be zero for maximally entangled or separable states, this is a unique feature of entanglement dynamics. A numerical verification of our analytical derivation is also given using XX spin chain model. The LRT of EE provides a useful tool in investigating and understanding EE.
翻訳日:2023-05-18 07:50:59 公開日:2020-05-26
# 投票の弾力性と競争性を測定するための計算的アプローチ

A Computational Approach to Measuring Vote Elasticity and Competitiveness ( http://arxiv.org/abs/2005.12731v1 )

ライセンス: Link先を確認
Daryl DeFord, Moon Duchin, and Justin Solomon(参考訳) パルチザンのジェリーマンダーリングに対する近年の注目の波は、全国の政治的再分権を支配する法律を洗練または置き換えようとしている。 いくつかの州の改革活動における共通の要素は、競争力の指標、あるいは地域レベルの成果がどの程度で行われているか、あるいは密接に争われる可能性があるかに基づいて地区計画を評価するスコアである。 本稿では,近年の改革提案に動機づけられた競争力指標の類型について検討し,議会および州上院レベルでの地区計画の大規模な集合体にまたがってその潜在的成果を評価する。 これは、応用統計学のMCMC技術を用いて、有効な再分権代替案の文脈における計画と基準を定めている文献の1つである。 私たちの実証分析では、ユタ州、ジョージア州、ウィスコンシン州、バージニア州、マサチューセッツ州の5つの州に焦点を当てています。 我々は、優れた競争力指標を作成する際の状況特異的な困難を強調し、競争力の最適化が他のパルチザン指標に意図しない結果をもたらすことを示す。 これらの結果は,(1)長期の立憲改革に詳細なメートル法制約を書くことを避けること,(2)各再分権サイクルにおける実地選挙データに注意深い数学的モデリングを行うことの重要性を示す。

The recent wave of attention to partisan gerrymandering has come with a push to refine or replace the laws that govern political redistricting around the country. A common element in several states' reform efforts has been the inclusion of competitiveness metrics, or scores that evaluate a districting plan based on the extent to which district-level outcomes are in play or are likely to be closely contested. In this paper, we examine several classes of competitiveness metrics motivated by recent reform proposals and then evaluate their potential outcomes across large ensembles of districting plans at the Congressional and state Senate levels. This is part of a growing literature using MCMC techniques from applied statistics to situate plans and criteria in the context of valid redistricting alternatives. Our empirical analysis focuses on five states---Utah, Georgia, Wisconsin, Virginia, and Massachusetts---chosen to represent a range of partisan attributes. We highlight situation-specific difficulties in creating good competitiveness metrics and show that optimizing competitiveness can produce unintended consequences on other partisan metrics. These results demonstrate the importance of (1) avoiding writing detailed metric constraints into long-lasting constitutional reform and (2) carrying out careful mathematical modeling on real geo-electoral data in each redistricting cycle.
翻訳日:2023-05-18 07:43:18 公開日:2020-05-26
# 非局所資源を持つ古典的ベイズゲームにおけるex ante vs ex Post equilibria

Ex ante versus ex post equilibria in classical Bayesian games with a nonlocal resource ( http://arxiv.org/abs/2005.12727v1 )

ライセンス: Link先を確認
M\'aty\'as Koniorczyk, Andr\'as Bodor, Mikl\'os Pint\'er(参考訳) 非局所的(量子または符号なし)リソースの助けを借りてプレイされる古典ゲームにおけるex anteとex post equilibriaの違いを分析する。 物理学では、これらのゲームの演奏は二部構成のベル型実験として知られている。 clauser-horn-shimony-holtゲームの解析により、非局所的な(多くの場合量子的な)アドバンテージを持つ2人のベイズゲームを見つけるための構成的手順を見つける。 文学から知られているこの種のゲームの多くは、この原理に沿って構築され、関連するex ante equilibriaがex post equilibriaであるという性質を共有することができる。 V\'ertesi と Bene によるベル理論に基づく新しいタイプのゲームを導入するが、後者の性質を持たない: ex ante と ex post equilibria は異なる。

We analyze the difference between ex ante and ex post equilibria in classical games played with the assistance of a nonlocal (quantum or no-signaling) resource. In physics, the playing of these games is known as performing bipartite Bell-type experiments. By analyzing the Clauser-Horn-Shimony-Holt game, we find a constructive procedure to find two-person Bayesian games with a nonlocal (i.e. no-signaling, and, in many cases, quantum) advantage. Most games of this kind known from the literature can be constructed along this principle, and share the property that their relevant ex ante equilibria are ex post equilibria as well. We introduce a new type of game, based on the Bell-theorem by V\'ertesi and Bene, which does not have the latter property: the ex ante and ex post equilibria differ.
翻訳日:2023-05-18 07:42:55 公開日:2020-05-26
# NISQデバイスにおける量子想像時間進化法の実装:非局所近似

Implementation of quantum imaginary-time evolution method on NISQ devices: Nonlocal approximation ( http://arxiv.org/abs/2005.12715v1 )

ライセンス: Link先を確認
Hirofumi Nishi, Taichi Kosugi, Yu-ichiro Matsushita(参考訳) 虚時発展法は、古典的コンピュータ上の量子多体問題の基底状態を得るために効率的であることが広く知られている。 最近提案された量子イマジナリータイム進化法(qite)は、ノイズの多い中間スケール量子(nisq)デバイスにおける深い回路深度と実装の難しさの問題に直面している。 本研究では,この困難に対処するために非局所近似法を開発した。 仮想時間進化演算子をユニタリ演算子に変換する際に課される局所性条件や局所近似(LA)を除去することにより、量子回路深さが大幅に減少することを発見した。 非局所性条件に基づく2段階近似法を提案する: extended la (ela) と nonlocal approximation (nla) である。 eLA と NLA の妥当性を確認するため,非重み付き3次元正則グラフと重み付き完全連結グラフの最大カット問題に適用し,LA と eLA と NLA のパフォーマンスを比較検討した。 eLA法とNLA法は、同じ計算精度を維持するためにLAよりもはるかに少ない回路深さを必要とする。 さらに,QITE法における回路深度をさらに低減する手法として,仮想時間ステップのための量子回路の「圧縮」法を開発した。 本研究で導入されたeLA, NLA, および圧縮手法により, ゲート動作による回路深さと誤差の蓄積を著しく低減し, NISQデバイス上でのQITE法の実装方法を明らかにすることができる。

The imaginary-time evolution method is widely known to be efficient for obtaining the ground state in quantum many-body problems on a classical computer. A recently proposed quantum imaginary-time evolution method (QITE) faces problems of deep circuit depth and difficulty in the implementation on noisy intermediate-scale quantum (NISQ) devices. In this study, a nonlocal approximation is developed to tackle this difficulty. We found that by removing the locality condition or local approximation (LA), which was imposed when the imaginary-time evolution operator is converted to a unitary operator, the quantum circuit depth is significantly reduced. We propose two-step approximation methods based on a nonlocality condition: extended LA (eLA) and nonlocal approximation (NLA). To confirm the validity of eLA and NLA, we apply them to the max-cut problem of an unweighted 3-regular graph and a weighted fully connected graph; we comparatively evaluate the performances of LA, eLA, and NLA. The eLA and NLA methods require far fewer circuit depths than LA to maintain the same level of computational accuracy. Further, we developed a ``compression'' method of the quantum circuit for the imaginary-time steps as a method to further reduce the circuit depth in the QITE method. The eLA, NLA, and the compression method introduced in this study allow us to reduce the circuit depth and the accumulation of error caused by the gate operation significantly and pave the way for implementing the QITE method on NISQ devices.
翻訳日:2023-05-18 07:42:26 公開日:2020-05-26
# 量子シミュレーションにおけるコヒーレントゲージドリフトの抑制

Suppressing Coherent Gauge Drift in Quantum Simulations ( http://arxiv.org/abs/2005.12688v1 )

ライセンス: Link先を確認
Henry Lamm, Scott Lawrence, and Yukari Yamauchi (for the NuQS Collaboration)(参考訳) ノイズ量子コンピュータ上の場の理論のシミュレーションは、そのノイズによって生じる誤差と競合しなければならない。 ゲージ理論では、多くの誤差がゲージ対称性に違反し、シミュレーションで生じる非物理的過程を引き起こす可能性がある。 非アベリアゲージ理論に適用可能な手法として,擬似ランダムゲージ変換の繰り返し適用によるコヒーレントゲージドリフト誤差を抑制する手法を提案する。 主な誤差がゲージ違反である場合には, NISQ-era シミュレーションの精度を向上させるための実用的な方法として, 本手法が期待できる。

Simulations of field theories on noisy quantum computers must contend with errors introduced by that noise. For gauge theories, a large class of errors violate gauge symmetry, and thus may result in unphysical processes occurring in the simulation. We present a method, applicable to non-Abelian gauge theories, for suppressing coherent gauge drift errors through the repeated application of pseudorandom gauge transformation. In cases where the dominant errors are gauge-violating, we expect this method to be a practical way to improve the accuracy of NISQ-era simulations.
翻訳日:2023-05-18 07:41:46 公開日:2020-05-26
# ミニマリストによる量子力学の考察

A minimalist's view of quantum mechanics ( http://arxiv.org/abs/2005.12674v1 )

ライセンス: Link先を確認
D. Sokolovski(参考訳) 我々は、量子理論を観測者による観測結果の列の確率を計算するための単なるツールであると考える命題を分析し、その理論の範囲外にとどまる。 順序が少なくとも2つの観測を含む場合、予測は可能である。 複素値の確率振幅は、それぞれ結果の列全体に対して定義されるが、これはオブザーバーの推論によるものであり、波動関数の崩壊問題は純粋に意味的なものであるとして取り消される。 我々の例としては、量子「弱値」と「遅延量子消去器」の簡易版がある。

We analyse a proposition which considers quantum theory as a mere tool for calculating probabilities for sequences of outcomes of observations made by an Observer, who him/herself remains outside the scope of the theory. Predictions are possible, provided a sequence includes at least two such observations. Complex valued probability amplitudes, each defined for an entire sequence of outcomes, are attributed to Observer's reasoning, and the problem of wave function's collapse is dismissed as a purely semantic one. Our examples include quantum "weak values", and a simplified version of the "delayed quantum eraser".
翻訳日:2023-05-18 07:41:22 公開日:2020-05-26
# 回路量子電磁力学

Circuit Quantum Electrodynamics ( http://arxiv.org/abs/2005.12667v1 )

ライセンス: Link先を確認
Alexandre Blais, Arne L. Grimsmo, S. M. Girvin and Andreas Wallraff(参考訳) マクロレベルの量子力学的効果は、1980年代にジョセフソン接合型超伝導回路で初めて研究された。 過去20年間で、量子情報科学の出現は、これらの回路を量子情報プロセッサの量子ビットとして利用するための研究を強化してきた。 超伝導量子ビットをマイクロ波光子(超伝導回路に蓄積された量子化された電磁場)と強く制御的に相互作用させることができることが、回路量子電磁力学(qed)の分野の創設につながった。 原子空洞qedは初期の回路qedの発展に多くの影響を与えたが、現在では独立して活発な研究分野となっている。 回路QEDは、前例のない詳細で量子レベルでの光-物質相互作用の研究と制御を可能にする。 また、超伝導回路を用いた量子情報処理への現在の全てのアプローチにおいて重要な役割を果たす。 さらに、QED回路はマイクロ波光子と相互作用するハイブリッド量子系の研究を可能にする。 本稿では, 超伝導量子ビットとマイクロ波光子のコヒーレント結合について, ジェインズ・カンミングス模型の物理, 分散限界, この系における光・物質相互作用の異なる構造に着目した高品位発振器において検討する。 本稿では, 超伝導回路と環境との結合について論じる。これは回路QEDにおけるコヒーレント制御と測定に必要であるが, 必ずデコヒーレンスを引き起こす。 ほぼ全ての回路QED実験における中心成分である分散量子ビット読み出しについても述べる。 回路QEDの中心にあるこれらの基本概念の紹介に続いて、量子情報処理や量子光学におけるこれらの概念の重要なユースケースについて論じる。

Quantum mechanical effects at the macroscopic level were first explored in Josephson junction-based superconducting circuits in the 1980's. In the last twenty years, the emergence of quantum information science has intensified research toward using these circuits as qubits in quantum information processors. The realization that superconducting qubits can be made to strongly and controllably interact with microwave photons, the quantized electromagnetic fields stored in superconducting circuits, led to the creation of the field of circuit quantum electrodynamics (QED), the topic of this review. While atomic cavity QED inspired many of the early developments of circuit QED, the latter has now become an independent and thriving field of research in its own right. Circuit QED allows the study and control of light-matter interaction at the quantum level in unprecedented detail. It also plays an essential role in all current approaches to quantum information processing with superconducting circuits. In addition, circuit QED enables the study of hybrid quantum systems interacting with microwave photons. Here, we review the coherent coupling of superconducting qubits to microwave photons in high-quality oscillators focussing on the physics of the Jaynes-Cummings model, its dispersive limit, and the different regimes of light-matter interaction in this system. We discuss coupling of superconducting circuits to their environment, which is necessary for coherent control and measurements in circuit QED, but which also invariably leads to decoherence. Dispersive qubit readout, a central ingredient in almost all circuit QED experiments, is also described. Following an introduction to these fundamental concepts that are at the heart of circuit QED, we discuss important use cases of these ideas in quantum information processing and in quantum optics.
翻訳日:2023-05-18 07:41:01 公開日:2020-05-26
# 量子分割と計算:ハードウェアのデモとノイズシミュレーション

Quantum Divide and Compute: Hardware Demonstrations and Noisy Simulations ( http://arxiv.org/abs/2005.12874v1 )

ライセンス: Link先を確認
Thomas Ayral, Fran\c{c}ois-Marie Le R\'egent, Zain Saleem, Yuri Alexeev and Martin Suchara(参考訳) ノイズの多い中間スケールの量子コンピュータは、量子ビット数(「幅」)とデコヒーレンス時間(「深さ」)の点で本質的に制限される。 ここでは、回路を小さなサブ回路やフラグメントに分解し、与えられた量子プロセッサに大きすぎる、または大きすぎる回路を動作させる手法を初めて紹介する。 様々な量子ビットとフラグメントを持つIBMの20量子ビット超伝導量子プロセッサ上での手法の挙動について検討する。 我々は、この特定のプロセッサのデコヒーレンス、リードアウトエラー、ゲート欠陥をキャプチャするノイズモデルを構築します。 実験結果から,本手法の雑音シミュレーションを行い,実験結果について検討した。 実験結果と模擬成功確率の20%以内で一致し, ノイズフラグメントの組換えは, フラグメント化を伴わずに, 結果を総合的に上回る結果が得られることを観察した。

Noisy, intermediate-scale quantum computers come with intrinsic limitations in terms of the number of qubits (circuit "width") and decoherence time (circuit "depth") they can have. Here, for the first time, we demonstrate a recently introduced method that breaks a circuit into smaller subcircuits or fragments, and thus makes it possible to run circuits that are either too wide or too deep for a given quantum processor. We investigate the behavior of the method on one of IBM's 20-qubit superconducting quantum processors with various numbers of qubits and fragments. We build noise models that capture decoherence, readout error, and gate imperfections for this particular processor. We then carry out noisy simulations of the method in order to account for the observed experimental results. We find an agreement within 20% between the experimental and the simulated success probabilities, and we observe that recombining noisy fragments yields overall results that can outperform the results without fragmentation.
翻訳日:2023-05-18 07:34:42 公開日:2020-05-26
# just-in-time quantum circuit transpilationによるノイズ低減

Just-in-time Quantum Circuit Transpilation Reduces Noise ( http://arxiv.org/abs/2005.12820v1 )

ライセンス: Link先を確認
Ellis Wilson, Sudhakar Singh, Frank Mueller(参考訳) 量子プログラムの実行には、今日のノイズの多い中間スケール量子(nisq)デバイスに関する課題が伴う。 これらの課題の多くは、測定中の急速なデコヒーレンスとノイズ、キュービット接続、クロストーク、キュービット自体、ゲート経由のキュービット状態の変換に起因するエラー特性に由来する。 量子ビットは「等しく作られる」だけでなく、ノイズレベルも時間とともに変化する。 IBMは、量子システムを1日に1度キャリブレーションし、そのようなキャリブレーション時にノイズレベル(エラー)を報告している。 この情報はその後、回路を高品質のキュービットにマップし、次のキャリブレーション点まで接続するために使われる。 この研究は、この日々のキャリブレーションサイクルに改善の余地があることの証拠を提供する。 1つ以上のセンシティブな回路を実行する直前に量子ビットに関連するノイズレベル(エラー)を測定する技術を提供し、ジャストインタイムノイズ測定が遅い物理量子ビットマッピングに役立つことを示す。 このジャスト・イン・タイムで再調整されたトランスパイルにより、結果の忠実性は、日々のキャリブレーションのみを使用するibmのデフォルトマッピングよりも改善される。 このフレームワークは、2つの主要なノイズ源、すなわち読み出し誤差(測定誤差)と2量子ゲート/接続誤差を評価する。 実験の結果,アプリケーション実行直前の誤差測定に基づくオンザフライ回路マッピングでは,回路結果の精度が平均3~304%向上し,最大400%向上した。

Running quantum programs is fraught with challenges on on today's noisy intermediate scale quantum (NISQ) devices. Many of these challenges originate from the error characteristics that stem from rapid decoherence and noise during measurement, qubit connections, crosstalk, the qubits themselves, and transformations of qubit state via gates. Not only are qubits not "created equal", but their noise level also changes over time. IBM is said to calibrate their quantum systems once per day and reports noise levels (errors) at the time of such calibration. This information is subsequently used to map circuits to higher quality qubits and connections up to the next calibration point. This work provides evidence that there is room for improvement over this daily calibration cycle. It contributes a technique to measure noise levels (errors) related to qubits immediately before executing one or more sensitive circuits and shows that just-in-time noise measurements benefit late physical qubit mappings. With this just-in-time recalibrated transpilation, the fidelity of results is improved over IBM's default mappings, which only uses their daily calibrations. The framework assess two major sources of noise, namely readout errors (measurement errors) and two-qubit gate/connection errors. Experiments indicate that the accuracy of circuit results improves by 3-304% on average and up to 400% with on-the-fly circuit mappings based on error measurements just prior to application execution.
翻訳日:2023-05-18 07:33:25 公開日:2020-05-26
# 国際学生の新型コロナウイルス危機における孤独感、抑うつ、ストレスレベル。 ソーシャルメディアとホスト大学の役割

International students' loneliness, depression and stress levels in COVID-19 crisis. The role of social media and the host university ( http://arxiv.org/abs/2005.12806v1 )

ライセンス: Link先を確認
Nikolaos Misirlis, Miriam H. Zwaan, David Weber(参考訳) 大学生活への移動は強い感情によって特徴づけられ、そのうちのいくつかは孤独、不安、抑うつなど否定的である。 こうしたネガティブな感情は、新型コロナウイルス(covid-19)パンデミックによる強制的なロックダウンによって強化される。 これまでの研究は、ソーシャルメディアの使用、大学満足度、上記の感情の関連性を示している。 オランダの248人の国際学部生と、すべての国際ビジネススクールの学生の調査結果を報告する。 その結果,不安,孤独,および新型コロナ関連ストレスと大学満足度とソーシャルキャピタルとの間に強い相関関係が示された。 キーワード:新型コロナウイルス、パンデミック、ロックダウン、孤独、抑うつ、不安、国際学生

The move to university life is characterized by strong emotions, some of them negative, such as loneliness, anxiety, and depression. These negative emotions are strengthened due to the obligatory lockdown due to the COVID-19 pandemic. Previous research indicates association among the use of social media, university satisfaction, and the aforementioned emotions. We report findings from 248 international undergraduates in The Netherlands, all students at the International School of Business. Our results indicate strong correlations between anxiety, loneliness, and COVID-19-related stress with university satisfaction together with social capital. Keywords: COVID-19; Pandemic; lockdown; loneliness; depression; anxiety; international students
翻訳日:2023-05-18 07:32:57 公開日:2020-05-26
# キャビティ量子電子光学:量子基底状態におけるマイクロ波・テレコム変換

Cavity quantum electro-optics: Microwave-telecom conversion in the quantum ground state ( http://arxiv.org/abs/2005.12763v1 )

ライセンス: Link先を確認
William Hease, Alfredo Rueda, Rishabh Sahu, Matthias Wulf, Georg Arnold, Harald G. L. Schwefel, Johannes M. Fink(参考訳) 光ファイバー通信は現代の情報社会のバックボーンであり、高帯域幅、低損失、重量、サイズ、コスト、および電磁干渉に対する免疫を提供する。 マイクロ波フォトニクスは電子センシングや通信システムにこれらの利点を与えるが、非線形光学の分野とは異なり、これまでの電気光学デバイスは量子ゆらぎではなく電子または熱雑音に支配される古典的な変調場を必要とする。 ここではミリケルビン環境下で動作し, 0.025$\pm$ 0.005のノイズ光子をモード占有するキャビティ電気光学式トランシーバを提案する。 本方式は,ポッケルス効果により超伝導マイクロ波共振器に共振結合したニオブ酸リチウムウィザリングギャラリーモード共振器をベースとする。 1.48mwの最大連続波ポンプパワーについては、xバンドマイクロ波からcバンド通信光への双方向の単側帯変換を、総効率0.03 % (0.7 %)、出力変換ノイズ5.5フォトンで実証する。 10.7MHzの高帯域幅と観測された1.1のノイズ光子s$^{-1}$の非常に遅い加熱速度を組み合わせると、量子制限パルスマイクロ波光学変換が届く。 提案装置は、マイクロ波と光電界間の高速かつ決定論的絡み合い、超伝導量子ビットの遠隔絡み合い、および新しい多重極低温回路制御および読み出し戦略への道を開いた超伝導量子ビットと互換性がある。

Fiber optic communication is the backbone of our modern information society, offering high bandwidth, low loss, weight, size and cost, as well as an immunity to electromagnetic interference. Microwave photonics lends these advantages to electronic sensing and communication systems, but - unlike the field of nonlinear optics - electro-optic devices so far require classical modulation fields whose variance is dominated by electronic or thermal noise rather than quantum fluctuations. Here we present a cavity electro-optic transceiver operating in a millikelvin environment with a mode occupancy as low as 0.025 $\pm$ 0.005 noise photons. Our system is based on a lithium niobate whispering gallery mode resonator, resonantly coupled to a superconducting microwave cavity via the Pockels effect. For the highest continuous wave pump power of 1.48 mW we demonstrate bidirectional single-sideband conversion of X band microwave to C band telecom light with a total (internal) efficiency of 0.03 % (0.7 %) and an added output conversion noise of 5.5 photons. The high bandwidth of 10.7 MHz combined with the observed very slow heating rate of 1.1 noise photons s$^{-1}$ puts quantum limited pulsed microwave-optics conversion within reach. The presented device is versatile and compatible with superconducting qubits, which might open the way for fast and deterministic entanglement distribution between microwave and optical fields, for optically mediated remote entanglement of superconducting qubits, and for new multiplexed cryogenic circuit control and readout strategies.
翻訳日:2023-05-18 07:32:47 公開日:2020-05-26
# 深層強化学習による世界国家準備の分類

Classifying global state preparation via deep reinforcement learning ( http://arxiv.org/abs/2005.12759v1 )

ライセンス: Link先を確認
Tobias Haug, Wai-Keong Mok, Jia-Bin You, Wenzu Zhang, Ching Eng Png, Leong-Chuan Kwek(参考訳) 量子情報処理は、しばしば2レベルシステムのためのブロッホ球上の全ての状態のような任意の量子状態の準備を必要とする。 数値最適化は個々の対象状態を作成することができるが、より複雑な量子システムにおいて大きな種類の状態に対して有効な一般的な解を見つけることができない。 ここでは,深層強化学習を伴う連続的な状態セットを準備することにより,グローバル量子制御を実証する。 プロトコルはニューラルネットワークを使って表現され、プロトコルを自動的に類似の型にグループ化し、プロトコルのクラスを見つけ、物理的洞察を抽出するのに役立ちます。 応用として, 複素多レベル窒素空洞中心において電子スピンの任意の重ね合わせ状態を生成し, 特定の調製時間スケールで特徴づけられるプロトコルのクラスを明らかにする。 本手法は,短期量子コンピュータ,量子センシングデバイス,量子シミュレーションの制御の改善に有効である。

Quantum information processing often requires the preparation of arbitrary quantum states, such as all the states on the Bloch sphere for two-level systems. While numerical optimization can prepare individual target states, they lack the ability to find general solutions that work for a large class of states in more complicated quantum systems. Here, we demonstrate global quantum control by preparing a continuous set of states with deep reinforcement learning. The protocols are represented using neural networks, which automatically groups the protocols into similar types, which could be useful for finding classes of protocols and extracting physical insights. As application, we generate arbitrary superposition states for the electron spin in complex multi-level nitrogen-vacancy centers, revealing classes of protocols characterized by specific preparation timescales. Our method could help improve control of near-term quantum computers, quantum sensing devices and quantum simulations.
翻訳日:2023-05-18 07:32:17 公開日:2020-05-26
# 超高速過渡吸収分光法のための時間依存結合クラスター理論

Time-dependent coupled cluster theory for ultrafast transient absorption spectroscopy ( http://arxiv.org/abs/2005.12749v1 )

ライセンス: Link先を確認
Andreas S. Skeidsvoll, Alice Balbi and Henrik Koch(参考訳) 本稿では,超短パルス列に対する分子応答に対するスピン適応型時間依存結合クラスターシングルとダブルスモデルを提案する。 この実装は、バレンス励起ポンプパルスおよびその後のコア励起プローブパルスに対する電子応答を計算するために使用される。 計算コストと精度の妥協点を見つけるために,動的結合クラスタ方程式の解法における積分手順の精度を評価する。 フッ化リチウムの過渡吸収スペクトルは、ポンプパルスに対するプローブパルスの様々な遅延に対して算出される。 過渡プローブ吸収はポンプ-プローブ遅延とともに発振するが、これはポンプ誘起重畳状態の干渉に起因する効果である。

We present a spin-adapted time-dependent coupled cluster singles and doubles model for the molecular response to a sequence of ultrashort laser pulses. The implementation is used to calculate the electronic response to a valence-exciting pump pulse, and a subsequent core-exciting probe pulse. We assess the accuracy of the integration procedures used in solving the dynamic coupled cluster equations, in order to find a compromise between computational cost and accuracy. The transient absorption spectrum of lithium fluoride is calculated for various delays of the probe pulse with respect to the pump pulse. We observe that the transient probe absorption oscillates with the pump-probe delay, an effect that is attributed to the interference of states in the pump-induced superposition.
翻訳日:2023-05-18 07:32:02 公開日:2020-05-26
# ネスト地区の数学:アラスカの場合

Mathematics of Nested Districts: The Case of Alaska ( http://arxiv.org/abs/2005.12732v1 )

ライセンス: Link先を確認
Sophia Caldera, Daryl DeFord, Moon Duchin, Samuel C. Gutekunst, and Cara Nix(参考訳) 8つの州では、各州上院の選挙区が隣接する2つの州議会の選挙区から正確に構成されることが求められる。 本稿では、共和党が上院で2/3の多数を占め、民主党主導の連立政権が下院を支配しているアラスカに焦点をあてて、これらの入れ子規制の影響について検討する。 現行のハウスプランを固定し,すべてのペアリングを考慮すれば,ペアリングのみを選択すれば,近年の投票パターンに対して,20人中4~5人分の席を選択できることがわかった。 この分析によりアラスカの地域化に関する他の知見が得られ、その中には、営巣と連続性に関する強い規則と無条件の地域住民が利用できるパルチザン緯度が含まれていた。

In eight states, a "nesting rule" requires that each state Senate district be exactly composed of two adjacent state House districts. In this paper we investigate the potential impacts of these nesting rules with a focus on Alaska, where Republicans have a 2/3 majority in the Senate while a Democratic-led coalition controls the House. Treating the current House plan as fixed and considering all possible pairings, we find that the choice of pairings alone can create a swing of 4-5 seats out of 20 against recent voting patterns, which is similar to the range observed when using a Markov chain procedure to generate plans without the nesting constraint. The analysis enables other insights into Alaska districting, including the partisan latitude available to districters with and without strong rules about nesting and contiguity.
翻訳日:2023-05-18 07:31:50 公開日:2020-05-26
# デバイス非依存量子鍵分布のフォトニック実現を容易にする雑音前処理

Noisy pre-processing facilitating a photonic realisation of device-independent quantum key distribution ( http://arxiv.org/abs/2005.13015v1 )

ライセンス: Link先を確認
M. Ho, P. Sekatski, E.Y.-Z. Tan, R. Renner, J.-D. Bancal and N. Sangouard(参考訳) デバイス非依存の量子鍵分布は、量子チャネル上で通信する機器がほとんどキャラクタリゼーションされていない場合でもセキュリティを提供する。 しかし、デバイス非依存の量子鍵分布の実験的実証は困難である。 フォトニック実装における中心的な障害は、グローバル検出効率、すなわち量子チャネル経由で送信される信号が受信される確率が一定の閾値を超えなければならないことである。 本稿では,デバイス非依存のセキュリティを維持しつつ,このしきい値を大幅に緩和する手法を提案する。 これは、初期測定データ(生鍵)に敵が知ることも制御することもできない人工ノイズを付加するプロトコルによって達成される。 自発的パラメトリックダウン変換に基づくソースを用いた現実的なフォトニックセットアップに着目し,最小のグローバル検出効率に明示的な境界を与える。

Device-independent quantum key distribution provides security even when the equipment used to communicate over the quantum channel is largely uncharacterized. An experimental demonstration of device-independent quantum key distribution is however challenging. A central obstacle in photonic implementations is that the global detection efficiency, i.e., the probability that the signals sent over the quantum channel are successfully received, must be above a certain threshold. We here propose a method to significantly relax this threshold, while maintaining provable device-independent security. This is achieved with a protocol that adds artificial noise, which cannot be known or controlled by an adversary, to the initial measurement data (the raw key). Focusing on a realistic photonic setup using a source based on spontaneous parametric down conversion, we give explicit bounds on the minimal required global detection efficiency.
翻訳日:2023-05-18 07:24:17 公開日:2020-05-26
# 非線形スピン電流

Nonlinear Spin Currents ( http://arxiv.org/abs/2005.12999v1 )

ライセンス: Link先を確認
Jayakrishnan M. P. Nair, Zhedong Zhang, Marlan O. Scully, Girish S. Agarwal(参考訳) 2つのフェライト試料間の空洞経由のスピン電流はBaiらによって報告されている。 アル [Phys. Rev. Lett. 118, 217201 (2017)] この実験は外部駆動の存在下での相互作用の線形配置において行われた。 本稿では, 外部駆動が強い非線形領域におけるスピン電流の理論を開発し, フェライト材料のKerr非線形性を含む必要がある。 このようにして非線形分極が生成され、スピン電流の双安定と多安定の両方に到達することができる。 システムは、駆動場の詳細と様々な相互作用によって決定される平衡定常状態から遠く離れている。 スピン電流に対する様々な定常状態の結果を示す。 非線形偏光子の鍵特性を明らかにする非線形スピン電流の分光検出法を開発した。 弱プローブの伝送は、スピン電流の多安定な挙動に関する定量的情報を得るために用いられる。 この結果と手法は非常に汎用的で、キャビティが1つのシステムから別のシステム、例えば2つの異なる分子システムへ情報を転送するために使用される多くの他のコンテキストで使用できる。

The cavity mediated spin current between two ferrite samples has been reported by Bai et. al. [Phys. Rev. Lett. 118, 217201 (2017)]. This experiment was done in the linear regime of the interaction in the presence of external drive. In the current paper we develop a theory for the spin current in the nonlinear domain where the external drive is strong so that one needs to include the Kerr nonlinearity of the ferrite materials. In this manner the nonlinear polaritons are created and one can reach both bistable and multistable behavior of the spin current. The system is driven into a far from equilibrium steady state which is determined by the details of driving field and various interactions. We present a variety of steady state results for the spin current. A spectroscopic detection of the nonlinear spin current is developed, revealing the key properties of the nonlinear polaritons. The transmission of a weak probe is used to obtain quantitative information on the multistable behavior of the spin current. The results and methods that we present are quite generic and can be used in many other contexts where cavities are used to transfer information from one system to another, e.g., two different molecular systems.
翻訳日:2023-05-18 07:24:03 公開日:2020-05-26
# 任意の2^w\times 2^w$ユニタリ行列の符号付き置換行列への分解

The decomposition of an arbitrary $2^w\times 2^w$ unitary matrix into signed permutation matrices ( http://arxiv.org/abs/2005.12959v1 )

ライセンス: Link先を確認
Alexis De Vos and Stijn De Baerdemacker(参考訳) ビルホフの定理は、任意の二重確率行列は置換行列の重み付き和として分解できることを示している。 同様の定理は、任意のユニタリ行列は複素置換行列の重み付き和として分解できることを示している。 次元のユニタリ行列は、量子量子ビット回路を表すため、2(例えば2^w$)のパワーと等しい。 符号付き置換行列のどの部分群が任意の行列を分解するかを調べる。 行列群は外特殊群 {\bf E}$_{2^{2w+1}}^+$の次数 2^{2w+1}$ に同型であることが判明した。 関連する順序 2^{2w}$ の射影群は等しく十分である。

Birkhoff's theorem tells that any doubly stochastic matrix can be decomposed as a weighted sum of permutation matrices. A similar theorem reveals that any unitary matrix can be decomposed as a weighted sum of complex permutation matrices. Unitary matrices of dimension equal to a power of~2 (say $2^w$) deserve special attention, as they represent quantum qubit circuits. We investigate which subgroup of the signed permutation matrices suffices to decompose an arbitrary such matrix. It turns out to be a matrix group isomorphic to the extraspecial group {\bf E}$_{2^{2w+1}}^+$ of order $2^{2w+1}$. An associated projective group of order $2^{2w}$ equally suffices.
翻訳日:2023-05-18 07:23:45 公開日:2020-05-26
# テザーからlibraへ:安定コイン、デジタル通貨、通貨の未来

From Tether to Libra: Stablecoins, Digital Currency and the Future of Money ( http://arxiv.org/abs/2005.12949v1 )

ライセンス: Link先を確認
Alexander Lipton, Aetienne Sardon, Fabian Sch\"ar, Christian Sch\"upbach(参考訳) 本稿では,安定剤について概観し,真に破壊的なポテンシャルを持つ安定剤の同定を支援する新しい用語を紹介する。 これは、stablecoinsのコンパクトな定義を提供し、これまで知られていた支払いシステムとは異なるユニークな特徴を識別する。 さらに、安定剤のさまざまな利用状況や、それらを作るための経済的インセンティブについても調査している。 最後に、安定coinを制約する重要な規制上の考慮事項を概説し、迅速な開発を推進する重要な要素を要約する。

This paper provides an overview on stablecoins and introduces a novel terminology to help better identify stablecoins with truly disruptive potential. It provides a compact definition for stablecoins, identifying the unique features that make them distinct from previously known payment systems. Furthermore, it surveys the different use cases for stablecoins as well as the underlying economic incentives for creating them. Finally, it outlines critical regulatory considerations that constrain stablecoins and summarizes key factors that are driving their rapid development.
翻訳日:2023-05-18 07:23:32 公開日:2020-05-26
# 連続変数ランダム量子ネットワークにおける絡み合い形成

Entanglement formation in continuous-variable random quantum networks ( http://arxiv.org/abs/2005.12934v1 )

ライセンス: Link先を確認
Bingzhi Zhang and Quntao Zhuang(参考訳) 絡み合いは多体システムの基本特性を理解するのに重要であるだけでなく、実用的な情報処理タスクにおいて量子的な利点をもたらす重要な資源でもある。 前回の絡み合いの形成とネットワークは離散変数システムに焦点を当てていたが、光--ネットワーク内の量子情報の唯一の移動キャリアとして--はボソニックであり、そのため一般に連続変数記述を必要とする。 本研究では,この研究を連続変数量子ネットワークに拡張する。 任意のネットワーク上のアンサンブル平均エンタングルメントダイナミクスをグラフ上のランダムウォークプロセスにマッピングすることにより、エンタングルメントダイナミクスを正確に解き、ユニークな現象を明らかにすることができる。 我々は、スキーズが絡み合いの発生源であり、放物的光円錐による絡み合いの拡散を引き起こす。 絡み合い分布はランダムウォークの確率分布に直接接続され、スクランブル時間はランダムウォークの混合時間によって決定される。 二部絡みのダイナミクスは二部絡みの境界によって決定され、多部絡み合いの操作証人は、センシングタスクの利点に基づいて、多部絡み成長を特徴付ける。 エンタングルメント成長における驚くべき線形重ね合わせ則は, エンタングルメントダイナミクスの非線形性質にもかかわらず, 時空のスペーサーがスパースである場合に, 理論により予測され, 数値的に検証される。 また, その変動を含む平衡絡み合い分布(ページ曲線)の厳密な解を与え, 平均スクイーズ密度と強度に依存する様々な形状を見出した。

Entanglement is not only important for understanding the fundamental properties of many-body systems, but also the crucial resource enabling quantum advantages in practical information processing tasks. While previous works on entanglement formation and networking focus on discrete-variable systems, light---as the only travelling carrier of quantum information in a network---is bosonic and thus requires a continuous-variable description in general. In this work, we extend the study to continuous-variable quantum networks. By mapping the ensemble-averaged entanglement dynamics on an arbitrary network to a random-walk process on a graph, we are able to exactly solve the entanglement dynamics and reveal unique phenomena. We identify squeezing as the source of entanglement generation, which triggers a diffusive spread of entanglement with a parabolic light cone. The entanglement distribution is directly connected to the probability distribution of the random walk, while the scrambling time is determined by the mixing time of the random walk. The dynamics of bipartite entanglement is determined by the boundary of the bipartition; An operational witness of multipartite entanglement, based on advantages in sensing tasks, is introduced to characterize the multipartite entanglement growth. A surprising linear superposition law in the entanglement growth is predicted by the theory and numerically verified, when the squeezers are sparse in space-time, despite the nonlinear nature of the entanglement dynamics. We also give exact solution to the equilibrium entanglement distribution (Page curves), including its fluctuations, and found various shapes dependent on the average squeezing density and strength.
翻訳日:2023-05-18 07:23:11 公開日:2020-05-26
# 128 単一シリカチップに集積した同一量子源

128 Identical Quantum Sources Integrated on a Single Silica Chip ( http://arxiv.org/abs/2005.12918v1 )

ライセンス: Link先を確認
Ruo-Jing Ren, Jun Gao, Wen-Hao Zhou, Zhi-Qiang Jiao, Lu-Feng Qiao, Xiao-Wei Wang, Xian-Min Jin(参考訳) 量子技術は、様々な分野における古典的性能の上限を超える量子重ね合わせによって支持される本質的並列処理能力によって、ますます重要な役割を担っている。 集積フォトニックチップは、物理的にスケーラブルな方法で大規模量子システムを構築するためのエレガントな方法を提供するが、量子源の不均一性は、ヒルベルト空間を指数関数的に増大させるために全ての要素がコヒーレントに連結されることを防ぐ。 ここでは,単一シリカチップに集積された128個の同一量子源を実験的に実証する。 フェムト秒レーザー直接書き込みにおける光-物質相互作用を積極的に制御することにより、導波路の性質を包括的に統一し、量子源の自発的な4波混合過程を実現できる。 本研究は, オンチップ源の不明瞭さを, 90%以上のディップ振動率を持つ2ソースのHong-Ou-Mandel干渉によって検証する。 さらに、ソースの明るさはMHzに容易に到達し、離散変数と連続変数の両方のプラットフォームに適用でき、異なるポンプ状態下での明確なアンチバンキング特徴または大きなスクイージングパラメータを示す。 量子ソースのスケーラビリティと均一性が実証され、フォトニックネットワークと検出が統合され、リアルタイムアプリケーションのための大規模全チップ量子プロセッサが実現される。

Quantum technology is playing an increasingly important role due to the intrinsic parallel processing capabilities endorsed by quantum superposition, exceeding upper limits of classical performances in diverse fields. Integrated photonic chip offers an elegant way to construct large-scale quantum systems in a physically scalable fashion, however, nonuniformity of quantum sources prevents all the elements from being connected coherently for exponentially increasing Hilbert space. Here, we experimentally demonstrate 128 identical quantum sources integrated on a single silica chip. By actively controlling the light-matter interaction in femtosecond laser direct writing, we are able to unify the properties of waveguides comprehensively and therefore the spontaneous four-wave mixing process for quantum sources. We verify the indistinguishability of the on-chip sources by a series of heralded two-source Hong-Ou-Mandel interference, with all the dip visibilities above 90%. In addition, the brightness of the sources is found easily reaching MHz and being applicable to both discrete-variable and continuous-variable platform, showing either clear anti-bunching feature or large squeezing parameter under different pumping regimes. The demonstrated scalability and uniformity of quantum sources, together with integrated photonic network and detection, will enable large-scale all-on-chip quantum processors for real-life applications.
翻訳日:2023-05-18 07:22:40 公開日:2020-05-26
# 室温における核スピンアンサンブルのコヒーレントマイクロ波制御

Coherent Microwave Control of a Nuclear Spin Ensemble at Room Temperature ( http://arxiv.org/abs/2005.13082v1 )

ライセンス: Link先を確認
P. Huillery, J. Leibold, T. Delord, L. Nicolas, J. Achard, A. Tallaire and G. H\'etet(参考訳) 我々は、ダイヤモンド中の窒素空孔(NV)中心における電子核スピン遷移を名目上禁止し、室温でのマイクロ波を用いた核スピンアンサンブルのコヒーレントな操作を示す。 我々は,nv自然量子化軸に対して振幅が小さいオフ軸磁場(約0.01 t)を用いることで電子スピンの方向を傾けることができ,nv中心の窒素原子核との効率的なスピン交換が可能であることを示した。 その後、電子-核スピンの高速発振が遷移、コヒーレントな集団トラップ、マイクロ波領域における核スピンアンサンブルの分極を交換する。 NV中心の多くの電子スピンを固有の核に結合することは、制御可能なスピンの数に関して完全なスケーラビリティを提供し、トランスダクションの見通しを提供する。 特に、この手法はマイクロ波光子の長期保存や、解決されたサイドバンド状態の機械振動子への核スピンの結合に応用することができる。

We use nominally forbidden electron-nuclear spin transitions in nitrogen-vacancy (NV) centers in diamond to demonstrate coherent manipulation of a nuclear spin ensemble using microwave fields at room temperature. We show that employing an off-axis magnetic field with a modest amplitude($\approx$ 0.01 T) at an angle with respect to the NV natural quantization axes is enough to tilt the direction of the electronic spins, and enable efficient spin exchange with the nitrogen nuclei of the NV center. We could then demonstrate fast Rabi oscillations on electron-nuclear spin exchanging transitions, coherent population trapping and polarization of nuclear spin ensembles in the microwave regime. Coupling many electronic spins of NV centers to their intrinsic nuclei offers full scalability with respect to the number of controllable spins and provides prospects for transduction. In particular, the technique could be applied to long-lived storage of microwave photons and to the coupling of nuclear spins to mechanical oscillators in the resolved sideband regime.
翻訳日:2023-05-18 07:14:18 公開日:2020-05-26
# 周波数領域最適化アルゴリズムを用いた量子システムの学習制御

Learning control of quantum systems using frequency-domain optimization algorithms ( http://arxiv.org/abs/2005.13080v1 )

ライセンス: Link先を確認
Daoyi Dong, Chuan-Cun Shu, Jiangchao Chen, Xi Xing, Hailan Ma, Yu Guo, Herschel Rabitz(参考訳) 量子系の超高速レーザー制御における周波数領域最適化アルゴリズムを用いて、量子制御問題の2つのクラスについて検討する。 第一級では, システムモデルが知られ, 周波数領域勾配に基づく最適化アルゴリズムを適用し, 原子ルビジウムの集団移動を選択的に, 頑健に操作するための最適制御場を求める。 他の種類の量子制御問題は未知のモデルを持つ実験システムを含む。 この場合、最適制御場を探索し、Pr(hfac)$_3$分子のフラグメント化のための超高速レーザー制御実験でその能力を実証するための混合戦略を持つ微分進化アルゴリズムを導入する。

We investigate two classes of quantum control problems by using frequency-domain optimization algorithms in the context of ultrafast laser control of quantum systems. In the first class, the system model is known and a frequency-domain gradient-based optimization algorithm is applied to searching for an optimal control field to selectively and robustly manipulate the population transfer in atomic Rubidium. The other class of quantum control problems involves an experimental system with an unknown model. In the case, we introduce a differential evolution algorithm with a mixed strategy to search for optimal control fields and demonstrate the capability in an ultrafast laser control experiment for the fragmentation of Pr(hfac)$_3$ molecules.
翻訳日:2023-05-18 07:13:58 公開日:2020-05-26
# 非エルミート量子モデルにおける可観測性喪失の異常機構

Anomalous mechanisms of the loss of observability in non-Hermitian quantum models ( http://arxiv.org/abs/2005.13069v1 )

ライセンス: Link先を確認
Miloslav Znojil and Denis I. Borisov(参考訳) 非三角形ハミルトニアン行列によって制御される特定の非エルミート系の量子相転移は異常である。 完全退化エネルギー固有値の幾何学的多重度が常に1に等しいように見える三対角行列構造を持つ既知のモデルとは対照的に、この多重度は現在のモデルで1よりも大きい。 この現象は、加藤の並外れた等級の点と異なる点の連なりとして解釈される。

Quantum phase transitions in certain non-Hermitian systems controlled by non-tridiagonal Hamiltonian matrices are found anomalous. In contrast to the known models with tridiagonal-matrix structure in which the geometric multiplicity of the completely degenerate energy eigenvalue appears always equal to one, this multiplicity is found larger than one in the present models. The phenomenon is interpreted as a confluence of several decoupled Kato's exceptional points of equal or different orders.
翻訳日:2023-05-18 07:13:20 公開日:2020-05-26
# 漏洩量子メモリ間の高忠実状態移動

High-fidelity State Transfer Between Leaky Quantum Memories ( http://arxiv.org/abs/2005.13062v1 )

ライセンス: Link先を確認
Daniel Soh, Eric Chatterjee, Matt Eichenfield(参考訳) 2つの異なる量子メモリブロックに対する最適解析量子状態移動制御ソリューションを導出する。 SLHの量子ネットワーク理論の定式化記述を用いて、システム集団の完全な量子力学を計算し、最も高い量子忠実性を実現するための最適解をもたらす。 2つの光メカニカル発振器の機械的モードが量子メモリブロックとして作用する例では、それらの光モードとそれらを接続する導波路チャネルを用いて、より導出した最適制御解を用いて、現実的なパラメータで96%の量子状態転送忠実性を達成することができる。 物理記憶パラメータにおける内在損失と非対称性の影響を定量的に検討した。

We derive the optimal analytical quantum-state-transfer control solutions for two disparate quantum memory blocks. Employing the SLH formalism description of quantum network theory, we calculate the full quantum dynamics of system populations, which lead to the optimal solution for the highest quantum fidelity attainable. We show that, for the example where the mechanical modes of two optomechanical oscillators act as the quantum memory blocks, their optical modes and a waveguide channel connecting them can be used to achieve a quantum state transfer fidelity of 96% with realistic parameters using our derived optimal control solution. The effects of the intrinsic losses and the asymmetries in the physical memory parameters are discussed quantitatively.
翻訳日:2023-05-18 07:13:13 公開日:2020-05-26
# 2次元材料コーティングによるスペクトル特異性と波長可変スラブレーザー

Spectral singularities and tunable slab lasers with 2D material coating ( http://arxiv.org/abs/2005.13052v1 )

ライセンス: Link先を確認
Hamed Ghaemi-Dizicheh, Ali Mostafazadeh, Mustafa Sarisaman(参考訳) 一対のグラフェンまたはワイル半金属薄板間に挟まれた能動平面スラブからなるスラブレーザの横電気および横磁気モードにおける線形および非線形スペクトル特異性について検討した。 線形スペクトル特異点の存在はレーザー閾値条件を与えるが、誘導された弱いカーの非線形性による非線形スペクトル特異点の存在は、しきい値付近でレーザー出力強度を計算することができる。 グラフェンとワイルの半金属シートの存在は、レーザーの出力強度を調整できる追加の物理パラメータをもたらす。 Weyl半金属コーティングを用いたスラブのTMモードにおいて,この現象を包括的に研究し,その特異性について報告する。 特に,放出角度が小さいスラブのtmモードでは発振が不可能であるような臨界角度の存在を明らかにする。 その結果, 放射角が臨界角をわずかに超えるTMモードでは, レーザ出力強度はコーティングの物理的パラメータに非常に敏感であることが示唆された。

We investigate linear and nonlinear spectral singularities in the transverse electric and transverse magnetic modes of a slab laser consisting of an active planar slab sandwiched between a pair of Graphene or Weyl semimetal thin sheets. The requirement of the presence of linear spectral singularities gives the laser threshold condition while the existence of nonlinear spectral singularities due to an induced weak Kerr nonlinearity allows for computing the laser output intensity in the vicinity of the threshold. The presence of the Graphene and Weyl semimetal sheets introduces additional physical parameters that we can use to tune the output intensity of the laser. We provide a comprehensive study of this phenomenon and report peculiarities of lasing in the TM modes of the slab with Weyl semimetal coatings. In particular, we reveal the existence of a critical angle such that no lasing seems possible for TM modes of the slab with smaller emission angle. Our results suggest that for TM modes with emission angle slightly exceeding the critical angle, the laser output intensity becomes highly sensitive to the physical parameters of the coating.
翻訳日:2023-05-18 07:12:57 公開日:2020-05-26
# AutoDiscern:階層型エンコーダによるニューラルネットワークによるオンライン健康情報の品質評価

AutoDiscern: Rating the Quality of Online Health Information with Hierarchical Encoder Attention-based Neural Networks ( http://arxiv.org/abs/1912.12999v3 )

ライセンス: Link先を確認
Laura Kinkead, Ahmed Allam, Michael Krauthammer(参考訳) 患者は、健康専門家と話をする前に、検索エンジンやオンラインコンテンツに目を向ける傾向にある。 インターネットで一般的に見られる低品質の健康情報は、誤った情報や、医師とのより貧弱な関係という形で患者にリスクをもたらす。 これを解決するために、 disCERN 基準(オックスフォード大学で開発された)は、オンライン健康情報の質を評価するために用いられる。 しかし、患者が訪問する健康ウェブサイトにこれらの基準を適用するのに時間を費やす可能性は低い。 我々は機械学習モデルを用いた識別器(briefバージョン)の自動実装を構築した。 従来のモデル(ランドムフォレスト)と階層型エンコーダアテンションベースニューラルネットワーク(HEA)モデルの性能を,BERTとBioBERTの2つの言語埋め込みを用いて比較した。 HEA BERTとBioBERTは平均F1-macroスコアを0.75と0.74で達成し、ランダムフォレストモデル(平均F1-macro = 0.69)を上回った。 全体として、ニューラルネットワークベースのモデルの平均精度は81%と86%で、それぞれ100%と80%で、手動評価の精度は94%だった。 HEAアーキテクチャで実装されたアテンションメカニズムは、ブリーフディスCERN基準を満たす文書の適切なサポート文を特定することで「モデル説明可能性」を提供するだけでなく、アテンションメカニズムのない同じアーキテクチャと比較してF1性能を0.05向上させた。 本研究は、患者が医療プロセスにおいて情報提供者となるための重要なステップである、オンライン健康情報品質評価の自動化が可能であることを示唆している。

Patients increasingly turn to search engines and online content before, or in place of, talking with a health professional. Low quality health information, which is common on the internet, presents risks to the patient in the form of misinformation and a possibly poorer relationship with their physician. To address this, the DISCERN criteria (developed at University of Oxford) are used to evaluate the quality of online health information. However, patients are unlikely to take the time to apply these criteria to the health websites they visit. We built an automated implementation of the DISCERN instrument (Brief version) using machine learning models. We compared the performance of a traditional model (Random Forest) with that of a hierarchical encoder attention-based neural network (HEA) model using two language embeddings, BERT and BioBERT. The HEA BERT and BioBERT models achieved average F1-macro scores across all criteria of 0.75 and 0.74, respectively, outperforming the Random Forest model (average F1-macro = 0.69). Overall, the neural network based models achieved 81% and 86% average accuracy at 100% and 80% coverage, respectively, compared to 94% manual rating accuracy. The attention mechanism implemented in the HEA architectures not only provided 'model explainability' by identifying reasonable supporting sentences for the documents fulfilling the Brief DISCERN criteria, but also boosted F1 performance by 0.05 compared to the same architecture without an attention mechanism. Our research suggests that it is feasible to automate online health information quality assessment, which is an important step towards empowering patients to become informed partners in the healthcare process.
翻訳日:2023-01-17 01:59:23 公開日:2020-05-26
# パンオプティカルセグメンテーションの統一訓練と推論

Unifying Training and Inference for Panoptic Segmentation ( http://arxiv.org/abs/2001.04982v2 )

ライセンス: Link先を確認
Qizhu Li, Xiaojuan Qi, Philip H.S. Torr(参考訳) 本稿では,画像のセグメンテーションのためのトレーニングパイプラインと推論パイプラインのギャップを埋めるエンドツーエンドネットワークを提案する。 最近の研究とは対照的に、我々のネットワークはパラメトリで、しかし軽量なpanopticセグメンテーションサブモジュールを利用して、エンドツーエンドの学習された密接なインスタンス親和性を利用して、任意のピクセルが同じインスタンスに属する確率を捉える。 このpanopticサブモジュールは、panoptic logitsの新しい伝播メカニズムを生み出し、ネットワークは、後処理なしで、"ステフ"クラスと"シング"クラスの両方に対してコヒーレントなpanopticセグメンテーションマップを出力することができる。 エンド・ツー・エンドのトレーニングの利点を享受するため、本システムでは、人気のストリートシーンデータセットであるcityscapesに新しいレコードを設定し、詳細なアノテーションのみを使用して、resnet-50バックボーンで61.4pqを達成しました。 挑戦的なCOCOデータセットでは、ResNet-50ベースのネットワークが43.4 PQの最先端の精度を提供する。 さらに、当社のネットワークは、オブジェクトマスクのキューを使用せずに柔軟に動作し、両方の設定下で競合的に動作します。

We present an end-to-end network to bridge the gap between training and inference pipeline for panoptic segmentation, a task that seeks to partition an image into semantic regions for "stuff" and object instances for "things". In contrast to recent works, our network exploits a parametrised, yet lightweight panoptic segmentation submodule, powered by an end-to-end learnt dense instance affinity, to capture the probability that any pair of pixels belong to the same instance. This panoptic submodule gives rise to a novel propagation mechanism for panoptic logits and enables the network to output a coherent panoptic segmentation map for both "stuff" and "thing" classes, without any post-processing. Reaping the benefits of end-to-end training, our full system sets new records on the popular street scene dataset, Cityscapes, achieving 61.4 PQ with a ResNet-50 backbone using only the fine annotations. On the challenging COCO dataset, our ResNet-50-based network also delivers state-of-the-art accuracy of 43.4 PQ. Moreover, our network flexibly works with and without object mask cues, performing competitively under both settings, which is of interest for applications with computation budgets.
翻訳日:2023-01-11 12:51:59 公開日:2020-05-26
# 教師-学生モデルと対人訓練に基づく照明適応型人物リード

Illumination adaptive person reid based on teacher-student model and adversarial training ( http://arxiv.org/abs/2002.01625v3 )

ライセンス: Link先を確認
Ziyue Zhang, Richard YD Xu, Shuai Jiang, Yang Li, Congzhentao Huang, Chen Deng(参考訳) Person Re-identification (ReID) の既存の作業の多くは、照明が同じか、ほとんど変動しない設定に焦点を当てている。 しかし、照明度の変化はReIDアルゴリズムの堅牢性に大きな影響を与える可能性がある。 この問題に対処するために,照明機能からReID機能を分離し,ReID性能を向上させる2ストリームネットワークを提案する。 その革新は3つある:(1)reidの特徴に照明情報がないことを保証するための識別エントロピー損失。 2)「中性」照明条件下で画像によって訓練されたReID教師モデルによるReID分類の指導 3) 照明調整と原画像との差異から学習した照明教師モデルを用いて照明分類を指導する。 我々は、最も人気のあるreidベンチマークであるmarket1501とdukemtmc-reidで、事前定義された照明条件を合成して2つの拡張データセットを構築する。 実験によると、このアルゴリズムは他の最先端作品よりも優れており、特に極めて低い光の下で画像を扱うのに強い効果がある。

Most existing works in Person Re-identification (ReID) focus on settings where illumination either is kept the same or has very little fluctuation. However, the changes in the illumination degree may affect the robustness of a ReID algorithm significantly. To address this problem, we proposed a Two-Stream Network that can separate ReID features from lighting features to enhance ReID performance. Its innovations are threefold: (1) A discriminative entropy loss to ensure the ReID features contain no lighting information. (2) A ReID Teacher model trained by images under "neutral" lighting conditions to guide ReID classification. (3) An illumination Teacher model trained by the differences between the illumination-adjusted and original images to guide illumination classification. We construct two augmented datasets by synthetically changing a set of predefined lighting conditions in two of the most popular ReID benchmarks: Market1501 and DukeMTMC-ReID. Experiments demonstrate that our algorithm outperforms other state-of-the-art works and particularly potent in handling images under extremely low light.
翻訳日:2023-01-03 21:38:32 公開日:2020-05-26
# 広葉樹林とブラウンウェブを対象とする乱れ格子ネットワークの伝送とナビゲーション

Transmission and navigation on disordered lattice networks, directed spanning forests and Brownian web ( http://arxiv.org/abs/2002.06898v2 )

ライセンス: Link先を確認
Subhroshekhar Ghosh and Kumarjit Saha(参考訳) ノードとしてのランダムな点集合に基づく確率的ネットワークは、特に無線センサネットワークやピアツーピアネットワークなど、多くのアプリケーションにおいて大きな関心を集めている。 このようなネットワークの研究は一般に、ノードをポアソン点過程として独立に均一に分散することを要求する。 本研究では,この標準パラダイムを超越し,空間依存点場のモデルとして望ましい統計特性を持つランダムな摂動格子に基づく \textit{directed spanning forests} (dsf) から得られるネットワークの確率幾何学を考察する。 2D, 3Dでは, DSFがほぼ確実に1本の木から構成されていることが判明した。 2Dでは、パスの集合としてのDSFがブラウンウェブへの拡散スケーリングの下に収束することがさらに証明される。

Stochastic networks based on random point sets as nodes have attracted considerable interest in many applications, particularly in communication networks, including wireless sensor networks, peer-to-peer networks and so on. The study of such networks generally requires the nodes to be independently and uniformly distributed as a Poisson point process. In this work, we venture beyond this standard paradigm and investigate the stochastic geometry of networks obtained from \textit{directed spanning forests} (DSF) based on randomly perturbed lattices, which have desirable statistical properties as a models of spatially dependent point fields. In the regime of low disorder, we show in 2D and 3D that the DSF almost surely consists of a single tree. In 2D, we further establish that the DSF, as a collection of paths, converges under diffusive scaling to the Brownian web.
翻訳日:2022-12-31 13:01:45 公開日:2020-05-26
# DISCO: ダブルライクな推論確率制御

DISCO: Double Likelihood-free Inference Stochastic Control ( http://arxiv.org/abs/2002.07379v3 )

ライセンス: Link先を確認
Lucas Barcelos, Rafael Oliveira, Rafael Possas, Lionel Ott, and Fabio Ramos(参考訳) 複雑な物理システムの正確なシミュレーションは、実際のシステムにデプロイする前に制御戦略の開発、テスト、認証を可能にする。 シミュレータがより進歩するにつれて、微分方程式とそれに関連する数値解法の解析性は減少し、解析が困難になる。 潜在的な解決策は、システムの実際の観測からシミュレーションパラメータの不確実性を評価するために確率的推論を使用することである。 残念ながら、推論に必要な可能性関数は一般に計算に費用がかかるか、完全に難解である。 本稿では, シミュレーションパラメータに対する不確実性に対して効率的かつ堅牢な制御フレームワークを設計するために, 現代のシミュレータのパワーと, ベイズ統計学の最近の手法を活用することを提案する。 シミュレーションパラメータ上の後部分布は、無意味な変換を持つシステムの潜在的非解析モデルと、情報理論モデル予測制御の変種によって伝播される。 このアプローチはモンテカルロサンプリングよりも効率的な軌道ロールアウトの評価方法を提供し、オンライン計算の負担を軽減する。 実験により, モデルパラメータに対する不確実性を考慮しないモデルと比較して, 従来の制御とロボットのタスクにおいて, 優れた性能と堅牢性が得られた。

Accurate simulation of complex physical systems enables the development, testing, and certification of control strategies before they are deployed into the real systems. As simulators become more advanced, the analytical tractability of the differential equations and associated numerical solvers incorporated in the simulations diminishes, making them difficult to analyse. A potential solution is the use of probabilistic inference to assess the uncertainty of the simulation parameters given real observations of the system. Unfortunately the likelihood function required for inference is generally expensive to compute or totally intractable. In this paper we propose to leverage the power of modern simulators and recent techniques in Bayesian statistics for likelihood-free inference to design a control framework that is efficient and robust with respect to the uncertainty over simulation parameters. The posterior distribution over simulation parameters is propagated through a potentially non-analytical model of the system with the unscented transform, and a variant of the information theoretical model predictive control. This approach provides a more efficient way to evaluate trajectory roll outs than Monte Carlo sampling, reducing the online computation burden. Experiments show that the controller proposed attained superior performance and robustness on classical control and robotics tasks when compared to models not accounting for the uncertainty over model parameters.
翻訳日:2022-12-30 20:46:13 公開日:2020-05-26
# Refined Gate: リカレントユニットの簡易かつ効果的なゲーティング機構

Refined Gate: A Simple and Effective Gating Mechanism for Recurrent Units ( http://arxiv.org/abs/2002.11338v2 )

ライセンス: Link先を確認
Zhanzhan Cheng, Yunlu Xu, Mingjian Cheng, Yu Qiao, Shiliang Pu, Yi Niu and Fei Wu(参考訳) リカレントニューラルネットワーク(RNN)はシーケンシャルラーニングタスクにおいて広く研究されており、主流モデル(LSTMやGRUなど)はゲーティング機構(隠れ状態間の情報の流れの制御)に依存している。 しかし、RNN(例えばLSTMの入力ゲート)のバニラゲートは、飽和活性化関数、ゲートレイアウト(例えば、ゲート番号とゲーティング関数)、さらには最適下メモリ状態など、様々な要因によって生じるゲートアンダートレーニングの問題に悩まされる。 これらは、ゲーティングスイッチロールの学習に失敗し、パフォーマンスが低下する可能性がある。 本稿では,この問題に対処する一般ゲートリカレントニューラルネットワークにおける新しいゲーティング機構を提案する。 具体的には,提案したゲートは,抽出した入力特徴とバリラゲートの出力を直接的にショートする。 精製機構により、勾配のバックプロパゲーションが強化され、ゲーティングアクティベーション範囲が拡張され、RNNはより深いミニマに達することができる。 LSTM, GRU, MGUの3種類のゲートRNNに対して, 提案したゲーティング機構を検証する。 3つの合成タスク、3つの言語モデリングタスク、5つのシーンテキスト認識ベンチマークに関する広範な実験が本手法の有効性を示している。

Recurrent neural network (RNN) has been widely studied in sequence learning tasks, while the mainstream models (e.g., LSTM and GRU) rely on the gating mechanism (in control of how information flows between hidden states). However, the vanilla gates in RNN (e.g., the input gate in LSTM) suffer from the problem of gate undertraining, which can be caused by various factors, such as the saturating activation functions, the gate layouts (e.g., the gate number and gating functions), or even the suboptimal memory state etc.. Those may result in failures of learning gating switch roles and thus the weak performance. In this paper, we propose a new gating mechanism within general gated recurrent neural networks to handle this issue. Specifically, the proposed gates directly short connect the extracted input features to the outputs of vanilla gates, denoted as refined gates. The refining mechanism allows enhancing gradient back-propagation as well as extending the gating activation scope, which can guide RNN to reach possibly deeper minima. We verify the proposed gating mechanism on three popular types of gated RNNs including LSTM, GRU and MGU. Extensive experiments on 3 synthetic tasks, 3 language modeling tasks and 5 scene text recognition benchmarks demonstrate the effectiveness of our method.
翻訳日:2022-12-28 13:50:04 公開日:2020-05-26
# 離散成分分割ワッサースタイン距離最小化による画像ハッシュ

Image Hashing by Minimizing Discrete Component-wise Wasserstein Distance ( http://arxiv.org/abs/2003.00134v3 )

ライセンス: Link先を確認
Khoa D. Doan and Saurav Manchanda and Sarkhan Badirli and Chandan K. Reddy(参考訳) イメージハッシュは、様々な実用的なシナリオに対して効率的かつ効果的なソリューションを要求する根本的な問題の1つです。 競合するオートエンコーダは、バランスよく高品質なハッシュコードを生成する堅牢で局所的なハッシュ関数を暗黙的に学習できることが示されている。 しかし,既存の逆ハッシュ法は,大規模画像検索に非効率である。 具体的には、最適なハッシュコードを生成するために指数関数的な数のサンプルと、非常に高い計算コストを必要とする。 本稿では,高サンプリング・複雑度要求により,対向ハッシュ法の最適部分検索性能が向上することを示す。 この課題に対処するために、サンプル要求と計算コストをはるかに低減した新しい対向型オートエンコーダハッシュ手法を提案する。 具体的には、低次元離散空間におけるハッシュ関数の所望の性質を利用して、計算容易な一次元ワッサースタイン距離の集合を平均することにより、より優れたワッサースタイン距離の変種を効率的に推定する。 その結果得られたハッシュ手法は、他の逆ハッシュ法と比較して、高次値のサンプリング複雑性が向上し、一般化特性が向上する。 さらに,本手法を用いて計算コストを大幅に削減した。 本研究では,いくつかの実世界のデータセットで実験を行い,提案手法が競合するハッシュ法を上回り,現在の画像ハッシュ法を最大10%改善したことを示す。 この論文に付随するコードはgithubで入手できる(https://github.com/khoadoan/adversarial-hashing)。

Image hashing is one of the fundamental problems that demand both efficient and effective solutions for various practical scenarios. Adversarial autoencoders are shown to be able to implicitly learn a robust, locality-preserving hash function that generates balanced and high-quality hash codes. However, the existing adversarial hashing methods are inefficient to be employed for large-scale image retrieval applications. Specifically, they require an exponential number of samples to be able to generate optimal hash codes and a significantly high computational cost to train. In this paper, we show that the high sample-complexity requirement often results in sub-optimal retrieval performance of the adversarial hashing methods. To address this challenge, we propose a new adversarial-autoencoder hashing approach that has a much lower sample requirement and computational cost. Specifically, by exploiting the desired properties of the hash function in the low-dimensional, discrete space, our method efficiently estimates a better variant of Wasserstein distance by averaging a set of easy-to-compute one-dimensional Wasserstein distances. The resulting hashing approach has an order-of-magnitude better sample complexity, thus better generalization property, compared to the other adversarial hashing methods. In addition, the computational cost is significantly reduced using our approach. We conduct experiments on several real-world datasets and show that the proposed method outperforms the competing hashing methods, achieving up to 10% improvement over the current state-of-the-art image hashing methods. The code accompanying this paper is available on Github (https://github.com/khoadoan/adversarial-hashing).
翻訳日:2022-12-27 20:33:46 公開日:2020-05-26
# 視覚障害者共焦点顕微鏡のためのパッチベース非局所ベイズネットワーク

Patch-based Non-Local Bayesian Networks for Blind Confocal Microscopy Denoising ( http://arxiv.org/abs/2003.11177v2 )

ライセンス: Link先を確認
Saeed Izadi, Ghassan Hamarneh(参考訳) 共焦点顕微鏡は病理組織学的細胞可視化および定量化に必須である。 生物において重要な役割を担っているにもかかわらず、蛍光共焦点顕微鏡は画像取得中に固有のノイズの存在に苦しむ。 非局所パッチワイドベイズ平均フィルタリング(NLB)は、最近まで最先端のノイズ除去手法であった。 しかし、古典的特徴付け手法は近年、ニューラルネットワークに勝っている。 本研究では,ベイズ深層学習の枠組みにおけるNLBの強みを活用することを提案する。 畳み込みニューラルネットワークを設計し、それをトレーニングして、最も近い、しかし非ローカルな隣人を考えると、ノイズのないパッチの先を近似するガウスモデルのパラメータを学習します。 次に,ノイズフリーパッチを近似するプロセスにおいて,ノイズパッチの事前情報と情報を活用するためにベイズ推論を適用する。 具体的には、nlbアルゴリズムで推定されるクローズドフォーム解析式 \textit{maximum a posteriori} (map) を用いて、後方分布を最大化するノイズフリーパッチを得る。 実雑音ポアソン・ガウシアンノイズを用いた共焦点顕微鏡画像を用いて,提案手法の性能評価を行った。 我々の実験は、最先端の教師なしの復調技術に対するアプローチの優位性を明らかにした。

Confocal microscopy is essential for histopathologic cell visualization and quantification. Despite its significant role in biology, fluorescence confocal microscopy suffers from the presence of inherent noise during image acquisition. Non-local patch-wise Bayesian mean filtering (NLB) was until recently the state-of-the-art denoising approach. However, classic denoising methods have been outperformed by neural networks in recent years. In this work, we propose to exploit the strengths of NLB in the framework of Bayesian deep learning. We do so by designing a convolutional neural network and training it to learn parameters of a Gaussian model approximating the prior on noise-free patches given their nearest, similar yet non-local, neighbors. We then apply Bayesian reasoning to leverage the prior and information from the noisy patch in the process of approximating the noise-free patch. Specifically, we use the closed-form analytic \textit{maximum a posteriori} (MAP) estimate in the NLB algorithm to obtain the noise-free patch that maximizes the posterior distribution. The performance of our proposed method is evaluated on confocal microscopy images with real noise Poisson-Gaussian noise. Our experiments reveal the superiority of our approach against state-of-the-art unsupervised denoising techniques.
翻訳日:2022-12-20 03:42:01 公開日:2020-05-26
# 調音対応カノニカル表面マッピング

Articulation-aware Canonical Surface Mapping ( http://arxiv.org/abs/2004.00614v3 )

ライセンス: Link先を確認
Nilesh Kulkarni, Abhinav Gupta, David F. Fouhey, Shubham Tulsiani(参考訳) 私たちは次の課題に取り組みます 1)正準テンプレート形状上の2次元画素から対応する点へのマッピングを示す正準曲面マッピング(csm)の予測と, 2)入力画像に対応するテンプレートの調音とポーズを推測する。 従来のアプローチはキーポイントによる学習の監督に依存していたが,このようなアノテーションを使わずに学習できるアプローチを提案する。 我々の重要な洞察は、これらのタスクは幾何学的に関連しており、予測間の一貫性を強制することで監督信号を得ることができることである。 本手法は,前景のマスクラベルのみを用いて,画像収集から調音とcsm予測を学習できることを示す。 我々は,有意な調音学習において,調音がより正確なCSM予測の学習に役立ち,予測されたCSMとの整合性が重要であることを実証的に示す。

We tackle the tasks of: 1) predicting a Canonical Surface Mapping (CSM) that indicates the mapping from 2D pixels to corresponding points on a canonical template shape, and 2) inferring the articulation and pose of the template corresponding to the input image. While previous approaches rely on keypoint supervision for learning, we present an approach that can learn without such annotations. Our key insight is that these tasks are geometrically related, and we can obtain supervisory signal via enforcing consistency among the predictions. We present results across a diverse set of animal object categories, showing that our method can learn articulation and CSM prediction from image collections using only foreground mask labels for training. We empirically show that allowing articulation helps learn more accurate CSM prediction, and that enforcing the consistency with predicted CSM is similarly critical for learning meaningful articulation.
翻訳日:2022-12-17 19:14:17 公開日:2020-05-26
# 深層強化学習における行動空間形成

Action Space Shaping in Deep Reinforcement Learning ( http://arxiv.org/abs/2004.00980v2 )

ライセンス: Link先を確認
Anssi Kanervisto, Christian Scheller, Ville Hautam\"aki(参考訳) 強化学習(rl)はビデオゲームを含む様々な学習環境におけるエージェントの訓練に成功している。 しかし、そのような作業はゲームのオリジナルからアクション空間を変更・縮小する。 これは、"無意味"なアクションを避け、実装を簡単にすることです。 現在、これはほとんど直観に基づいて行われており、設計決定を支持する体系的な研究はほとんどない。 本研究は,ゲーム環境における広範囲な実験により,これらの動作空間の修正に関する洞察を得ることを目的としている。 その結果、ドメイン固有のアクションの削除と継続的なアクションの離散化が、学習の成功に不可欠であることを示唆した。 これらの知見により、アクション空間が容易に学習できることを明確にすることで、新しい環境におけるRLの使用を容易にしたいと思っています。

Reinforcement learning (RL) has been successful in training agents in various learning environments, including video-games. However, such work modifies and shrinks the action space from the game's original. This is to avoid trying "pointless" actions and to ease the implementation. Currently, this is mostly done based on intuition, with little systematic research supporting the design decisions. In this work, we aim to gain insight on these action space modifications by conducting extensive experiments in video-game environments. Our results show how domain-specific removal of actions and discretization of continuous actions can be crucial for successful learning. With these insights, we hope to ease the use of RL in new environments, by clarifying what action-spaces are easy to learn.
翻訳日:2022-12-17 12:38:19 公開日:2020-05-26
# 逐次推薦システムのための汎用ネットワーク圧縮フレームワーク

A Generic Network Compression Framework for Sequential Recommender Systems ( http://arxiv.org/abs/2004.13139v5 )

ライセンス: Link先を確認
Yang Sun, Fajie Yuan, Min Yang, Guoao Wei, Zhou Zhao, and Duo Liu(参考訳) 逐次レコメンデーションシステム(srs)は,ユーザの動的関心を捉え,高品質なレコメンデーションを生成する上で重要な技術となっている。 現在の最先端のシーケンシャルレコメンダモデルは通常、サンドイッチ構造されたディープニューラルネットワークに基づいており、1つ以上の中間層が入力埋め込み層と出力ソフトマックス層の間に配置されている。 一般に、これらのモデルは最適な性能を得るために、多数のパラメータ(例えば、大きな埋め込み次元やディープネットワークアーキテクチャなど)を必要とする。 有効性にもかかわらず、ある時点でモデルサイズが大きくなると、リソース制約のあるデバイスでのモデル展開が難しくなり、応答時間が長く、メモリフットプリントも大きくなる。 この問題を解決するために,2つの汎用モデル縮小手法を用いたcprecと呼ばれる圧縮逐次推奨フレームワークを提案する。 具体的には,srsの項目が長尾分布に従うという事実を生かして,入力行列とソフトマックス行列を近似するブロックワイズ適応分解を提案する。 中間層のパラメータを減らすため、3つのレイヤ毎のパラメータ共有スキームを導入する。 我々は,レコメンデーション精度と効率性の両方を考慮した拡張カーネルを用いた深層畳み込みニューラルネットワークを用いてcprecをインスタンス化する。 広範なアブレーション研究により,提案するcprecは実世界のsrsデータセットにおいて最大4$\sim$8倍の圧縮率を達成できることを実証した。 一方、CpRecはトレーニング/推論の速度が速く、ほとんどの場合、圧縮されていないものよりも優れています。

Sequential recommender systems (SRS) have become the key technology in capturing user's dynamic interests and generating high-quality recommendations. Current state-of-the-art sequential recommender models are typically based on a sandwich-structured deep neural network, where one or more middle (hidden) layers are placed between the input embedding layer and output softmax layer. In general, these models require a large number of parameters (such as using a large embedding dimension or a deep network architecture) to obtain their optimal performance. Despite the effectiveness, at some point, further increasing model size may be harder for model deployment in resource-constraint devices, resulting in longer responding time and larger memory footprint. To resolve the issues, we propose a compressed sequential recommendation framework, termed as CpRec, where two generic model shrinking techniques are employed. Specifically, we first propose a block-wise adaptive decomposition to approximate the input and softmax matrices by exploiting the fact that items in SRS obey a long-tailed distribution. To reduce the parameters of the middle layers, we introduce three layer-wise parameter sharing schemes. We instantiate CpRec using deep convolutional neural network with dilated kernels given consideration to both recommendation accuracy and efficiency. By the extensive ablation studies, we demonstrate that the proposed CpRec can achieve up to 4$\sim$8 times compression rates in real-world SRS datasets. Meanwhile, CpRec is faster during training\inference, and in most cases outperforms its uncompressed counterpart.
翻訳日:2022-12-11 07:52:42 公開日:2020-05-26
# Isabelle/HOLにおける証明法勧告のための簡易データセット(データセット記述)

Simple Dataset for Proof Method Recommendation in Isabelle/HOL (Dataset Description) ( http://arxiv.org/abs/2004.10667v3 )

ライセンス: Link先を確認
Yutaka Nagashima(参考訳) 近年,対話型定理証明器のユーザを支援するために機械学習を応用する研究者が増えている。 しかし、基礎となる論理の表現的な性質と証明文書の難解な構造は、しばしば形式論理学の専門知識を持たない機械学習の実践者にとって、この分野での大規模な成功を妨げている。 このデータ記述では,400k以上の証明法アプリケーションと100以上の抽出された特徴を含む単純なデータセットを,形式論理の知識を必要とせずに容易に処理可能な形式として提示する。 我々の単純なデータフォーマットにより、機械学習の実践者は、論理学の専門知識を必要とせずに、機械学習ツールを使ってIsabelle/HOLの証明メソッドを予測できます。

Recently, a growing number of researchers have applied machine learning to assist users of interactive theorem provers. However, the expressive nature of underlying logics and esoteric structures of proof documents impede machine learning practitioners, who often do not have much expertise in formal logic, let alone Isabelle/HOL, from achieving a large scale success in this field. In this data description, we present a simple dataset that contains data on over 400k proof method applications along with over 100 extracted features for each in a format that can be processed easily without any knowledge about formal logic. Our simple data format allows machine learning practitioners to try machine learning tools to predict proof methods in Isabelle/HOL without requiring domain expertise in logic.
翻訳日:2022-12-11 06:20:28 公開日:2020-05-26
# 隠れ変数を持つ因果グラフィカルモデルにおける効率的な調整セット

Efficient adjustment sets in causal graphical models with hidden variables ( http://arxiv.org/abs/2004.10521v3 )

ライセンス: Link先を確認
Ezequiel Smucler, Facundo Sapienza and Andrea Rotnitzky(参考訳) 動的処理レジーム(dynamic treatment regimes)としても知られる点露光動的ポリシーの値を推定するための共変量調整セットの選択を,少なくとも1つの調整セットが完全に観測可能な隠れ変数を持つ非パラメトリック因果的グラフィカルモデルと仮定して検討する。 近年,隠れ変数を持たないグラフに対して,特定の調整セットに対して制御する静的ポリシー値の非パラメトリック推定値の漸近的分散を比較するための基準が,動的ポリシーや隠れ変数を持つグラフでも有効であることが示された。 最小(最小濃度)の調整集合の制御において最小の分散を持つ推定子を産出するという意味では、最適極小(最小濃度)である調整集合が存在することを示す。 さらに,変数が隠れていない場合,あるいはすべての可観測変数が処理,結果,あるいは処理決定に使用される変数の祖先である場合,グローバルに最適な調整セットが存在することを示す。 多項式時間アルゴリズムにより、(存在するとき)グローバル最適化、最適最小調整、最適最小調整セットを計算する。 この結果は,処理と結果変数の間の頂点カットが調整セットに対応する非方向グラフの構築に基づいている。 この無向グラフでは、最小頂点カットの間の部分順序が定義され、最小カットの集合が格子となる。 この部分順序は、対応する非パラメトリック調整された推定子の漸近分散の順序に直接対応する。

We study the selection of covariate adjustment sets for estimating the value of point exposure dynamic policies, also known as dynamic treatment regimes, assuming a non-parametric causal graphical model with hidden variables, in which at least one adjustment set is fully observable. We show that recently developed criteria, for graphs without hidden variables, to compare the asymptotic variance of non-parametric estimators of static policy values that control for certain adjustment sets, are also valid under dynamic policies and graphs with hidden variables. We show that there exist adjustment sets that are optimal minimal (minimum), in the sense of yielding estimators with the smallest variance among those that control for adjustment sets that are minimal (of minimum cardinality). Moreover, we show that if either no variables are hidden or if all the observable variables are ancestors of either treatment, outcome, or the variables that are used to decide treatment, a globally optimal adjustment set exists. We provide polynomial time algorithms to compute the globally optimal (when it exists), optimal minimal, and optimal minimum adjustment sets. Our results are based on the construction of an undirected graph in which vertex cuts between the treatment and outcome variables correspond to adjustment sets. In this undirected graph, a partial order between minimal vertex cuts can be defined that makes the set of minimal cuts a lattice. This partial order corresponds directly to the ordering of the asymptotic variances of the corresponding non-parametrically adjusted estimators.
翻訳日:2022-12-10 17:29:33 公開日:2020-05-26
# 位置認識特徴選択テキスト検出ネットワーク

Location-Aware Feature Selection Text Detection Network ( http://arxiv.org/abs/2004.10999v2 )

ライセンス: Link先を確認
Zengyuan Guo, Zilin Wang, Zhihui Wang, Wanli Ouyang, Haojie Li, Wen Gao(参考訳) 回帰に基づくテキスト検出手法はすでに、単純なネットワーク構造と高い効率で有望な性能を達成している。 しかし、最近のセグメンテーションベースのテキスト検出器と比較して精度が遅れている。 本研究は, 回帰に基づく手法が, 境界や回転角との距離などの境界ボックスの成分を予測するために, 特定の特徴選択手法(すなわち, 一つの位置や隣接領域における特徴の選択)を用いるのが一般的であることを示す。 このような方法で選択された機能は、テキストバウンディングボックスのすべてのコンポーネントを予測するための最善の選択ではない場合もあります。 この問題に対処するために,新しい位置認識機能Selection Text Detection Network (LASNet)を提案する。 LASNetは、異なる場所から適切な機能を選択し、バウンディングボックスの5つのコンポーネントを別々に予測し、これらのコンポーネントを組み合わせて最終バウンディングボックスを取得する。 具体的には、分類スコアマップを使用して、既存の手法と同様に境界ボックス全体を予測するための1つの特徴を選択する代わりに、LASNetはまず5つの新しい信頼スコアマップを学習し、それぞれ境界ボックスコンポーネントの予測精度を示す。 次に、位置認識特徴選択機構(LAFS)は、各コンポーネントの信頼度に応じて上位$K$予測結果を重く融合させ、これら5つの融合したコンポーネントを最終バウンディングボックスに結合するように設計する。 その結果、LASNetは学習可能な特徴選択方法を用いてより正確な境界ボックスを予測する。 実験結果から,lasnetは単一モデルおよび単一スケールテストで最先端の性能を達成し,既存の回帰型検出器を上回った。

Regression-based text detection methods have already achieved promising performances with simple network structure and high efficiency. However, they are behind in accuracy comparing with recent segmentation-based text detectors. In this work, we discover that one important reason to this case is that regression-based methods usually utilize a fixed feature selection way, i.e. selecting features in a single location or in neighbor regions, to predict components of the bounding box, such as the distances to the boundaries or the rotation angle. The features selected through this way sometimes are not the best choices for predicting every component of a text bounding box and thus degrade the accuracy performance. To address this issue, we propose a novel Location-Aware feature Selection text detection Network (LASNet). LASNet selects suitable features from different locations to separately predict the five components of a bounding box and gets the final bounding box through the combination of these components. Specifically, instead of using the classification score map to select one feature for predicting the whole bounding box as most of the existing methods did, the proposed LASNet first learn five new confidence score maps to indicate the prediction accuracy of the bounding box components, respectively. Then, a Location-Aware Feature Selection mechanism (LAFS) is designed to weightily fuse the top-$K$ prediction results for each component according to their confidence score, and to combine the all five fused components into a final bounding box. As a result, LASNet predicts the more accurate bounding boxes by using a learnable feature selection way. The experimental results demonstrate that our LASNet achieves state-of-the-art performance with single-model and single-scale testing, outperforming all existing regression-based detectors.
翻訳日:2022-12-10 09:47:16 公開日:2020-05-26
# 未知環境における安全ナビゲーションの不確実性を考慮したオンライン地図作成と運動計画

Online Mapping and Motion Planning under Uncertainty for Safe Navigation in Unknown Environments ( http://arxiv.org/abs/2004.12317v2 )

ライセンス: Link先を確認
\`Eric Pairet, Juan David Hern\'andez, Marc Carreras, Yvan Petillot, Morteza Lahijanian(参考訳) 安全な自律ナビゲーションは、高度に構造化された、あるいは完全に未知の環境で動作するロボットにとって、必須かつ困難な問題である。 これらの条件下では、ロボットシステムは限られたローカライゼーション情報を扱う必要があるだけでなく、その操作性は彼らのダイナミクスによって制約され、しばしば不確実性に悩まされる。 これらの制約に対処するため,本書では,オンライン上で可能動作のマッピングと計画を行うための不確実性に基づく枠組みを提案する。 提案手法は, 動き, 確率的安全性, オンライン計算の制約を次のように扱う。 (i)環境の不確実性を考慮した表現を構築するために周囲を段階的にマッピングし、 (ii) 信念空間における多層サンプリング型プランナーによる運動力学的に実現可能で確率的に安全である目標への反復的(再)計画軌道 詳細な実証分析では、このアプローチの重要な特性が示されている。 (a)多層計画戦略は、漸近的最適性と完全性保証を維持しつつ、高次元の信念空間の迅速な探索を可能にする。 b) 確率的衝突チェックのルーチンは,文献中の他の不確実性認識プランナーと比較して,より厳密な確率境界となる。 さらに、非ホロノミック魚雷形状の自律水中車両の実際の水中実験とDARPA Subterranean Challenge 2019のステアウェルシナリオでの模擬試験は、この方法の有効性と、限定された計算能力を持つシステムに対する適合性を実証している。

Safe autonomous navigation is an essential and challenging problem for robots operating in highly unstructured or completely unknown environments. Under these conditions, not only robotic systems must deal with limited localisation information, but also their manoeuvrability is constrained by their dynamics and often suffer from uncertainty. In order to cope with these constraints, this manuscript proposes an uncertainty-based framework for mapping and planning feasible motions online with probabilistic safety-guarantees. The proposed approach deals with the motion, probabilistic safety, and online computation constraints by: (i) incrementally mapping the surroundings to build an uncertainty-aware representation of the environment, and (ii) iteratively (re)planning trajectories to goal that are kinodynamically feasible and probabilistically safe through a multi-layered sampling-based planner in the belief space. In-depth empirical analyses illustrate some important properties of this approach, namely, (a) the multi-layered planning strategy enables rapid exploration of the high-dimensional belief space while preserving asymptotic optimality and completeness guarantees, and (b) the proposed routine for probabilistic collision checking results in tighter probability bounds in comparison to other uncertainty-aware planners in the literature. Furthermore, real-world in-water experimental evaluation on a non-holonomic torpedo-shaped autonomous underwater vehicle and simulated trials in the Stairwell scenario of the DARPA Subterranean Challenge 2019 on a quadrotor unmanned aerial vehicle demonstrate the efficacy of the method as well as its suitability for systems with limited on-board computational power.
翻訳日:2022-12-09 13:45:04 公開日:2020-05-26
# 変形性膝関節症mriセグメンテーションに関する国際ワークショップ:標準化データセットに関する多施設共同評価と分析フレームワーク

The International Workshop on Osteoarthritis Imaging Knee MRI Segmentation Challenge: A Multi-Institute Evaluation and Analysis Framework on a Standardized Dataset ( http://arxiv.org/abs/2004.14003v2 )

ライセンス: Link先を確認
Arjun D. Desai, Francesco Caliva, Claudia Iriondo, Naji Khosravan, Aliasghar Mortazi, Sachin Jambawalikar, Drew Torigian, Jutta Ellermann, Mehmet Akcakaya, Ulas Bagci, Radhika Tibrewala, Io Flament, Matthew O`Brien, Sharmila Majumdar, Mathias Perslev, Akshay Pai, Christian Igel, Erik B. Dam, Sibaji Gaj, Mingrui Yang, Kunio Nakamura, Xiaojuan Li, Cem M. Deniz, Vladimir Juras, Ravinder Regatte, Garry E. Gold, Brian A. Hargreaves, Valentina Pedoia, Akshay S. Chaudhari(参考訳) 目的: 変形性関節症進行のモニタリングに係わる自動セグメンテーション法の意義と臨床効果を特徴付けるため, 膝関節mriセグメンテーションチャレンジを組織すること。 方法: 足底関節軟骨と半月板分節の2点において, 88名の被験者から得られた3次元膝関節MRIによるデータセット分割を標準化した。 Diceスコア, 平均対称表面距離, ボリュームオーバーラップ誤差, およびホールドアウトテストセットの変動係数を用いて, 課題提出と多数投票のアンサンブルを評価した。 ネットワークセグメンテーションの類似性はペアワイズサイス相関を用いて評価した。 関節軟骨厚はスキャン毎および縦方向に算出した。 Pearson係数を用いて厚さ誤差とセグメンテーションの相関を測定した。 実正と真負を結合したモデル出力の組み合わせを用いてアンサンブル性能の2つの経験的上限を計算した。 結果: 6チーム(T1-T6)が挑戦のエントリーを提出した。 全組織 (p=1.0) に有意差は認められなかった(T2, T3, T4, T6)。 ネットワーク対間のダイス相関は高い (>0.85) 。 t1-t4 (p=0.99) ではスカン当たりの厚さ誤差は無視でき, 縦変化は最小バイアス(<0.03mm) であった。 セグメンテーション測定値と厚さ誤差との間には相関が低かった(<0.41)。 多数決のアンサンブルは、トップパフォーマンスネットワーク(p=1.0)に匹敵するものだった。 経験的な上界性能は両組み合わせ(p=1.0)でも同様であった。 結論: 多様なネットワークは, 高い分節精度が軟骨厚の精度と相関しない膝の分節を学習した。 投票アンサンブルは個々のネットワークを上回らず、個々のモデルを規則化するのに役立つかもしれない。

Purpose: To organize a knee MRI segmentation challenge for characterizing the semantic and clinical efficacy of automatic segmentation methods relevant for monitoring osteoarthritis progression. Methods: A dataset partition consisting of 3D knee MRI from 88 subjects at two timepoints with ground-truth articular (femoral, tibial, patellar) cartilage and meniscus segmentations was standardized. Challenge submissions and a majority-vote ensemble were evaluated using Dice score, average symmetric surface distance, volumetric overlap error, and coefficient of variation on a hold-out test set. Similarities in network segmentations were evaluated using pairwise Dice correlations. Articular cartilage thickness was computed per-scan and longitudinally. Correlation between thickness error and segmentation metrics was measured using Pearson's coefficient. Two empirical upper bounds for ensemble performance were computed using combinations of model outputs that consolidated true positives and true negatives. Results: Six teams (T1-T6) submitted entries for the challenge. No significant differences were observed across all segmentation metrics for all tissues (p=1.0) among the four top-performing networks (T2, T3, T4, T6). Dice correlations between network pairs were high (>0.85). Per-scan thickness errors were negligible among T1-T4 (p=0.99) and longitudinal changes showed minimal bias (<0.03mm). Low correlations (<0.41) were observed between segmentation metrics and thickness error. The majority-vote ensemble was comparable to top performing networks (p=1.0). Empirical upper bound performances were similar for both combinations (p=1.0). Conclusion: Diverse networks learned to segment the knee similarly where high segmentation accuracy did not correlate to cartilage thickness accuracy. Voting ensembles did not outperform individual networks but may help regularize individual models.
翻訳日:2022-12-08 14:29:35 公開日:2020-05-26
# 共進化下におけるボールドウィン効果について

On the Baldwin Effect under Coevolution ( http://arxiv.org/abs/2004.14827v2 )

ライセンス: Link先を確認
Larry Bull(参考訳) 学習と進化の間の潜在的に有益な相互作用であるボールドウィン効果は長い間確立されてきた。 本稿では,共進化シナリオ,すなわち,ある種の適応が他の種の適合性に影響を与える場合の相互作用について考察する。 nkcsモデルを用いて, 適応的景観サイズ, 頑丈さ, 結合度の影響を体系的に探究し, 学習量と相対的進化速度が行動にどのような影響を及ぼすかを示す。

The potentially beneficial interaction between learning and evolution, the Baldwin effect, has long been established. This paper considers their interaction within a coevolutionary scenario, ie, where the adaptations of one species typically affects the fitness of others. Using the NKCS model, which allows the systematic exploration of the effects of fitness landscape size, ruggedness, and degree of coupling, it is shown how the amount of learning and the relative rate of evolution can alter behaviour.
翻訳日:2022-12-08 13:17:12 公開日:2020-05-26
# レイマンの言葉で:科学文献からの半オープンな関係抽出

In Layman's Terms: Semi-Open Relation Extraction from Scientific Texts ( http://arxiv.org/abs/2005.07751v2 )

ライセンス: Link先を確認
Ruben Kruiper, Julian F.V. Vincent, Jessica Chen-Burger, Marc P.Y. Desmulliez, Ioannis Konstas(参考訳) 科学文書からの情報抽出(ie)は、科学文書の中央情報に読者を導くのに使うことができる。 しかし、狭いIEシステムは取得した情報のごく一部だけを抽出し、Open IEシステムは科学的テキストで遭遇する長く複雑な文ではうまく機能しない。 本研究では,両システムの出力を組み合わせることで,生物領域における新たな課題である半開放的関係抽出を実現する。 まず,焦点を絞ったオープンバイオ情報抽出(fobie)データセットを提示し,fobieを用いて最先端の狭義の科学ieシステムを訓練し,生物学のテキストに中心となるトレードオフ関係や議論を抽出する。 次に、狭義のIEシステムと最先端のオープンIEシステムの両方を、10万個のオープンアクセス科学的生物学的テキストのコーパス上で実行します。 また, 誤りや不正なOpen IE抽出の量の65%が, 狭いIE抽出を用いてフィルタリング可能であることを示す。 さらに, 保持された抽出量は, 読者に対して有意に有益であることを示す。

Information Extraction (IE) from scientific texts can be used to guide readers to the central information in scientific documents. But narrow IE systems extract only a fraction of the information captured, and Open IE systems do not perform well on the long and complex sentences encountered in scientific texts. In this work we combine the output of both types of systems to achieve Semi-Open Relation Extraction, a new task that we explore in the Biology domain. First, we present the Focused Open Biological Information Extraction (FOBIE) dataset and use FOBIE to train a state-of-the-art narrow scientific IE system to extract trade-off relations and arguments that are central to biology texts. We then run both the narrow IE system and a state-of-the-art Open IE system on a corpus of 10k open-access scientific biological texts. We show that a significant amount (65%) of erroneous and uninformative Open IE extractions can be filtered using narrow IE extractions. Furthermore, we show that the retained extractions are significantly more often informative to a reader.
翻訳日:2022-12-02 23:09:34 公開日:2020-05-26
# 自然に触発されたエンジニアリングのための科学情報抽出データセット

A Scientific Information Extraction Dataset for Nature Inspired Engineering ( http://arxiv.org/abs/2005.07753v2 )

ライセンス: Link先を確認
Ruben Kruiper, Julian F.V. Vincent, Jessica Chen-Burger, Marc P.Y. Desmulliez, Ioannis Konstas(参考訳) 自然は、ロボティクスから航空宇宙工学、医療機器の製造まで、様々な画期的な技術発展に影響を与えた。 しかし、科学生物学のテキストで捉えた情報にアクセスすることは、ドメイン固有の知識を必要とする時間がかかり、難しい作業である。 外部からのアクセスを改善することは、Nature Inspired Engineeringのような学際的な研究に役立つ。 本稿では, トレードオフや相関関係などの科学生物学テキストにおいて, 中心概念間のドメインに依存しない関係を表現する1500文のデータセットについて述べる。 これらの関係の議論はマルチワード表現であり、非射影グラフを形成するためにフレーズを変更することで注釈付けされている。 このデータセットは、科学的生物学的文書の粗いタイピングを目的とした関係抽出アルゴリズムのトレーニングと評価を可能にする。

Nature has inspired various ground-breaking technological developments in applications ranging from robotics to aerospace engineering and the manufacturing of medical devices. However, accessing the information captured in scientific biology texts is a time-consuming and hard task that requires domain-specific knowledge. Improving access for outsiders can help interdisciplinary research like Nature Inspired Engineering. This paper describes a dataset of 1,500 manually-annotated sentences that express domain-independent relations between central concepts in a scientific biology text, such as trade-offs and correlations. The arguments of these relations can be Multi Word Expressions and have been annotated with modifying phrases to form non-projective graphs. The dataset allows for training and evaluating Relation Extraction algorithms that aim for coarse-grained typing of scientific biological documents, enabling a high-level filter for engineers.
翻訳日:2022-12-02 23:09:16 公開日:2020-05-26
# がん遺伝学のための半自動知識ベース構築

Semi-Automating Knowledge Base Construction for Cancer Genetics ( http://arxiv.org/abs/2005.08146v2 )

ライセンス: Link先を確認
Somin Wadhwa, Kanhua Yin, Kevin S. Hughes, Byron C. Wallace(参考訳) 本研究では,癌における遺伝子領域の指数関数的に増加する領域について考察する。 普及のためにこの証拠を合成し集中させる必要性は、医師のチームが、文献で報告された重要な結果を蒸留する知識ベースを手作業で構築し、維持する動機となった。 これは、研究設計を理解し、研究品質を評価し、特定の遺伝性癌遺伝子(すなわち、透過性)に関連する報告されたがんリスク推定を抽出するために、フルテキストの論文を読み取るのに苦労したプロセスである。 本研究は,現在行われている手動ワークフローの迅速化を目的として,全文がん遺伝子記事からキー要素を自動的に抽出するモデルを提案する。 発癌遺伝学研究の結果を特徴付けるために重要な課題を2つ提案する。 一 研究対象の集団からの偏見による偏見をもたらす可能性があることを通知する「emph{ascertainment mechanism}」を記載したテキストの断片を抽出すること。 (ii)特定の生殖細胞突然変異に関連する報告されたリスク推定(オッズまたはハザード比)を抽出すること。 後者のタスクは、結合エンティティタグ付けと関係抽出の問題と見なすことができる。 これらのタスクのモデルをトレーニングするために,手作業による知識ベースを用いた全文記事のトークンやスニペットの遠隔監視を行う。 そこで本研究では,トランスフォーマーを用いたジョイントエンティティと関係抽出モデルを用いて<germline mutation, risk-estimate>}ペアを抽出するモデルを提案する。 我々は、この領域におけるkb構成を支援するモデルの実践可能性を強調しながら、強い経験的性能を観察した。 例えば、<germline mutation, risk-estimate>のジョイントモデルがパイプライン化されたアプローチよりも大幅に優れていることを観察します。

In this work, we consider the exponentially growing subarea of genetics in cancer. The need to synthesize and centralize this evidence for dissemination has motivated a team of physicians to manually construct and maintain a knowledge base that distills key results reported in the literature. This is a laborious process that entails reading through full-text articles to understand the study design, assess study quality, and extract the reported cancer risk estimates associated with particular hereditary cancer genes (i.e., penetrance). In this work, we propose models to automatically surface key elements from full-text cancer genetics articles, with the ultimate aim of expediting the manual workflow currently in place. We propose two challenging tasks that are critical for characterizing the findings reported cancer genetics studies: (i) Extracting snippets of text that describe \emph{ascertainment mechanisms}, which in turn inform whether the population studied may introduce bias owing to deviations from the target population; (ii) Extracting reported risk estimates (e.g., odds or hazard ratios) associated with specific germline mutations. The latter task may be viewed as a joint entity tagging and relation extraction problem. To train models for these tasks, we induce distant supervision over tokens and snippets in full-text articles using the manually constructed knowledge base. We propose and evaluate several model variants, including a transformer-based joint entity and relation extraction model to extract <germline mutation, risk-estimate>} pairs. We observe strong empirical performance, highlighting the practical potential for such models to aid KB construction in this space. We ablate components of our model, observing, e.g., that a joint model for <germline mutation, risk-estimate> fares substantially better than a pipelined approach.
翻訳日:2022-12-02 05:42:52 公開日:2020-05-26
# 深い文脈化言語モデルを用いたテーブル検索

Table Search Using a Deep Contextualized Language Model ( http://arxiv.org/abs/2005.09207v2 )

ライセンス: Link先を確認
Zhiyu Chen, Mohamed Trabelsi, Jeff Heflin, Yinan Xu, Brian D. Davison(参考訳) BERTのような事前訓練された文脈言語モデルは、様々な自然言語処理ベンチマークにおいて印象的な結果を得た。 複数の事前訓練タスクと大規模学習コーパスから恩恵を受けることで、事前訓練されたモデルは複雑な構文的単語関係を捉えることができる。 本稿では,アドホックテーブル検索のタスクに,深い文脈化言語モデルbertを使用する。 BERTのテーブル構造と入力長制限を考慮したテーブル内容をエンコードする方法を検討する。 また,テーブル検索における先行文献の特徴を取り入れ,bertと共同で学習する手法を提案する。 公開データセットの実験では,従来の最先端手法とBERTベースラインを,異なる評価基準の下で大きなマージンで上回る結果が得られた。

Pretrained contextualized language models such as BERT have achieved impressive results on various natural language processing benchmarks. Benefiting from multiple pretraining tasks and large scale training corpora, pretrained models can capture complex syntactic word relations. In this paper, we use the deep contextualized language model BERT for the task of ad hoc table retrieval. We investigate how to encode table content considering the table structure and input length limit of BERT. We also propose an approach that incorporates features from prior literature on table retrieval and jointly trains them with BERT. In experiments on public datasets, we show that our best approach can outperform the previous state-of-the-art method and BERT baselines with a large margin under different evaluation metrics.
翻訳日:2022-12-01 13:31:05 公開日:2020-05-26
# 不確実性認識政策最適化の指導--学習戦略とモデルベース戦略を組み合わせたサンプル効率政策学習

Guided Uncertainty-Aware Policy Optimization: Combining Learning and Model-Based Strategies for Sample-Efficient Policy Learning ( http://arxiv.org/abs/2005.10872v2 )

ライセンス: Link先を確認
Michelle A. Lee, Carlos Florensa, Jonathan Tremblay, Nathan Ratliff, Animesh Garg, Fabio Ramos, Dieter Fox(参考訳) 従来のロボットのアプローチは、環境の正確なモデル、タスクの実行方法の詳細な説明、そして現在の状態を追跡するための堅牢な知覚システムに依存している。 一方で、強化学習アプローチは、タスクを記述するための報酬信号だけで、生の感覚入力から直接操作できるが、非常にサンプル非効率で不安定である。 本研究では,ロボットの知覚・運動パイプラインにおける不正確さを克服し,環境との相互作用を最小限に抑えながら,モデルに基づく手法の強みと学習に基づく手法の柔軟性を組み合わせる。 これは、不確実性推定を活用して、与えられたモデルベースのポリシーが信頼できる領域と、それが正しく定義されていない可能性のある領域に空間を分割する。 これらの不確実な地域では、ローカルな学習政治が生の感覚入力で直接利用できることを示す。 我々は、実際のペグ挿入を行うロボット上で、GUAPO(Gread Uncertainty-Aware Policy Optimization)というアルゴリズムをテストする。 ビデオはhttps://sites.google.com/view/guapo-rlで閲覧できる。

Traditional robotic approaches rely on an accurate model of the environment, a detailed description of how to perform the task, and a robust perception system to keep track of the current state. On the other hand, reinforcement learning approaches can operate directly from raw sensory inputs with only a reward signal to describe the task, but are extremely sample-inefficient and brittle. In this work, we combine the strengths of model-based methods with the flexibility of learning-based methods to obtain a general method that is able to overcome inaccuracies in the robotics perception/actuation pipeline, while requiring minimal interactions with the environment. This is achieved by leveraging uncertainty estimates to divide the space in regions where the given model-based policy is reliable, and regions where it may have flaws or not be well defined. In these uncertain regions, we show that a locally learned-policy can be used directly with raw sensory inputs. We test our algorithm, Guided Uncertainty-Aware Policy Optimization (GUAPO), on a real-world robot performing peg insertion. Videos are available at https://sites.google.com/view/guapo-rl
翻訳日:2022-11-30 23:20:24 公開日:2020-05-26
# オンラインケーブル長推定によるナックルブームクレーンのビジョンベース制御

Vision-based control of a knuckle boom crane with online cable length estimation ( http://arxiv.org/abs/2005.11794v2 )

ライセンス: Link先を確認
Geir Ole Tysse, Andrej Cibicik and Olav Egeland(参考訳) ナックルブームクレーン用のビジョンベースコントローラを提示する。 制御装置はクレーンの先端の動きを制御するのに使用され、同時にペイロードの振動を補償する。 ペイロードの振動はクレーンキングに固定された3台のカメラで測定され、ペイロードケーブルに固定された2つの球面マーカーを追跡するために使用される。 色とサイズ情報に基づいて、各カメラはマーカーに対応する画像ポイントを識別する。 積載角度は、画像点の線形三角測量を用いて決定される。 拡張カルマンフィルタはペイロード角と角速度を推定するために用いられる。 ペイロードケーブルの長さは、投影を伴う最小二乗法を用いて推定される。 クレーンは、インナー制御ループが振子振動を減衰するように設計されたリニアカスケード制御器で制御され、クレーン先端は外側ループによって制御される。 制御装置の制御変数は指示されたクレーン先端加速度であり、速度ループを用いて速度指令に変換される。 制御システムの性能を,クナクルブームクレーンの小型実験室版を用いて実験的に検討した。

A vision-based controller for a knuckle boom crane is presented. The controller is used to control the motion of the crane tip and at the same time compensate for payload oscillations. The oscillations of the payload are measured with three cameras that are fixed to the crane king and are used to track two spherical markers fixed to the payload cable. Based on color and size information, each camera identifies the image points corresponding to the markers. The payload angles are then determined using linear triangulation of the image points. An extended Kalman filter is used for estimation of payload angles and angular velocity. The length of the payload cable is also estimated using a least squares technique with projection. The crane is controlled by a linear cascade controller where the inner control loop is designed to damp out the pendulum oscillation, and the crane tip is controlled by the outer loop. The control variable of the controller is the commanded crane tip acceleration, which is converted to a velocity command using a velocity loop. The performance of the control system is studied experimentally using a scaled laboratory version of a knuckle boom crane.
翻訳日:2022-11-29 14:10:10 公開日:2020-05-26
# 因果ベイズ最適化

Causal Bayesian Optimization ( http://arxiv.org/abs/2005.11741v2 )

ライセンス: Link先を確認
Virginia Aglietti, Xiaoyu Lu, Andrei Paleyes, Javier Gonz\'alez(参考訳) 本稿では,介入の順序が決定される因果モデルの一部である関心の変数をグローバルに最適化する問題について考察する。 この問題は、生物学、運用研究、通信、そしてより一般に、相互接続されたノードのシステムの出力メトリックを最適化することを目的としているあらゆる分野で発生する。 我々のアプローチは因果推論、不確実性定量化、逐次意思決定からのアイデアを組み合わせる。 特に、目的関数の入力変数を独立に扱うベイズ最適化を、因果情報が利用可能なシナリオに一般化する。 本稿では,因果グラフの知識が最適意思決定戦略の推論能力を大幅に向上し,最適化コストを低減し,最適解を回避できることを示す。 我々はCausal Bayesian Optimization (CBO)と呼ばれる新しいアルゴリズムを提案する。 cboは、実際の介入データとdo-calculusで計算された推定された介入効果を組み合わせると生じる、古典的な探索-探索と新しい観察-干渉の2つのトレードオフを自動でバランスさせる。 本手法の実用的利点を, 合成環境と実世界の2つのアプリケーションで実証する。

This paper studies the problem of globally optimizing a variable of interest that is part of a causal model in which a sequence of interventions can be performed. This problem arises in biology, operational research, communications and, more generally, in all fields where the goal is to optimize an output metric of a system of interconnected nodes. Our approach combines ideas from causal inference, uncertainty quantification and sequential decision making. In particular, it generalizes Bayesian optimization, which treats the input variables of the objective function as independent, to scenarios where causal information is available. We show how knowing the causal graph significantly improves the ability to reason about optimal decision making strategies decreasing the optimization cost while avoiding suboptimal solutions. We propose a new algorithm called Causal Bayesian Optimization (CBO). CBO automatically balances two trade-offs: the classical exploration-exploitation and the new observation-intervention, which emerges when combining real interventional data with the estimated intervention effects computed via do-calculus. We demonstrate the practical benefits of this method in a synthetic setting and in two real-world applications.
翻訳日:2022-11-29 13:24:24 公開日:2020-05-26
# GoChat: 階層的な強化学習を備えた目標指向チャットボット

GoChat: Goal-oriented Chatbots with Hierarchical Reinforcement Learning ( http://arxiv.org/abs/2005.11729v2 )

ライセンス: Link先を確認
Jianfeng Liu, Feiyang Pan, Ling Luo(参考訳) 人間のように会話するチャットボットは、言語生成を超越したゴール指向(会話の目的)であるべきである。 しかし、既存の対話システムは、目標を達成するために、面倒な手作りのルールや高価なラベル付きデータセットに大きく依存することが多い。 本稿では,ゴール指向チャットボット(gochat)を提案する。チャットボットをエンドツーエンドでトレーニングし,オフラインのマルチターン対話データセットからの長期復帰を最大化するフレームワークである。 このフレームワークでは階層的強化学習(hrl)を用いて,高レベルポリシが下位ゴールを決定することによって最終目標に向かって会話を誘導し,低レベルポリシが対応する応答発話を生成して下位ゴールを満足する。 金融学におけるアンチフルートのための実世界の対話データセットに関する実験では、応答生成の質と目標達成の成功率の両方において、従来の手法よりも優れています。

A chatbot that converses like a human should be goal-oriented (i.e., be purposeful in conversation), which is beyond language generation. However, existing dialogue systems often heavily rely on cumbersome hand-crafted rules or costly labelled datasets to reach the goals. In this paper, we propose Goal-oriented Chatbots (GoChat), a framework for end-to-end training chatbots to maximize the longterm return from offline multi-turn dialogue datasets. Our framework utilizes hierarchical reinforcement learning (HRL), where the high-level policy guides the conversation towards the final goal by determining some sub-goals, and the low-level policy fulfills the sub-goals by generating the corresponding utterance for response. In our experiments on a real-world dialogue dataset for anti-fraud in financial, our approach outperforms previous methods on both the quality of response generation as well as the success rate of accomplishing the goal.
翻訳日:2022-11-29 13:14:59 公開日:2020-05-26
# 歩行者属性認識の再考:効率的な手法による現実的データセット

Rethinking of Pedestrian Attribute Recognition: Realistic Datasets with Efficient Method ( http://arxiv.org/abs/2005.11909v2 )

ライセンス: Link先を確認
Jian Jia, Houjing Huang, Wenjie Yang, Xiaotang Chen, Kaiqi Huang(参考訳) 歩行者属性認識の進展には様々な方法が提案されているが、既存のデータセットにおいて重要な問題は無視されることが多い。 したがって、列車とテストセットにおける同じ歩行者のアイデンティティのイメージは極めて類似しており、既存のデータセットにおける最先端のメソッドのパフォーマンスを過大評価している。 この問題に対処するために、PETAとRAPv2のデータセットに基づく歩行者識別のゼロショット設定に続いて、2つの現実的データセット PETA\textsubscript{$zs$} と RAPv2\textsubscript{$zs$} を提案する。 さらに、我々の強いベースライン法と比較して、最近の最先端の手法では、APA, RAPv2, PETA\textsubscript{$zs$} および RAPv2\textsubscript{$zs$} の性能改善ができない。 そこで,歩行者属性認識における特性不均衡を解消し,性能向上のための効率的な手法を提案する。 既存および提案したデータセットの実験は、最先端の性能を達成することによって、我々の手法の優位性を検証する。

Despite various methods are proposed to make progress in pedestrian attribute recognition, a crucial problem on existing datasets is often neglected, namely, a large number of identical pedestrian identities in train and test set, which is not consistent with practical application. Thus, images of the same pedestrian identity in train set and test set are extremely similar, leading to overestimated performance of state-of-the-art methods on existing datasets. To address this problem, we propose two realistic datasets PETA\textsubscript{$zs$} and RAPv2\textsubscript{$zs$} following zero-shot setting of pedestrian identities based on PETA and RAPv2 datasets. Furthermore, compared to our strong baseline method, we have observed that recent state-of-the-art methods can not make performance improvement on PETA, RAPv2, PETA\textsubscript{$zs$} and RAPv2\textsubscript{$zs$}. Thus, through solving the inherent attribute imbalance in pedestrian attribute recognition, an efficient method is proposed to further improve the performance. Experiments on existing and proposed datasets verify the superiority of our method by achieving state-of-the-art performance.
翻訳日:2022-11-29 06:04:17 公開日:2020-05-26
# Neuro4Neuro:大規模集団拡散イメージングを用いた神経路分割のためのニューラルネットワークアプローチ

Neuro4Neuro: A neural network approach for neural tract segmentation using large-scale population-based diffusion imaging ( http://arxiv.org/abs/2005.12838v1 )

ライセンス: Link先を確認
Bo Li, Marius de Groot, Rebecca M. E. Steketee, Rozanna Meijboom, Marion Smits, Meike W. Vernooij, M. Arfan Ikram, Jiren Liu, Wiro J. Niessen, Esther E. Bron(参考訳) 白色物質(WM)の微細構造の変化は、正常な老化と神経変性と関連している。 これらの関連をより詳細に研究するには、wm路を脳拡散mriから正確に再現的に識別することが重要である。 さらに,大規模データセットや臨床実践において,WMトラクトの分析を可能にするためには,迅速かつ容易に適用できる方法論が不可欠である。 そこで本研究では,畳み込みニューラルネットワーク(CNN)を用いた拡散テンソル画像からWMトラクションを直接抽出できるNeuro4Neuroという,WMトラクションセグメンテーションの新しいアプローチを提案する。 この3dエンド・ツー・エンド法は、高齢化個体の25のwm路を、人口ベース研究(n=9752,1.5t mri)から区切るように訓練されている。 提案手法は, 高い空間的合意(コーエンカッパ, k = 0.72 ~ 0.83)と, トラクション特異的拡散測定(例えば, 分数異方性: 誤差 = 1% ~ 5%)において, 高いセグメンテーション性能と高い再現性を示した。 提案手法の再現性は, トラクトグラフィに基づくセグメンテーションアルゴリズムよりも高かったが, 桁違いに高速であった(0.5sから0.5s)。 さらに, 外部認知症データセット (N=58, 3T MRI) からの拡散スキャンの一般化に成功した。 2つの原理実証実験において, 健常高齢者の年齢, 認知症コホートにおける疾患サブタイプを用いて, 提案法を用いて得られたwm微細構造を解析した。 その結果, 加齢に伴う組織構造の変化と, 認知症サブタイプ間での集団的微細構造差が顕著に減少した。 結論として, 大規模研究や臨床実践に応用可能なWMトラクションセグメンテーションの再現性が高く, 高速な方法が提示された。

Subtle changes in white matter (WM) microstructure have been associated with normal aging and neurodegeneration. To study these associations in more detail, it is highly important that the WM tracts can be accurately and reproducibly characterized from brain diffusion MRI. In addition, to enable analysis of WM tracts in large datasets and in clinical practice it is essential to have methodology that is fast and easy to apply. This work therefore presents a new approach for WM tract segmentation: Neuro4Neuro, that is capable of direct extraction of WM tracts from diffusion tensor images using convolutional neural network (CNN). This 3D end-to-end method is trained to segment 25 WM tracts in aging individuals from a large population-based study (N=9752, 1.5T MRI). The proposed method showed good segmentation performance and high reproducibility, i.e., a high spatial agreement (Cohen's kappa, k = 0.72 ~ 0.83) and a low scan-rescan error in tract-specific diffusion measures (e.g., fractional anisotropy: error = 1% ~ 5%). The reproducibility of the proposed method was higher than that of a tractography-based segmentation algorithm, while being orders of magnitude faster (0.5s to segment one tract). In addition, we showed that the method successfully generalizes to diffusion scans from an external dementia dataset (N=58, 3T MRI). In two proof-of-principle experiments, we associated WM microstructure obtained using the proposed method with age in a normal elderly population, and with disease subtypes in a dementia cohort. In concordance with the literature, results showed a widespread reduction of microstructural organization with aging and substantial group-wise microstructure differences between dementia subtypes. In conclusion, we presented a highly reproducible and fast method for WM tract segmentation that has the potential of being used in large-scale studies and clinical practice.
翻訳日:2022-11-29 00:56:26 公開日:2020-05-26
# レーザーカオス時系列を用いたマルチアームバンディット問題におけるアームオーダー認識

Arm order recognition in multi-armed bandit problem with laser chaos time series ( http://arxiv.org/abs/2005.13085v1 )

ライセンス: Link先を確認
Naoki Narisawa, Nicolas Chauvet, Mikio Hasegawa and Makoto Naruse(参考訳) レーザーによる超高速で不規則な時系列を遅延フィードバックで利用することにより,レーザーカオス時系列の時間分割多重化を利用したマルチアームバンディット(MAB)問題を解決するスケーラブルなアルゴリズムを以前実証した。 アルゴリズムは報奨期待が最も高いアームを検出するが、報奨期待の観点で腕の順番を正しく認識することは不可能である。 本稿では,報酬予測の推定精度を表す信頼区間に基づいて,探索の度合いを適応的に制御するアルゴリズムを提案する。 従来のmab法と比較して,報奨環境への依存度が小さくなるとともに,アームオーダー認識精度が著しく向上し,報酬総量はほぼ維持できることを示した。 本研究は、情報通信技術における資源の効率的な配分など、注文情報が重要である分野に適用する。

By exploiting ultrafast and irregular time series generated by lasers with delayed feedback, we have previously demonstrated a scalable algorithm to solve multi-armed bandit (MAB) problems utilizing the time-division multiplexing of laser chaos time series. Although the algorithm detects the arm with the highest reward expectation, the correct recognition of the order of arms in terms of reward expectations is not achievable. Here, we present an algorithm where the degree of exploration is adaptively controlled based on confidence intervals that represent the estimation accuracy of reward expectations. We have demonstrated numerically that our approach did improve arm order recognition accuracy significantly, along with reduced dependence on reward environments, and the total reward is almost maintained compared with conventional MAB methods. This study applies to sectors where the order information is critical, such as efficient allocation of resources in information and communications technology.
翻訳日:2022-11-29 00:55:27 公開日:2020-05-26
# 交通利用者の旅行パターンマイニングの鍵技術と複数のデータソースを用いた応用に関する研究

Study on Key Technologies of Transit Passengers Travel Pattern Mining and Applications based on Multiple Sources of Data ( http://arxiv.org/abs/2006.02526v1 )

ライセンス: Link先を確認
Yongxin Liu(参考訳) 本研究では,通行者の移動パターンと行動嗜好をマイニングするための一連の手法を提案し,その知識を用いて交通システムの調整と最適化を行う。 1)データの妥当性を高めること。 a) AFC(Automated Fare Collection)システムとAVL(Automated Vehicle Location)システム間のデータの時間差を補正するための新しい手法を提案する。 b) 歴史的データと乗客チケットのタイムスタンプを組み合わせることで, AVLデータセットの欠落情報を誘導・補償する。 2) 乗客の照会点を推定するために, 乗客の自宅を組み込んだ最大確率モデルを導入し, 半完全搭乗記録から完全な交通経路を復元する。 最後に,トランジットライダーの時間空間特性を解析する。 3) 乗客の移動要求を発見する。 各乗客の軌跡データを複数日統合し,ハイブリッドトリップグラフ(htg)を構築する。 次に、深度探索アルゴリズムを用いて、空間的に閉じた旅行連鎖を導出する。最後に、乗客の閉じた旅行連鎖を用いて、様々な視点から旅行パターンを研究する。 最後に, 都市交通回廊を, 乗客クリティカルトランジットチェーンを集約して分析する。4) 8つの重要な要因を導出し, 様々なシナリオで乗客選択モデルを構築した。 次に,ライダーシップ再分配シミュレーションを用いてモデルを検証する。 最後に、乗客の時間選択選好に関する包括的な分析を行い、この情報を用いて都市交通システムの最適化を行う。

In this research, we propose a series of methodologies to mine transit riders travel pattern and behavioral preferences, and then we use these knowledges to adjust and optimize the transit systems. Contributions are: 1) To increase the data validity: a) we propose a novel approach to rectify the time discrepancy of data between the AFC (Automated Fare Collection) systems and AVL (Automated Vehicle Location) system, our approach transforms data events into signals and applies time domain correlation the detect and rectify their relative discrepancies. b) By combining historical data and passengers ticketing time stamps, we induct and compensate missing information in AVL datasets. 2) To infer passengers alighting point, we introduce a maximum probabilistic model incorporating passengers home place to recover their complete transit trajectory from semi-complete boarding records.Then we propose an enhance activity identification algorithm which is capable of specifying passengers short-term activity from ordinary transfers. Finally, we analyze the temporal-spatial characteristic of transit ridership. 3) To discover passengers travel demands. We integrate each passengers trajectory data in multiple days and construct a Hybrid Trip Graph (HTG). We then use a depth search algorithm to derive the spatially closed transit trip chains; Finally, we use closed transit trip chains of passengers to study their travel pattern from various perspectives. Finally, we analyze urban transit corridors by aggregating the passengers critical transit chains.4) We derive eight influential factors, and then construct passengers choice models under various scenarios. Next, we validate our model using ridership re-distribute simulations. Finally, we conduct a comprehensive analysis on passengers temporal choice preference and use this information to optimize urban transit systems.
翻訳日:2022-11-29 00:55:10 公開日:2020-05-26
# 形状解析と深層学習による雑音回折パターンからの結晶対称性の同定

Identification of Crystal Symmetry from Noisy Diffraction Patterns by A Shape Analysis and Deep Learning ( http://arxiv.org/abs/2005.12476v1 )

ライセンス: Link先を確認
Leslie Ching Ow Tiong, Jeongrae Kim, Sang Soo Han, Donghun Kim(参考訳) 結晶対称性の頑健かつ自動決定は、物質的特徴付けと分析において最も重要である。 近年の研究では、深層学習(DL)法は、X線または電子ビーム回折パターンと結晶対称性の相関を効果的に明らかにしている。 その約束にもかかわらず、これらの研究のほとんどは、対象物質をグループ化することのできる比較的少ないクラスを特定することに限定されている。 一方、DLに基づく結晶対称性の同定は、数十または数百の対称性クラス(例えば、最大230の空間群)の分類を含む問題に対する大幅な精度低下に悩まされ、その実用的利用を著しく制限する。 本稿では,MSDN(Multistream DenseNet)における回折パターンの合成と実装の併用が,分類精度を大幅に向上させることを示す。 72個の空間群から採取した108,658個の結晶の不均衡なデータセットを用いても,従来のベンチマークモデルよりも80.2%の空間群分類精度が17-27パーセント(%p)向上した。 この強化は、対称的に閉じた結晶系のパターンの微妙な変化(例えば、単斜晶系と直交系、六角形と六角形)がよく区別されるパターン形成戦略に大きく寄与する。 さらに、新しいMSDNアーキテクチャは、従来の畳み込みニューラルネットワークと比較して、よりリッチだが冗長でない方法でパターンをキャプチャするのに有利であることがわかった。 入力記述子処理とDLアーキテクチャの両方に関して新たに提案されたプロトコルにより、正確な空間群分類が可能となり、結晶対称性同定におけるDLアプローチの実用的利用が向上する。

The robust and automated determination of crystal symmetry is of utmost importance in material characterization and analysis. Recent studies have shown that deep learning (DL) methods can effectively reveal the correlations between X-ray or electron-beam diffraction patterns and crystal symmetry. Despite their promise, most of these studies have been limited to identifying relatively few classes into which a target material may be grouped. On the other hand, the DL-based identification of crystal symmetry suffers from a drastic drop in accuracy for problems involving classification into tens or hundreds of symmetry classes (e.g., up to 230 space groups), severely limiting its practical usage. Here, we demonstrate that a combined approach of shaping diffraction patterns and implementing them in a multistream DenseNet (MSDN) substantially improves the accuracy of classification. Even with an imbalanced dataset of 108,658 individual crystals sampled from 72 space groups, our model achieves 80.2% space group classification accuracy, outperforming conventional benchmark models by 17-27 percentage points (%p). The enhancement can be largely attributed to the pattern shaping strategy, through which the subtle changes in patterns between symmetrically close crystal systems (e.g., monoclinic vs. orthorhombic or trigonal vs. hexagonal) are well differentiated. We additionally find that the novel MSDN architecture is advantageous for capturing patterns in a richer but less redundant manner relative to conventional convolutional neural networks. The newly proposed protocols in regard to both input descriptor processing and DL architecture enable accurate space group classification and thus improve the practical usage of the DL approach in crystal symmetry identification.
翻訳日:2022-11-29 00:51:32 公開日:2020-05-26
# MVIN:レコメンデーションのためのマルチビュー項目の学習

MVIN: Learning Multiview Items for Recommendation ( http://arxiv.org/abs/2005.12516v1 )

ライセンス: Link先を確認
Chang-You Tai, Meng-Ru Wu, Yun-Wei Chu, Shao-Yu Chu, Lun-Wei Ku(参考訳) 研究者らは、コールドスタートとスパーシリティの問題を軽減するためのレコメンデーションシステムにおいて、異種知識グラフ(KG)を補助情報として利用し始めている。 しかし、グラフニューラルネットワーク(gnn)を使用してkgで情報をキャプチャし、rsでさらに適用することは問題であり、複数の視点から各アイテムのプロパティを見ることができない。 これらの課題に対処するために,ユーザとエンティティアングルからのユニークな混合ビューからアイテムを記述することで,より優れたレコメンデーションを提供するGNNベースのレコメンデーションモデルであるMulti-viewItem Network (MVIN)を提案する。 MVINはユーザビューとエンティティビューの両方からアイテム表現を学習する。 ユーザビューからは、ユーザクリック情報を組み込んだKGエンティティに従って構築されたパーソナライズされた視点から、ユーザ指向モジュールのスコアとアグリゲーションが特徴である。 エンティティの観点からは、ミキシング層は層毎のgcn情報を対比して、kg内の内部エンティティ間相互作用から包括的な特徴を得る。 実世界の3つのデータセット、MovieLens-1M (ML-1M), LFM-1b 2015 (LFM-1b), Amazon-Book (AZ-book)についてMVINを評価した。 その結果、MVINはこれらの3つのデータセットで最先端の手法を大幅に上回っていることがわかった。 さらに、ユーザビューの場合から、MVINは実際にユーザを引き付けるエンティティをキャプチャする。 さらに、異種KGの混合層が近隣情報収集において重要な役割を果たすことを示す。

Researchers have begun to utilize heterogeneous knowledge graphs (KGs) as auxiliary information in recommendation systems to mitigate the cold start and sparsity issues. However, utilizing a graph neural network (GNN) to capture information in KG and further apply in RS is still problematic as it is unable to see each item's properties from multiple perspectives. To address these issues, we propose the multi-view item network (MVIN), a GNN-based recommendation model which provides superior recommendations by describing items from a unique mixed view from user and entity angles. MVIN learns item representations from both the user view and the entity view. From the user view, user-oriented modules score and aggregate features to make recommendations from a personalized perspective constructed according to KG entities which incorporates user click information. From the entity view, the mixing layer contrasts layer-wise GCN information to further obtain comprehensive features from internal entity-entity interactions in the KG. We evaluate MVIN on three real-world datasets: MovieLens-1M (ML-1M), LFM-1b 2015 (LFM-1b), and Amazon-Book (AZ-book). Results show that MVIN significantly outperforms state-of-the-art methods on these three datasets. In addition, from user-view cases, we find that MVIN indeed captures entities that attract users. Figures further illustrate that mixing layers in a heterogeneous KG plays a vital role in neighborhood information aggregation.
翻訳日:2022-11-29 00:51:02 公開日:2020-05-26
# 調査:プロダクションレンダリングにおける機械学習

Survey: Machine Learning in Production Rendering ( http://arxiv.org/abs/2005.12518v1 )

ライセンス: Link先を確認
Shilin Zhu(参考訳) 過去数年間、機械学習に基づくアプローチは、アニメーション機能映画のレンダリングで大きな成功を収めてきた。 この調査は、画像品質の改善や計算オーバーヘッドの低減など、従来のレンダリング方法よりもディープニューラルネットワークを使用する際の、最も劇的な改善をいくつかまとめたものだ。 より具体的には、この調査は機械学習の基本原則と、その応用、例えば、妄想、経路案内、参加するメディアのレンダリングなど、非常に難しい光輸送状況について取り上げている。 これらのテクニックのいくつかはすでに最新リリースのアニメーションで使われており、他の技術はまだ学界と映画スタジオの両方の研究者によって開発が続けられている。 学習ベースのレンダリングメソッドには、まだいくつかのオープンな問題があるが、すでにレンダリングパイプラインの複数の部分で有望なパフォーマンスを示しており、新たな試みが続けられている。

In the past few years, machine learning-based approaches have had some great success for rendering animated feature films. This survey summarizes several of the most dramatic improvements in using deep neural networks over traditional rendering methods, such as better image quality and lower computational overhead. More specifically, this survey covers the fundamental principles of machine learning and its applications, such as denoising, path guiding, rendering participating media, and other notoriously difficult light transport situations. Some of these techniques have already been used in the latest released animations while others are still in the continuing development by researchers in both academia and movie studios. Although learning-based rendering methods still have some open issues, they have already demonstrated promising performance in multiple parts of the rendering pipeline, and people are continuously making new attempts.
翻訳日:2022-11-29 00:50:35 公開日:2020-05-26
# Actor-Critic Reinforcement Learning を用いた制御センシングによる異常検出

Anomaly Detection Under Controlled Sensing Using Actor-Critic Reinforcement Learning ( http://arxiv.org/abs/2006.01044v1 )

ライセンス: Link先を確認
Geethu Joseph, M. Cenk Gursoy, Pramod K. Varshney(参考訳) 本研究では,各プロセス群における異常検出の問題について,ノイズのある2値センサを用いて検討する。 正常なプロセスに対応する無ノイズセンサの測定は0であり、そのプロセスが異常であれば1である。 決定アルゴリズムは異常なプロセスの数について知識を持たないと仮定される。 このアルゴリズムは、決定に対する信頼レベルが所望値を超えるまで、各タイミングでセンサーのサブセットを選択することができる。 本研究の目的は,検出アルゴリズムの終了時刻と終了時刻を動的に決定するシーケンシャルなセンサ選択ポリシを設計することである。 選択方針は、検出の遅れとセンシングのコストを含む最小コストを伴いながら、異常なプロセスが所望の信頼性レベルで検出されるように設計されている。 我々はこの問題をマルコフ決定プロセスの枠組みにおける逐次仮説テスト問題とみなし、アクター批判的深層強化学習アルゴリズムを用いて解決した。 このディープニューラルネットワークベースのアルゴリズムは、高い検出精度で低複雑性のソリューションを提供する。 また,プロセス間の統計的依存がアルゴリズムの性能に及ぼす影響についても検討する。 数値実験により,本アルゴリズムはプロセスの未知の統計的依存パターンに適応可能であることを示す。

We consider the problem of detecting anomalies among a given set of processes using their noisy binary sensor measurements. The noiseless sensor measurement corresponding to a normal process is 0, and the measurement is 1 if the process is anomalous. The decision-making algorithm is assumed to have no knowledge of the number of anomalous processes. The algorithm is allowed to choose a subset of the sensors at each time instant until the confidence level on the decision exceeds the desired value. Our objective is to design a sequential sensor selection policy that dynamically determines which processes to observe at each time and when to terminate the detection algorithm. The selection policy is designed such that the anomalous processes are detected with the desired confidence level while incurring minimum cost which comprises the delay in detection and the cost of sensing. We cast this problem as a sequential hypothesis testing problem within the framework of Markov decision processes, and solve it using the actor-critic deep reinforcement learning algorithm. This deep neural network-based algorithm offers a low complexity solution with good detection accuracy. We also study the effect of statistical dependence between the processes on the algorithm performance. Through numerical experiments, we show that our algorithm is able to adapt to any unknown statistical dependence pattern of the processes.
翻訳日:2022-11-29 00:49:54 公開日:2020-05-26
# 非地球ネットワークのための強化学習によるLEO衛星とUAV中継の統合

Integrating LEO Satellite and UAV Relaying via Reinforcement Learning for Non-Terrestrial Networks ( http://arxiv.org/abs/2005.12521v1 )

ライセンス: Link先を確認
Ju-Hyung Lee, Jihong Park, Mehdi Bennis, and Young-Chai Ko(参考訳) 低軌道軌道(LEO)衛星のメガコンステレーションは、低レイテンシで長距離通信を可能にする可能性がある。 これを無人航空機(UAV)と統合することは、大規模な3次元接続を提供する5Gシステムを超えて、破壊的な解決策となるだろう。 本稿では、軌道星座から選択されたLEO衛星と固定翼UAVなどの移動高高度プラットフォーム(HAP)を介して、2つの遠地端末間のパケット転送の問題について検討する。 エンドツーエンドのデータレートを最大化するためには、衛星アソシエーションとHAP位置を最適化する必要がある。 本稿では, 深部強化学習(DRL)と新しい動作次元低減技術を用いてこの問題に対処する。 シミュレーションの結果,SATとHAPのない直接通信ベースラインと比較して,提案手法が平均データレートを最大5.74倍に向上することがわかった。

A mega-constellation of low-earth orbit (LEO) satellites has the potential to enable long-range communication with low latency. Integrating this with burgeoning unmanned aerial vehicle (UAV) assisted non-terrestrial networks will be a disruptive solution for beyond 5G systems provisioning large scale three-dimensional connectivity. In this article, we study the problem of forwarding packets between two faraway ground terminals, through an LEO satellite selected from an orbiting constellation and a mobile high-altitude platform (HAP) such as a fixed-wing UAV. To maximize the end-to-end data rate, the satellite association and HAP location should be optimized, which is challenging due to a huge number of orbiting satellites and the resulting time-varying network topology. We tackle this problem using deep reinforcement learning (DRL) with a novel action dimension reduction technique. Simulation results corroborate that our proposed method achieves up to 5.74x higher average data rate compared to a direct communication baseline without SAT and HAP.
翻訳日:2022-11-29 00:49:18 公開日:2020-05-26
# 受容場ブロックを有する知覚極超解像ネットワーク

Perceptual Extreme Super Resolution Network with Receptive Field Block ( http://arxiv.org/abs/2005.12597v1 )

ライセンス: Link先を確認
Taizhang Shang, Qiuju Dai, Shengchen Zhu, Tong Yang, Yandong Guo(参考訳) 画像のテクスチャの細部が大きく異なるため,単一画像に対する知覚的超解法は非常に困難である。 この課題に対処するため、SRGANの強化に基づく受信フィールドブロック付き超解像ネットワークを開発した。 RFB-ESRGANと呼ぶ。 主な貢献は以下のとおりである。 まず,マルチスケール情報の抽出と特徴識別性の向上を目的として,超解像に受容野ブロック(RFB)を適用した。 RFBはオブジェクトの検出と分類において競合する結果を得た。 第二に、大規模な畳み込みカーネルをマルチスケールの受容フィールドブロックで使用する代わりに、RFBではいくつかの小さなカーネルが使用されるため、詳細な特徴を抽出し、計算複雑性を低減することができる。 第3に、アップサンプリング段階で異なるアップサンプリング手法を交互に使用し、高い計算複雑性を低減し、依然として良好な性能を維持している。 第4に、異なるイテレーションの10モデルのアンサンブルを使用して、モデルの堅牢性を改善し、各モデルが導入するノイズを低減する。 RFB-ESRGANの優れた性能を示した。 NTIRE 2020 Perceptual Extreme Super-Resolution Challengeの予備結果によると、このソリューションはすべての参加者の中で第1位です。

Perceptual Extreme Super-Resolution for single image is extremely difficult, because the texture details of different images vary greatly. To tackle this difficulty, we develop a super resolution network with receptive field block based on Enhanced SRGAN. We call our network RFB-ESRGAN. The key contributions are listed as follows. First, for the purpose of extracting multi-scale information and enhance the feature discriminability, we applied receptive field block (RFB) to super resolution. RFB has achieved competitive results in object detection and classification. Second, instead of using large convolution kernels in multi-scale receptive field block, several small kernels are used in RFB, which makes us be able to extract detailed features and reduce the computation complexity. Third, we alternately use different upsampling methods in the upsampling stage to reduce the high computation complexity and still remain satisfactory performance. Fourth, we use the ensemble of 10 models of different iteration to improve the robustness of model and reduce the noise introduced by each individual model. Our experimental results show the superior performance of RFB-ESRGAN. According to the preliminary results of NTIRE 2020 Perceptual Extreme Super-Resolution Challenge, our solution ranks first among all the participants.
翻訳日:2022-11-29 00:42:12 公開日:2020-05-26
# MV残差予測によるエンドツーエンド最適化ビデオ圧縮

End-to-end Optimized Video Compression with MV-Residual Prediction ( http://arxiv.org/abs/2005.12945v1 )

ライセンス: Link先を確認
XiangJi Wu, Ziwen Zhang, Jie Feng, Lei Zhou, Junmin Wu(参考訳) 本稿では,Pフレーム圧縮のためのエンドツーエンドのトレーニング可能なフレームワークを提案する。 連続した2つのフレームを入力として扱うことにより、関節運動ベクトル(MV)と残差予測ネットワーク(MV-Residual)を動作表現と残差情報のアンサンブル特徴を抽出する。 潜在表現の事前確率はハイパープリオオートエンコーダによってモデル化され、mv-residual networkと共同で訓練される。 特に、各画素のモーションカーネルを学習した映像フレーム予測に空間的に変位した畳み込みを適用し、ソース画像内の変位位置にカーネルを適用して予測画素を生成する。 最後に、チャレンジのビット制約を考慮した最終圧縮ビットを生成するために、新しいレート割当と後処理戦略を用いる。 実験結果から,Pフレーム圧縮競争において最高のMS-SSIMを生成することができることがわかった。

We present an end-to-end trainable framework for P-frame compression in this paper. A joint motion vector (MV) and residual prediction network MV-Residual is designed to extract the ensembled features of motion representations and residual information by treating the two successive frames as inputs. The prior probability of the latent representations is modeled by a hyperprior autoencoder and trained jointly with the MV-Residual network. Specially, the spatially-displaced convolution is applied for video frame prediction, in which a motion kernel for each pixel is learned to generate predicted pixel by applying the kernel at a displaced location in the source image. Finally, novel rate allocation and post-processing strategies are used to produce the final compressed bits, considering the bits constraint of the challenge. The experimental results on validation set show that the proposed optimized framework can generate the highest MS-SSIM for P-frame compression competition.
翻訳日:2022-11-29 00:41:40 公開日:2020-05-26
# プロザイクビデオを用いた青年・青年の視線による自閉症検出

Gaze-based Autism Detection for Adolescents and Young Adults using Prosaic Videos ( http://arxiv.org/abs/2005.12951v1 )

ライセンス: Link先を確認
Karan Ahuja, Abhishek Bose, Mohit Jain, Kuntal Dey, Anil Joshi, Krishnaveni Achary, Blessin Varkey, Chris Harrison and Mayank Goel(参考訳) 自閉症はしばしば青年や成人で診断されない。 先行研究では、自閉症の個体はしばしば非定型的な固定と視線パターンを示すことが示されている。 この短い論文では、コモンプレイス(特別ではない、構造化された、またはコード化された)ビデオを見ながらユーザーの視線をモニターすることで、自閉症スペクトラム障害の個人を識別できることを実証する。 私たちは35人の自閉症と25人の非自閉症の個人を雇い、ラップトップに接続された市販のアイトラッカーを使って視線を捉えました。 15秒以内に、自閉症の診断を受ける人の識別に92.5%の精度が得られた。 ユーザインタフェースの受動的スクリーニングや適応を可能にするWebメディアの消費など,このような自動検出が適用されることを期待している。

Autism often remains undiagnosed in adolescents and adults. Prior research has indicated that an autistic individual often shows atypical fixation and gaze patterns. In this short paper, we demonstrate that by monitoring a user's gaze as they watch commonplace (i.e., not specialized, structured or coded) video, we can identify individuals with autism spectrum disorder. We recruited 35 autistic and 25 non-autistic individuals, and captured their gaze using an off-the-shelf eye tracker connected to a laptop. Within 15 seconds, our approach was 92.5% accurate at identifying individuals with an autism diagnosis. We envision such automatic detection being applied during e.g., the consumption of web media, which could allow for passive screening and adaptation of user interfaces.
翻訳日:2022-11-29 00:41:24 公開日:2020-05-26
# ibm qxハードウェア上の量子ベイズネットワークの実験的評価

Experimental evaluation of quantum Bayesian networks on IBM QX hardware ( http://arxiv.org/abs/2005.12474v1 )

ライセンス: Link先を確認
Sima E. Borujeni, Nam H. Nguyen, Saideep Nannapaneni, Elizabeth C. Behrman, James E. Steck(参考訳) Bayesian Networks (BN) は確率的グラフィカルモデルであり、不確実性モデリング、確率的予測、確率的推論に広く利用されている。 量子ベイズネットワーク (quantum bayesian network, qbn) は、量子力学系の原理を利用して様々な解析の計算性能を向上させるベイズネットワークの量子バージョンである。 本稿では,IBM QXハードウェア上でのQBNの性能を,Qiskitシミュレータと古典解析に対して実験的に評価する。 実験評価のために,株価予測のための4ノードBNを検討する。 Qiskitを用いて4ノードBNを表す量子回路を構築し、ヨークタウン、ビゴ、オウエンセ、エセックス、バーリントン、ロンドン、ローマ、アテネ、メルボルンという9つのIBM量子デバイス上で回路を実行する。 また、各デバイスの性能を、与えられた量子回路を所定のデバイスにマッピングする際に、IBM Transpilerによって実行される4つのレベルの最適化と比較する。 各種ハードウェアの性能比較の指標としてルート平均平方パーセンテージ誤差を用いる。

Bayesian Networks (BN) are probabilistic graphical models that are widely used for uncertainty modeling, stochastic prediction and probabilistic inference. A Quantum Bayesian Network (QBN) is a quantum version of the Bayesian network that utilizes the principles of quantum mechanical systems to improve the computational performance of various analyses. In this paper, we experimentally evaluate the performance of QBN on various IBM QX hardware against Qiskit simulator and classical analysis. We consider a 4-node BN for stock prediction for our experimental evaluation. We construct a quantum circuit to represent the 4-node BN using Qiskit, and run the circuit on nine IBM quantum devices: Yorktown, Vigo, Ourense, Essex, Burlington, London, Rome, Athens and Melbourne. We will also compare the performance of each device across the four levels of optimization performed by the IBM Transpiler when mapping a given quantum circuit to a given device. We use the root mean square percentage error as the metric for performance comparison of various hardware.
翻訳日:2022-11-29 00:40:54 公開日:2020-05-26
# あなたのチャットボットGDPRは準拠していますか? エージェント設計におけるオープン問題

Is your chatbot GDPR compliant? Open issues in agent design ( http://arxiv.org/abs/2005.12644v1 )

ライセンス: Link先を確認
Rahime Belen Saglam and Jason R. C. Nurse(参考訳) 会話エージェントは、人間の対話とユビキタスなエンゲージメントの新しい機会に世界を開く。 会話能力や知識が向上するにつれて、これらのエージェントは、個人識別可能な情報やユーザベースに関する詳細な情報にアクセスし始めています。 このアクセスは、GDPR(General Data Protection Regulation)のような堅牢な規制を考慮して、重要な疑問を提起する。 本稿では,対話型エージェント設計において,関連するオープンイシューを定義することを目的として,これらの質問のいくつかを考察する。 この研究が、ユーザーインタラクションに効果があるだけでなく、規制やユーザープライバシに敬意を払っているエージェント構築のさらなる研究を促すことを願っている。

Conversational agents open the world to new opportunities for human interaction and ubiquitous engagement. As their conversational abilities and knowledge has improved, these agents have begun to have access to an increasing variety of personally identifiable information and intimate details on their user base. This access raises crucial questions in light of regulations as robust as the General Data Protection Regulation (GDPR). This paper explores some of these questions, with the aim of defining relevant open issues in conversational agent design. We hope that this work can provoke further research into building agents that are effective at user interaction, but also respectful of regulations and user privacy.
翻訳日:2022-11-29 00:40:17 公開日:2020-05-26
# 離散分布の局所的非漸近的テストは対話的メカニズムを用いて高速である

Locally private non-asymptotic testing of discrete distributions is faster using interactive mechanisms ( http://arxiv.org/abs/2005.12601v1 )

ライセンス: Link先を確認
Thomas B. Berrett and Cristina Butucea(参考訳) 局所微分プライバシーの制約下で多項またはそれ以上の離散分布をテストするための分離率を求める。 非対話型プライバシ機構のみを許す場合と、すべてのシーケンシャルな対話型プライバシ機構を許す場合の両方において、効率的なランダム化アルゴリズムとテスト手順を構築する。 後者の場合、分離速度は速い。 一般的な情報理論的境界を証明し、ほとんどの場合において、すべてのプライバシメカニズムとテスト手順間のアルゴリズムの最適性を確立することができる。 検討された例としては、均一なテスト、多項式的および指数関数的に減少する分布がある。

We find separation rates for testing multinomial or more general discrete distributions under the constraint of local differential privacy. We construct efficient randomized algorithms and test procedures, in both the case where only non-interactive privacy mechanisms are allowed and also in the case where all sequentially interactive privacy mechanisms are allowed. The separation rates are faster in the latter case. We prove general information theoretical bounds that allow us to establish the optimality of our algorithms among all pairs of privacy mechanisms and test procedures, in most usual cases. Considered examples include testing uniform, polynomially and exponentially decreasing distributions.
翻訳日:2022-11-29 00:40:08 公開日:2020-05-26
# 計算分子生物学における量子コンピューティングの展望

The prospects of quantum computing in computational molecular biology ( http://arxiv.org/abs/2005.12792v1 )

ライセンス: Link先を確認
Carlos Outeiral, Martin Strahm, Jiye Shi, Garrett M. Morris, Simon C. Benjamin, Charlotte M. Deane(参考訳) 量子コンピュータは、原理的には古典的問題よりも指数関数的に早く解くことができる。 まだ有用な量子計算の出現には至っていませんが、実現すればほぼすべての科学分野に影響を及ぼすでしょう。 本稿では,現在の量子アルゴリズムが計算生物学やバイオインフォマティクスにどのように革命をもたらすかを検討する。 膨大な量の情報を処理し、機械学習アルゴリズムをより効率的に実行する能力から、薬物発見における計算計算を改善するための量子シミュレーションのアルゴリズム、タンパク質構造予測からネットワーク分析まで分野を前進させる最適化のための量子アルゴリズムまで、あらゆる分野において潜在的に利点がある。 しかし、これらのエキサイティングな見通しは「ハイプ」の影響を受けやすく、この新しい技術における注意事項と課題を認識することも重要である。 我々は、計算分子生物学およびバイオインフォマティクスの分野で、新たな量子コンピューティング技術の期待と限界を導入することを目的とする。

Quantum computers can in principle solve certain problems exponentially more quickly than their classical counterparts. We have not yet reached the advent of useful quantum computation, but when we do, it will affect nearly all scientific disciplines. In this review, we examine how current quantum algorithms could revolutionize computational biology and bioinformatics. There are potential benefits across the entire field, from the ability to process vast amounts of information and run machine learning algorithms far more efficiently, to algorithms for quantum simulation that are poised to improve computational calculations in drug discovery, to quantum algorithms for optimization that may advance fields from protein structure prediction to network analysis. However, these exciting prospects are susceptible to "hype", and it is also important to recognize the caveats and challenges in this new technology. Our aim is to introduce the promise and limitations of emerging quantum computing technologies in the areas of computational molecular biology and bioinformatics.
翻訳日:2022-11-29 00:39:57 公開日:2020-05-26
# 実世界におけるロバスト音声認識のための多段クロスリンガル音響モデル適応 -ドイツにおける口頭歴史インタビューを事例として-

Multi-Staged Cross-Lingual Acoustic Model Adaption for Robust Speech Recognition in Real-World Applications -- A Case Study on German Oral History Interviews ( http://arxiv.org/abs/2005.12562v1 )

ライセンス: Link先を確認
Michael Gref, Oliver Walter, Christoph Schmidt, Sven Behnke, Joachim K\"ohler(参考訳) 近年の音声認識システムは、十分な量の高品質なアノテート音声データをトレーニングに使用する場合、顕著な性能を達成する一方、トレーニングデータに表される条件から大きく逸脱する領域におけるタスクに対して、同じシステムは満足のいく結果しか得られない。 多くの実世界のアプリケーションでは、堅牢な音声認識システムのトレーニングに直接使用できる十分なデータが不足している。 この問題に対処するために,多段階・多段階の言語的手法でターゲット領域に頑健な音響モデルを適用する手法を提案し,検討する。 我々のアプローチは、同じ言語と他の言語の両方で、他のドメインからの大規模なトレーニングデータの利用を可能にします。 対象ドメインのみをスクラッチからトレーニングしたモデルと比較して単語誤り率を30%以上削減し,1000時間単位のドメイン外トレーニングデータに対して頑健にトレーニングしたモデルと比較して6-7%の相対性を達成できる。

While recent automatic speech recognition systems achieve remarkable performance when large amounts of adequate, high quality annotated speech data is used for training, the same systems often only achieve an unsatisfactory result for tasks in domains that greatly deviate from the conditions represented by the training data. For many real-world applications, there is a lack of sufficient data that can be directly used for training robust speech recognition systems. To address this issue, we propose and investigate an approach that performs a robust acoustic model adaption to a target domain in a cross-lingual, multi-staged manner. Our approach enables the exploitation of large-scale training data from other domains in both the same and other languages. We evaluate our approach using the challenging task of German oral history interviews, where we achieve a relative reduction of the word error rate by more than 30% compared to a model trained from scratch only on the target domain, and 6-7% relative compared to a model trained robustly on 1000 hours of same-language out-of-domain training data.
翻訳日:2022-11-29 00:33:23 公開日:2020-05-26
# 仮想アシスタントによる音声エンティティ認識改善のためのエンティティ人気予測

Predicting Entity Popularity to Improve Spoken Entity Recognition by Virtual Assistants ( http://arxiv.org/abs/2005.12816v1 )

ライセンス: Link先を確認
Christophe Van Gysel, Manos Tsagkias, Ernest Pusateri, Ilya Oparin(参考訳) 音声クエリにおける新たなエンティティ認識における仮想アシスタント(va)の有効性向上に重点を置いている。 本稿では,歴史的ユーザインタラクションを用いて,どのエンティティが人気を得てトレンドになるかを予測し,その予測をVAの自動音声認識(ASR)コンポーネントに統合する手法を提案する。 実験により,提案手法は,システム全体の認識品質を劣化させることなく,出現するエンティティ名発話の誤りを20%低減することを示す。

We focus on improving the effectiveness of a Virtual Assistant (VA) in recognizing emerging entities in spoken queries. We introduce a method that uses historical user interactions to forecast which entities will gain in popularity and become trending, and it subsequently integrates the predictions within the Automated Speech Recognition (ASR) component of the VA. Experiments show that our proposed approach results in a 20% relative reduction in errors on emerging entity name utterances without degrading the overall recognition quality of the system.
翻訳日:2022-11-29 00:32:39 公開日:2020-05-26
# 言語横断IRにおけるニューラルマッチングモデルの検討

A Study of Neural Matching Models for Cross-lingual IR ( http://arxiv.org/abs/2005.12994v1 )

ライセンス: Link先を確認
Puxuan Yu and James Allan(参考訳) 本研究では,clwes(interaction-based neural matching model for ad-hoc cross-lingual information retrieval (clir)について検討した。 CLEFコレクションを4つの言語ペアで実施した実験により,クエリ-ドキュメントインタラクションを表現するさまざまな方法,CLIRにおけるワード-ペア類似度分布など,さまざまなニューラルモデルアーキテクチャに関する知見を評価,提供する。 本研究は,CLWEを用いたエンドツーエンドCLIRシステムの学習方法である。

In this study, we investigate interaction-based neural matching models for ad-hoc cross-lingual information retrieval (CLIR) using cross-lingual word embeddings (CLWEs). With experiments conducted on the CLEF collection over four language pairs, we evaluate and provide insight into different neural model architectures, different ways to represent query-document interactions and word-pair similarity distributions in CLIR. This study paves the way for learning an end-to-end CLIR system using CLWEs.
翻訳日:2022-11-29 00:32:33 公開日:2020-05-26
# 構造的トピックモデリングを用いたオンライン乱用コーパスにおける人種バイアスの検討

Examining Racial Bias in an Online Abuse Corpus with Structural Topic Modeling ( http://arxiv.org/abs/2005.13041v1 )

ライセンス: Link先を確認
Thomas Davidson and Debasmita Bhattacharya(参考訳) 我々は,ソーシャルメディア投稿中のヘイトスピーチや虐待的言語を検出するために,モデル学習のために収集されたデータにおける人種バイアスを調べるために,構造的話題モデリングを用いる。 我々は、アフリカ系アメリカ人の英語で書かれたツイートの予測確率を示す追加機能を追加することで、乱用言語データセットを強化する。 次に, 構造的話題モデルを用いて, つぶやきの内容と, 異なる話題の拡散が, 乱用性アノテーションと方言予測の両方にどのように関係しているかを検証した。 特定の話題は不釣り合いに人種化され、虐待と見なされている。 トピックモデリングは、注釈付きデータにおけるバイアスを識別するための有用なアプローチになり得るかについて議論する。

We use structural topic modeling to examine racial bias in data collected to train models to detect hate speech and abusive language in social media posts. We augment the abusive language dataset by adding an additional feature indicating the predicted probability of the tweet being written in African-American English. We then use structural topic modeling to examine the content of the tweets and how the prevalence of different topics is related to both abusiveness annotation and dialect prediction. We find that certain topics are disproportionately racialized and considered abusive. We discuss how topic modeling may be a useful approach for identifying bias in annotated data.
翻訳日:2022-11-29 00:32:25 公開日:2020-05-26
# 機械学習を使って未来を予測

Using Machine Learning to Forecast Future Earnings ( http://arxiv.org/abs/2005.13995v1 )

ライセンス: Link先を確認
Xinyue Cui, Zhaoyu Xu, Yue Zhou(参考訳) 本稿では,本手法の予測結果をアナリストのコンセンサス推定と従来の統計モデルの両方と徹底的に比較し,企業基本予測(すなわち収益)に機械学習モデルを適用する可能性と適合性を総合的に評価した。 その結果、当社のモデルは、アナリストが企業の基本についてより良い予測を行うのに好適な補助ツールとして機能することがすでに証明されている。 従来の統計モデルがロジスティック回帰のような業界で広く採用されているのに対し,本手法は予測精度と速度の両方において良好な進歩を遂げている。 一方で、このモデルが進化する可能性はまだ無限にあると確信しており、近い将来、機械学習モデルがプロのアナリストよりも優れたパフォーマンスを生み出すことを期待しています。

In this essay, we have comprehensively evaluated the feasibility and suitability of adopting the Machine Learning Models on the forecast of corporation fundamentals (i.e. the earnings), where the prediction results of our method have been thoroughly compared with both analysts' consensus estimation and traditional statistical models. As a result, our model has already been proved to be capable of serving as a favorable auxiliary tool for analysts to conduct better predictions on company fundamentals. Compared with previous traditional statistical models being widely adopted in the industry like Logistic Regression, our method has already achieved satisfactory advancement on both the prediction accuracy and speed. Meanwhile, we are also confident enough that there are still vast potentialities for this model to evolve, where we do hope that in the near future, the machine learning model could generate even better performances compared with professional analysts.
翻訳日:2022-11-29 00:32:03 公開日:2020-05-26
# モデル予測制御のための凸最適化アルゴリズムの検証と検証

Verification and Validation of Convex Optimization Algorithms for Model Predictive Control ( http://arxiv.org/abs/2005.12588v1 )

ライセンス: Link先を確認
Rapha\"el Cohen, Eric F\'eron, Pierre-Lo\"ic Garoche (ENAC)(参考訳) 高度な組込みアルゴリズムは複雑さを増しており、多くの分野における自律性の成長に不可欠である。 しかし、これらのアルゴリズムが持つ約束は、航空宇宙システムのような関心事の応用が安全クリティカルである場合に生じる非常に強い設計制約に適切に注意を払わずに維持することはできない。 形式的検証(英: formal verification)とは、ある数学的な記述に対してコンピュータを用いてアルゴリズムの'正しさ'を証明または否定する過程である。 本稿では,凸最適化アルゴリズムである楕円型手法の形式的検証と,それを適用するコード実装について述べる。 コードプロパティとその証明をエンコードするオプションは、詳細である。 これらのコードプロパティと証明の適用性と制限も提示される。 最後に、楕円体アルゴリズムの数値解析において浮動小数点誤差を考慮する。 数値安定性の制御に使用できるアルゴリズムの修正について述べる。

Advanced embedded algorithms are growing in complexity and they are an essential contributor to the growth of autonomy in many areas. However, the promise held by these algorithms cannot be kept without proper attention to the considerably stronger design constraints that arise when the applications of interest, such as aerospace systems, are safety-critical. Formal verification is the process of proving or disproving the ''correctness'' of an algorithm with respect to a certain mathematical description of it by means of a computer. This article discusses the formal verification of the Ellipsoid method, a convex optimization algorithm, and its code implementation as it applies to receding horizon control. Options for encoding code properties and their proofs are detailed. The applicability and limitations of those code properties and proofs are presented as well. Finally, floating-point errors are taken into account in a numerical analysis of the Ellipsoid algorithm. Modifications to the algorithm are presented which can be used to control its numerical stability.
翻訳日:2022-11-29 00:31:49 公開日:2020-05-26
# ベトナムの統計的パラメトリック音声合成システムの比較

A comparison of Vietnamese Statistical Parametric Speech Synthesis Systems ( http://arxiv.org/abs/2005.12962v1 )

ライセンス: Link先を確認
Huy Kinh Phan, Viet Lam Phung, Tuan Anh Dinh, Bao Quoc Nguyen(参考訳) 近年、統計パラメトリック音声合成(SPSS)システムは、多くの対話型音声ベースシステム(例えば、BoseのヘッドフォンであるAmazonのAlexa)で広く利用されている。 適切なSPSSシステムを選択するには、音声品質と性能効率(例えば復号時間)の両方を考慮する必要がある。 本稿では4つのベトナムのSPSS技術を比較した。 1)隠れマルコフモデル(HMM) 2)ディープニューラルネットワーク(DNN) 3)生成的敵ネットワーク(gan)、および 4) 音声品質と性能効率の観点からtacontron~2とwaveglow vocoderからなるエンドツーエンド(e2e)アーキテクチャ。 E2Eシステムは最高の品質を達成できたが、リアルタイムのパフォーマンスを実現するにはGPUのパワーが必要であった。 また,HMMに基づくシステムは低音質であったが,最も効率的なシステムであった。 驚いたことに、E2EシステムはGPU上の推論においてDNNやGANよりも効率的だった。 驚いたことに、GANベースのシステムは品質面でDNNを上回っなかった。

In recent years, statistical parametric speech synthesis (SPSS) systems have been widely utilized in many interactive speech-based systems (e.g.~Amazon's Alexa, Bose's headphones). To select a suitable SPSS system, both speech quality and performance efficiency (e.g.~decoding time) must be taken into account. In the paper, we compared four popular Vietnamese SPSS techniques using: 1) hidden Markov models (HMM), 2) deep neural networks (DNN), 3) generative adversarial networks (GAN), and 4) end-to-end (E2E) architectures, which consists of Tacontron~2 and WaveGlow vocoder in terms of speech quality and performance efficiency. We showed that the E2E systems accomplished the best quality, but required the power of GPU to achieve real-time performance. We also showed that the HMM-based system had inferior speech quality, but it was the most efficient system. Surprisingly, the E2E systems were more efficient than the DNN and GAN in inference on GPU. Surprisingly, the GAN-based system did not outperform the DNN in term of quality.
翻訳日:2022-11-29 00:31:36 公開日:2020-05-26
# マラソンランナーとスポーツ選手の映像中のテキスト検出のための新しい統一手法

A New Unified Method for Detecting Text from Marathon Runners and Sports Players in Video ( http://arxiv.org/abs/2005.12524v1 )

ライセンス: Link先を確認
Sauradip Nag, Palaiahnakote Shivakumara, Umapada Pal, Tong Lu and Michael Blumenstein(参考訳) マラソンランナーやスポーツ選手の胴体にあるテキストをビデオで検出することは、フレキシブル/カラーの衣服による品質と悪影響、そして人間の身体や行動の異なる構造のために難しい問題である。 本稿では,上記の課題に対処するための新しい統一手法を提案する。 提案手法は,テキスト画素の勾配等級と方向コヒーレンスを,候補領域を検出する新しい方法で融合する。 候補領域は、フレーム差に基づいてK平均クラスタリングによって得られた時間フレームクラスタの数を決定するために使用される。 このプロセスはキーフレームを検出する。 提案手法は,皮膚成分を融合した画像を提供する時間フレームの画素および成分レベルの色値を用いて,皮膚部分のベイズ確率を探索する。 提案手法では,皮膚情報に基づいて,顔と背骨の構造的および空間的コヒーレンスを検出する。 さらに,胴体領域からのテキスト検出のための深層学習モデルをリンクする適応画素を提案する。 提案手法は,マラソン/スポーツビデオと,マラソン画像のRBNR,MMM,R-IDの3つの標準データセットから収集したデータセットを用いて,その性能を評価する。 また,提案手法は,CTW1500およびMS-COCOテキストデータセットという,標準的な自然シーンデータセットを用いて,提案手法の目的性を示す。 異なるデータセットのバイブ数/テキスト検出における最先端手法との比較研究により,提案手法が既存手法より優れていることが示された。

Detecting text located on the torsos of marathon runners and sports players in video is a challenging issue due to poor quality and adverse effects caused by flexible/colorful clothing, and different structures of human bodies or actions. This paper presents a new unified method for tackling the above challenges. The proposed method fuses gradient magnitude and direction coherence of text pixels in a new way for detecting candidate regions. Candidate regions are used for determining the number of temporal frame clusters obtained by K-means clustering on frame differences. This process in turn detects key frames. The proposed method explores Bayesian probability for skin portions using color values at both pixel and component levels of temporal frames, which provides fused images with skin components. Based on skin information, the proposed method then detects faces and torsos by finding structural and spatial coherences between them. We further propose adaptive pixels linking a deep learning model for text detection from torso regions. The proposed method is tested on our own dataset collected from marathon/sports video and three standard datasets, namely, RBNR, MMM and R-ID of marathon images, to evaluate the performance. In addition, the proposed method is also tested on the standard natural scene datasets, namely, CTW1500 and MS-COCO text datasets, to show the objectiveness of the proposed method. A comparative study with the state-of-the-art methods on bib number/text detection of different datasets shows that the proposed method outperforms the existing methods.
翻訳日:2022-11-29 00:31:20 公開日:2020-05-26
# 複数のソースからの教師なしドメイン拡張

Unsupervised Domain Expansion from Multiple Sources ( http://arxiv.org/abs/2005.12544v1 )

ライセンス: Link先を確認
Jing Zhang, Wanqing Li, Lu sheng, Chang Tang, Philip Ogunbona(参考訳) 従来のソースドメインから学んだ既存のシステムを考えると、いくつかのアプリケーションで以前のすべてのドメインにアクセスしたり忘れたりすることなく、システムを新しいドメインに適応させることが望ましい。 この問題はドメイン拡張として知られている。 対象ドメインが新しいデータで定義されたドメインである従来のドメイン適応とは異なり、ドメイン拡張では、対象ドメインはソースドメインと新しいドメイン(従って、ドメイン拡張)によって共同で形成され、学習すべきラベル関数は拡張ドメインのために動作しなければならない。 具体的には、ソースドメインの事前学習モデルと未学習の新規ドメインデータのみを利用できる、教師なしマルチソースドメイン拡張(UMSDE)手法を提案する。 本稿では、異なるソースモデルが生成する新しいドメインにおける未ラベルデータの予測クラス確率を用いて、ドメイン間のバイアスを和らげ、新しいドメインにおける識別情報を活用し、ソースドメインのパフォーマンスを維持することを提案する。 VLCS, ImageCLEF_DA, PACSデータセットの実験結果から, 提案手法の有効性が検証された。

Given an existing system learned from previous source domains, it is desirable to adapt the system to new domains without accessing and forgetting all the previous domains in some applications. This problem is known as domain expansion. Unlike traditional domain adaptation in which the target domain is the domain defined by new data, in domain expansion the target domain is formed jointly by the source domains and the new domain (hence, domain expansion) and the label function to be learned must work for the expanded domain. Specifically, this paper presents a method for unsupervised multi-source domain expansion (UMSDE) where only the pre-learned models of the source domains and unlabelled new domain data are available. We propose to use the predicted class probability of the unlabelled data in the new domain produced by different source models to jointly mitigate the biases among domains, exploit the discriminative information in the new domain, and preserve the performance in the source domains. Experimental results on the VLCS, ImageCLEF_DA and PACS datasets have verified the effectiveness of the proposed method.
翻訳日:2022-11-29 00:24:31 公開日:2020-05-26
# Deepzzle: ディープラーニングとShortestパス最適化によるビジュアルJigsawパズルの解決

Deepzzle: Solving Visual Jigsaw Puzzles with Deep Learning andShortest Path Optimization ( http://arxiv.org/abs/2005.12548v1 )

ライセンス: Link先を確認
Marie-Morgane Paumard, David Picard, Hedi Tabia(参考訳) 我々は,フラグメント間の広い空間で画像再構成の問題に取り組み,パターンや色彩の連続性をほとんど利用できないようにした。 この間隔は、考古学的断片が苦しむ浸食を反映している。 フラグメントの境界を2乗にすることで、フラグメントの内容からアルゴリズムを学ばせます。 また、断片を取り除き、他のソースから断片を追加することで、画像の再組み立てを複雑にします。 2段階の手法を用いて再組立を行う。 1) ニューラルネットワークは,フラグメント間のギャップにもかかわらず,フラグメントの位置を予測する。 2) 最適な再組み立てにつながるグラフは、これらの予測から作成される。 本稿では,再集合のグラフにおける分岐切断の効果について特に検討する。 また、文献との比較、複雑な画像の再集合の解消、データセットの長さの探索、そしてその特異性に適合する新しい測定基準を提案する。 キーワード:画像再構成、ジグソーパズル、ディープラーニング、グラフ、ブランチカット、文化遺産

We tackle the image reassembly problem with wide space between the fragments, in such a way that the patterns and colors continuity is mostly unusable. The spacing emulates the erosion of which the archaeological fragments suffer. We crop-square the fragments borders to compel our algorithm to learn from the content of the fragments. We also complicate the image reassembly by removing fragments and adding pieces from other sources. We use a two-step method to obtain the reassemblies: 1) a neural network predicts the positions of the fragments despite the gaps between them; 2) a graph that leads to the best reassemblies is made from these predictions. In this paper, we notably investigate the effect of branch-cut in the graph of reassemblies. We also provide a comparison with the literature, solve complex images reassemblies, explore at length the dataset, and propose a new metric that suits its specificities. Keywords: image reassembly, jigsaw puzzle, deep learning, graph, branch-cut, cultural heritage
翻訳日:2022-11-29 00:24:13 公開日:2020-05-26
# 微分可能なバイナリ埋め込みネットワークを持つfern間のマップの学習

Learning to map between ferns with differentiable binary embedding networks ( http://arxiv.org/abs/2005.12563v1 )

ライセンス: Link先を確認
Max Blendowski and Mattias P. Heinrich(参考訳) 現在のディープラーニング手法は、パラメータ集約重み行列による畳み込みの繰り返し、高価な適用に基づいている。 本稿では,エンド・ツー・エンドネットワークにおける微分可能なランダム・ファーンの適用を可能にする新しい概念を提案する。 その後、ディープネットワークアーキテクチャにおける乗算不要畳み込み層代替として使用できる。 TUPAC'16チャレンジのバイナリ分類タスクに関する実験は、最先端のバイナリXNORネットよりも改善された結果を示し、パラメータ集中浮動小数点CNNよりもわずかに低い性能を示した。

Current deep learning methods are based on the repeated, expensive application of convolutions with parameter-intensive weight matrices. In this work, we present a novel concept that enables the application of differentiable random ferns in end-to-end networks. It can then be used as multiplication-free convolutional layer alternative in deep network architectures. Our experiments on the binary classification task of the TUPAC'16 challenge demonstrate improved results over the state-of-the-art binary XNOR net and only slightly worse performance than its 2x more parameter intensive floating point CNN counterpart.
翻訳日:2022-11-29 00:24:00 公開日:2020-05-26
# 読み物に注意を払う - 繰り返しない手書きのテキスト認識

Pay Attention to What You Read: Non-recurrent Handwritten Text-Line Recognition ( http://arxiv.org/abs/2005.13044v1 )

ライセンス: Link先を確認
Lei Kang, Pau Riba, Mar\c{c}al Rusi\~nol, Alicia Forn\'es, Mauricio Villegas(参考訳) 手書き認識のためのリカレントニューラルネットワークの出現は、さまざまな書き方で観察できる大きな変動にもかかわらず、印象的な認識能力に達する重要なマイルストーンとなった。 シーケンシャルなアーキテクチャは、テキストの固有の時間的側面のためだけでなく、文字や単語のシーケンス上の確率分布を学ぶためにも、テキスト行をモデル化するのに最適です。 しかし、逐次パイプラインでは並列化が防止されるため、そのような再帰パラダイムの使用はトレーニング段階でコストがかかる。 本研究では,変圧器モデルを用いて手書き文字を認識する非逐次的手法を提案する。 再発を回避できる新しい方法を提案する。 視覚的にもテキスト的にも多面的な自己認識レイヤを使用することで,文字列の言語的依存性を学習するだけでなく,文字認識にも取り組むことができる。 我々のモデルは、事前定義された語彙に制約されず、外語彙、すなわち訓練語彙に現れない単語を認識することができる。 先行技術を大幅に進歩させ,ごくわずかな学習シナリオでも十分な認識能力が得られることを示す。

The advent of recurrent neural networks for handwriting recognition marked an important milestone reaching impressive recognition accuracies despite the great variability that we observe across different writing styles. Sequential architectures are a perfect fit to model text lines, not only because of the inherent temporal aspect of text, but also to learn probability distributions over sequences of characters and words. However, using such recurrent paradigms comes at a cost at training stage, since their sequential pipelines prevent parallelization. In this work, we introduce a non-recurrent approach to recognize handwritten text by the use of transformer models. We propose a novel method that bypasses any recurrence. By using multi-head self-attention layers both at the visual and textual stages, we are able to tackle character recognition as well as to learn language-related dependencies of the character sequences to be decoded. Our model is unconstrained to any predefined vocabulary, being able to recognize out-of-vocabulary words, i.e. words that do not appear in the training vocabulary. We significantly advance over prior art and demonstrate that satisfactory recognition accuracies are yielded even in few-shot learning scenarios.
翻訳日:2022-11-29 00:22:36 公開日:2020-05-26
# ビープ! 韓国における有毒音声検出のためのオンラインニュースコメントコーパス

BEEP! Korean Corpus of Online News Comments for Toxic Speech Detection ( http://arxiv.org/abs/2005.12503v1 )

ライセンス: Link先を確認
Jihyung Moon, Won Ik Cho, Junbum Lee(参考訳) オンラインプラットフォームにおける有害なコメントは、匿名性の下で避けられない社会問題である。 ヘイトスピーチ検出は、手動ラベル付きコーパスがリリースされた英語、ドイツ語、イタリア語などの言語で積極的に行われている。 本研究は,韓国で広く利用されているオンラインニュースプラットフォームから収集した,韓国の有害な言論を識別するために,手動で9.4Kのエンターテイメントニュースコメントを提示する。 社会バイアスとヘイトスピーチに関するコメントは、双方の側面が関連しているため、注釈付けされている。 krippendorffのアルファスコアは、それぞれ0.492と0.496である。 CharCNN, BiLSTM, BERT を用いてベンチマークを行い, BERT が全てのタスクにおいて最高スコアを達成している。 ヘイトスピーチの検出はより主観的な問題であるため、モデルは通常バイアス識別のパフォーマンスが向上する。 さらに、ヘイトスピーチ検出のためのバイアスラベルを用いてBERTをトレーニングすると、予測スコアが増加し、バイアスとヘイトが絡み合っていることを示す。 データセットを公開し、コーパスとベンチマークとの競争を開いています。

Toxic comments in online platforms are an unavoidable social issue under the cloak of anonymity. Hate speech detection has been actively done for languages such as English, German, or Italian, where manually labeled corpus has been released. In this work, we first present 9.4K manually labeled entertainment news comments for identifying Korean toxic speech, collected from a widely used online news platform in Korea. The comments are annotated regarding social bias and hate speech since both aspects are correlated. The inter-annotator agreement Krippendorff's alpha score is 0.492 and 0.496, respectively. We provide benchmarks using CharCNN, BiLSTM, and BERT, where BERT achieves the highest score on all tasks. The models generally display better performance on bias identification, since the hate speech detection is a more subjective issue. Additionally, when BERT is trained with bias label for hate speech detection, the prediction score increases, implying that bias and hate are intertwined. We make our dataset publicly available and open competitions with the corpus and benchmarks.
翻訳日:2022-11-29 00:22:18 公開日:2020-05-26
# スピン波遅延線アクティブリング型貯水池計算を用いた音声桁分類

Spoken digit classification using a spin-wave delay-line active-ring reservoir computing ( http://arxiv.org/abs/2005.12557v1 )

ライセンス: Link先を確認
Stuart Watt and Mikhail Kostylev(参考訳) 汎用性テストとして,最近提案されているスピン波遅延線アクティブリングリザーバコンピュータを用いて,音声の文字認識を行う。 これにより、最大93%の分類精度が達成される。 テストされた装置のプロトタイプは改良されたスピン波トランスデューサ(アンテナ)を使用している。 また,計算機が短期メモリ(STM)タスクとパリティチェック(PC)タスクを完了させる。 STMとPCの容量はそれぞれ4.77と1.47である。

As a test of general applicability, we use the recently proposed spin-wave delay line active-ring reservoir computer to perform the spoken digit recognition task. On this, classification accuracies of up to 93% are achieved. The tested device prototype employs improved spin wave transducers (antennas). Therefore, in addition, we also let the computer complete the short-term memory (STM) task and the parity check (PC) tasks, because the fading memory and nonlinearity are essential to reservoir computing performance. The resulting STM and PC capacities reach maximum values of 4.77 and 1.47 respectively.
翻訳日:2022-11-29 00:16:03 公開日:2020-05-26
# 観測コスト最小化のためのアクティブ測定強化学習

Active Measure Reinforcement Learning for Observation Cost Minimization ( http://arxiv.org/abs/2005.12697v1 )

ライセンス: Link先を確認
Colin Bellinger, Rory Coles, Mark Crowley, Isaac Tamblyn(参考訳) 標準強化学習(rl)アルゴリズムは、次の状態の観察は瞬時かつ低コストで行われると仮定する。 しかし、医学的治療から科学的発見まで、さまざまな連続的な意思決定タスクでは、様々な種類の状態観察が可能であり、それぞれに関連するコストが伴う。 本稿では,費用対効果を最大化するためにエージェントが学習する問題に対する初期解として,アクティブ測度RLフレームワーク(Amrl)を提案する。 私たちの経験的評価は、Arl-Qエージェントがオンライントレーニング中にポリシーと状態推定器を並列に学習できることを示しています。 訓練中、エージェントは報酬を増やすために、環境のコスト測定に依存するものから状態推定器へと自然に移行する。 これは学習した政策に害を及ぼさずに行う。 その結果,Amrl-Qエージェントは標準Q-ラーニングやDyna-Qと同様の速度で学習することがわかった。 重要なことに、アクティブ戦略を利用することで、Amrl-Qはより高いコストのリターンを達成する。

Standard reinforcement learning (RL) algorithms assume that the observation of the next state comes instantaneously and at no cost. In a wide variety of sequential decision making tasks ranging from medical treatment to scientific discovery, however, multiple classes of state observations are possible, each of which has an associated cost. We propose the active measure RL framework (Amrl) as an initial solution to this problem where the agent learns to maximize the costed return, which we define as the discounted sum of rewards minus the sum of observation costs. Our empirical evaluation demonstrates that Amrl-Q agents are able to learn a policy and state estimator in parallel during online training. During training the agent naturally shifts from its reliance on costly measurements of the environment to its state estimator in order to increase its reward. It does this without harm to the learned policy. Our results show that the Amrl-Q agent learns at a rate similar to standard Q-learning and Dyna-Q. Critically, by utilizing an active strategy, Amrl-Q achieves a higher costed return.
翻訳日:2022-11-29 00:15:54 公開日:2020-05-26
# 世界の望ましい構造に基づく定性条件付き非単調推論

Nonmonotonic Inferences with Qualitative Conditionals based on Preferred Structures on Worlds ( http://arxiv.org/abs/2005.12713v1 )

ライセンス: Link先を確認
Christian Komo and Christoph Beierle(参考訳) 条件付き知識ベース R は "If A, the usually B" という形の条件の集合である。 R の条件から導かれる構造情報を用いて、世界を優先する構造関係を導入する。 r で明示的に与えられた知識を帰納的に完結させる system w 推論(英語版) と呼ばれる新しい推論関係の核となる構造関係であり、系 w はシステム p を満たすような望ましい推論特性を示し、例えば system z のdrrowing 問題とは対照的に回避することを示す。 システムZと懐疑的なc-推論の両方を完全に捕捉し、厳密に拡張する。 懐疑的なc-推論とは対照的に、複雑な制約満足度問題を解く必要はないが、システム Z と同じくらいに難解である。

A conditional knowledge base R is a set of conditionals of the form "If A, the usually B". Using structural information derived from the conditionals in R, we introduce the preferred structure relation on worlds. The preferred structure relation is the core ingredient of a new inference relation called system W inference that inductively completes the knowledge given explicitly in R. We show that system W exhibits desirable inference properties like satisfying system P and avoiding, in contrast to e.g. system Z, the drowning problem. It fully captures and strictly extends both system Z and skeptical c-inference. In contrast to skeptical c-inference, it does not require to solve a complex constraint satisfaction problem, but is as tractable as system Z.
翻訳日:2022-11-29 00:15:36 公開日:2020-05-26
# 優れたカウンセリングと発見方法: 説明可能なAI(XAI)のためのカウンセリング手法

Good Counterfactuals and Where to Find Them: A Case-Based Technique for Generating Counterfactuals for Explainable AI (XAI) ( http://arxiv.org/abs/2005.13997v1 )

ライセンス: Link先を確認
Mark T. Keane, Barry Smyth(参考訳) 近年の研究では、実証可能なAI(XAI)問題に対する潜在的に重要な解決策として、反事実的説明の使用が特定されている。 と論じている。 (a) 技術的には、これらの偽のケースは、クラス変更が見つかるまで問題特徴を置換することによって生成することができる。 b) 心理的には、それらは事実の説明よりもずっと慎重な情報である。 (c) 法的にはGDPRに準拠している。 しかし、現在の手法(例えば、ポーシャリティと可視性)による優れたカウンターファクトリーの発見には問題がある。 一般に使用されるデータセットの多くは、説明目的に良い反事実がほとんどないように見える。 そこで本研究では,ケースベースにおける反事実可能性と説明的範囲に関する新しいアイデアを用いて,反事実を生成する新しいケースベースアプローチを提案する。 この新しいテクニックは、ケースベースに存在する優れた反事実のパターンを再利用して、新しい問題とその解決策を説明できる類似の反事実を生成する。 いくつかの実験は、この手法が、以前望まれていたケースベースに対する反ファクト的ポテンシャルと説明的カバレッジを改善する方法を示している。

Recently, a groundswell of research has identified the use of counterfactual explanations as a potentially significant solution to the Explainable AI (XAI) problem. It is argued that (a) technically, these counterfactual cases can be generated by permuting problem-features until a class change is found, (b) psychologically, they are much more causally informative than factual explanations, (c) legally, they are GDPR-compliant. However, there are issues around the finding of good counterfactuals using current techniques (e.g. sparsity and plausibility). We show that many commonly-used datasets appear to have few good counterfactuals for explanation purposes. So, we propose a new case based approach for generating counterfactuals using novel ideas about the counterfactual potential and explanatory coverage of a case-base. The new technique reuses patterns of good counterfactuals, present in a case-base, to generate analogous counterfactuals that can explain new problems and their solutions. Several experiments show how this technique can improve the counterfactual potential and explanatory coverage of case-bases that were previously found wanting.
翻訳日:2022-11-29 00:15:23 公開日:2020-05-26
# シーンテキスト検出のためのロバストな特徴表現の学習

Learning Robust Feature Representations for Scene Text Detection ( http://arxiv.org/abs/2005.12466v1 )

ライセンス: Link先を確認
Sihwan Kim and Taejang Park(参考訳) ディープニューラルネットワークに基づくシーンテキスト検出は、ここ数年で大きく進歩している。 しかし、アルゴリズムの性能はネットワークアーキテクチャのロバストな特徴抽出とコンポーネントによって決定されるため、従来の最先端の手法は、挑戦的な公開ベンチマークを扱う際にも不足する可能性がある。 この問題に対処するため、複数の生成モデルにおいて顕著な性能を示す近似後部で下界を最適化し、条件付きログの最大化を図ったネットワークアーキテクチャを提案する。 さらに、潜伏変数の層を複数の層に拡張することで、ネットワークはタスク固有の正規化やデータ拡張なしに、大規模に堅牢な機能を学ぶことができる。 提案アルゴリズムの効率と信頼性を確認するために,3つの公開ベンチマークデータセットについて詳細な分析を行い,その結果を示す。 実験では,提案アルゴリズムはリコールと精度の両面で最先端の手法を著しく上回っている。 具体的には、ICDAR 2011 と ICDAR 2013 でそれぞれ 95.12 と 96.78 の H 平均を達成する。

Scene text detection based on deep neural networks have progressed substantially over the past years. However, previous state-of-the-art methods may still fall short when dealing with challenging public benchmarks because the performances of algorithm are determined by the robust features extraction and components in network architecture. To address this issue, we will present a network architecture derived from the loss to maximize conditional log-likelihood by optimizing the lower bound with a proper approximate posterior that has shown impressive performance in several generative models. In addition, by extending the layer of latent variables to multiple layers, the network is able to learn robust features on scale with no task-specific regularization or data augmentation. We provide a detailed analysis and show the results on three public benchmark datasets to confirm the efficiency and reliability of the proposed algorithm. In experiments, the proposed algorithm significantly outperforms state-of-the-art methods in terms of both recall and precision. Specifically, it achieves an H-mean of 95.12 and 96.78 on ICDAR 2011 and ICDAR 2013, respectively.
翻訳日:2022-11-29 00:15:07 公開日:2020-05-26
# 詳細な人物画像合成のための領域適応型テクスチャ強調

Region-adaptive Texture Enhancement for Detailed Person Image Synthesis ( http://arxiv.org/abs/2005.12486v1 )

ライセンス: Link先を確認
Lingbo Yang, Pan Wang, Xinfeng Zhang, Shanshe Wang, Zhanning Gao, Peiran Ren, Xuansong Xie, Siwei Ma, Wen Gao(参考訳) 合成された人物画像の忠実性には、説得力のあるテクスチャ詳細を作成する能力が不可欠である。 しかしながら、既存のメソッドは通常、ポーズ転送に使用されるのと同じ経路を通じて外観特徴を伝播する `warping-based'' 戦略に従う。 しかし、ほとんどの細かい特徴は、ダウンサンプリングによって失われ、過度にスムースな衣服と出力画像の細部が失われる。 本稿では,鮮明なテクスチャで人物画像を合成する新しいフレームワークであるRATE-Netを提案する。 提案手法では, テクスチャ強化モジュールを付加することにより, ソース画像から外観情報を抽出し, 細粒度残留テクスチャマップを推定し, ポーズ伝達モジュールからの粗さ推定を洗練する。 さらに,2つのモジュール間の相互誘導を向上し,形状と外観の整合性を向上する効果的な代替更新戦略を設計する。 DeepFashionベンチマークデータセットで実施された実験は、既存のネットワークと比較して、我々のフレームワークの優位性を実証した。

The ability to produce convincing textural details is essential for the fidelity of synthesized person images. However, existing methods typically follow a ``warping-based'' strategy that propagates appearance features through the same pathway used for pose transfer. However, most fine-grained features would be lost due to down-sampling, leading to over-smoothed clothes and missing details in the output images. In this paper we presents RATE-Net, a novel framework for synthesizing person images with sharp texture details. The proposed framework leverages an additional texture enhancing module to extract appearance information from the source image and estimate a fine-grained residual texture map, which helps to refine the coarse estimation from the pose transfer module. In addition, we design an effective alternate updating strategy to promote mutual guidance between two modules for better shape and appearance consistency. Experiments conducted on DeepFashion benchmark dataset have demonstrated the superiority of our framework compared with existing networks.
翻訳日:2022-11-29 00:14:34 公開日:2020-05-26
# CalliGAN: スタイルと構造を意識した中国の書体文字生成装置

CalliGAN: Style and Structure-aware Chinese Calligraphy Character Generator ( http://arxiv.org/abs/2005.12500v1 )

ライセンス: Link先を確認
Shan-Jean Wu, Chih-Yuan Yang and Jane Yung-jen Hsu(参考訳) 漢字の書は、筆で行う芸術形式としての漢字の筆跡であり、字形や細部が豊富である。 近年の研究では、1つのモデルを用いて複数のスタイルに対する画像から画像への変換によって漢字を生成することができる。 そこで本研究では,漢字の成分情報をモデルに組み込んだ新しい手法を提案する。 また,文字を埋め込み空間に変換するネットワークの改良も提案する。 実験により, 提案手法は, 数値評価と人文研究により, 最新技術を用いて, 高品質な漢字を生成することを示した。

Chinese calligraphy is the writing of Chinese characters as an art form performed with brushes so Chinese characters are rich of shapes and details. Recent studies show that Chinese characters can be generated through image-to-image translation for multiple styles using a single model. We propose a novel method of this approach by incorporating Chinese characters' component information into its model. We also propose an improved network to convert characters to their embedding space. Experiments show that the proposed method generates high-quality Chinese calligraphy characters over state-of-the-art methods measured through numerical evaluations and human subject studies.
翻訳日:2022-11-29 00:13:44 公開日:2020-05-26
# フレキシブル露光ブラケット選択のための強化エージェントの学習

Learning a Reinforced Agent for Flexible Exposure Bracketing Selection ( http://arxiv.org/abs/2005.12536v1 )

ライセンス: Link先を確認
Zhouxia Wang, Jiawei Zhang, Mude Lin, Jiong Wang, Ping Luo, and Jimmy Ren(参考訳) マルチ露光融合を用いて高ダイナミックレンジ画像を得るためには、露光ブラケットの自動選択(異なる露光画像)が重要である。 カメラ応答関数、センサノイズモデル、異なる露光を伴うプレビュー画像のストリーム(一部のモバイルアプリケーションではアクセスできない)といった多くの制約を持つ従来の方法とは異なり、上記の制限を伴わずに十分な柔軟性を持つEBSNetという名の露光ブラケットを自動的に選択する新しいディープニューラルネットワークを提案する。 EBSNetは、マルチ露光融合ネットワーク(MEFNet)が提供する報酬を最大化することによって訓練される強化エージェントとして定式化される。 単一自動露光プレビュー画像から抽出した照明情報と意味情報を利用して、EBSNetはマルチ露光融合のための最適露光ブラケットを選択することができる。 EBSNetとMEFNetは共同でトレーニングすることで、最近の最先端アプローチに対して良好な結果を得ることができる。 今後の研究を容易にするため、マルチ露光選択と融合のための新しいベンチマークデータセットを提供する。

Automatically selecting exposure bracketing (images exposed differently) is important to obtain a high dynamic range image by using multi-exposure fusion. Unlike previous methods that have many restrictions such as requiring camera response function, sensor noise model, and a stream of preview images with different exposures (not accessible in some scenarios e.g. some mobile applications), we propose a novel deep neural network to automatically select exposure bracketing, named EBSNet, which is sufficiently flexible without having the above restrictions. EBSNet is formulated as a reinforced agent that is trained by maximizing rewards provided by a multi-exposure fusion network (MEFNet). By utilizing the illumination and semantic information extracted from just a single auto-exposure preview image, EBSNet can select an optimal exposure bracketing for multi-exposure fusion. EBSNet and MEFNet can be jointly trained to produce favorable results against recent state-of-the-art approaches. To facilitate future research, we provide a new benchmark dataset for multi-exposure selection and fusion.
翻訳日:2022-11-29 00:13:35 公開日:2020-05-26
# Penn Korean Universal Dependency Treebank (PKT-UD):韓国におけるロバスト解析モデル構築のためのマニュアル改訂

Analysis of the Penn Korean Universal Dependency Treebank (PKT-UD): Manual Revision to Build Robust Parsing Model in Korean ( http://arxiv.org/abs/2005.12898v1 )

ライセンス: Link先を確認
Tae Hwan Oh, Ji Yoon Han, Hyonsu Choe, Seokwon Park, Han He, Jinho D. Choi, Na-Rae Han, Jena D. Hwang, Hansaem Kim(参考訳) 本稿では,まず,ペン・韓国・ユニバーサル・ツリーバンク(PKT-UD)に関する重要な課題を整理し,韓国文法に忠実なよりクリーンなUDアノテーションを作成することを目的として,コーパス全体を手作業で改訂する。 UDコーパスの他の部分との互換性については、UDv2ガイドラインに従い、韓国における形態的特徴と柔軟な単語順序の側面を反映する部分音声タグと依存関係を広範囲に改訂する。 PKT-UDの原版と改訂版は、バイファインアテンションを用いたトランスフォーマーベースの解析モデルを用いて実験されている。 修正コーパスでトレーニングした解析モデルでは, 前コーパスでトレーニングしたモデルよりもラベル付きアタッチメントスコアが3.0%向上した。 誤り分析の結果,この修正により,解析モデルがより堅牢に関係を学習できることが示され,それまでのモデルで発生していたいくつかの重要なエラーを低減できた。

In this paper, we first open on important issues regarding the Penn Korean Universal Treebank (PKT-UD) and address these issues by revising the entire corpus manually with the aim of producing cleaner UD annotations that are more faithful to Korean grammar. For compatibility to the rest of UD corpora, we follow the UDv2 guidelines, and extensively revise the part-of-speech tags and the dependency relations to reflect morphological features and flexible word-order aspects in Korean. The original and the revised versions of PKT-UD are experimented with transformer-based parsing models using biaffine attention. The parsing model trained on the revised corpus shows a significant improvement of 3.0% in labeled attachment score over the model trained on the previous corpus. Our error analysis demonstrates that this revision allows the parsing model to learn relations more robustly, reducing several critical errors that used to be made by the previous model.
翻訳日:2022-11-29 00:05:37 公開日:2020-05-26
# メールインテント検出のための弱視による学習

Learning with Weak Supervision for Email Intent Detection ( http://arxiv.org/abs/2005.13084v1 )

ライセンス: Link先を確認
Kai Shu, Subhabrata Mukherjee, Guoqing Zheng, Ahmed Hassan Awadallah, Milad Shokouhi, Susan Dumais(参考訳) 電子メールは、オンラインコミュニケーションの最も頻繁に使われる手段の1つだ。 人々は情報を交換し、タスクを管理し、イベントをスケジュールするために、毎日かなりの時間を費やしています。 メールの優先順位付け、自動返信の提案、適切な行動を推奨するための意図の特定などによって、メールの生産性を向上させるさまざまな方法が研究されている。 この問題は、電子メールメッセージを意図やクラスを事前に定義した分類に分類するために、異なる複雑さのモデルが提案された教師付き学習問題として、主に提起されている。 ラベル付きデータの必要性は常に、教師付きモデルのトレーニングにおける最大のボトルネックの1つです。 特に、Eメールの意図分類のような現実世界のタスクでは、大規模な注釈付き例は、プライバシーやデータアクセスの制約により取得が困難か、利用できない。 メールユーザは、メールで表現された意図(例えば、スケジューリング要求で電子メールに応答して会議をセットアップするなど)に応じてアクションを取ることが多い。 このようなアクションは、ユーザインタラクションログから推測できる。 本稿では,メールの意図を検出するための注釈付き例の限られたセットに加えて,ユーザアクションを弱い監視源として活用することを提案する。 我々は、クリーンな注釈付きデータとノイズの弱い監視と、セルフペースの学習メカニズムの両方を活用する、メール意図識別のためのエンドツーエンドの堅牢なディープニューラルネットワークモデルを開発した。 3つの異なる意図検出タスクに関する大規模な実験により,メールにおける意図検出を改善するために,弱教師付きデータを効果的に活用できることが示唆された。

Email remains one of the most frequently used means of online communication. People spend a significant amount of time every day on emails to exchange information, manage tasks and schedule events. Previous work has studied different ways for improving email productivity by prioritizing emails, suggesting automatic replies or identifying intents to recommend appropriate actions. The problem has been mostly posed as a supervised learning problem where models of different complexities were proposed to classify an email message into a predefined taxonomy of intents or classes. The need for labeled data has always been one of the largest bottlenecks in training supervised models. This is especially the case for many real-world tasks, such as email intent classification, where large scale annotated examples are either hard to acquire or unavailable due to privacy or data access constraints. Email users often take actions in response to intents expressed in an email (e.g., setting up a meeting in response to an email with a scheduling request). Such actions can be inferred from user interaction logs. In this paper, we propose to leverage user actions as a source of weak supervision, in addition to a limited set of annotated examples, to detect intents in emails. We develop an end-to-end robust deep neural network model for email intent identification that leverages both clean annotated data and noisy weak supervision along with a self-paced learning mechanism. Extensive experiments on three different intent detection tasks show that our approach can effectively leverage the weakly supervised data to improve intent detection in emails.
翻訳日:2022-11-29 00:04:56 公開日:2020-05-26
# 中国語における「レター」分布

The 'Letter' Distribution in the Chinese Language ( http://arxiv.org/abs/2006.01210v1 )

ライセンス: Link先を確認
Qinghua Chen, Yan Wang, Mengmeng Wang, Xiaomeng Li(参考訳) コーパスに基づく統計分析は言語研究において重要な役割を担い、様々な言語が共通の法則を示すことを示す証拠は豊富である。 研究により、一部のアルファベットの文字言語では、統計的使用頻度分布が著しく類似していることが判明した。 これは、イデオグラムを用いた中国語に当てはまるか? いくつかのアルファベット表記言語の文字頻度データを取得し,文字分布の共通法則を見出した。 また、唐代から現在までのさまざまな時代にわたって漢文のコーパスを収集し、漢文を3種類の基本粒子(文字・ストローク・構成部品)に分解した。 統計的分析の結果,漢文における基本粒子の使用強度は時代によって異なっていたが,分布形態は一貫していた。 特に、中国の構成部品の分布は、これらのアルファベット表記言語と確実に一致している。 この研究は、人間の言語の一貫性の新たな証拠を提供する。

Corpus-based statistical analysis plays a significant role in linguistic research, and ample evidence has shown that different languages exhibit some common laws. Studies have found that letters in some alphabetic writing languages have strikingly similar statistical usage frequency distributions. Does this hold for Chinese, which employs ideogram writing? We obtained letter frequency data of some alphabetic writing languages and found the common law of the letter distributions. In addition, we collected Chinese literature corpora for different historical periods from the Tang Dynasty to the present, and we dismantled the Chinese written language into three kinds of basic particles: characters, strokes and constructive parts. The results of the statistical analysis showed that, in different historical periods, the intensity of the use of basic particles in Chinese writing varied, but the form of the distribution was consistent. In particular, the distributions of the Chinese constructive parts are certainly consistent with those alphabetic writing languages. This study provides new evidence of the consistency of human languages.
翻訳日:2022-11-29 00:04:31 公開日:2020-05-26
# シンプルにしよう:ドメイン適応のための画像統計マッチング

Keep it Simple: Image Statistics Matching for Domain Adaptation ( http://arxiv.org/abs/2005.12551v1 )

ライセンス: Link先を確認
Alexey Abramov, Christopher Bayer, Claudio Heller(参考訳) 最終アプリケーションに近いデータに対してトレーニングも微調整もされないオブジェクト検出の適用は、多くの場合、大幅なパフォーマンス低下につながる。 この問題を解決するためには、ソースドメインとターゲットドメインのシフトを検討する必要がある。 シフトに取り組むことをドメイン適応(Domain Adaptation,DA)と呼ぶ。 本研究では,対象領域にラベル付き画像のみが存在する場合に,異なるデータ分布における検出精度を維持することを目的とした。 近年の最先端の手法は、対角的トレーニング戦略を用いて、ドメインギャップを減らそうとしているが、同時に、トレーニング手順の複雑さも増す。 対照的に、我々は新たな視点から問題を考察し、ソースとターゲットドメイン間の画像統計のみをマッチングすることによって、それをシンプルに保つ。 カラーヒストグラムとソース画像の平均および共分散を対象領域に向けて調整することを提案する。 したがって、DAはアーキテクチャ上のアドオンと追加のハイパーパラメータなしで実現できる。 このアプローチの利点は、パブリックデータセット上で異なるドメインシフトシナリオを評価することで示される。 近年の手法と比較して,より簡単な訓練手順を用いて,最先端のパフォーマンスを実現する。 さらに,本手法を応用することで,一般モデル学習に必要な合成データ量を大幅に削減し,シミュレーションの価値を高めることを示した。

Applying an object detector, which is neither trained nor fine-tuned on data close to the final application, often leads to a substantial performance drop. In order to overcome this problem, it is necessary to consider a shift between source and target domains. Tackling the shift is known as Domain Adaptation (DA). In this work, we focus on unsupervised DA: maintaining the detection accuracy across different data distributions, when only unlabeled images are available of the target domain. Recent state-of-the-art methods try to reduce the domain gap using an adversarial training strategy which increases the performance but at the same time the complexity of the training procedure. In contrast, we look at the problem from a new perspective and keep it simple by solely matching image statistics between source and target domain. We propose to align either color histograms or mean and covariance of the source images towards the target domain. Hence, DA is accomplished without architectural add-ons and additional hyper-parameters. The benefit of the approaches is demonstrated by evaluating different domain shift scenarios on public data sets. In comparison to recent methods, we achieve state-of-the-art performance using a much simpler procedure for the training. Additionally, we show that applying our techniques significantly reduces the amount of synthetic data needed to learn a general model and thus increases the value of simulation.
翻訳日:2022-11-28 23:58:20 公開日:2020-05-26
# 深層学習に基づく高速サイン付き距離マップ生成

A Deep Learning based Fast Signed Distance Map Generation ( http://arxiv.org/abs/2005.12662v1 )

ライセンス: Link先を確認
Zihao Wang, Clair Vandersteen, Thomas Demarcy, Dan Gnansia, Charles Raffaelli, Nicolas Guevara, Herv\'e Delingette(参考訳) サイン付き距離マップ(SDM)は、医用画像解析と機械学習における表面の共通表現である。 3次元パラメトリック形状に対するSDMの計算複雑性は、多くのアプリケーションでしばしばボトルネックとなり、興味を限定する。 本稿では,4つの形状パラメータをパラメータとする3次元人工内耳形状モデルを用いて,学習に基づくsdm生成ニューラルネットワークを提案する。 提案するsdmニューラルネットワークは,4つの入力パラメータに依存する人工内耳の符号付き距離マップを生成し,従来のsdm生成法と比較して,深層学習手法が計算時間に60倍の改善をもたらすことを示す。 したがって,提案手法は精度と効率のトレードオフが良好である。

Signed distance map (SDM) is a common representation of surfaces in medical image analysis and machine learning. The computational complexity of SDM for 3D parametric shapes is often a bottleneck in many applications, thus limiting their interest. In this paper, we propose a learning based SDM generation neural network which is demonstrated on a tridimensional cochlea shape model parameterized by 4 shape parameters. The proposed SDM Neural Network generates a cochlea signed distance map depending on four input parameters and we show that the deep learning approach leads to a 60 fold improvement in the time of computation compared to more classical SDM generation methods. Therefore, the proposed approach achieves a good trade-off between accuracy and efficiency.
翻訳日:2022-11-28 23:57:59 公開日:2020-05-26
# SurfaceNet+: 非常にスパースなマルチビューステレオプシスのためのエンドツーエンド3Dニューラルネットワーク

SurfaceNet+: An End-to-end 3D Neural Network for Very Sparse Multi-view Stereopsis ( http://arxiv.org/abs/2005.12690v1 )

ライセンス: Link先を確認
Mengqi Ji, Jinzhi Zhang, Qionghai Dai, Lu Fang(参考訳) マルチビューステレオプシス(MVS)は2次元画像から3次元モデルを復元しようとする。 観測がスペーサーになるにつれて、重要な3D情報損失により、MVSの問題はより困難になる。 より実用的でコスト効率のよいスペーサーセンセーションのため,高密度サンプリング条件にのみ焦点をあてるのではなく,大きなベースライン角度を持つスパースMVSについて検討する。 様々な観測スパーシティを調査した結果, 従来型深層水流パイプラインは, より広い基線角度の場合には無力となり, フォトコンシスタンスチェックが悪化することがわかった。 この解の別の行として、非常にスパースなMVSセットアップによって引き起こされる「不完全性」と「不正確性」問題を扱う体積法であるSurfaceNet+を提案する。 具体的には、前者の問題は、新しいボリュームワイドビュー選択アプローチによって処理される。 幾何学的先行を考慮し、無効な没入観を捨てつつ、有効な視点を選択するという優越性を有する。 さらに、後者の問題は、繰り返しパターンで領域周辺の復元された幾何を洗練させるマルチスケール戦略によって処理される。 実験は、surfacenet+と最先端のメソッドの精度とリコールの点で、驚くべきパフォーマンスギャップを示している。 2つのデータセットの極端なスパースMVS設定の下では、既存のメソッドはわずかなポイントしか返さないが、SurfaceNet+は、高密度のMVS設定と同様に動作する。 ベンチマークと実装はhttps://github.com/mjiUST/SurfaceNet-plusで公開されている。

Multi-view stereopsis (MVS) tries to recover the 3D model from 2D images. As the observations become sparser, the significant 3D information loss makes the MVS problem more challenging. Instead of only focusing on densely sampled conditions, we investigate sparse-MVS with large baseline angles since the sparser sensation is more practical and more cost-efficient. By investigating various observation sparsities, we show that the classical depth-fusion pipeline becomes powerless for the case with a larger baseline angle that worsens the photo-consistency check. As another line of the solution, we present SurfaceNet+, a volumetric method to handle the 'incompleteness' and the 'inaccuracy' problems induced by a very sparse MVS setup. Specifically, the former problem is handled by a novel volume-wise view selection approach. It owns superiority in selecting valid views while discarding invalid occluded views by considering the geometric prior. Furthermore, the latter problem is handled via a multi-scale strategy that consequently refines the recovered geometry around the region with the repeating pattern. The experiments demonstrate the tremendous performance gap between SurfaceNet+ and state-of-the-art methods in terms of precision and recall. Under the extreme sparse-MVS settings in two datasets, where existing methods can only return very few points, SurfaceNet+ still works as well as in the dense MVS setting. The benchmark and the implementation are publicly available at https://github.com/mjiUST/SurfaceNet-plus.
翻訳日:2022-11-28 23:57:48 公開日:2020-05-26
# 実世界の衣服検索システムのための効果的なパイプライン

An Effective Pipeline for a Real-world Clothes Retrieval System ( http://arxiv.org/abs/2005.12739v1 )

ライセンス: Link先を確認
Yang-Ho Ji, HeeJae Jun, Insik Kim, Jongtack Kim, Youngjoon Kim, Byungsoo Ko, Hyong-Keun Kook, Jingeun Lee, Sangwon Lee, Sanghyuk Park(参考訳) 本稿では,大規模実世界のファッションデータに頑健性を有する着物検索システムのための効果的なパイプラインを提案する。 提案手法は,検出,検索,後処理の3成分からなる。 まず,対象の衣服を正確に検索するための検出タスクを行い,それに対応する項目を計量学習モデルで検索する。 重み付きボックス融合や特徴連結といった後処理手法を応用し,ノイズに対する検索の堅牢性の向上とバウンディングボックスの誤解を招く。 提案手法により、DeepFashion2 Clothes Retrieval 2020チャレンジで2位を獲得しました。

In this paper, we propose an effective pipeline for clothes retrieval system which has sturdiness on large-scale real-world fashion data. Our proposed method consists of three components: detection, retrieval, and post-processing. We firstly conduct a detection task for precise retrieval on target clothes, then retrieve the corresponding items with the metric learning-based model. To improve the retrieval robustness against noise and misleading bounding boxes, we apply post-processing methods such as weighted boxes fusion and feature concatenation. With the proposed methodology, we achieved 2nd place in the DeepFashion2 Clothes Retrieval 2020 challenge.
翻訳日:2022-11-28 23:57:26 公開日:2020-05-26
# マルチラベル分類における監督の最小化

Minimizing Supervision in Multi-label Categorization ( http://arxiv.org/abs/2005.12892v1 )

ライセンス: Link先を確認
Rajat, Munender Varshney, Pravendra Singh, Vinay P. Namboodiri(参考訳) 多くの画像には複数のカテゴリのオブジェクトが存在する。 これを多クラス分類として扱うことは正当化されない。 これを多ラベル分類問題として扱う。 本稿では,マルチラベル分類における監督に必要な監督を最小化することを目的としている。 具体的には,境界ボックスあるいはセグメンテーションマスクを用いて,各カテゴリに弱局在を関連付ける効果的なアプローチについて検討する。 これにより、マルチラベル分類の精度が向上する。 私たちが採用するアプローチは、アクティブラーニングの1つで、現在のモデルに基づいて監督を必要とするサンプルセットを段階的に選択し、これらのサンプルの監督を取得し、教師付きサンプルのセットを追加してモデルを再トレーニングし、次のサンプルセットを選択する。 重要な懸念事項は、サンプルのセットの選択である。 その際,我々は新たな洞察を与え,一貫して改良された選択基準を得るための具体的な手段は得られない。 そこで我々は, 基準の異なるサンプルの上位k組を選択することにより, ベースライン基準を一貫して改善する選択基準を提供する。 この基準を用いることで、PASCAL VOC 2007と2012のデータセットの20%(および96%以上を10%使用)で、完全な教師付きパフォーマンスの98%以上を維持できることを示すことができる。 また,提案手法は,すべてのベンチマークデータセットとモデルの組み合わせに対して,他のすべてのベースラインメトリクスを一貫して上回っている。

Multiple categories of objects are present in most images. Treating this as a multi-class classification is not justified. We treat this as a multi-label classification problem. In this paper, we further aim to minimize the supervision required for providing supervision in multi-label classification. Specifically, we investigate an effective class of approaches that associate a weak localization with each category either in terms of the bounding box or segmentation mask. Doing so improves the accuracy of multi-label categorization. The approach we adopt is one of active learning, i.e., incrementally selecting a set of samples that need supervision based on the current model, obtaining supervision for these samples, retraining the model with the additional set of supervised samples and proceeding again to select the next set of samples. A crucial concern is the choice of the set of samples. In doing so, we provide a novel insight, and no specific measure succeeds in obtaining a consistently improved selection criterion. We, therefore, provide a selection criterion that consistently improves the overall baseline criterion by choosing the top k set of samples for a varied set of criteria. Using this criterion, we are able to show that we can retain more than 98% of the fully supervised performance with just 20% of samples (and more than 96% using 10%) of the dataset on PASCAL VOC 2007 and 2012. Also, our proposed approach consistently outperforms all other baseline metrics for all benchmark datasets and model combinations.
翻訳日:2022-11-28 23:56:29 公開日:2020-05-26
# 再帰近似タスクを用いた画像分割のためのマルチタスクディープラーニング

Multi-task deep learning for image segmentation using recursive approximation tasks ( http://arxiv.org/abs/2005.13053v1 )

ライセンス: Link先を確認
Rihuan Ke, Aur\'elie Bugeau, Nicolas Papadakis, Mark Kirkland, Peter Schuetz, Carola-Bibiane Sch\"onlieb(参考訳) セグメンテーションのための完全な教師付きディープニューラルネットワークは、通常大量のピクセルレベルのラベルを必要とする。 本研究では,この制約を緩和するマルチタスク学習手法を開発した。 セグメンテーション問題は再帰的に定義された近似部分問題の列であり、近似精度のレベルが増大すると見なす。 サブプロブレムは、構成するフレームワークによって処理される 1)少数の画像の画素レベルの地上真実分割マスクから学習するセグメンテーションタスク。 2)各オブジェクトインスタンスの部分マスクから始まる部分対象領域の学習とデータ駆動型マスクの進化を行う再帰的近似タスク 3)他の問題指向の補助タスクは、疎アノテーションで訓練され、専用の機能の学習を促進する。 ほとんどのトレーニングイメージは、完全なセグメンテーションマスクではなく、正確なオブジェクト境界を含まない(ロー)部分マスクによってのみラベル付けされる。 トレーニングフェーズ中、近似タスクは、これらの部分マスクの統計を学習し、完全データ駆動の方法で、セグメンテーションタスクからの学習情報によって支援されたオブジェクト境界に向かって再帰的に部分領域を増加させる。 ネットワークは、非常に少量の精度で区切られた画像と大量の粗いラベルで訓練されている。 したがって、アノテーションは安価に得ることができる。 顕微鏡画像と超音波画像の3つの応用において,本手法の有効性を実証する。

Fully supervised deep neural networks for segmentation usually require a massive amount of pixel-level labels which are manually expensive to create. In this work, we develop a multi-task learning method to relax this constraint. We regard the segmentation problem as a sequence of approximation subproblems that are recursively defined and in increasing levels of approximation accuracy. The subproblems are handled by a framework that consists of 1) a segmentation task that learns from pixel-level ground truth segmentation masks of a small fraction of the images, 2) a recursive approximation task that conducts partial object regions learning and data-driven mask evolution starting from partial masks of each object instance, and 3) other problem oriented auxiliary tasks that are trained with sparse annotations and promote the learning of dedicated features. Most training images are only labeled by (rough) partial masks, which do not contain exact object boundaries, rather than by their full segmentation masks. During the training phase, the approximation task learns the statistics of these partial masks, and the partial regions are recursively increased towards object boundaries aided by the learned information from the segmentation task in a fully data-driven fashion. The network is trained on an extremely small amount of precisely segmented images and a large set of coarse labels. Annotations can thus be obtained in a cheap way. We demonstrate the efficiency of our approach in three applications with microscopy images and ultrasound images.
翻訳日:2022-11-28 23:56:06 公開日:2020-05-26
# 低差分シーケンスによる学習によるディープラーニングアルゴリズムの精度向上

Enhancing accuracy of deep learning algorithms by training with low-discrepancy sequences ( http://arxiv.org/abs/2005.12564v1 )

ライセンス: Link先を確認
Siddhartha Mishra, T. Konstantin Rusch(参考訳) 学習セットとして,低分散シーケンスに基づく教師付き学習アルゴリズムを提案する。 理論的な議論と広範な数値実験を組み合わせることで,本アルゴリズムは,ランダムに選択されたトレーニングデータに基づく標準ディープラーニングアルゴリズムを,中程度に高い次元で問題に対して大幅に上回ることを示す。 提案アルゴリズムは、科学計算の文脈において、多くの基礎となる地図に対して安価なサロゲートを構築するための効率的な方法を提供する。

We propose a deep supervised learning algorithm based on low-discrepancy sequences as the training set. By a combination of theoretical arguments and extensive numerical experiments we demonstrate that the proposed algorithm significantly outperforms standard deep learning algorithms that are based on randomly chosen training data, for problems in moderately high dimensions. The proposed algorithm provides an efficient method for building inexpensive surrogates for many underlying maps in the context of scientific computing.
翻訳日:2022-11-28 23:55:45 公開日:2020-05-26
# 機械学習と履歴データに基づく新しいランプメータリング手法

A Novel Ramp Metering Approach Based on Machine Learning and Historical Data ( http://arxiv.org/abs/2005.13992v1 )

ライセンス: Link先を確認
Anahita Sanandaji, Saeed Ghanbartehrani, Zahra Mokhtari, Kimia Tajik(参考訳) 高速道路の交通条件のランダムな性質は、過度の混雑と交通の流れの不規則を引き起こす可能性がある。 ランプ計測は様々な交通条件下で高速道路の効率を維持するための有効な方法である。 重要な交通手段と過去のデータの両方を考慮する、信頼性が高く実用的なランプメータリングアルゴリズムの作成は、いまだに難しい問題である。 本研究では,ランプメータリングのための新しいリアルタイム予測モデルの開発に機械学習を用いた。 提案手法の有効性を,ベースラインの交通応答型ランプ計測アルゴリズムとの比較により評価した。

The random nature of traffic conditions on freeways can cause excessive congestions and irregularities in the traffic flow. Ramp metering is a proven effective method to maintain freeway efficiency under various traffic conditions. Creating a reliable and practical ramp metering algorithm that considers both critical traffic measures and historical data is still a challenging problem. In this study we use machine learning approaches to develop a novel real-time prediction model for ramp metering. We evaluate the potentials of our approach in providing promising results by comparing it with a baseline traffic-responsive ramp metering algorithm.
翻訳日:2022-11-28 23:55:36 公開日:2020-05-26
# 社会的文脈における人間-ロボットの触覚相互作用の学習

Learning Whole-Body Human-Robot Haptic Interaction in Social Contexts ( http://arxiv.org/abs/2005.12508v1 )

ライセンス: Link先を確認
Joseph Campbell, Katsu Yamane(参考訳) 本稿では,全ロボット体上での直接的人間ロボット接触を含む,人間とロボットの社会的相互作用を教えるための,LfD(Learning-from-demonstration)フレームワークを提案する。 既存のLfDフレームワークの性能は、実演データの高次元性と時空間性のためにこのような相互作用に苦しむ。 この疎度を活用することで,有意な精度のペナルティを伴わずにデータ次元を削減できることを示し,それを実現するための3つの戦略を紹介した。 これらの手法とマルチモーダルな人間とロボットの相互作用を学習するためのLfDフレームワークを組み合わせることで、触覚情報と身体の触覚情報の時空間的関係をモデル化することができる。 61個の力センサを備えた遠隔操作型バイマニュアルロボットを用いて、4人の被験者から121個のサンプルハグで訓練されたモデルが、見当たらない入力や人間のパートナーによく一般化できることを実験的に実証した。

This paper presents a learning-from-demonstration (LfD) framework for teaching human-robot social interactions that involve whole-body haptic interaction, i.e. direct human-robot contact over the full robot body. The performance of existing LfD frameworks suffers in such interactions due to the high dimensionality and spatiotemporal sparsity of the demonstration data. We show that by leveraging this sparsity, we can reduce the data dimensionality without incurring a significant accuracy penalty, and introduce three strategies for doing so. By combining these techniques with an LfD framework for learning multimodal human-robot interactions, we can model the spatiotemporal relationship between the tactile and kinesthetic information during whole-body haptic interactions. Using a teleoperated bimanual robot equipped with 61 force sensors, we experimentally demonstrate that a model trained with 121 sample hugs from 4 participants generalizes well to unseen inputs and human partners.
翻訳日:2022-11-28 23:49:00 公開日:2020-05-26
# 機能を選択する最善の方法は?

The best way to select features? ( http://arxiv.org/abs/2005.12483v1 )

ライセンス: Link先を確認
Xin Man and Ernest Chan(参考訳) 機械学習における特徴選択は、特徴選択アルゴリズムの固有ランダム性(例えば、mda中のランダムな置換)に従属する。 このようなランダム性に関する選択された特徴の安定性は、機械学習アルゴリズムの人間の解釈性に不可欠である。 本研究では,3つの特徴選択アルゴリズム MDA, LIME, SHAP の安定性をランダム森林に適用した場合の安定性指標である不安定度指標を提案する。 通常、特徴は選択アルゴリズムの多くのランダムイテレーションを平均することで選択される。 反復数の増加に伴って選択された特徴の変動性は減少するが、ゼロにはならず、3つのアルゴリズムによって選択された特徴は同じ集合に収束するとは限らない。 LIME と SHAP は MDA よりも安定であり,LIME は SHAP と同程度に安定である。 したがって、LIMEは人間の解釈に最適である。 しかし、3つのアルゴリズムから選択された特徴セットは、サンプルから得られる様々な予測指標を著しく改善し、それらの予測性能は著しく異なる。 実験は、合成データセット、2つの公開ベンチマークデータセット、およびアクティブ投資戦略によるプロプライエタリデータについて行われた。

Feature selection in machine learning is subject to the intrinsic randomness of the feature selection algorithms (for example, random permutations during MDA). Stability of selected features with respect to such randomness is essential to the human interpretability of a machine learning algorithm. We proposes a rank based stability metric called instability index to compare the stabilities of three feature selection algorithms MDA, LIME, and SHAP as applied to random forests. Typically, features are selected by averaging many random iterations of a selection algorithm. Though we find that the variability of the selected features does decrease as the number of iterations increases, it does not go to zero, and the features selected by the three algorithms do not necessarily converge to the same set. We find LIME and SHAP to be more stable than MDA, and LIME is at least as stable as SHAP for the top ranked features. Hence overall LIME is best suited for human interpretability. However, the selected set of features from all three algorithms significantly improves various predictive metrics out of sample, and their predictive performances do not differ significantly. Experiments were conducted on synthetic datasets, two public benchmark datasets, and on proprietary data from an active investment strategy.
翻訳日:2022-11-28 23:48:21 公開日:2020-05-26
# 製品)ツリーを成長させる方法:eコマースのタイプアヘッドにパーソナライズされたカテゴリの提案

How to Grow a (Product) Tree: Personalized Category Suggestions for eCommerce Type-Ahead ( http://arxiv.org/abs/2005.12781v1 )

ライセンス: Link先を確認
Jacopo Tagliabue, Bingqing Yu, Marie Beaulieu(参考訳) 検索ページにおける精度とリコールのバランスをとろうとする試みとして、主要なデジタルショップは、タイプ・アヘッドの提案で早くもユーザーをカテゴリ・ファセットに効果的に絞り込んできた。 本稿では,2つのカウントにおけるファセット提案を改善する新しいニューラルネットワークモデルであるsessionpathを提案する。第1に,セッション埋め込みを利用してスケーラブルなパーソナライゼーションを実現すること,第2に,分類経路の各ノードに確率分布を明示的に生成することによりファセットを予測する。 2つのパートナーショップのセッションパスをカウントベースとニューラルモデルに対してベンチマークし、ビジネス要件とモデルの振る舞いを原則的に組み合わせる方法を示します。

In an attempt to balance precision and recall in the search page, leading digital shops have been effectively nudging users into select category facets as early as in the type-ahead suggestions. In this work, we present SessionPath, a novel neural network model that improves facet suggestions on two counts: first, the model is able to leverage session embeddings to provide scalable personalization; second, SessionPath predicts facets by explicitly producing a probability distribution at each node in the taxonomy path. We benchmark SessionPath on two partnering shops against count-based and neural models, and show how business requirements and model behavior can be combined in a principled way.
翻訳日:2022-11-28 23:47:28 公開日:2020-05-26
# 更新するか更新しないか? ランダム配置による遅延非パラメトリックバンディット

To update or not to update? Delayed Nonparametric Bandits with Randomized Allocation ( http://arxiv.org/abs/2005.13078v1 )

ライセンス: Link先を確認
Sakshi Arya and Yuhong Yang(参考訳) コンテキストバンディットにおける遅延報酬問題は、様々な実用的な設定で注目されている。 本研究では,ランダムな割当戦略を検討し,探索・探索トレードオフが報酬観察の遅延にどのように影響するかを理解する。 ランダム化戦略では、探索探索の程度はユーザが決定した探索確率列によって制御される。 遅延報酬の存在下では、各時点に更新される元の探索シーケンスを使用するか、新しい報酬が観測された場合にのみ更新するかを選択して、競合する2つの戦略を選択することができる。 本研究は,両戦略がアロケーションにおいて強い整合性をもたらす可能性があるが,その特性は後者の状況の範囲を広く保っていることを示す。 しかし,有限サンプル性能については,遅延の重大さと報酬発生メカニズムに依拠して,双方の戦略がそれぞれ独自の長所と短所を持つことを示す。

Delayed rewards problem in contextual bandits has been of interest in various practical settings. We study randomized allocation strategies and provide an understanding on how the exploration-exploitation tradeoff is affected by delays in observing the rewards. In randomized strategies, the extent of exploration-exploitation is controlled by a user-determined exploration probability sequence. In the presence of delayed rewards, one may choose between using the original exploration sequence that updates at every time point or update the sequence only when a new reward is observed, leading to two competing strategies. In this work, we show that while both strategies may lead to strong consistency in allocation, the property holds for a wider scope of situations for the latter. However, for finite sample performance, we illustrate that both strategies have their own advantages and disadvantages, depending on the severity of the delay and underlying reward generating mechanisms.
翻訳日:2022-11-28 23:46:50 公開日:2020-05-26
# Deep Retinotopy:Geometric Deep Learningを用いた構造MRIデータからヒト視覚皮質の機能的組織予測

DeepRetinotopy: Predicting the Functional Organization of Human Visual Cortex from Structural MRI Data using Geometric Deep Learning ( http://arxiv.org/abs/2005.12513v1 )

ライセンス: Link先を確認
Fernanda L. Ribeiro, Steffen Bollmann, Alexander M. Puckett(参考訳) 人工機械であれ生物システムであれ、形態や機能は直接的に関連していることが多い。 しかし後者では、生物学の複雑な性質のため、この関係は不明瞭であることが多い。 本研究では,脳の実際の構造を利用して脳機能と解剖学の複雑な関係を構造的および機能的mriデータから学習する幾何深層学習モデルを開発した。 我々のモデルは、解剖学的特性のみから人間の視覚野の機能的構造を予測するだけでなく、個人間のニュアンス変化を予測することもできた。

Whether it be in a man-made machine or a biological system, form and function are often directly related. In the latter, however, this particular relationship is often unclear due to the intricate nature of biology. Here we developed a geometric deep learning model capable of exploiting the actual structure of the cortex to learn the complex relationship between brain function and anatomy from structural and functional MRI data. Our model was not only able to predict the functional organization of human visual cortex from anatomical properties alone, but it was also able to predict nuanced variations across individuals.
翻訳日:2022-11-28 23:46:36 公開日:2020-05-26
# クラスウェイト分類:トレードオフとロバストアプローチ

Class-Weighted Classification: Trade-offs and Robust Approaches ( http://arxiv.org/abs/2005.12914v1 )

ライセンス: Link先を確認
Ziyu Xu, Chen Dan, Justin Khim, Pradeep Ravikumar(参考訳) 我々は、ラベルが他のラベルに比べて低いマージン確率を持つ可能性がある問題である不均衡分類に、正しいクラスに従って損失を重み付けて対処する。 まず、プラグイン分類器の重み付けとリスクが異なる可能性のあるプラグイン分類器の過剰重み付けリスクの収束率について検討する。 これにより、重み付けされたベイズリスクに収束しない既約誤差が生じ、ロバストリスクに対する我々の考慮が動機となる。 我々は、一連の重み付けによるリスクを最小限に抑え、この問題に対する過剰なリスク境界を示す頑健なリスクを定義する。 最後に,重み付けセットの特定の選択は,リスク条件値(LCVaR)と呼ばれる確率的プログラミングから,リスク条件値(CVaR)の特別な例につながることを示す。 さらに,この重み付けを一般化して,ラベル不均質条件値(lhcvar)と呼ばれる新たなロバストなリスク問題を導出する。 最後に,LCVaRとLHCVaRの有効性を実証的に実証した。

We address imbalanced classification, the problem in which a label may have low marginal probability relative to other labels, by weighting losses according to the correct class. First, we examine the convergence rates of the expected excess weighted risk of plug-in classifiers where the weighting for the plug-in classifier and the risk may be different. This leads to irreducible errors that do not converge to the weighted Bayes risk, which motivates our consideration of robust risks. We define a robust risk that minimizes risk over a set of weightings and show excess risk bounds for this problem. Finally, we show that particular choices of the weighting set leads to a special instance of conditional value at risk (CVaR) from stochastic programming, which we call label conditional value at risk (LCVaR). Additionally, we generalize this weighting to derive a new robust risk problem that we call label heterogeneous conditional value at risk (LHCVaR). Finally, we empirically demonstrate the efficacy of LCVaR and LHCVaR on improving class conditional risks.
翻訳日:2022-11-28 23:39:42 公開日:2020-05-26
# 学習エージェントの介入中心因果推論に向けて

Towards intervention-centric causal reasoning in learning agents ( http://arxiv.org/abs/2005.12968v1 )

ライセンス: Link先を確認
Benjamin Lansdell(参考訳) 介入は因果学習と推論の中心である。 物理的環境(おそらくマルコフ決定プロセスとしてモデル化されている)に埋め込まれたエージェントは、通常、介入の概念を持っていない。 このようなエゴ中心の行動と介入の対応は、ハードコーディングが難しい。 その代わり、エージェントがどの一連のアクションが環境を標的に操作できるかを学習し、観察から学習を許容する対応する表現を学習した方がよいでしょう。 ここでは,行動空間は介入の集合ではなく,観測空間は潜伏因果構造を持つ高次元空間である,この困難な状況下での因果学習にメタラーニングアプローチをいかに活用するかを示す。 メタ強化学習アルゴリズムは、観察因果学習タスクで伝達される関係を学習するために使用される。 本研究は,深層強化学習とメタ学習の進歩が,潜在因果構造を持つ高次元環境における介入中心因果学習にどのように役立つかを示す。

Interventions are central to causal learning and reasoning. Yet ultimately an intervention is an abstraction: an agent embedded in a physical environment (perhaps modeled as a Markov decision process) does not typically come equipped with the notion of an intervention -- its action space is typically ego-centric, without actions of the form `intervene on X'. Such a correspondence between ego-centric actions and interventions would be challenging to hard-code. It would instead be better if an agent learnt which sequence of actions allow it to make targeted manipulations of the environment, and learnt corresponding representations that permitted learning from observation. Here we show how a meta-learning approach can be used to perform causal learning in this challenging setting, where the action-space is not a set of interventions and the observation space is a high-dimensional space with a latent causal structure. A meta-reinforcement learning algorithm is used to learn relationships that transfer on observational causal learning tasks. This work shows how advances in deep reinforcement learning and meta-learning can provide intervention-centric causal learning in high-dimensional environments with a latent causal structure.
翻訳日:2022-11-28 23:39:22 公開日:2020-05-26
# 分類のためのスキューガウス過程

Skew Gaussian Processes for Classification ( http://arxiv.org/abs/2005.12987v1 )

ライセンス: Link先を確認
Alessio Benavoli and Dario Azzimonti and Dario Piga(参考訳) ガウス過程 (GPs) は函数上の分布であり、回帰と分類に対するベイズ的非パラメトリックなアプローチを提供する。 その成功にもかかわらず、GPはいくつかの応用において限定的であり、例えば、平均に対する対称分布は理にかなわないモデルである。 これは例えば、平均と中央値は一致するが、非対称(歪んだ)分布の平均と中央値は異なる数であることを意味する。 本論文では,スキューガウス過程 (SkewGPs) を非パラメトリックな事前関数として提案する。 SkewGP は有限次元ベクトル上の多変量統一スキーノルマル分布を確率過程に拡張する。 SkewGP の分布クラスは GP を含み、したがって、SkewGP は GP のすべての良質な性質を継承し、確率モデルにおける非対称性を許容することによってその柔軟性を高める。 SkewGP とprobit chance が共役モデルであるという事実を利用して、この新しい非パラメトリック分類器の辺りの確率と予測分布の閉形式式を導出する。 提案するSkewGP分類器は,Laplaceの手法や期待伝搬に基づくGP分類器よりも優れた性能が得られることを実証的に検証する。

Gaussian processes (GPs) are distributions over functions, which provide a Bayesian nonparametric approach to regression and classification. In spite of their success, GPs have limited use in some applications, for example, in some cases a symmetric distribution with respect to its mean is an unreasonable model. This implies, for instance, that the mean and the median coincide, while the mean and median in an asymmetric (skewed) distribution can be different numbers. In this paper, we propose Skew-Gaussian processes (SkewGPs) as a non-parametric prior over functions. A SkewGP extends the multivariate Unified Skew-Normal distribution over finite dimensional vectors to a stochastic processes. The SkewGP class of distributions includes GPs and, therefore, SkewGPs inherit all good properties of GPs and increase their flexibility by allowing asymmetry in the probabilistic model. By exploiting the fact that SkewGP and probit likelihood are conjugate model, we derive closed form expressions for the marginal likelihood and predictive distribution of this new nonparametric classifier. We verify empirically that the proposed SkewGP classifier provides a better performance than a GP classifier based on either Laplace's method or Expectation Propagation.
翻訳日:2022-11-28 23:39:03 公開日:2020-05-26
# ベイズニューラルネットワークを用いたカオス力学系逆問題の確率論的解法

Probabilistic solution of chaotic dynamical system inverse problems using Bayesian Artificial Neural Networks ( http://arxiv.org/abs/2005.13028v1 )

ライセンス: Link先を確認
David K. E. Green and Filip Rindler(参考訳) 本稿では,正規微分方程式(ODE)逆問題に対するベイズニューラルネットワークの適用例を示す。 状態観測データから未知のカオス力学系遷移モデルを推定する場合を考える。 カオス系の逆問題は、モデルパラメータの小さな摂動が推定された前方軌道に非常に大きな変化をもたらすため、数値的に困難である。 ベイズ型ニューラルネットワークは、モデルと推定パラメータの不確かさを同時に適合させるのに使うことができる。 モデルパラメータの不確かさの知識は、推定されたシステムの前方時間発展の確率論的推定に組み込むことができる。 この方法はカオススプロットb系を解析して数値的に示される。 システムの観測は、パラメトリック多項式カーネルニューラルネットワークの重みに対する後続の予測分布を推定するために使用される。 提案手法は正確な時刻予測を行うことができることを示す。 さらに,提案手法はモデルの不確かさを正しく考慮し,予測不確かさの予測に有用である。

This paper demonstrates the application of Bayesian Artificial Neural Networks to Ordinary Differential Equation (ODE) inverse problems. We consider the case of estimating an unknown chaotic dynamical system transition model from state observation data. Inverse problems for chaotic systems are numerically challenging as small perturbations in model parameters can cause very large changes in estimated forward trajectories. Bayesian Artificial Neural Networks can be used to simultaneously fit a model and estimate model parameter uncertainty. Knowledge of model parameter uncertainty can then be incorporated into the probabilistic estimates of the inferred system's forward time evolution. The method is demonstrated numerically by analysing the chaotic Sprott B system. Observations of the system are used to estimate a posterior predictive distribution over the weights of a parametric polynomial kernel Artificial Neural Network. It is shown that the proposed method is able to perform accurate time predictions. Further, the proposed method is able to correctly account for model uncertainties and provide useful prediction uncertainty bounds.
翻訳日:2022-11-28 23:38:44 公開日:2020-05-26
# ワイルドファイアスプレッドモデリングにおける繰り返しニューラルネットワークアーキテクチャの比較

Comparison of Recurrent Neural Network Architectures for Wildfire Spread Modelling ( http://arxiv.org/abs/2005.13040v1 )

ライセンス: Link先を確認
Rylan Perumal and Terence L van Zyl(参考訳) ワイルドファイアモデリングは、火災の振る舞いを再現する試みである。 アクティブ・ファイア・アナリティクスにより、有限時間時系列データを用いて、山火事などの動的過程を再現することが可能となる。 リカレントニューラルネットワーク(RNN)は、内部入力を記憶できるため、動的時間的動作をモデル化することができる。 本稿では,GRU(Gated Recurrent Unit)とLSTM(Long Short-Term Memory)ネットワークを比較した。 我々は、野火が燃え続けるかどうかを判断し、それが続くことを考慮し、野火が広がる8つの基数方向のうちのどれかを予測することを目指している。 全体として、GRUはLSTMよりも長い時系列でパフォーマンスが良い。 我々は、山火事が広がる方向を予測するのに合理的であるが、補助的なデータがないため、山火事が燃え続けるかどうかを判断できないことを示した。

Wildfire modelling is an attempt to reproduce fire behaviour. Through active fire analysis, it is possible to reproduce a dynamical process, such as wildfires, with limited duration time series data. Recurrent neural networks (RNNs) can model dynamic temporal behaviour due to their ability to remember their internal input. In this paper, we compare the Gated Recurrent Unit (GRU) and the Long Short-Term Memory (LSTM) network. We try to determine whether a wildfire continues to burn and given that it does, we aim to predict which one of the 8 cardinal directions the wildfire will spread in. Overall the GRU performs better for longer time series than the LSTM. We have shown that although we are reasonable at predicting the direction in which the wildfire will spread, we are not able to asses if the wildfire continues to burn due to the lack of auxiliary data.
翻訳日:2022-11-28 23:38:30 公開日:2020-05-26
# 機械学習における公正性に関する数学的枠組みの見直し

Review of Mathematical frameworks for Fairness in Machine Learning ( http://arxiv.org/abs/2005.13755v1 )

ライセンス: Link先を確認
Eustasio del Barrio, Paula Gordaliza, Jean-Michel Loubes(参考訳) 過去数年間に文献で提唱された主なフェアネス定義とフェアラーニング方法論のレビューを数学的観点から提示した。 独立性に基づくアプローチでは、公正なアルゴリズムの構築方法や、不公平な場合と比較してパフォーマンスが低下する結果について検討する。 これは、基準 $\textit{statistical parity}$ または $\textit{equality of odds}$ によって与えられる公平性の価格に対応する。 最適フェア分類器と最適フェア予測器(線形回帰ガウスモデル)の表現を$\textit{equality of odds}$という意味で与えた新しい結果を示す。

A review of the main fairness definitions and fair learning methodologies proposed in the literature over the last years is presented from a mathematical point of view. Following our independence-based approach, we consider how to build fair algorithms and the consequences on the degradation of their performance compared to the possibly unfair case. This corresponds to the price for fairness given by the criteria $\textit{statistical parity}$ or $\textit{equality of odds}$. Novel results giving the expressions of the optimal fair classifier and the optimal fair predictor (under a linear regression gaussian model) in the sense of $\textit{equality of odds}$ are presented.
翻訳日:2022-11-28 23:38:16 公開日:2020-05-26
# 埋め込みベクトルの差分は不確かさのインテンショナル論理の差分と一致できる

Embedding Vector Differences Can Be Aligned With Uncertain Intensional Logic Differences ( http://arxiv.org/abs/2005.12535v1 )

ライセンス: Link先を確認
Ben Goertzel, Mike Duncan, Debbie Duong, Nil Geisweiller, Hedra Seid, Abdulrahman Semrie, Man Hin Leung, Matthew Ikle'(参考訳) DeepWalkアルゴリズムは、生物学的オントロジーとゲノム解析のデータに基づく長寿の原因に関する確率論的推論への応用の文脈において、OpenCog AGIシステムにおける知識を表現するために使用されるラベル付きハイパーグラフで、Atomスペースのノードに埋め込みベクトルを割り当てるのに使用される。 埋め込みベクトル間のベクトル差分演算は、適切な条件下では、埋め込みベクトルに対応するハイパーグラフノード間の「押し込み差分演算」とほぼ一致可能である。 この関係は不確定なインテンション論理とベクトル演算の間のより広い関手的マッピングを示唆し、埋め込みベクトル代数を用いてインテンション推論制御を導くための扉を開く。

The DeepWalk algorithm is used to assign embedding vectors to nodes in the Atomspace weighted, labeled hypergraph that is used to represent knowledge in the OpenCog AGI system, in the context of an application to probabilistic inference regarding the causes of longevity based on data from biological ontologies and genomic analyses. It is shown that vector difference operations between embedding vectors are, in appropriate conditions, approximately alignable with "intensional difference" operations between the hypergraph nodes corresponding to the embedding vectors. This relationship hints at a broader functorial mapping between uncertain intensional logic and vector arithmetic, and opens the door for using embedding vector algebra to guide intensional inference control.
翻訳日:2022-11-28 23:32:06 公開日:2020-05-26
# 遠隔教師付き生物医学的関係抽出におけるノイズ低減のためのデータ駆動アプローチ

A Data-driven Approach for Noise Reduction in Distantly Supervised Biomedical Relation Extraction ( http://arxiv.org/abs/2005.12565v1 )

ライセンス: Link先を確認
Saadullah Amin, Katherine Ann Dunfield, Anna Vechkaeva and G\"unter Neumann(参考訳) ファクトトリプル(英: fact triples)は、生物医学領域で使用される構造的知識の共通形態である。 構造化されていない学術テキストの量は増え続けており、関係抽出作業のための手作業による注釈がますます高価になる。 遠隔監視は、大量のラベル付き、しかしかなり騒がしいデータを迅速に生成することで、これに対処するための有効なアプローチを提供する。 本稿では,エンティティエンリッチな関係分類bertモデルを複数インスタンス学習問題に拡張し,ノイズを著しく低減する簡易なデータ符号化方式を定義し,遠隔教師付き生体医学的関係抽出のための最先端性能の実現を目指す。 提案手法はさらに,関係三重項の方向性に関する知識をエンコードし,ノイズを低減し,知識グラフ完成を伴う共同学習の必要性を軽減することにより,関係学習への焦点を増す。

Fact triples are a common form of structured knowledge used within the biomedical domain. As the amount of unstructured scientific texts continues to grow, manual annotation of these texts for the task of relation extraction becomes increasingly expensive. Distant supervision offers a viable approach to combat this by quickly producing large amounts of labeled, but considerably noisy, data. We aim to reduce such noise by extending an entity-enriched relation classification BERT model to the problem of multiple instance learning, and defining a simple data encoding scheme that significantly reduces noise, reaching state-of-the-art performance for distantly-supervised biomedical relation extraction. Our approach further encodes knowledge about the direction of relation triples, allowing for increased focus on relation learning by reducing noise and alleviating the need for joint learning with knowledge graph completion.
翻訳日:2022-11-28 23:31:50 公開日:2020-05-26
# ブロック世界対話システムにおける履歴認識質問応答

History-Aware Question Answering in a Blocks World Dialogue System ( http://arxiv.org/abs/2005.12501v1 )

ライセンス: Link先を確認
Benjamin Kane, Georgiy Platonov, and Lenhart K. Schubert(参考訳) 対話ベースの空間推論システムでは、世界の歴史的状態の記憶を維持することが不可欠である。 対話エージェントが精神的に存在し、タスクに携わっていることを伝えることに加えて、歴史的な状態を参照することは、協調的な計画(例えば、以前の状態に戻る計画、過去のミスステップの診断など)を可能にするために重要である。 本稿では,物理ブロックの世界設定における対話履歴に関する疑問に答えることのできるマルチモーダル音声対話システムにおいて,空間記憶の問題にアプローチする。 この研究は、視覚システム、アニメーションアバターによる音声入力と出力、空間的クエリを頑健に解釈する対話システム、三次元空間モデリングに基づく回答を導出する制約解決器からなる全空間質問応答パイプラインの上に構築される。 この作品のコントリビューションには、対話の歴史や世界の変化に関する知識を登録するシンボリックな対話コンテキストや、自由形式の歴史的疑問を解釈し、対話コンテキストをクエリして回答を形成する自然言語理解モジュールが含まれる。

It is essential for dialogue-based spatial reasoning systems to maintain memory of historical states of the world. In addition to conveying that the dialogue agent is mentally present and engaged with the task, referring to historical states may be crucial for enabling collaborative planning (e.g., for planning to return to a previous state, or diagnosing a past misstep). In this paper, we approach the problem of spatial memory in a multi-modal spoken dialogue system capable of answering questions about interaction history in a physical blocks world setting. This work builds upon a full spatial question-answering pipeline consisting of a vision system, speech input and output mediated by an animated avatar, a dialogue system that robustly interprets spatial queries, and a constraint solver that derives answers based on 3-D spatial modelling. The contributions of this work include a symbolic dialogue context registering knowledge about discourse history and changes in the world, as well as a natural language understanding module capable of interpreting free-form historical questions and querying the dialogue context to form an answer.
翻訳日:2022-11-28 23:31:18 公開日:2020-05-26
# 機械学習による手続き型コンテンツ生成における局所的・グローバル的パターンのキャプチャ

Capturing Local and Global Patterns in Procedural Content Generation via Machine Learning ( http://arxiv.org/abs/2005.12579v1 )

ライセンス: Link先を確認
Vanessa Volz and Niels Justesen and Sam Snodgrass and Sahar Asadi and Sami Purmonen and Christoffer Holmg\r{a}rd and Julian Togelius and Sebastian Risi(参考訳) 機械学習(PCGML)法による最近の手続き的コンテンツ生成は、既存のコンテンツから学習して、類似コンテンツを自動的に生成することを可能にする。 これらのアプローチは、異なるゲーム(例えば、スーパーマリオブラザーズ、DOOM、ゼルダ、キッド・イカルス)のコンテンツを生成することができるが、これらのアプローチが対称性のような大規模な視覚パターンをどれだけうまく捉えることができるかは、オープンな疑問である。 本稿では,PCGMLアルゴリズムの適切なパターンを生成する能力に関する領域として,マッチ3ゲームを提案する。 本稿では,ジェネレーティブ・アドバイサル・ネットワークのような一般的なアルゴリズムがこの領域で苦労していることを示し,その性能向上のための適応を提案する。 特にマルコフ・ランダム場(英語版)アプローチの近傍を拡大し、局所的だけでなく対称的な位置情報も考慮する。 提案する修正によって達成された改善を示すユーザ調査など,いくつかの実証実験を行い,有望な結果を得た。

Recent procedural content generation via machine learning (PCGML) methods allow learning from existing content to produce similar content automatically. While these approaches are able to generate content for different games (e.g. Super Mario Bros., DOOM, Zelda, and Kid Icarus), it is an open questions how well these approaches can capture large-scale visual patterns such as symmetry. In this paper, we propose match-three games as a domain to test PCGML algorithms regarding their ability to generate suitable patterns. We demonstrate that popular algorithm such as Generative Adversarial Networks struggle in this domain and propose adaptations to improve their performance. In particular we augment the neighborhood of a Markov Random Fields approach to not only take local but also symmetric positional information into account. We conduct several empirical tests including a user study that show the improvements achieved by the proposed modifications, and obtain promising results.
翻訳日:2022-11-28 23:30:05 公開日:2020-05-26
# ミニマックス距離測定のためのメモリ効率サンプリング

Memory-Efficient Sampling for Minimax Distance Measures ( http://arxiv.org/abs/2005.12627v1 )

ライセンス: Link先を確認
Fazeleh Sadat Hoseini, Morteza Haghir Chehreghani(参考訳) ミニマックス距離測度は、下層のパターンと多様体を教師なしの方法で抽出する。 既存のメソッドはオブジェクトの数に関して二次メモリを必要とする。 本稿では,メモリ要求の削減と線形空間の複雑さを実現するため,効率的なサンプリング手法を検討する。 特に,ミニマックス距離によく適応する新しいサンプリング手法を提案する。 実世界の異なる領域のデータセットの手法を評価し,結果を解析する。

Minimax distance measure extracts the underlying patterns and manifolds in an unsupervised manner. The existing methods require a quadratic memory with respect to the number of objects. In this paper, we investigate efficient sampling schemes in order to reduce the memory requirement and provide a linear space complexity. In particular, we propose a novel sampling technique that adapts well with Minimax distances. We evaluate the methods on real-world datasets from different domains and analyze the results.
翻訳日:2022-11-28 23:29:29 公開日:2020-05-26
# フェデレーションモデルの初期化のための連続的局所訓練

Continual Local Training for Better Initialization of Federated Models ( http://arxiv.org/abs/2005.12657v1 )

ライセンス: Link先を確認
Xin Yao, Lifeng Sun(参考訳) フェデレートラーニング(Federated Learning, FL)とは、機械学習モデルを、生データを送信することなく、スマートエッジデバイスで構成される分散システムで直接トレーニングする学習パラダイムである。 このような状況下での典型的な異種データ分布を考えると、一般的なFLアルゴリズム \emph{Federated Averaging} (FedAvg) は重み分散に苦しむため、集中型手法と比較してグローバルモデル(FLでは \emph{initial performance} と表記される)の競合性能は達成できない。 本稿では,この問題に対処するための局所的連続的トレーニング戦略を提案する。 重要度は、中央サーバ上の小さなプロキシデータセットで評価され、ローカルトレーニングの制約に使用される。 この追加用語により、重量分散を緩和し、異なるローカルクライアントの知識をグローバルモデルに統合し、より優れた一般化能力を実現する。 各種FL設定実験により,フェデレーションモデルの初期性能が向上し,通信コストの低減が図られた。

Federated learning (FL) refers to the learning paradigm that trains machine learning models directly in the decentralized systems consisting of smart edge devices without transmitting the raw data, which avoids the heavy communication costs and privacy concerns. Given the typical heterogeneous data distributions in such situations, the popular FL algorithm \emph{Federated Averaging} (FedAvg) suffers from weight divergence and thus cannot achieve a competitive performance for the global model (denoted as the \emph{initial performance} in FL) compared to centralized methods. In this paper, we propose the local continual training strategy to address this problem. Importance weights are evaluated on a small proxy dataset on the central server and then used to constrain the local training. With this additional term, we alleviate the weight divergence and continually integrate the knowledge on different local clients into the global model, which ensures a better generalization ability. Experiments on various FL settings demonstrate that our method significantly improves the initial performance of federated models with few extra communication costs.
翻訳日:2022-11-28 23:29:23 公開日:2020-05-26
# 勾配法における固有雑音

Inherent Noise in Gradient Based Methods ( http://arxiv.org/abs/2005.12743v1 )

ライセンス: Link先を確認
Arushi Gupta(参考訳) これまでの研究では、gdやsgdなどの勾配に基づくアルゴリズムを分析して、より小さなニューラルネットワークよりも一般化する能力について検討してきた。 雑音の存在とパラメータ摂動に対するロバスト性への影響は一般化に関連している。 GDとSGDの特性、すなわちネットワーク内の全てのスカラー重みを反復して更新する代わりに、GD(およびSGD)は同時に全てのパラメータを更新する。 その結果、各パラメータ $w^i$ はその部分微分をスタイルパラメータ $\mathbf{w_t}$ で計算するが、損失 $\hat{l}(\mathbf{w_{t+1}})$ となる。 これにより、最適化にノイズを導入できることが示される。 このノイズは重量の摂動に敏感なモデルをペナル化する。 ペナルティは、現在更新に使用中のバッチに対して最も顕著であり、より大きなモデルでは高くなっています。

Previous work has examined the ability of larger capacity neural networks to generalize better than smaller ones, even without explicit regularizers, by analyzing gradient based algorithms such as GD and SGD. The presence of noise and its effect on robustness to parameter perturbations has been linked to generalization. We examine a property of GD and SGD, namely that instead of iterating through all scalar weights in the network and updating them one by one, GD (and SGD) updates all the parameters at the same time. As a result, each parameter $w^i$ calculates its partial derivative at the stale parameter $\mathbf{w_t}$, but then suffers loss $\hat{L}(\mathbf{w_{t+1}})$. We show that this causes noise to be introduced into the optimization. We find that this noise penalizes models that are sensitive to perturbations in the weights. We find that penalties are most pronounced for batches that are currently being used to update, and are higher for larger models.
翻訳日:2022-11-28 23:28:59 公開日:2020-05-26
# 雑音誘導によるアクティブ模倣学習

Active Imitation Learning with Noisy Guidance ( http://arxiv.org/abs/2005.12801v1 )

ライセンス: Link先を確認
Kiant\'e Brantley, Amr Sharaf, Hal Daum\'e III(参考訳) 模倣学習アルゴリズムは、最適に近い検索ポリシーを学習することで、多くの構造化予測タスクの最先端の結果を提供する。 このようなアルゴリズムは、任意のクエリ状態において最適なアクションを提供する専門家へのトレーニングタイムアクセスを前提としています。 この問合せの複雑さに対処するために,学習アルゴリズムがより安価でノイズの多いヒューリスティックにアクセスでき,ノイズの多いガイダンスを提供する能動的学習環境を考える。 我々のアルゴリズムであるLEAQIは、専門家がヒューリスティックと不一致する確率を予測する差分分類器を学習し、必要に応じて専門家に問い合わせる。 我々は3つのシーケンスラベリングタスクにLEAQIを適用し、エキスパートに対するクエリが著しく少なく、受動的アプローチに対して同等(あるいはより優れた)精度を示す。

Imitation learning algorithms provide state-of-the-art results on many structured prediction tasks by learning near-optimal search policies. Such algorithms assume training-time access to an expert that can provide the optimal action at any queried state; unfortunately, the number of such queries is often prohibitive, frequently rendering these approaches impractical. To combat this query complexity, we consider an active learning setting in which the learning algorithm has additional access to a much cheaper noisy heuristic that provides noisy guidance. Our algorithm, LEAQI, learns a difference classifier that predicts when the expert is likely to disagree with the heuristic, and queries the expert only when necessary. We apply LEAQI to three sequence labeling tasks, demonstrating significantly fewer queries to the expert and comparable (or better) accuracies over a passive approach.
翻訳日:2022-11-28 23:22:32 公開日:2020-05-26
# 良い俳優はみんな同じように見えるか? 米国と英国でニュースの正確性検出を調査中

Do All Good Actors Look The Same? Exploring News Veracity Detection Across The U.S. and The U.K ( http://arxiv.org/abs/2006.01211v1 )

ライセンス: Link先を確認
Benjamin D. Horne and Maur\'icio Gruppi and Sibel Adal{\i}(参考訳) テキストベースのニュースveracity検出方法に対する大きな懸念は、国や文化にまたがって一般化できないことである。 本稿では,米国とイギリスのニュースデータ間でニュースの妥当性モデルを明示的に検証し,一般性に関する懸念があることを実証する。 一連のテストシナリオを通じて、ある国のニュースデータでトレーニングし、別の国でテストすると、テキストベースの分類器の性能が低下することを示す。 さらに、これらのモデルでは、見当たらない信頼できないニュースソースの分類に問題がある。 結論として,これらの結果と今後の課題への道筋について考察する。

A major concern with text-based news veracity detection methods is that they may not generalize across countries and cultures. In this short paper, we explicitly test news veracity models across news data from the United States and the United Kingdom, demonstrating there is reason for concern of generalizabilty. Through a series of testing scenarios, we show that text-based classifiers perform poorly when trained on one country's news data and tested on another. Furthermore, these same models have trouble classifying unseen, unreliable news sources. In conclusion, we discuss implications of these results and avenues for future work.
翻訳日:2022-11-28 23:22:01 公開日:2020-05-26
# BERT-XML:BERT事前学習を用いた大規模自動ICD符号化

BERT-XML: Large Scale Automated ICD Coding Using BERT Pretraining ( http://arxiv.org/abs/2006.03685v1 )

ライセンス: Link先を確認
Zachariah Zhang, Jingshu Liu, Narges Razavian(参考訳) 臨床相互作用は、最初は無料のテキスト医療ノートに記録され、記録される。 ICDコーディングは、患者の訪問に関連するすべての診断、症状、手順を分類し、コーディングするタスクである。 このプロセスは多くの場合手作業であり、病院にとって非常に時間がかかる。 本稿では,多種多様なNLPタスクにおけるアートパフォーマンスの状態を達成した教師なし事前学習を利用して,大規模自動ICD符号化のための機械学習モデルBERT-XMLを提案する。 EHRのノートのスクラッチからBERTモデルをトレーニングし、EHRのタスクに適した語彙で学習することで、既製のモデルよりも優れています。 ICD符号化におけるBERTアーキテクチャを多言語対応で適用する。 他の研究は、小さな公開医療データセットに焦点を当てているが、何千ものユニークなICDコードを予測するために何百万ものEHRノートを使用して、最初の大規模なICD-10分類モデルを作成してきた。

Clinical interactions are initially recorded and documented in free text medical notes. ICD coding is the task of classifying and coding all diagnoses, symptoms and procedures associated with a patient's visit. The process is often manual and extremely time-consuming and expensive for hospitals. In this paper, we propose a machine learning model, BERT-XML, for large scale automated ICD coding from EHR notes, utilizing recently developed unsupervised pretraining that have achieved state of the art performance on a variety of NLP tasks. We train a BERT model from scratch on EHR notes, learning with vocabulary better suited for EHR tasks and thus outperform off-the-shelf models. We adapt the BERT architecture for ICD coding with multi-label attention. While other works focus on small public medical datasets, we have produced the first large scale ICD-10 classification model using millions of EHR notes to predict thousands of unique ICD codes.
翻訳日:2022-11-28 23:21:52 公開日:2020-05-26
# rgb-dカメラベースアルゴリズムとディープラーニングシナジーを用いたブドウ畑における自律ナビゲーションのための局所運動プランナー

Local Motion Planner for Autonomous Navigation in Vineyards with a RGB-D Camera-Based Algorithm and Deep Learning Synergy ( http://arxiv.org/abs/2005.12815v1 )

ライセンス: Link先を確認
Diego Aghi, Vittorio Mazzia, Marcello Chiaberge(参考訳) 農業3.0と4.0の出現により、研究者たちは農業プロセスに自動化とロボティクスを導入することで、革新的なスマート農業と精密農業技術の開発にますます注力している。 農業機械は、コスト、人的負荷、必要な資源を減らすために、農家や産業から大きな注目を集めている。 ローカライゼーション、マッピング、パスプランニングは、マシンに、半構造化および非構造化環境で動作するための適切なスキルセットを提供することを目的とした、いくつかのステップの一部にすぎない。 本研究では,rgb-dカメラ,低域ハードウェア,二重層制御アルゴリズムのみに基づいて,ブドウ畑における自律的ナビゲーションのための低コストな局所運動プランナーを提案する。 最初のアルゴリズムは、不均一マップとその深さ表現を利用して、ロボットプラットフォームに対する比例制御を生成する。 同時に、第2のバックアップアルゴリズムは、表示学習に基づいて、照明変動に弾力性があり、第1のブロックが瞬時に故障した場合に機械を制御することができる。 さらに、システムの二重性のため、ディープラーニングモデルを初期データセットで初期訓練した後、この2つのアルゴリズム間の厳密な相乗効果により、フィールドから来る新しいラベル付きデータを利用して既存のモデルの知識を拡張することが可能となる。 機械学習アルゴリズムは、トランスファーラーニングを使用してトレーニングとテストが行われ、取得した画像がイタリア北部でのさまざまなフィールドサーベイで取得され、モデルプラニングと量子化によるデバイス上の推論に最適化された。 最後に、システム全体は、関連する環境でカスタマイズされたロボットプラットフォームで検証されている。

With the advent of agriculture 3.0 and 4.0, researchers are increasingly focusing on the development of innovative smart farming and precision agriculture technologies by introducing automation and robotics into the agricultural processes. Autonomous agricultural field machines have been gaining significant attention from farmers and industries to reduce costs, human workload, and required resources. Nevertheless, achieving sufficient autonomous navigation capabilities requires the simultaneous cooperation of different processes; localization, mapping, and path planning are just some of the steps that aim at providing to the machine the right set of skills to operate in semi-structured and unstructured environments. In this context, this study presents a low-cost local motion planner for autonomous navigation in vineyards based only on an RGB-D camera, low range hardware, and a dual layer control algorithm. The first algorithm exploits the disparity map and its depth representation to generate a proportional control for the robotic platform. Concurrently, a second back-up algorithm, based on representations learning and resilient to illumination variations, can take control of the machine in case of a momentaneous failure of the first block. Moreover, due to the double nature of the system, after initial training of the deep learning model with an initial dataset, the strict synergy between the two algorithms opens the possibility of exploiting new automatically labeled data, coming from the field, to extend the existing model knowledge. The machine learning algorithm has been trained and tested, using transfer learning, with acquired images during different field surveys in the North region of Italy and then optimized for on-device inference with model pruning and quantization. Finally, the overall system has been validated with a customized robot platform in the relevant environment.
翻訳日:2022-11-28 23:21:36 公開日:2020-05-26
# マルコフゲームにおけるXCSに基づく政策学習の促進のためのヒューリスティックスの有効利用

Efficient Use of heuristics for accelerating XCS-based Policy Learning in Markov Games ( http://arxiv.org/abs/2005.12553v1 )

ライセンス: Link先を確認
Hao Chen, Chang Wang, Jian Huang, Jianxing Gong(参考訳) マルコフゲームでは、学習能力のある非定常の対戦相手と対戦することは、強化学習(rl)エージェントにとって依然として困難である。 これにより、学習タスクの複雑さが増大し、RLエージェントの学習速度が低下する。 本稿では,協調学習者と対戦する際の政策学習を高速化するために,粗いヒューリスティックスの効率的な利用を提案する。 具体的には,ゼロサムマルコフゲームにおいて,量的ヒューリスティック表現と拡張分類システム(xcs)を持つ対戦モデルを利用して,説明可能かつ一般化された行動選択規則を効率的に学習できるアルゴリズムを提案する。 ニューラルネットワークは、相手の行動から相手をモデル化するために使用され、対応するポリシーはアクションの選択とルールの進化のために推論される。 複数のヒューリスティック政策の場合、アクション選択のためのパレート最適性の概念を導入する。 また,XCSの条件表現と一致機構の利点を生かして,類似した特徴表現を持つ状況に対して,ヒューリスティックなポリシーと反対モデルを提供することができる。 さらに、ルールの進化を早めるための正確性に基づく可視性トレース機構、すなわち、過去の痕跡と一致する分類器を精度に応じて強化する。 サッカーにおけるいくつかのベンチマークアルゴリズムと泥棒とハンタのシナリオに対して提案アルゴリズムの利点を示す。

In Markov games, playing against non-stationary opponents with learning ability is still challenging for reinforcement learning (RL) agents, because the opponents can evolve their policies concurrently. This increases the complexity of the learning task and slows down the learning speed of the RL agents. This paper proposes efficient use of rough heuristics to speed up policy learning when playing against concurrent learners. Specifically, we propose an algorithm that can efficiently learn explainable and generalized action selection rules by taking advantages of the representation of quantitative heuristics and an opponent model with an eXtended classifier system (XCS) in zero-sum Markov games. A neural network is used to model the opponent from their behaviors and the corresponding policy is inferred for action selection and rule evolution. In cases of multiple heuristic policies, we introduce the concept of Pareto optimality for action selection. Besides, taking advantages of the condition representation and matching mechanism of XCS, the heuristic policies and the opponent model can provide guidance for situations with similar feature representation. Furthermore, we introduce an accuracy-based eligibility trace mechanism to speed up rule evolution, i.e., classifiers that can match the historical traces are reinforced according to their accuracy. We demonstrate the advantages of the proposed algorithm over several benchmark algorithms in a soccer and a thief-and-hunter scenarios.
翻訳日:2022-11-28 23:20:45 公開日:2020-05-26
# Transformer-based Sequence Probabilities を用いた記号型自然言語文法の誘導

Guiding Symbolic Natural Language Grammar Induction via Transformer-Based Sequence Probabilities ( http://arxiv.org/abs/2005.12533v1 )

ライセンス: Link先を確認
Ben Goertzel, Andres Suarez Madrigal, Gino Yu(参考訳) ニューラルネットワークモデルによって文に割り当てられた確率(および潜在的に長い単語列)を用いて、クラスタリングやルール帰納といったシンボリックな学習プロセスを導くことによって、自然言語を統括する構文規則の自動学習を提案する。 この手法はトランスフォーマーにおける学習された言語知識を内部表現に言及することなく活用するので、より強力な言語モデルの連続的な出現に容易に適応できる。 本稿では,提案手法の実証例を示し,それを用いて先行研究から得られた教師なしシンボリックリンク文法帰納法を導出する。

A novel approach to automated learning of syntactic rules governing natural languages is proposed, based on using probabilities assigned to sentences (and potentially longer word sequences) by transformer neural network language models to guide symbolic learning processes like clustering and rule induction. This method exploits the learned linguistic knowledge in transformers, without any reference to their inner representations; hence, the technique is readily adaptable to the continuous appearance of more powerful language models. We show a proof-of-concept example of our proposed technique, using it to guide unsupervised symbolic link-grammar induction methods drawn from our prior research.
翻訳日:2022-11-28 23:20:03 公開日:2020-05-26