このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200922となっている論文です。

PDF登録状況(公開日: 20200922)

TitleAuthorsAbstract論文公表日・翻訳日
# cnot以外の効率的な2量子ビットパルスシーケンス

Efficient Two-Qubit Pulse Sequences Beyond CNOT ( http://arxiv.org/abs/2001.09341v2 )

ライセンス: Link先を確認
Daniel Zeuch and N. E. Bonesteel(参考訳) 交換専用量子計算のための3スピン符号化量子ビットに任意の角度で作用する効率的な制御回転ゲートを設計する。 2つのパルスシーケンス構成が与えられる。 第一の動機は、正確なcnotゲートに対する効率的なfong-wandzuraシーケンスの解析的導出である。 この導出は、SWAPパルスの短いシーケンスを絡み合う2量子ゲートに上昇させることに基づいている。 CNOTを超えるためには、SWAPと任意の持続時間の1つのパルスからなる修正短周期に類似した標高を適用する。 これにより、任意の角度で制御回転ゲートを実行する2量子列が得られる。 2番目の構造は、以前に確立された任意のcphaseゲートのクラスを合理化する。 どちらの構成も、構造の各ステップを解析的に抽出可能な特別な特性を持つ部分列から2量子列を構築することに基づいている。

We design efficient controlled-rotation gates with arbitrary angle acting on three-spin encoded qubits for exchange-only quantum computation. Two pulse sequence constructions are given. The first is motivated by an analytic derivation of the efficient Fong-Wandzura sequence for an exact CNOT gate. This derivation, briefly reviewed here, is based on elevating short sequences of SWAP pulses to an entangling two-qubit gate. To go beyond CNOT, we apply a similar elevation to a modified short sequence consisting of SWAPs and one pulse of arbitrary duration. This results in two-qubit sequences that carry out controlled-rotation gates of arbitrary angle. The second construction streamlines a class of arbitrary CPHASE gates established earlier. Both constructions are based on building two-qubit sequences out of subsequences with special properties that render each step of the construction analytically tractable.
翻訳日:2023-06-06 01:10:56 公開日:2020-09-22
# 雑音量子コンピュータにおける対称性保護位相状態の同定

Identification of symmetry-protected topological states on noisy quantum computers ( http://arxiv.org/abs/2002.04620v3 )

ライセンス: Link先を確認
Daniel Azses, Rafael Haenel, Yehuda Naveh, Robert Raussendorf, Eran Sela, Emanuele G. Dalla Torre(参考訳) トポロジカルな性質の同定は、定義上、トポロジカルな状態が局所的な順序パラメータを持たないため、大きな課題である。 この挑戦に対する一般的な解はまだ得られていないが、対称性保護トポロジカル状態(SPT)と呼ばれる幅広い位相状態のクラスは、その絡み合いスペクトルにおける特異な退化によって識別できる。 そこで本研究では,対称解エンタングルメントエントロピーと測定に基づく計算アルゴリズムに基づいて,これらのデジネラティを探索する2つの補完的プロトコルを提案する。 2つのプロトコルは量子情報処理を物質のspt相の分類と結びつけている。 彼らはクラスタ状態の生成を起動し、IBM量子コンピュータ上で実装される。 実験結果は騒音シミュレーションと比較され,摂動・騒音に対する位相状態の安定性について検討した。

Identifying topological properties is a major challenge because, by definition, topological states do not have a local order parameter. While a generic solution to this challenge is not available yet, a broad class of topological states, namely symmetry-protected topological (SPT) states, can be identified by distinctive degeneracies in their entanglement spectrum. Here, we propose and realize two complementary protocols to probe these degeneracies based on, respectively, symmetry-resolved entanglement entropies and measurement-based computational algorithms. The two protocols link quantum information processing to the classification of SPT phases of matter. They invoke the creation of a cluster state, and are implemented on an IBM quantum computer. The experimental findings are compared to noisy simulations, allowing us to study the stability of topological states to perturbations and noise.
翻訳日:2023-06-03 23:20:23 公開日:2020-09-22
# 条件付き動作とマクスウェル・デーモンの量子バージョン

Conditional action and quantum versions of Maxwell's demon ( http://arxiv.org/abs/2003.07087v2 )

ライセンス: Link先を確認
Heinz-J\"urgen Schmidt(参考訳) 本稿では,量子マックスウェルのデーモン問題に対する条件作用の観点からの新しい見方を提案する。 システム上の「条件的動作」は、前回の計測結果に基づいて選択されたユニタリ時間発展であり、システムのエントロピーを減少させることができる。 しかしながら、任意の条件付き作用は、より大きな系の(無条件の)ユニタリ時間発展とその後のl\"uders測定によって実現され、系全体のエントロピーは増大するか一定のままである。 n$ qubits と szilard engine の消去など,提案の例を示し,確認する。これにより,現在の szilard 原理へのアプローチと,マクスウェルのデーモン問題の可能な限りの解法として議論されてきた landauer の原理に関係している。

We propose a new way of looking at the quantum Maxwell's demon problem in terms of conditional action. A "conditional action" on a system is a unitary time evolution, selected according to the result of a previous measurement, which can reduce the entropy of the system. However, any conditional action can be realized by an (unconditional) unitary time evolution of a larger system and a subsequent L\"uders measurement, whereby the entropy of the entire system is either increased or remains constant. We give some examples that illustrate and confirm our proposal, including the erasure of $N$ qubits and the Szilard engine, thus relating the present approach to the Szilard principle and the Landauer principle that have been discussed as possible solutions of the Maxwell's demon problem.
翻訳日:2023-05-29 00:34:55 公開日:2020-09-22
# 超強結合光マター系の熱力学

Thermodynamics of ultrastrongly coupled light-matter systems ( http://arxiv.org/abs/2003.11556v5 )

ライセンス: Link先を確認
Philipp Pilar, Daniele De Bernardis, Peter Rabl(参考訳) 単一キャビティモードに超強結合した2段階双極子系の熱力学的性質について検討した。 正確な数値および近似解析法を用いて、任意の相互作用強度で系の自由エネルギーを評価し、比熱や電気感受性などの導関数量の強い結合変化について議論する。 この分析により、超強結合系におけるそれらの量に対する低次キャビティ誘起の補正を同定し、さらに強い相互作用において、単一キャビティモードの存在がダイポールの大きなアンサンブルの広範な熱力学量に強く適応できることを示す。 この非摂動結合系では、強誘電相転移温度の顕著な変化とキャビティモードの黒体スペクトルの特徴的な膨張と崩壊も観察される。 純粋に基本的な関心とは別に、これらの一般的な洞察は超強結合効果の潜在的な応用、例えば量子化学や量子熱機械の実現に重要である。

We study the thermodynamic properties of a system of two-level dipoles that are coupled ultrastrongly to a single cavity mode. By using exact numerical and approximate analytical methods, we evaluate the free energy of this system at arbitrary interaction strengths and discuss strong-coupling modifications of derivative quantities such as the specific heat or the electric susceptibility. From this analysis we identify the lowest-order cavity-induced corrections to those quantities in the collective ultrastrong coupling regime and show that for even stronger interactions the presence of a single cavity mode can strongly modify extensive thermodynamic quantities of a large ensemble of dipoles. In this non-perturbative coupling regime we also observe a significant shift of the ferroelectric phase transition temperature and a characteristic broadening and collapse of the black-body spectrum of the cavity mode. Apart from a purely fundamental interest, these general insights will be important for identifying potential applications of ultrastrong-coupling effects, for example, in the field of quantum chemistry or for realizing quantum thermal machines.
翻訳日:2023-05-27 22:36:18 公開日:2020-09-22
# tsirelsonポリトープとランダムネス生成

Tsirelson Polytopes and Randomness Generation ( http://arxiv.org/abs/2003.12636v2 )

ライセンス: Link先を確認
Peter Bierhorst and Yanbao Zhang(参考訳) 単一のツィレルソン境界によって誘導される (2,2,2) CHSH-ベル設定における確率分布のポリトープの極端点を分類する。 我々は、非自明に相互作用する複数のtsirelson境界のパラメトリライズド族から得られるポリトープのクラスについても同様である。 このような構成は、確率推定係数の手法(Phys. Rev. A, 98:040404(R, 2018))を用いて、デバイス非依存の乱数生成に適用できる。 ここでは,新しいポリトープを応用した検証ランダム性の有意義な改善を示す。

We classify the extreme points of a polytope of probability distributions in the (2,2,2) CHSH-Bell setting that is induced by a single Tsirelson bound. We do the same for a class of polytopes obtained from a parametrized family of multiple Tsirelson bounds interacting non-trivially. Such constructions can be applied to device-independent random number generation using the method of probability estimation factors [Phys. Rev. A, 98:040304(R), 2018]. We demonstrate a meaningful improvement in certified randomness applying the new polytopes characterized here.
翻訳日:2023-05-27 18:15:03 公開日:2020-09-22
# 可分な動的写像のためのプロパゲータの構築

Construction of propagators for divisible dynamical maps ( http://arxiv.org/abs/2004.09264v3 )

ライセンス: Link先を確認
Ujan Chakraborty and Dariusz Chru\'sci\'nski(参考訳) 可分な力学写像は、量子進化のレベルでマルコビアン性を特徴づける上で重要な役割を果たす。 可除写像はマルコフ半群の重要な一般化を提供する。 通常、対応するプロパゲータがそれぞれ正あるいは正の写像で定義されることを意味する完全正または正の可除性を解析する。 任意の時点で可逆な写像に対しては、既にプロパゲータの存在が保証されており、したがって唯一の問題は(完全)肯定性とトレース保存である。 しかし、可逆でない写像に対しては、プロパゲータの存在さえ保証されないため、問題ははるかに複雑である。 本稿では,一般化逆数の概念を用いた動的写像の伝播器を構築するための簡易な手法を提案する。 時間連続写像と時間離散写像の両方を解析する。 一般化された逆は一意に定義されないので、対応するプロパゲータにも同じことが当てはまる。 量子ビット進化の簡単な例では、完全正のさらなる要求がプロパゲータをユニークにする可能性があることを解析する。

Divisible dynamical maps play an important role in characterizing Markovianity on the level of quantum evolution. Divisible maps provide important generalization of Markovian semigroups. Usually one analyzes either completely positive or just positive divisibility meaning that the corresponding propagators are defined in terms of completely positive or positive maps, respectively. For maps which are invertible at any moment of time the very existence of propagator is already guaranteed and hence the only issue is (complete) positivity and trace-preservation. However, for maps which are not invertible the problem is much more involved since even the existence of a propagator is not guaranteed. In this paper we propose a simple method to construct propagators of dynamical maps using the concept of generalized inverse. We analyze both time-continuous and time-discrete maps. Since the generalized inverse is not uniquely defined the same applies for the corresponding propagator. In simple examples of qubit evolution we analyze it turns out that additional requirement of complete positivity possibly makes the propagator unique.
翻訳日:2023-05-22 22:56:00 公開日:2020-09-22
# 笑い液体中の不純物の分数角運動量とオンオン統計

Fractional angular momentum and anyon statistics of impurities in Laughlin liquids ( http://arxiv.org/abs/2004.13504v2 )

ライセンス: Link先を確認
Tobias Gra{\ss}, Bruno Juli\'a-D\'iaz, Niccol\`o Baldelli, Utso Bhattacharya, Maciej Lewenstein(参考訳) 分数量子ホール液体の基本的な励起は準粒子または準ホールであり、ボソンでもフェルミオンでもない。 ここでは、量子ホール液体に浸漬された不純物粒子を、液体との反発相互作用により準ホールに結合する。 不純物の角運動量は、角運動量の分数的な「量子」の倍数によって与えられることを示し、不純物の密度から直接観察することができる。 準ホールに結合したいくつかの不純物を持つ系において、それらの全角運動量は自由フェルミオンの値と自由ボソンの値の間に補間する。 この補間は、通常それらのブレイディング行動によって定義されるアノンの分数統計パラメータによって特徴づけられる。

The elementary excitations of a fractional quantum Hall liquid are quasiparticles or quasiholes which are neither bosons nor fermions, but so-called anyons. Here we study impurity particles immersed in a quantum Hall liquid which bind to the quasiholes via repulsive interactions with the liquid. We show that the angular momentum of an impurity is given by the multiple of a fractional "quantum" of angular momentum, and can directly be observed from the impurity density. In a system with several impurities bound to quasiholes, their total angular momentum interpolates between the values for free fermions and for free bosons. This interpolation is characterized by the fractional statistical parameter of the anyons which is typically defined via their braiding behavior.
翻訳日:2023-05-21 23:53:09 公開日:2020-09-22
# 新型コロナウイルス感染拡大に伴う個人のプライバシーと公衆安全のバランス--韓国の事例

Balancing Personal Privacy and Public Safety during COVID-19: The Case of South Korea ( http://arxiv.org/abs/2004.14495v2 )

ライセンス: Link先を確認
Na Young Ahn, Jun Eun Park, Dong Hoon Lee and Paul C. Hong(参考訳) 新型コロナウイルス(covid-19)のパンデミックに対する各国の対応について、活発な議論が続いている。 公安を確保するため、韓国は個人情報を個人プライバシーのリスクで積極的に利用し、フランスは公安のリスクで自発的な協力を奨励した。 本稿では,フランスとの文脈的差異を簡潔に比較した結果,韓国の疫学調査へのアプローチに注目した。 個人のプライバシーと公衆衛生に関する問題を評価するため,オリジナルデータ,識別解除データ,暗号化データの利用パターンを検討した。 本提案では, 集団感染, 感染拡大, 医療インフラの利用可能性, 死亡率について検討した。 最後に,今後の研究の成果と教訓と政策への影響について概説する。

There has been vigorous debate on how different countries responded to the COVID-19 pandemic. To secure public safety, South Korea actively used personal information at the risk of personal privacy whereas France encouraged voluntary cooperation at the risk of public safety. In this article, after a brief comparison of contextual differences with France, we focus on South Korea's approaches to epidemiological investigations. To evaluate the issues pertaining to personal privacy and public health, we examine the usage patterns of original data, de-identification data, and encrypted data. Our specific proposal discusses the COVID index, which considers collective infection, outbreak intensity, availability of medical infrastructure, and the death rate. Finally, we summarize the findings and lessons for future research and the policy implications.
翻訳日:2023-05-21 19:17:39 公開日:2020-09-22
# 観測された量子力学:古典力学とゼノ効果の欠如

Observed quantum dynamics: classical dynamics and lack of Zeno effect ( http://arxiv.org/abs/2005.00265v2 )

ライセンス: Link先を確認
Juli\'an L\'opez, Laura Ares and Alfredo Luis(参考訳) 量子進化を観察する際に古典的進化が現れるケーススタディを検討する。 二重ホモダイン種の測定(進化した場状態を古典的様コヒーレント状態や量子圧縮状態へと投影する)によって中断された単一モードの量子ケラー進化を用いることで、測定が古典的か量子的かに関わらず量子ゼノ効果はなく、進化は古典的であることが分かる。

We examine a case study where classical evolution emerges when observing a quantum evolution. By using a single-mode quantum Kerr evolution interrupted by measurement of the double-homodyne kind (projecting the evolved field state into classical-like coherent states or quantum squeezed states), we show that irrespective of whether the measurement is classical or quantum there is no quantum Zeno effect and the evolution turns out to be classical.
翻訳日:2023-05-21 14:59:00 公開日:2020-09-22
# 高速スクランブルのための最小モデル

Minimal Model for Fast Scrambling ( http://arxiv.org/abs/2005.05362v3 )

ライセンス: Link先を確認
Ron Belyansky, Przemyslaw Bienias, Yaroslav A. Kharkov, Alexey V. Gorshkov, Brian Swingle(参考訳) 我々は、長距離全対全相互作用と短距離相互作用の両方を持つスピンモデルにおける量子情報スクランブルの研究を行う。 我々は、単純な大域的、空間的に均質な相互作用と局所カオス力学は、システム規模で対数的な時間でシステム全体にわたって量子情報の拡散を記述する高速スクランブルを生み出すのに十分であると主張する。 これは、(1)Haarランダム局所ユニタリを持つランダム回路と(2)大域的相互作用、(2)大域的に結合された非線形発振器の古典的モデルである。 我々は正確な数値を用いて、中間サイズのスピン鎖における時間外相関子と絡み合いエントロピーの時間進化を研究することによって、さらなる証拠を提供する。 その結果,高速スクランブル実験や量子シミュレータを用いた量子重力実験への道が開けた。

We study quantum information scrambling in spin models with both long-range all-to-all and short-range interactions. We argue that a simple global, spatially homogeneous interaction together with local chaotic dynamics is sufficient to give rise to fast scrambling, which describes the spread of quantum information over the entire system in a time that is logarithmic in the system size. This is illustrated in two tractable models: (1) a random circuit with Haar random local unitaries and a global interaction and (2) a classical model of globally coupled non-linear oscillators. We use exact numerics to provide further evidence by studying the time evolution of an out-of-time-order correlator and entanglement entropy in spin chains of intermediate sizes. Our results pave the way towards experimental investigations of fast scrambling and aspects of quantum gravity with quantum simulators.
翻訳日:2023-05-20 13:53:26 公開日:2020-09-22
# フラストレーション多体系における動的秩序と超伝導

Dynamical order and superconductivity in a frustrated many-body system ( http://arxiv.org/abs/2005.09073v2 )

ライセンス: Link先を確認
J. Tindall, F. Schlawin, M. Buzzi, D. Nicoletti, J. R. Coulthard, H. Gao, A. Cavalleri, M. A. Sentef and D. Jaksch(参考訳) 三角形格子構造では、空間異方性とフラストレーションは、複雑で非常に絡み合った物質の状態を含む領域を含むリッチ平衡相図をもたらす。 本研究では,駆動する2回転三角ハバードモデルを研究し,平衡状態からこれらの状態を進化させ,駆動状態と初期状態との相互作用が予期せず粒子-ホール励起経路を遮断する様子を観察した。 対称性の議論が予測できないこの制限は、システムの過渡的なダイナミクスを規定し、利用可能な粒子ホール自由度が均一な長距離秩序を示す。 本稿では, BEDT-TTF({\rm \kappa)_{2}Cu[N(CN)_{2}]Br}$分子の光誘起超伝導に関する最近の実験について考察する。

In triangular lattice structures, spatial anisotropy and frustration can lead to rich equilibrium phase diagrams with regions containing complex, highly entangled states of matter. In this work we study the driven two-rung triangular Hubbard model and evolve these states out of equilibrium, observing how the interplay between the driving and the initial state unexpectedly shuts down the particle-hole excitation pathway. This restriction, which symmetry arguments fail to predict, dictates the transient dynamics of the system, causing the available particle-hole degrees of freedom to manifest uniform long-range order. We discuss implications of our results for a recent experiment on photo-induced superconductivity in ${\rm \kappa - (BEDT-TTF)_{2}Cu[N(CN)_{2}]Br}$ molecules.
翻訳日:2023-05-20 05:12:34 公開日:2020-09-22
# 量子熱機械と量子温度測定における非対称パルス変調の役割の探求

Exploring the role of asymmetric-pulse modulation in quantum thermal machines and quantum thermometry ( http://arxiv.org/abs/2005.08509v3 )

ライセンス: Link先を確認
Saikat Mondal, Sourav Bhattacharjee and Amit Dutta(参考訳) 熱浴に接触した場合の非対称パルスによる量子2レベル系(tls)の周期的変調結果について検討する。 Floquet-Lindblad形式を解析に適用することにより、パルスの不等な "up" と "down" の時間長が2つの大きな影響があることが分かる。 まず、周期変調の結果として作成された複数のサイドバンドまたはフォトンセクタのエネルギーギャップを、変調強度とアップ(またはダウン)時間の分数の両方に依存する項で再正規化する。 第2に、異なるサイドバンドの重みは、もはや中央バンドまたはゼロフォトンセクタの周りに対称的に分布しない。 これらの知見の利点は、量子熱機械や熱測定への応用の文脈で説明する。 本研究では,TLSを2つの熱浴に結合させて構築した熱機械に対して,非対称パルスが熱機械の動作モードを制御できることを実証する。 さらに、サブバンドの重みを適切に調整することにより、非対称パルスは、最近提案された量子温度測定のプロトコルにおいて、測定の精度を高めるために動的制御が示されている、優れた最適性をもたらすことも示している。

We explore the consequences of periodically modulating a quantum two-level system (TLS) with an asymmetric pulse when the system is in contact with thermal baths. By adopting the Floquet-Lindblad formalism for our analysis, we find that the unequal "up" and "down" time duration of the pulse has two main ramifications. First, the energy gap of the multiple sidebands or photon sectors created as a result of the periodic modulation are renormalized by a term which is dependent on both the modulation strength as well as the fraction of up (or down) time duration. Second, the weights of the different sidebands are no longer symmetrically distributed about the central band or zero photon sector. We illustrate the advantages of these findings in the context of applications in quantum thermal machines and thermometry. For a thermal machine constructed by coupling the TLS to two thermal baths, we demonstrate that the asymmetric pulse provides an extra degree of control over the mode of operation of the thermal machine. Further, by appropriately tuning the weight of the subbands, we also show that an asymmetric pulse may provide superior optimality in a recently proposed protocol for quantum thermometry, where dynamical control has been shown to enhance the precision of measurement.
翻訳日:2023-05-19 11:32:34 公開日:2020-09-22
# 重力測定のためのナノ粒子を用いた量子センシング

Quantum sensing with nanoparticles for gravimetry; when bigger is better ( http://arxiv.org/abs/2005.14642v3 )

ライセンス: Link先を確認
Markus Rademacher, James Millen, Ying Lia Li(参考訳) 2020年に量子基底状態まで冷却された浮遊ナノスフィアの最初の実証に続いて、マクロ量子センサーは地平線上にあるように見える。 ナノスフィアの質量は他の量子系と比べて大きく、ナノ粒子の重力や慣性力に対する感受性を高める。 本論では,光レビテーションナノ粒子[2]を用いた実験の特徴と加速センサへの応用について述べる。 浮遊ナノ粒子プラットフォームの特徴は、量子論によって予測される量子ノイズ制限変換だけでなく、10^{-15}$ms$^{-2}$ [3]の順に感度に到達することができること、また重力測定の長寿命な量子空間重ね合わせを実装する能力である。 これは、重ね合わせや絡み合いを利用するコールドアトム干渉計などのセンサーの開発における世界的なトレンドに続くものだ。 これら既存の量子技術の商業的発展により, 浮揚ナノ粒子研究の応用可能性について検討する。

Following the first demonstration of a levitated nanosphere cooled to the quantum ground state in 2020 [1], macroscopic quantum sensors are seemingly on the horizon. The nanosphere's large mass as compared to other quantum systems enhances the susceptibility of the nanoparticle to gravitational and inertial forces. In this viewpoint we describe the features of experiments with optically levitated nanoparticles [2] and their proposed utility for acceleration sensing. Unique to the levitated nanoparticle platform is the ability to implement not only quantum noise limited transduction, predicted by quantum metrology to reach sensitivities on the order of $10^{-15}$ms$^{-2}$ [3], but also long-lived quantum spatial superpositions for enhanced gravimetry. This follows a global trend in developing sensors, such as cold-atom interferometers, that exploit superposition or entanglement. Thanks to significant commercial development of these existing quantum technologies, we discuss the feasibility of translating levitated nanoparticle research into applications.
翻訳日:2023-05-18 00:41:40 公開日:2020-09-22
# 学生研究室における絡み合った光子を用いた量子鍵分布の実証

A Demonstration of Quantum Key Distribution with Entangled Photons for the Undergraduate Laboratory ( http://arxiv.org/abs/2006.03407v2 )

ライセンス: Link先を確認
Aayam Bista, Baibhav Sharma and Enrique J. Galvez(参考訳) 不確定性と測定の基本的な量子原理が、2つの通信相手間の機密性を提供する新しい技術の基礎となっている今、これらの技術がどのように機能するかを説明するための教育実験室を提供する必要がある。 本稿では,学生が単一光子を用いて量子鍵分布を行う実験を行い,量子重ね合わせと状態投影の原理によって通信の秘密性がいかに保証されるかを検討する。 我々は、相関光子実験室で使用されるのと同様のテーブルトップ装置を用いて、偏光共役光子を用いたBennett-Brassard-84プロトコルを実装した。 実験は, 盗聴器によって両者の通信が破壊されることを示す。 我々は、単純な石英板を用いて、盗聴器が通信に使用する光子をインターセプトし、測定し、再送する方法を模倣し、光の状態を分析して、盗聴器がどのように変化するかを示す。

Now that fundamental quantum principles of indeterminacy and measurement have become the basis of new technologies that provide secrecy between two communicating parties, there is a need to provide teaching laboratories that illustrate how these technologies work. In this article we describe a laboratory exercise in which students perform quantum key distribution with single photons, and see how the secrecy of the communication is ensured by the principles of quantum superposition and state projection. We used a table-top apparatus, similar to those used in correlated-photon undergraduate laboratories, to implement the Bennett-Brassard-84 protocol with polarization-entangled photons. Our experiment shows how the communication between two parties is disrupted by an eavesdropper. We use a simple quartz plate to mimic how an eavesdropper intercepts, measures, and resends the photons used in the communication, and we analyze the state of the light to show how the eavesdropper changes it.
翻訳日:2023-05-17 02:09:36 公開日:2020-09-22
# 1次元と2次元におけるメタ共形2点関数の有界性

Boundedness of meta-conformal two-point functions in one and two spatial dimensions ( http://arxiv.org/abs/2006.04537v2 )

ライセンス: Link先を確認
Malte Henkel, Michal Dariusz Kuczynski, Stoimen Stoimenov(参考訳) メタコンフォーマル不変性(Meta-conformal invariance)は、動的指数 $z=1$ を持つ新しい動的対称性のクラスであり、標準直交不変性とは異なる。 メタコンフォーマルなウォードのアイデンティティはリー代数生成子から直接読み取ることができるが、この手順は共変コリケータが時間座標と空間座標に正則的に依存すべきことを暗黙的に仮定している。 さらに、この仮定は共変コリエーターの非物理的特異性を意味する。 双対空間における大域的メタコンフォーマルなウォードの同一性が、正則性公準と組み合わされ、共変二点関数の有界かつ正則な表現に繋がる($d=1$ と$d=2$空間次元)。

Meta-conformal invariance is a novel class of dynamical symmetries, with dynamical exponent $z=1$, and distinct from the standard ortho-conformal invariance. The meta-conformal Ward identities can be directly read off from the Lie algebra generators, but this procedure implicitly assumes that the co-variant correlators should depend holomorphically on time- and space coordinates. Furthermore, this assumption implies un-physical singularities in the co-variant correlators. A careful reformulation of the global meta-conformal Ward identities in a dualised space, combined with a regularity postulate, leads to bounded and regular expressions for the co-variant two-point functions, both in $d=1$ and $d=2$ spatial dimensions.
翻訳日:2023-05-16 07:08:11 公開日:2020-09-22
# 教師付き量子分類器の絡み合い支援訓練アルゴリズム

Entanglement assisted training algorithm for supervised quantum classifiers ( http://arxiv.org/abs/2006.13302v2 )

ライセンス: Link先を確認
Soumik Adhikary(参考訳) 教師付き量子分類器のための新しいトレーニングアルゴリズムを提案する。 ここでは,量子エンタングルメントの特性を利用して,複数のトレーニングサンプルとラベルを同時に操作できるモデルを構築した。 その後ベル不等式に基づくコスト関数が構築され、古典的な方法では不可能な方法で複数のサンプルからのエラーを同時にエンコードすることができる。 このコスト関数を最小化すれば,ベンチマークデータセットの分類が成功できることを示す。 本稿では,二分分類の問題について述べる。 それでも、分析は多クラス分類の問題にも拡張できる。

We propose a new training algorithm for supervised quantum classifiers. Here, we have harnessed the property of quantum entanglement to build a model that can simultaneously manipulate multiple training samples along with their labels. Subsequently a Bell-inequality based cost function is constructed, that can encode errors from multiple samples, simultaneously, in a way that is not possible by any classical means. We show that upon minimizing this cost function one can achieve successful classification in benchmark datasets. The results presented in this paper are for binary classification problems. Nevertheless, the analysis can be extended to multi-class classification problems as well.
翻訳日:2023-05-13 00:31:28 公開日:2020-09-22
# 量子革命の準備 - 高等教育の役割は何か?

Preparing for the quantum revolution -- what is the role of higher education? ( http://arxiv.org/abs/2006.16444v2 )

ライセンス: Link先を確認
Michael F. J. Fox, Benjamin M. Zwickl, H. J. Lewandowski(参考訳) 量子センシング、量子ネットワーキング、通信、および量子コンピューティングは、これらの量子技術が既存の技術に対して大きな利点をもたらすため、近年大きな注目を集めている。 これらの量子技術の商業化を加速するためには、労働力は必要なスキルを備えなければならない。 量子産業の質的研究を通して、2019年秋に行われた21の米国企業との一連のインタビューにおいて、量子産業で行われている活動の種類について述べ、存在する仕事の種類をプロファイルし、量子産業全体および各職種で価値のあるスキルについて述べる。 量子産業への現在のルートは詳細であり、量子労働者の訓練における高等教育の現在の役割を描いている。 最後に、量子産業が直面するトレーニングと雇用の課題と、高等教育が現在果たす重要な役割をいかに最適化するかを示す。

Quantum sensing, quantum networking and communication, and quantum computing have attracted significant attention recently, as these quantum technologies offer significant advantages over existing technologies. In order to accelerate the commercialization of these quantum technologies the workforce must be equipped with the necessary skills. Through a qualitative study of the quantum industry, in a series of interviews with 21 U.S. companies carried out in Fall 2019, we describe the types of activities being carried out in the quantum industry, profile the types of jobs that exist, and describe the skills valued across the quantum industry, as well as in each type of job. The current routes into the quantum industry are detailed, providing a picture of the current role of higher education in training the quantum workforce. Finally, we present the training and hiring challenges the quantum industry is facing and how higher education may optimize the important role it is currently playing.
翻訳日:2023-05-12 01:31:55 公開日:2020-09-22
# 急激なポテンシャル井戸におけるレビー飛行-ランゲヴィンモデリングとエネルギー景観への直接反応

Levy flights in steep potential wells: Langevin modeling versus direct response to energy landscapes ( http://arxiv.org/abs/2007.03725v2 )

ライセンス: Link先を確認
P. Garbaczewski, M. Zaba(参考訳) L\'{e}vy-driven Langevinランダムシステムのランゲヴィン非相対性について、両系が共通の(漸近的、定常的、定常的)ターゲットpdfを共有することを仮定して検討する。 分数次ランジュバン・フォッカー・プランクシナリオにおける平衡への緩和は、ランダムな運動に保守的な力場を閉じ込めることによる影響から生じる。 非ランジュバンの代替品は、ジャンプ強度の直接反応が、その過程が行われるエネルギー(ポテンシャル)の風景に組み込まれている。 超高調波ポテンシャル井戸におけるL\'{e}vy飛行の問題を再考し、極端に急激な井戸構造に焦点をあて、その(スペクトル)「クロースネス」の問題をL\'{e}vyジャンプ型プロセスが(特に反射)境界が不透明な有限囲いに閉じ込められていることに対処する。 ボックス/インターバル内の関連するランダムシステムは、正運動生成器として適切な境界条件を持つ分数ラプラシアンを持つことが期待される。 問題は、ディリクレ境界問題に対して、境界条件を反映する概念と、(あるいは鋭く)反射する境界の近傍における関連するランダム過程のパスワイズな実装が、L\'{e}vy過程に対して絶対的に解決されないことである。 この曖昧さは分数動発生器に拡張され、ノイマン条件の非局所的類似物は境界での経路的反射のシナリオとは関係がない。

We investigate the non-Langevin relative of the L\'{e}vy-driven Langevin random system, under an assumption that both systems share a common (asymptotic, stationary, steady-state) target pdf. The relaxation to equilibrium in the fractional Langevin-Fokker-Planck scenario results from an impact of confining conservative force fields on the random motion. A non-Langevin alternative has a built-in direct response of jump intensities to energy (potential) landscapes in which the process takes place. We revisit the problem of L\'{e}vy flights in superharmonic potential wells, with a focus on the extremally steep well regime, and address the issue of its (spectral) "closeness" to the L\'{e}vy jump-type process confined in a finite enclosure with impenetrable (in particular reflecting) boundaries. The pertinent random system "in a box/interval" is expected to have a fractional Laplacian with suitable boundary conditions as a legitimate motion generator. The problem is, that in contrast to amply studied Dirichlet boundary problems, a concept of reflecting boundary conditions and the path-wise implementation of the pertinent random process in the vicinity of (or sharply at) reflecting boundaries are not unequivocally settled for L\'{e}vy processes. This ambiguity extends to fractional motion generators, for which nonlocal analogs of Neumann conditions are not associated with path-wise reflection scenarios at the boundary, respecting the impenetrability assumption.
翻訳日:2023-05-11 01:31:00 公開日:2020-09-22
# BEC-BCSクロスオーバーにおけるフェシュバッハによるペアリング物理の捕捉

Capturing the Feshbach-induced Pairing Physics in the BEC-BCS Crossover ( http://arxiv.org/abs/2007.10901v2 )

ライセンス: Link先を確認
Eloisa Cuestas, Jos\'e I. Robledo, and Ana P. Majtey(参考訳) フェルミ温度$T_F$により与えられる特性エネルギーを持つトラップをフェシュバッハ共鳴の2体2チャネルモデルに含めることで、BEC-BCSのクロスオーバーとBCSのBCS系における実験クローズドチャネル分画$Z$を、$^6$Li原子フェルミガスのBCS系に再現する。 我々は、最近測定された比例定数と共にユニタリティにおいて、期待される挙動$z \propto \sqrt{t_f}$を得る。 BCS側の$T_F$に対する$Z$依存性の最近の測定とも一致しており、実験と理論の間に大きな相違が繰り返し報告されている。

By including the effect of a trap with characteristic energy given by the Fermi temperature $T_F$ in a two-body two-channel model for Feshbach resonances, we reproduce the experimental closed-channel fraction $Z$ across the BEC-BCS crossover and into the BCS regime of a $^6$Li atomic Fermi gas. We obtain the expected behavior $Z \propto \sqrt{T_F}$ at unitarity, together with the recently measured proportionality constant. Our results are also in agreement with recent measurements of the $Z$ dependency on $T_F$ on the BCS side, where a significant discrepancy between experiments and theory has been repeatedly reported.
翻訳日:2023-05-08 20:48:00 公開日:2020-09-22
# ストロボスコープ2ストローク量子熱エンジン

Stroboscopic two-stroke quantum heat engines ( http://arxiv.org/abs/2008.07512v2 )

ライセンス: Link先を確認
Otavio A. D. Molitor and Gabriel T. Landi(参考訳) 熱エンジンの量子バージョンを記述するモデルの定式化は、量子状態における熱力学の法則を確立するために重要な役割を果たす。 特に重要なのは、有限時間動作可能なストロークベースエンジンの記述である。 本稿では, ストロボスコープ型2ストロークエンジンを汎用量子チェーンで記述するためのフレームワークを提案する。 このフレームワークはSWAPエンジンの一般化であり、純粋な熱と純粋な作業ストロークを交互に行う衝突モデルに基づいている。 極限サイクルへの過渡進化も完全に説明されている。 さらに, 限界サイクルが到達すると, 鎖の内部部位のエネルギーはもはや変化せず, 熱電流は境界部位にのみ関連していることを示した。 解析的手法と数値的手法を組み合わせることで、このエンジンは効率に影響を与えずに出力電力を最適化する方法を複数提供していることを示す。 最後に、貯水池の運転条件に関係なく、常にオットー効率で動作する特定の種類の鎖間相互作用によって特徴づけられるモデルの全クラスが存在することを示す。

The formulation of models describing quantum versions of heat engines plays an important role in the quest toward establishing the laws of thermodynamics in the quantum regime. Of particular importance is the description of stroke-based engines which can operate at finite-time. In this paper we put forth a framework for describing stroboscopic, two-stroke engines, in generic quantum chains. The framework is a generalization of the so-called SWAP engine and is based on a collisional model, which alternates between pure heat and pure work strokes. The transient evolution towards a limit-cycle is also fully accounted for. Moreover, we show that once the limit-cycle has been reached, the energy of the internal sites of the chain no longer changes, with the heat currents being associated exclusively to the boundary sites. Using a combination of analytical and numerical methods, we show that this type of engine offers multiple ways of optimizing the output power, without affecting the efficiency. Finally, we also show that there exists an entire class of models, characterized by a specific type of inter-chain interaction, which always operate at Otto efficiency, irrespective of the operating conditions of the reservoirs.
翻訳日:2023-05-06 01:00:56 公開日:2020-09-22
# 分散量子メモリを用いた大規模量子リピータネットワークシミュレーションのためのダイアグラム手法

Diagrammatic technique for simulation of large-scale quantum repeater networks with dissipating quantum memories ( http://arxiv.org/abs/2009.10415v1 )

ライセンス: Link先を確認
Viacheslav V. Kuzmin, Denis V. Vasilyev(参考訳) V. V. Kuzmin et.al., npj Quantum Information 5, 115 (2019)] で最近考案された大規模量子リピータネットワークの半解析的記述のための図解法について詳述する。 この技術は、ネットワーク量子メモリの消散的リウヴィルダイナミクスや古典的な通信遅延など、すべての重要な実験的欠陥を考慮に入れている。 半解析法により得られた結果はモンテカルロシミュレーションと一致し、必要な計算資源はネットワークサイズと線形にしかスケールしない。 提案手法は将来の量子ネットワークの開発と効率的な最適化の新たな可能性を開く。

We present a detailed description of the diagrammatic technique, recently devised in [V. V. Kuzmin et.al., npj Quantum Information 5, 115 (2019)], for semi-analytical description of large-scale quantum-repeater networks. The technique takes into account all essential experimental imperfections, including dissipative Liouville dynamics of the network quantum memories and the classical communication delays. The results obtained with the semi-analytic method match the exact Monte Carlo simulations while the required computational resources scale only linearly with the network size. The presented approach opens new possibilities for the development and efficient optimization of future quantum networks.
翻訳日:2023-05-01 07:17:48 公開日:2020-09-22
# Shor-Movassagh 連鎖は特異な可積分モデルをもたらす

Shor-Movassagh chain leads to unusual integrable model ( http://arxiv.org/abs/2009.10368v1 )

ライセンス: Link先を確認
Bin Tong, Olof Salberger, Kun Hao, Vladimir Korepin(参考訳) Shor-Movassagh鎖の基底状態はMotzkin経路によって解析的に説明できる。 励起状態の分析的な記述はなく、モデルは解けない。 本稿では,相互作用を伴わずにモデルの可積分性を証明する [free shor-movassagh]。 自由Shor-Movassagh開鎖のラックス対は明示的に構成されている。 さらに、開区間におけるモデルの可積分性に適合する$K$-行列の境界を得る。 我々の構成は、ヤン・バクスター代数によって記述されたモデルの量子可積分性を直接実証する。 交差ユニタリ性の欠如のため、可積分開鎖は反射方程式(境界yang-baxter方程式)では構成できない。

The ground state of Shor-Movassagh chain can be analytically described by the Motzkin paths. There is no analytical description of the excited states, the model is not solvable. We prove the integrability of the model without interacting part in this paper [free Shor-Movassagh]. The Lax pair for the free Shor-Movassagh open chain is explicitly constructed. We further obtain the boundary $K$-matrices compatible with the integrability of the model on the open interval. Our construction provides a direct demonstration for the quantum integrability of the model, described by Yang-Baxter algebra. Due to the lack of crossing unitarity, the integrable open chain can not be constructed by the reflection equation (boundary Yang-Baxter equation).
翻訳日:2023-05-01 07:16:47 公開日:2020-09-22
# テンソルネットワークコード

Tensor-network codes ( http://arxiv.org/abs/2009.10329v1 )

ライセンス: Link先を確認
Terry Farrelly, Robert J. Harris, Nathan A. McMahon, Thomas M. Stace(参考訳) ホログラフィック符号とテンソルネットワークデコーダに着想を得て,自然なテンソルネットワークデコーダを備えたテンソルネットワーク安定化符号を導入する。 これらの符号は任意の幾何に対応できるが、特別な場合として、完全あるいはブロック完全等距離で構築された符号以外のホログラフィック符号を一般化し、どちらも対応しない例を示す。 テンソルネットワークデコーダを用いることで、非分極雑音下でこの符号のしきい値が18.8%になる。 また, ホログラフィック符号では, 局所相関雑音においても, 正確なテンソルネットワークデコーダは, 物理的量子ビット数を多項式とする複雑性で効率的であることが示されている。

Inspired by holographic codes and tensor-network decoders, we introduce tensor-network stabilizer codes which come with a natural tensor-network decoder. These codes can correspond to any geometry, but, as a special case, we generalize holographic codes beyond those constructed from perfect or block-perfect isometries, and we give an example that corresponds to neither. Using the tensor-network decoder, we find a threshold of 18.8% for this code under depolarizing noise. We also show that for holographic codes the exact tensor-network decoder (with no bond-dimension truncation) is efficient with a complexity that is polynomial in the number of physical qubits, even for locally correlated noise.
翻訳日:2023-05-01 07:16:38 公開日:2020-09-22
# コヒーレントイジング機における騒音相関と成功確率

Noise correlation and success probability in coherent Ising machines ( http://arxiv.org/abs/2009.10328v1 )

ライセンス: Link先を確認
Yoshitaka Inui and Yoshihisa Yamamoto(参考訳) 本研究では,コヒーレントイジングマシン(cims)のノイズ相関と成功確率を,光遅延線,測定フィードバック,平均場結合と比較した。 理論上,これらのcimにおける雑音相関の3つの指標(量子エンタングルメント,量子ディスコード,正準座標の正規化相関)を理論的に検討した。 この成功確率は、ウィグナー分布関数に基づく断続確率微分方程式の数値シミュレーションにより得られた。 その結果、成功確率は、絡み合いや量子不協和よりも正規化相関関数と直接関係していることが示された。

We compared the noise correlation and the success probability of coherent Ising machines (CIMs) with optical delay-line, measurement feedback, and mean-field couplings. We theoretically studied three metrics for the noise correlations in these CIMs: quantum entanglement, quantum discord, and normalized correlation of canonical coordinates. The success probability was obtained through numerical simulations of truncated stochastic differential equations based on the Wigner distribution function. The results indicate that the success probability is more directly related to the normalized correlation function rather than entanglement or quantum discord.
翻訳日:2023-05-01 07:16:21 公開日:2020-09-22
# プライバシー向上技術の利用パターン

Usage Patterns of Privacy-Enhancing Technologies ( http://arxiv.org/abs/2009.10278v1 )

ライセンス: Link先を確認
Kovila P.L. Coopamootoo(参考訳) ネット上のプライバシー侵害に関する着実に報道は、インターネットがより危険な場所に成長する様子を描いている。 これは、オンライン技術とデータ集約Webの大量展開によって促進されるオンライン被害の潜在的な規模についての報告によって支援されている。 インターネットユーザーはしばしばプライバシーに関する懸念を表明するが、一部の報告はプライバシーをオンラインで保護するために行動を取る。 個人がオンラインでプライバシーを守るために使用する方法と技術について検討する。 我々はN=180とN=907の2つの研究を行い、米国、英国、ドイツで個人のプライバシ手法をオンラインで活用する。 我々は,非技術手法が3つの国で最も使われている手法の1つであることを発見した。 クラスタマップにおいて,プライバシメソッドの使用方法の異なるグループを識別する。 このマップは、プライバシ保護の非テクノロジメソッドと合わせて、サービスに統合された単純なPETが最も使用されるクラスタを形成し、より高度なPETが異なる、最も使用されていないクラスタを形成することを示している。 さらに,N=183人の被験者を対象に,1組のPETを用いたユーザ認識と推論について検討した。 高度なペットユーザーと単純なペットユーザーの間のプライバシーをオンラインで保護する能力の違いは見当たらない。 先進的なPETと簡易なPETの認識と、先進的なPETを使用しないユーザ推論の報告と、潜在的使用に必要なサポートを比較した。 本論文は,3つの国にまたがる216ドルのPETを含む,43ドルのプライバシメソッドに対する使用感と使用感を抽出し,PETの使用状況のマップを提供する。 クラスタマップは、PET全体にわたる将来のユーザ中心の調査に対して、体系的で信頼性の高い参照ポイントを提供する。 全体として、本研究はPETの集合体における使用と知覚の幅広い理解を提供し、PETのスケーリング利用に関する将来の研究につながる可能性がある。

The steady reports of privacy invasions online paints a picture of the Internet growing into a more dangerous place. This is supported by reports of the potential scale for online harms facilitated by the mass deployment of online technology and the data-intensive web. While Internet users often express concern about privacy, some report taking actions to protect their privacy online. We investigate the methods and technologies that individuals employ to protect their privacy online. We conduct two studies, of N=180 and N=907, to elicit individuals' use of privacy methods online, within the US, the UK and Germany. We find that non-technology methods are among the most used methods in the three countries. We identify distinct groupings of privacy methods usage in a cluster map. The map shows that together with non-technology methods of privacy protection, simple PETs that are integrated in services, form the most used cluster, whereas more advanced PETs form a different, least used cluster. We further investigate user perception and reasoning for mostly using one set of PETs in a third study with N=183 participants. We do not find a difference in perceived competency in protecting privacy online between advanced and simpler PETs users. We compare use perceptions between advanced and simpler PETs and report on user reasoning for not using advanced PETs, as well as support needed for potential use. This paper contributes to privacy research by eliciting use and perception of use across $43$ privacy methods, including $26$ PETs across three countries and provides a map of PETs usage. The cluster map provides a systematic and reliable point of reference for future user-centric investigations across PETs. Overall, this research provides a broad understanding of use and perceptions across a collection of PETs, and can lead to future research for scaling use of PETs.
翻訳日:2023-05-01 07:15:40 公開日:2020-09-22
# 位相変調駆動場を用いた量子最適制御

Quantum optimal control using phase-modulated driving fields ( http://arxiv.org/abs/2009.10275v1 )

ライセンス: Link先を確認
Jiazhao Tian, Haibin Liu, Yu Liu, Pengcheng Yang, Ralf Betzholz, Ressa S. Said, Fedor Jelezko, Jianming Cai(参考訳) 量子最適制御は、ハミルトニアンの制御可能なパラメータを工学することによって量子実験の性能を高める強力な技術である。 しかし、これらの制御パラメータの必要な最適化の計算オーバーヘッドは、その数が増加するにつれて劇的に増加する。 位相変調駆動場の概念を導入することで, 最適制御場を効率的に見つけることができる, 勾配自由最適制御法の新たな変種を考案する。 我々は,その性能を数値的に評価し,不均質な広化を示す2レベルシステムのアンサンブル制御において,標準フーリエベース法よりも優れていることを示す。 位相変調法で最適化された制御フィールドは、このようなアンサンブル不均一性や制御フィールドの変動や環境騒音に対して、平均探索時間の1桁未満で強靭性を高める。 単一量子ゲートのロバスト性向上も位相変調法によって達成される。 環境騒音下では、最適化ゲートで構成されるXY-8配列は、我々の数値シミュレーションにおいて標準長方形パルスと比較してコヒーレンス時間を50\%延長し、量子センシングの分野での信号検出の精度を向上させるための位相変調法の適用可能性を示した。

Quantum optimal control represents a powerful technique to enhance the performance of quantum experiments by engineering the controllable parameters of the Hamiltonian. However, the computational overhead for the necessary optimization of these control parameters drastically increases as their number grows. We devise a novel variant of a gradient-free optimal-control method by introducing the idea of phase-modulated driving fields, which allows us to find optimal control fields efficiently. We numerically evaluate its performance and demonstrate the advantages over standard Fourier-basis methods in controlling an ensemble of two-level systems showing an inhomogeneous broadening. The control fields optimized with the phase-modulated method provide an increased robustness against such ensemble inhomogeneities as well as control-field fluctuations and environmental noise, with one order of magnitude less of average search time. Robustness enhancement of single quantum gates is also achieved by the phase-modulated method. Under environmental noise, an XY-8 sequence constituted by optimized gates prolongs the coherence time by $50\%$ compared with standard rectangular pulses in our numerical simulations, showing the application potential of our phase-modulated method in improving the precision of signal detection in the field of quantum sensing.
翻訳日:2023-05-01 07:15:11 公開日:2020-09-22
# サッカーと外部性: ニューカッスル・ユナイテッドの変動の予測に数学的モデリングを用いる

Football and externalities: Using mathematical modelling to predict the changing fortunes of Newcastle United ( http://arxiv.org/abs/2009.10548v1 )

ライセンス: Link先を確認
Vishist Srivastava, Prashant Yadav, Ajuni Singh(参考訳) パブリック・インベストメント・ファンド(Public Investment Fund、PIF)は、サウジアラビアの政府系ファンド。 世界最大の政府系ファンドの一つであり、純資本は382億ドルと推定されている。 サウジアラビア政府のために資金を投資するために設立された。 サウジアラビアは、PIFをただの地方機関から世界最大の政府系ファンドに移管することを目指している。 PIFは2020年までに400億ドル相当の資産を管理しようとしている。 サウジアラビアがサッカークラブ「ニューカッスル・ユナイテッドFC」(Newcastle United FC)の買収を決定したのは、このパブリック・インベストメント・ファンドによる。 本稿では,ニューカッスル・ユナイテッドFCのリーグポジションにおける投資水準とその後の改善を,他のプレミアリーグクラブであるマンチェスターシティをベースとして予測することを目的とする。 論理的回帰のDDアプローチをPythonで採用する。 キーワード:回帰、投資、フットボール、予測

The Public Investment Fund (PIF), is Saudi Arabia's sovereign wealth fund. It is one of the world's largest sovereign wealth funds, with an estimated net capital of $382 billion. It was established to invest funds on behalf of the Government of Saudi Arabia. Saudi Arabia is aiming to transfer the PIF from a mere local authority to the world's largest sovereign fund. Thus, PIF is working to manage $400 billion worth of assets by 2020. It was with this Public Investment Fund that Saudi Arabia decided to buy out the football club- Newcastle United FC- a mid-table club of the premier league. In this paper, we aim to forecast the investment levels and the subsequent improve in the league position of Newcastle United FC using the model of another premier league club- Manchester City as the base. We employ the DiD approach of logistical regression through Python. Keywords: Regression, Investment, Football, Forecasting
翻訳日:2023-05-01 07:07:19 公開日:2020-09-22
# ダイヤモンド中の窒素空洞中心における動的$^{14}\rm n$核スピン偏極

Dynamic $^{14}\rm N$ nuclear spin polarization in nitrogen-vacancy centers in diamond ( http://arxiv.org/abs/2009.10516v1 )

ライセンス: Link先を確認
Laima Busaite, Reinis Lazda, Andris Berzins, Marcis Auzinsh, Ruvin Ferber, Florian Gahbauer(参考訳) ダイヤモンド中の負荷電窒素空孔(nv)中心における窒素の動的スピン分極を、励起状態レベルの反交差領域と基底状態レベルの反交差磁場領域の両方をカバーする0~1100gの広い磁場で実験的および理論的に検討した。 調査対象の少ない地中レベル対岸地域に対して特に注意が払われた。 核スピン偏極は、光学的に検出された磁気共鳴信号の測定から推定された。 These measurements show that a very large (up to $96 \pm 2\%$) nuclear spin polarization of nitrogen can be achieved over a very broad range of magnetic field starting from around 400 G up to magnetic field values substantially exceeding the ground-state level anti-crossing at 1024 G. We measured the influence of angular deviations of the magnetic field from the NV axis on the nuclear spin polarization efficiency and found that, in the vicinity of the ground-state level anti-crossing, the nuclear spin polarization is more sensitive to this angle than in the vicinity of the excited-state level anti-crossing. 実際、円弧の10分の1程度の大きさの角度は、窒素核のスピン分極をほぼ完全に破壊することができる。 さらに, ひずみおよび光励起パワーが核スピン偏極に及ぼす影響を理論的に検討した。

We studied the dynamic nuclear spin polarization of nitrogen in negatively charged nitrogen-vacancy (NV) centers in diamond both experimentally and theoretically over a wide range of magnetic fields from 0 to 1100 G covering both the excited-state level anti-crossing and the ground-state level anti-crossing magnetic field regions. Special attention was paid to the less studied ground-state level anti-crossing region. The nuclear spin polarization was inferred from measurements of the optically detected magnetic resonance signal. These measurements show that a very large (up to $96 \pm 2\%$) nuclear spin polarization of nitrogen can be achieved over a very broad range of magnetic field starting from around 400 G up to magnetic field values substantially exceeding the ground-state level anti-crossing at 1024 G. We measured the influence of angular deviations of the magnetic field from the NV axis on the nuclear spin polarization efficiency and found that, in the vicinity of the ground-state level anti-crossing, the nuclear spin polarization is more sensitive to this angle than in the vicinity of the excited-state level anti-crossing. Indeed, an angle as small as a tenth of a degree of arc can destroy almost completely the spin polarization of a nitrogen nucleus. In addition, we investigated theoretically the influence of strain and optical excitation power on the nuclear spin polarization.
翻訳日:2023-05-01 07:07:04 公開日:2020-09-22
# 散乱理論における伝達行列:基礎的性質と最近の展開

Transfer matrix in scattering theory: A survey of basic properties and recent developments ( http://arxiv.org/abs/2009.10507v1 )

ライセンス: Link先を確認
Ali Mostafazadeh(参考訳) 我々は, 伝達行列の基本特性と最近の応用に注目した一次元の時間非依存散乱理論を教育的に紹介する。 特に、移動行列とその解析性、多デルタ関数および局所周期ポテンシャル、Jost解、スペクトル特異点とその時間反転、一方向反射性および可視性などのポテンシャル散乱の基本的な概念を調査し始める。 次に、リップマン・シュウィンガー方程式とボルン級数を簡単に導出し、ボルン近似について議論する。 次に、1次元における時間非依存散乱理論の動的定式化について概説する。 この定式化は、伝達行列と、したがって与えられたポテンシャルに対する散乱問題の解を、効果的な非単位量子系に対する時間依存的なシュリンガー方程式の解に関連付ける。 この定式化の自己完結処理とその最も重要な応用について述べる。 具体的には、ボルン級数とボルン近似の強力な代替法を考案し、反射および透過振幅の力学方程式を導出し、その応用を正確に調整可能な一方向可視ポテンシャルの構築に適用し、それを用いて単モード逆散乱問題に対する正確な解を提供する。 後者は様々な機能を持つ光学デバイスの設計において重要な用途を持つが、反射と透過の振幅が任意の波数で任意の所定の値を取る有限範囲複素ポテンシャルの明示的な構成を提供する。

We give a pedagogical introduction to time-independent scattering theory in one dimension focusing on the basic properties and recent applications of transfer matrices. In particular, we begin surveying some basic notions of potential scattering such as transfer matrix and its analyticity, multi-delta-function and locally periodic potentials, Jost solutions, spectral singularities and their time-reversal, and unidirectional reflectionlessness and invisibility. We then offer a simple derivation of the Lippmann-Schwinger equation and Born series, and discuss the Born approximation. Next, we outline a recently developed dynamical formulation of time-independent scattering theory in one dimension. This formulation relates the transfer matrix and therefore the solution of the scattering problem for a given potential to the solution of the time-dependent Schr\"odinger equation for an effective non-unitary two-level quantum system. We provide a self-contained treatment of this formulation and some of its most important applications. Specifically, we use it to devise a powerful alternative to the Born series and Born approximation, derive dynamical equations for the reflection and transmission amplitudes, discuss their application in constructing exact tunable unidirectionally invisible potentials, and use them to provide an exact solution for single-mode inverse scattering problems. The latter, which has important applications in designing optical devices with a variety of functionalities, amounts to providing an explicit construction for a finite-range complex potential whose reflection and transmission amplitudes take arbitrary prescribed values at any given wavenumber.
翻訳日:2023-05-01 07:06:31 公開日:2020-09-22
# 補間衝突モデル形式主義

Interpolated Collision Model Formalism ( http://arxiv.org/abs/2009.10472v1 )

ライセンス: Link先を確認
Daniel Grimmer(参考訳) オープン量子システムのダイナミクス(つまり、制御されていない環境と相互作用する量子システム)は、量子熱力学から量子コンピューティングまで、数多くの研究領域の基礎を形成する。 オープン量子システムのモデリングの1つのアプローチはコリジョンモデルである。 例えば、環境を多数の小さな量子システム(アンシラ)で構成され、一連の「衝突」の中でターゲットシステムと順次に相互作用するものとしてモデル化することができる。 本稿では、このような衝突モデルによって与えられる離散時間力学から連続時間マスター方程式を構築する新しい方法について論じる。 この新しいアプローチは任意の相互作用継続時間、$\delta t$ に対して、時間点 $t = n\,\delta t$ 間のダイナミクスを補間することで機能する。 私はこれを連続極限でのみ動作する以前の方法($\delta t\to 0$として)と対比する。 さらに、任意の連続極限に基づくアプローチが、何らかの方法で微調整されない限り、常にユニタリダイナミクスをもたらすことを示す。 例えば、(非物理的に議論する)相互作用強度のばらつきを$g$とすることで、連続極限において非単項ダイナミクスを見つけることが一般的であり、$g^2 \delta t$ が $\delta t \to 0$ として定数である。

The dynamics of open quantum systems (i.e., of quantum systems interacting with an uncontrolled environment) forms the basis of numerous active areas of research from quantum thermodynamics to quantum computing. One approach to modeling open quantum systems is via a Collision Model. For instance, one could model the environment as being composed of many small quantum systems (ancillas) which interact with the target system sequentially, in a series of "collisions". In this thesis I will discuss a novel method for constructing a continuous-time master equation from the discrete-time dynamics given by any such collision model. This new approach works for any interaction duration, $\delta t$, by interpolating the dynamics between the time-points $t = n\,\delta t$. I will contrast this with previous methods which only work in the continuum limit (as $\delta t\to 0$). Moreover, I will show that any continuum-limit-based approach will always yield unitary dynamics unless it is fine-tuned in some way. For instance, it is common to find non-unitary dynamics in the continuum limit by taking an (I will argue unphysical) divergence in the interaction strengths, $g$, such that $g^2 \delta t$ is constant as $\delta t \to 0$.
翻訳日:2023-05-01 07:05:49 公開日:2020-09-22
# 新型コロナウイルス危機時の米国各都市におけるオンライン地域感情:普遍性、政策対応、地域移動との関連

Online geolocalized emotion across US cities during the COVID crisis: Universality, policy response, and connection with local mobility ( http://arxiv.org/abs/2009.10461v1 )

ライセンス: Link先を確認
Shihui Feng and Alec Kirkley(参考訳) 新型コロナウイルス(COVID-19)のパンデミックが米国全土を席巻し始めると、オンラインとオフラインの双方で幅広い反応を引き起こした。 この混乱の最中における効果的な空間的ターゲティングの発達を支援するためには、これらのオンライン感情応答の局所化と、オフライン行動応答との関連を理解することが重要である。 ここでは、新型コロナウイルスのパンデミックの最初の数ヶ月で、全米49都市で約1300万のジオタグ付きツイートを分析し、いくつかの主要なトピックに対するオンライン感情への地域依存を評価するとともに、これらの感情が政策開発や人的移動とどのように関連しているかを分析します。 驚くべきことに、私たちは時間とともに研究された都市全体の全体とトピックに基づく感情の普遍的な傾向を観察します。 また、これらの局所的な感情は都市レベルのモビリティと強く相関しており、その一方で、感情と局所的なケースと死亡との相関は比較的弱い。 調査の結果は,早期の地域包摂政策で見られる高い多様性とは対照的に,時間的およびオフライン指標の双方において,米国全土の公衆の感情反応に共通点があることを示唆した。 また、危機管理におけるソーシャルメディアデータの利用に関する新たな知見として、オフラインデータを統合して、公衆の感情反応、政策開発、地域移動の深い理解を得る。

As the COVID-19 pandemic began to sweep across the US it elicited a wide spectrum of responses, both online and offline, across the population. To aid the development of effective spatially targeted interventions in the midst of this turmoil, it is important to understand the geolocalization of these online emotional responses, as well as their association with offline behavioral responses. Here, we analyze around 13 million geotagged tweets in 49 cities across the US from the first few months of the pandemic to assess regional dependence in online sentiments with respect to a few major topics, and how these sentiments correlate with policy development and human mobility. Surprisingly, we observe universal trends in overall and topic-based sentiments across cities over the time period studied, with variability primarily seen only in the immediate impact of federal guidelines and local lockdown policies. We also find that these local sentiments are highly correlated with and predictive of city-level mobility, while the correlations between sentiments and local cases and deaths are relatively weak. Our findings point to widespread commonalities in the online public emotional responses to COVID across the US, both temporally and relative to offline indicators, in contrast with the high variability seen in early local containment policies. This study also provides new insights into the use of social media data in crisis management by integrating offline data to gain an in-depth understanding of public emotional responses, policy development, and local mobility.
翻訳日:2023-05-01 07:05:27 公開日:2020-09-22
# 孤立量子多体系の熱化と絡み合い

Thermalization of isolated quantum many-body system and entanglement ( http://arxiv.org/abs/2009.10416v1 )

ライセンス: Link先を確認
Prasenjit Deb, Pratik Ghosal, Pratapaditya Bej, Abhishek Banerjee(参考訳) 孤立量子系の熱化は、量子力学の初期から非自明な問題であった。 一般的な孤立系では、非平衡力学は熱化をもたらし、量子力学からの統計力学の出現を示す。 しかし、多体量子系の特徴が量子の熱化を促進するかはまだよく分かっていない。 ここでは,この問題を再検討し,システム内における絡み合いの導入が熱化を引き起こし,個々の固有状態のレベルで発生することを示す。 また,各サブシステムのエネルギー固有状態の期待値は正準平均に近いことを示した。

Thermalization of an isolated quantum system has been a non-trivial problem since the early days of quantum mechanics. In generic isolated systems, non-equilibrium dynamics is expected to result in thermalization, indicating the emergence of statistical mechanics from quantum dynamics. However, what feature of many-body quantum system facilitates quantum thermalization is still not well understood. Here we revisit this problem and show that introduction of entanglement in the system gives rise to thermalization, and it takes place at the level of individual eigenstate. We also show that the expectation value in the energy eigenstate of each subsystem is close to the canonical average.
翻訳日:2023-05-01 07:04:36 公開日:2020-09-22
# 球面密度汎関数理論

Spherical Density Functional Theory ( http://arxiv.org/abs/2009.10624v1 )

ライセンス: Link先を確認
\'Agnes Nagy, Kalevi Kokko, Jesse Huhtala, Torbj\"orn Bj\"orkman and Levente Vitos(参考訳) 最近、Theophilou (J。 Chem.Phys {\bf 149} 074104 (2018) は、球対称密度の集合が分子や固体の外部ポテンシャルを一意に決定することを示した。 ここで、球対称コーンシャム様方程式が導出される。 球面密度は放射波関数で表すことができる。 総エネルギーの表現も提示される。

Recently, Theophilou (J. Chem.Phys {\bf 149} 074104 (2018)) showed that a set of spherically symmetric densities determines uniquely the external potential in molecules and solids. Here, spherically symmetric Kohn-Sham-like equations are derived. The spherical densities can be expressed with radial wave functions. Expression for the total energy is also presented.
翻訳日:2023-05-01 06:57:12 公開日:2020-09-22
# 開量子系における隠れ非マルコフ性

Hidden non-Markovianity in open quantum systems ( http://arxiv.org/abs/2009.10605v1 )

ライセンス: Link先を確認
Daniel Burgarth, Paolo Facchi, Marilena Ligab\`o, Davide Lonigro(参考訳) 非マルコフ的開量子系は任意の時間まで正確なマルコフ力学を示すことができ、したがってそのような系の非マルコフ性は完全に「隠れている」。 これは、非マルコビアン性は物理的に決定不能であり、前駆体なしでその特徴がいつでも変化できるため、極めて直観的ではないことを示している。 興味深い例をいくつか紹介する。

We show that non-Markovian open quantum systems can exhibit exact Markovian dynamics up to an arbitrarily long time; the non-Markovianity of such systems is thus perfectly "hidden", i.e. not experimentally detectable by looking at the reduced dynamics alone. This shows that non-Markovianity is physically undecidable and extremely counterintuitive, since its features can change at any time, without precursors. Some interesting examples are discussed.
翻訳日:2023-05-01 06:57:04 公開日:2020-09-22
# 電場と相互作用する電気四重極モーメントを持つ粒子のいくつかの量子的側面は、閉じ込められるポテンシャルを持つ」とコメントした。 イント j・モッド Phys A 29 (2014) 1450117

Comment on: "Some quantum aspects of a particle with electric quadrupole moment interacting with an electric field subject to confining potentials". Int. J. Mod. Phys. A 29 (2014) 1450117 ( http://arxiv.org/abs/2009.10561v1 )

ライセンス: Link先を確認
Francisco M. Fern\'andez(参考訳) 移動粒子の電気四極子モーメントと電場との相互作用から得られた結果を分析する。 この系は、$z$軸に沿った運動が非有界であるため、有界状態をサポートしないと主張する。 著者は、x-y$平面における運動の誤った境界状態スペクトルを求め、許容サイクロトロン周波数の存在はアプローチの成果であることを示した。

We analyze the results obtained from a model consisting of the interaction etween the electric quadrupole moment of a moving particle and an electric field. We argue that the system does not support bound states because the motion along the $z$ axis is unbounded. It is shown that the author obtains a wrong bound-state spectrum for the motion in the $x-y$ plane and that the existence of allowed cyclotron frequencies is an artifact of the approach.
翻訳日:2023-05-01 06:56:39 公開日:2020-09-22
# モロッコの医療機関における企業資源計画の見直し

Review the Enterprise Resource Planning in Moroccan Healthcare Organizations ( http://arxiv.org/abs/2010.06989v1 )

ライセンス: Link先を確認
Fatima Zahra Yamani, Mohamed El Merouani(参考訳) モロッコの病院情報システム(HIS)は、患者のケアの過程において中心的な位置を占めている。 組織内のHISの現状を分析して、統合的で汎用的なビジョンをもたらし、ビジネス層とIT層の司法的記述を可能にします。 現在、ERP(Enterprise Resource Planning)が実装されているのは、特定の分野に特化したいくつかのアプリケーションで構成されるシステムである。 これらのシステムはどの病院でも必須の要素となっている。 本研究の目的は、モロッコの医療セクターでERPがどのように使われているか、これらのソフトウェアをどのように実装して医療サービスを改善するべきかを明らかにすることである。

The Hospital Information Systems (HIS) in Morocco take a central place in the process of patient care. An approach is made to analyze the current situation of the HIS within the institutions in order to bring an integral and generic vision, allowing the judicious articulation of the business and IT layers. Currently, the Enterprise Resource Planning (ERP) implemented remains a system consisting of several applications dedicated to specific areas. These systems have become an indispensable element within any hospital. The goal of our study is to discover how the ERP has been used in Moroccan healthcare sector and how these software should be implemented and used to improve healthcare services.
翻訳日:2023-05-01 06:48:51 公開日:2020-09-22
# 冬期道路表面状況モニタリングのための道路カメラ画像と気象データの統合

Integration of Roadside Camera Images and Weather Data for Monitoring Winter Road Surface Conditions ( http://arxiv.org/abs/2009.12165v1 )

ライセンス: Link先を確認
Juan Carrillo, Mark Crowley(参考訳) 冬期には,ドライバーの安全と道路整備作業のために,道路表面状況のリアルタイムモニタリングが重要である。 過去の研究では,rwis (road weather information system) に設置された路面カメラからの画像を処理し,道路積雪状況検出のための画像分類手法の可能性を評価した。 しかし、カナダのオンタリオ州に限られたRWIS局があるため、ネットワークの空間範囲は減少している。 本研究では、RWIS局から収集した画像と気象データと他のMTO(オンタリオ州交通省)の道路カメラと環境カナダ局の気象データを統合することで、このタスクの性能を向上させることを提案する。 オンタリオ州南部における3つのデータセットの統合の利点を空間統計を用いて定量化し、利用可能な道端カメラの数を6倍に増やした証拠を示し、オンタリオ州で最も人口の多いエコリージョンの空間範囲を改善した。 さらに,気象計測機器を使わずに気象変動を推定するための空間補間手法を3つ評価し,精度と実装の容易さの最良のトレードオフを提供するものを特定する。

During the winter season, real-time monitoring of road surface conditions is critical for the safety of drivers and road maintenance operations. Previous research has evaluated the potential of image classification methods for detecting road snow coverage by processing images from roadside cameras installed in RWIS (Road Weather Information System) stations. However, there are a limited number of RWIS stations across Ontario, Canada; therefore, the network has reduced spatial coverage. In this study, we suggest improving performance on this task through the integration of images and weather data collected from the RWIS stations with images from other MTO (Ministry of Transportation of Ontario) roadside cameras and weather data from Environment Canada stations. We use spatial statistics to quantify the benefits of integrating the three datasets across Southern Ontario, showing evidence of a six-fold increase in the number of available roadside cameras and therefore improving the spatial coverage in the most populous ecoregions in Ontario. Additionally, we evaluate three spatial interpolation methods for inferring weather variables in locations without weather measurement instruments and identify the one that offers the best tradeoff between accuracy and ease of implementation.
翻訳日:2023-05-01 06:48:41 公開日:2020-09-22
# 教師にK-12教室の統合型AIカリキュラムを共同設計させる

Engaging Teachers to Co-Design Integrated AI Curriculum for K-12 Classrooms ( http://arxiv.org/abs/2009.11100v1 )

ライセンス: Link先を確認
Jessica Van Brummelen and Phoebe Lin(参考訳) 人工知能(AI)教育は、K-12教師にとってますます人気のある話題となっている。 しかし、ai教育がすべての学習者にとってよりアクセスしやすいようにデザインできるという研究はほとんどない。 我々は15人のK-12教師と共同設計ワークショップを開催し、AI教育をコアカリキュラムに統合して学習者の興味を活用できる機会を特定した。 共同設計ワークショップで、教師と研究者は、aiの概念がさまざまなコアテーマに埋め込まれたレッスンプランを共同作成した。 k-12の教師は、倫理とデータ議論を促進するためにカリキュラムに足場を追加し、学習者のエンゲージメント、コラボレーション、リフレクションをサポートする必要があることがわかりました。 我々は、研究者と教師が協力してAI教育をよりアクセスしやすいものにする機会を特定し、非コンピュータ科目でAIを教えるための入門点を示す模範的なレッスンプランを示す。 また,k-12教師との遠隔操作による共同設計も検討した。

Artificial Intelligence (AI) education is an increasingly popular topic area for K-12 teachers. However, little research has investigated how AI education can be designed to be more accessible to all learners. We organized co-design workshops with 15 K-12 teachers to identify opportunities to integrate AI education into core curriculum to leverage learners' interests. During the co-design workshops, teachers and researchers co-created lesson plans where AI concepts were embedded into various core subjects. We found that K-12 teachers need additional scaffolding in the curriculum to facilitate ethics and data discussions, and value supports for learner engagement, collaboration, and reflection. We identify opportunities for researchers and teachers to collaborate to make AI education more accessible, and present an exemplar lesson plan that shows entry points for teaching AI in non-computing subjects. We also reflect on co-designing with K-12 teachers in a remote setting.
翻訳日:2023-05-01 06:48:20 公開日:2020-09-22
# 重力と量子論における非局所性の影響

Effects of Non-locality in Gravity and Quantum Theory ( http://arxiv.org/abs/2009.10856v1 )

ライセンス: Link先を確認
Jens Boos(参考訳) 時空--空間と時間の統合--は、我々の魅力的な宇宙における物理的過程における俳優と舞台の両方である。 ローレンツ不変局所理論において、最大信号速度(光の速度)の存在は時空における因果性の概念を決定づけ、過去と未来とを区別し、その影響の原因となる。 この論文は局所性から \emph{deviations} の研究に捧げられている。 ローレンツ不変量とゴーストの無い特定のクラスに焦点をあてて、重力理論と量子論の両方におけるそのような非局所物理学の効果を理解することを目的とする。 非局所ゴーストフリー理論には、非局所性のスケールをパラメトリズする次元長のパラメータ $\ell$ が伴い、そのため、この記号の観点から非局所性のすべての効果を表現しようと試みる。 制限の場合、$\ell=0$ 1 は局所理論を回復し、非局所性の効果は消滅する。 これらの問題に対処するために、非局所グリーン関数の概念を発展させる[...]。 この論文で示された結果は、重力物理学と量子物理学の両方の領域におけるローレンツ不変、ゴーストフリーな非局所性のいくつかの効果を定めている。 (全文書要約)

Spacetime---the union of space and time---is both the actor and the stage during physical processes in our fascinating Universe. In Lorentz invariant local theories, the existence of a maximum signalling speed (the "speed of light") determines a notion of causality in spacetime, distinguishing the past from the future, and the cause from the effect. This thesis is dedicated to the study of \emph{deviations} from locality. Focussing on a particular class of \emph{non-local} theories that is both Lorentz invariant and free of ghosts, we aim to understand the effects of such non-local physics in both gravity and quantum theory. Non-local ghost-free theories are accompanied by a parameter $\ell$ of dimension length that parametrizes the scale of non-locality, and for that reason we strive to express all effects of non-locality in terms of this symbol. In the limiting case of $\ell=0$ one recovers the local theory, and the effects of non-locality vanish. In order to address these questions we develop the notion of non-local Green functions [...]. The results presented in this thesis establish several effects of a Lorentz invariant, ghost-free non-locality in the areas of both gravitational and quantum physics. (Full abstract in document.)
翻訳日:2023-05-01 06:48:05 公開日:2020-09-22
# 束縛量子結晶としての時空

Spacetime as a Tightly Bound Quantum Crystal ( http://arxiv.org/abs/2009.10836v1 )

ライセンス: Link先を確認
Vlatko Vedral(参考訳) 本稿では、空間と時間の再パラメトリゼーション、すなわち、相対性理論に自然に帰結する方法で量子物理学を定式化するために、両者が他のパラメータに依存する手順について検討する。 これにより、時空の異なる点が異なるモードを表す量子力学の第2の量子化公式が導かれる。 固体物理学における結晶格子による電子の伝播をモデル化するのと同様に、我々の定式化は時空におけるダイナミクスのモデル化に利用できると推測する。 我々は、モードの絡み合いの概念と、宇宙の波動関数の完全な相対論的ページウーターの定式化に対する、この意味についてコメントする。

We review how reparametrization of space and time, namely the procedure where both are made to depend on yet another parameter, can be used to formulate quantum physics in a way that is naturally conducive to relativity. This leads us to a second quantised formulation of quantum dynamics in which different points of spacetime represent different modes. We speculate on the fact that our formulation can be used to model dynamics in spacetime the same way that one models propagation of an electron through a crystal lattice in solid state physics. We comment on the implications of this for the notion of mode entanglement as well as for the fully relativistic Page-Wootters formulation of the wavefunction of the Universe.
翻訳日:2023-05-01 06:47:44 公開日:2020-09-22
# 貴金属ナノ構造の光学応答:結晶面における量子表面効果

Optical response of noble metal nanostructures: Quantum surface effects in crystallographic facets ( http://arxiv.org/abs/2009.10821v1 )

ライセンス: Link先を確認
A. Rodr\'iguez Echarri, P. A. D. Gon\c{c}alves, C. Tserkezis, F. Javier Garc\'ia de Abajo, N. Asger Mortensen, Joel D. Cox(参考訳) 貴金属ナノ構造はナノ光学においてユビキタスな要素であり、量子閉じ込めや基底電子ガスの空間分散に関連する非局所効果と共役する長さスケールに光を集中させるプラズモンモードをサポートする。 非局所的な効果は、結晶性貴金属にとって自然に顕著であり、非晶質金属よりも内在損失が低く、特定の結晶面が異なる電子状態を引き起こす可能性がある。 ここでは,結晶性貴金属膜の光学的応答に影響を及ぼす非古典的効果を記述するために量子力学的モデルを用いて,feibelman $d$-parameters と呼ばれる表面応答関数のセットを用いて,これらをうまく捕獲できることを実証する。 特に, 金, 銀, 銅の結晶面(111), (100) に付随する$d$-parametersを特徴付け, 電子波関数の流出による表面効果の重要性と原子層腐食による表面投影バンドギャップの重要性を強調した。 そこで, 抽出した$d$-parametersは, 金属超薄膜, グラフェン-金属ヘテロ構造, 局所的な表面プラズモンを担持する結晶面状金属ナノ粒子など, 様々なナノスケール金属形態の光学的応答を, 直接的に説明できることを示した。 ここで報告されている$d$パラメータは、計算コストの高い第一原理原子論的シミュレーションを回避し、メゾスコピック結晶金属表面の光学応答における微視的非局所的効果を記述することができる。

Noble metal nanostructures are ubiquitous elements in nano-optics, supporting plasmon modes that can focus light down to length scales commensurate with nonlocal effects associated with quantum confinement and spatial dispersion in the underlying electron gas. Nonlocal effects are naturally more prominent for crystalline noble metals, which potentially offer lower intrinsic loss than their amorphous counterparts, and with particular crystal facets giving rise to distinct electronic surface states. Here, we employ a quantum-mechanical model to describe nonclassical effects impacting the optical response of crystalline noble-metal films and demonstrate that these can be well-captured using a set of surface-response functions known as Feibelman $d$-parameters. In particular, we characterize the $d$-parameters associated with the (111) and (100) crystal facets of gold, silver, and copper, emphasizing the importance of surface effects arising due to electron wave function spill-out and the surface-projected band gap emerging from atomic-layer corrugation. We then show that the extracted $d$-parameters can be straightforwardly applied to describe the optical response of various nanoscale metal morphologies of interest, including metallic ultra-thin films, graphene-metal heterostructures hosting extremely confined acoustic graphene plasmons, and crystallographic faceted metallic nanoparticles supporting localized surface plasmons. The tabulated $d$-parameters reported here can circumvent computationally expensive first-principles atomistic simulations to describe microscopic nonlocal effects in the optical response of mesoscopic crystalline metal surfaces, which are becoming widely available with increasing control over morphology down to atomic length scales for state-of-the-art experiments in nano-optics.
翻訳日:2023-05-01 06:47:33 公開日:2020-09-22
# SYKトラバース可能なワームホールのカオス指数

Chaos exponents of SYK traversable wormholes ( http://arxiv.org/abs/2009.10759v1 )

ライセンス: Link先を確認
Tomoki Nosaka and Tokiro Numasawa(参考訳) 本稿では, 高温ブラックホール相と, ワームホールと解釈される低温間隙相との間の第1次相転移を示す2つの結合SYKモデルにおいて, 時間外4点関数の指数的成長速度であるカオス指数について検討する。 温度が低下するにつれて、カオス指数は、ブラックホールと強いカオスの間の期待される関係と一致する相転移臨界温度において、普遍的な2.pi/\beta$の値から不連続な降下を示す。 興味深いことに、カオス指数はワームホール相でも小さいがゼロではない。 これは, 2点関数の崩壊速度(arXiv:2003.03916]の観測と一致しているが, カオス指数と崩壊速度は, 実際に同じ温度依存性を持つことがわかった。 また、1つのSYK項の近縁モデルのカオス指数について検討し、このモデルのカオス指数がパラメータ空間全体の2つの結合モデルのカオス指数よりも常に大きいことを発見した。

In this paper we study the chaos exponent, the exponential growth rate of the out-of-time-ordered four point functions, in a two coupled SYK models which exhibits a first order phase transition between the high temperature black hole phase and the low temperature gapped phase interpreted as a traversable wormhole. We see that as the temperature decreases the chaos exponent exhibits a discontinuous fall-off from the value of order the universal bound $2\pi/\beta$ at the critical temperature of the phase transition, which is consistent with the expected relation between black holes and strong chaos. Interestingly, the chaos exponent is small but non-zero even in the wormhole phase. This is surprising but consistent with the observation on the decay rate of the two point function [arXiv:2003.03916], and we found the chaos exponent and the decay rate indeed obey the same temperature dependence in this regime. We also studied the chaos exponent of a closely related model with single SYK term, and found that the chaos exponent of this model is always greater than that of the two coupled model in the entire parameter space.
翻訳日:2023-05-01 06:46:45 公開日:2020-09-22
# オンライン量子コンピュータを用いたmermin-peres magic squareの測定

Measuring the Mermin-Peres magic square using an online quantum computer ( http://arxiv.org/abs/2009.10751v1 )

ライセンス: Link先を確認
A. Dikme, N. Reichel, A. Laghaout and G. Bj\"ork(参考訳) 我々は,オンライン,5量子ビット量子コンピュータ上でmermin-peresマジックスクエアの3種類の通勤計測を6回実施した。 魔法の四角いテストは、系の測定が(eprの意味で)物理的実在論によって記述され、同時に文脈的でない場合に行われる。 測定結果は, ほぼ28の標準偏差により, 現実的かつ非テクスチャ的モデルに反することがわかった。 また,我々が測定に用いた量子コンピュータは,正確かつ再現可能な結果を生成する上では,多くの課題が残されているものの,簡易性,測定プログラムの再実行の容易さ,ユーザフレンドリな補償が求められていることがわかった。

We have implemented the six series of three commuting measurement of the Mermin-Peres magic square on an online, five qubit, quantum computer. The magic square tests if the measurements of the system can be described by physical realism (in the EPR sense) and simultaneously are non-contextual. We find that our measurement results violate any realistic and non-contextual model by almost 28 standard deviations. We also find that although the quantum computer we used for the measurements leaves much to be desired in producing accurate and reproducible results, the simplicity, the ease of re-running the measurement programs, and the user friendliness compensates for this fact.
翻訳日:2023-05-01 06:46:08 公開日:2020-09-22
# 分解可能なアーキテクチャパラメータを持つスケーラブルNAS

Scalable NAS with Factorizable Architectural Parameters ( http://arxiv.org/abs/1912.13256v2 )

ライセンス: Link先を確認
Lanfei Wang and Lingxi Xie and Tianyi Zhang and Jun Guo and Qi Tian(参考訳) Neural Architecture Search (NAS)は、機械学習とコンピュータビジョンにおける新たなトピックである。 NASの基本的なイデオロギーは、強力なネットワークアーキテクチャを探索するための手動設計を置き換えるための自動メカニズムを使用することである。 nasの重要な要因の1つは、演算子の数を増やすなど、検索スペースをスケールアップすることで、より多くの可能性をカバーできるが、既存の検索アルゴリズムは、多くのオペレーターで失われることが多い。 同一プール内の演算子間の巨大な演算子と競合を避けるため,大容量演算子を小さな部分空間に分解することで,スケーラブルなアルゴリズムを提案する。 実例として,畳み込み,プーリング,スキップ接続などの正規演算子とともに,効果的なアクティベーション関数を探索することができる。 CIFAR10とImageNetの2つの標準画像分類ベンチマークでは,検索コストが小さく,再トレーニングに余分なコストがかからないため,これまで検討されなかった興味深いアーキテクチャが得られた。

Neural Architecture Search (NAS) is an emerging topic in machine learning and computer vision. The fundamental ideology of NAS is using an automatic mechanism to replace manual designs for exploring powerful network architectures. One of the key factors of NAS is to scale-up the search space, e.g., increasing the number of operators, so that more possibilities are covered, but existing search algorithms often get lost in a large number of operators. For avoiding huge computing and competition among similar operators in the same pool, this paper presents a scalable algorithm by factorizing a large set of candidate operators into smaller subspaces. As a practical example, this allows us to search for effective activation functions along with the regular operators including convolution, pooling, skip-connect, etc. With a small increase in search costs and no extra costs in re-training, we find interesting architectures that were not explored before, and achieve state-of-the-art performance on CIFAR10 and ImageNet, two standard image classification benchmarks.
翻訳日:2023-01-16 20:04:50 公開日:2020-09-22
# AIに勝て - 理解を読むための敵対的人間アノテーションの調査

Beat the AI: Investigating Adversarial Human Annotation for Reading Comprehension ( http://arxiv.org/abs/2002.00293v2 )

ライセンス: Link先を確認
Max Bartolo, Alastair Roberts, Johannes Welbl, Sebastian Riedel, Pontus Stenetorp(参考訳) アノテーション方法論の革新は、参照理解(RC)データセットとモデルのための触媒となっている。 現在のRCモデルに挑戦する最近のトレンドの1つは、アノテーションプロセスにモデルを含めることである。 そこで本研究では,このアノテーション手法を3つの異なる設定に適用し,アノテーションループ内でより強力なモデルを持つ合計36,000のサンプルを収集する。 これにより、逆効果の再現性、様々なモデル・イン・ザ・ループ強度で収集されたデータからの転送、モデル無しで収集されたデータへの一般化といった疑問を探求することができる。 その結果, 対向的に収集したサンプルのトレーニングは, 非対向的に収集したデータセットに強い一般化をもたらすことがわかった。 さらに,より強力なモデルでも,より弱いモデルで収集したデータセットから学習できることがわかった。 ループ内のBiDAFモデルで収集されたデータに基づいてトレーニングされたRoBERTaは、SQuADでトレーニングされた時に答えられない質問に対して39.9F1を達成する。

Innovations in annotation methodology have been a catalyst for Reading Comprehension (RC) datasets and models. One recent trend to challenge current RC models is to involve a model in the annotation process: humans create questions adversarially, such that the model fails to answer them correctly. In this work we investigate this annotation methodology and apply it in three different settings, collecting a total of 36,000 samples with progressively stronger models in the annotation loop. This allows us to explore questions such as the reproducibility of the adversarial effect, transfer from data collected with varying model-in-the-loop strengths, and generalisation to data collected without a model. We find that training on adversarially collected samples leads to strong generalisation to non-adversarially collected datasets, yet with progressive performance deterioration with increasingly stronger models-in-the-loop. Furthermore, we find that stronger models can still learn from datasets collected with substantially weaker models-in-the-loop. When trained on data collected with a BiDAF model in the loop, RoBERTa achieves 39.9F1 on questions that it cannot answer when trained on SQuAD - only marginally lower than when trained on data collected using RoBERTa itself (41.0F1).
翻訳日:2023-01-04 20:06:49 公開日:2020-09-22
# 量子バンディット

Quantum Bandits ( http://arxiv.org/abs/2002.06395v2 )

ライセンス: Link先を確認
Balthazar Casal\'e, Giuseppe Di Molfetta, Hachem Kadri, Liva Ralaivola(参考訳) 我々は、"em best arm identification} (bai) として知られるバンディット問題の量子バージョンを考える。 まず、学習エージェントと環境の両方が量子であると仮定したBAI問題の量子モデリングを提案し、次に、BAIを解くための量子振幅増幅に基づくアルゴリズムを提案する。 問題の全てのインスタンスにおけるアルゴリズムの振る舞いを形式的に解析し、特に、古典的ケースで保持されているものよりも2次的に最適な解が得られることを示す。

We consider the quantum version of the bandit problem known as {\em best arm identification} (BAI). We first propose a quantum modeling of the BAI problem, which assumes that both the learning agent and the environment are quantum; we then propose an algorithm based on quantum amplitude amplification to solve BAI. We formally analyze the behavior of the algorithm on all instances of the problem and we show, in particular, that it is able to get the optimal solution quadratically faster than what is known to hold in the classical case.
翻訳日:2022-12-31 22:44:26 公開日:2020-09-22
# 説明可能な$k$-Meansと$k$-Mediansクラスタリング

Explainable $k$-Means and $k$-Medians Clustering ( http://arxiv.org/abs/2002.12538v2 )

ライセンス: Link先を確認
Sanjoy Dasgupta, Nave Frost, Michal Moshkovitz, Cyrus Rashtchian(参考訳) クラスタリングは幾何学データのための教師なし学習の一般的な形式である。 残念ながら、多くのクラスタリングアルゴリズムは、複雑な方法でデータのすべての機能に依存するため、説明が難しいクラスタ割り当てにつながる。 解釈性を改善するために,データセットをクラスタに分割するために,小さな決定木を用いてクラスタを簡単な方法で特徴付けることを検討する。 私たちは、理論的な観点から、k$-meansとk$-mediansの目標によってクラスタの品質を測定することで、この問題を研究します。 まず、トップダウン決定木アルゴリズムが任意のコストでクラスタリングに繋がる可能性を示し、次に、任意の木によって引き起こされるクラスタリングは、最適クラスタリングと比較して一般に$\omega(\log k)$の近似係数を負わなければならないことを示した。 正の面では、$k$の葉を持つ木を用いて説明可能なクラスタを生成する効率的なアルゴリズムを設計する。 2つの手段/医師に対して、1つのしきい値が定数係数近似を達成するのに十分であることを示す。 一般の$k \geq 2$に対して、このアルゴリズムは最適な$k$-mediansに対する$o(k)$近似と、最適な$k$-meansに対する$o(k^2)$近似である。 我々の研究の前には、次元や入力サイズに依存しない証明可能な保証を持つアルゴリズムは知られていなかった。

Clustering is a popular form of unsupervised learning for geometric data. Unfortunately, many clustering algorithms lead to cluster assignments that are hard to explain, partially because they depend on all the features of the data in a complicated way. To improve interpretability, we consider using a small decision tree to partition a data set into clusters, so that clusters can be characterized in a straightforward manner. We study this problem from a theoretical viewpoint, measuring cluster quality by the $k$-means and $k$-medians objectives: Must there exist a tree-induced clustering whose cost is comparable to that of the best unconstrained clustering, and if so, how can it be found? In terms of negative results, we show, first, that popular top-down decision tree algorithms may lead to clusterings with arbitrarily large cost, and second, that any tree-induced clustering must in general incur an $\Omega(\log k)$ approximation factor compared to the optimal clustering. On the positive side, we design an efficient algorithm that produces explainable clusters using a tree with $k$ leaves. For two means/medians, we show that a single threshold cut suffices to achieve a constant factor approximation, and we give nearly-matching lower bounds. For general $k \geq 2$, our algorithm is an $O(k)$ approximation to the optimal $k$-medians and an $O(k^2)$ approximation to the optimal $k$-means. Prior to our work, no algorithms were known with provable guarantees independent of dimension and input size.
翻訳日:2022-12-28 01:57:26 公開日:2020-09-22
# 直接および単段逆相合成のための現状拡張NLP変換器モデル

State-of-the-Art Augmented NLP Transformer models for direct and single-step retrosynthesis ( http://arxiv.org/abs/2003.02804v2 )

ライセンス: Link先を確認
Igor V. Tetko, Pavel Karpov, Ruud Van Deursen, Guillaume Godin(参考訳) ニューラルネットワークトランスフォーマーアーキテクチャを用いたテキストライクな化学反応表現(smiles)と自然言語処理による化合物合成(retro)予測における異なる学習シナリオの効果について検討した。 画像処理における強力な手法であるデータ拡張は,ニューラルネットワークによるデータ記憶の効果をなくし,新たなシーケンスの予測性能を向上させることを示した。 この効果は,入力データと対象データとを同時に使用する場合に観察された。 トップ5の精度は、USPTO-50kテストデータセットの最大の断片(古典的なレトロシンセシスの主変換)の予測の84.8%であり、SMILES拡張とビームサーチアルゴリズムの組み合わせによって達成された。 同じアプローチは、単一ステップのUSPTO-MITテストセットからの直接反応の予測に対して、かなり良い結果をもたらした。 我々のモデルは、挑戦的な混合集合で90.6%のトップ1と96.1%のトップ5の精度、USPTO-MIT分離集合で97%のトップ5の精度を達成した。 また、uspto-full による top-1 と top-10 の両方のレトロシンセシスの結果を大幅に改善した。 最も多く生成された笑顔の出現頻度は, 予測結果とよく相関し, 反応予測の質の指標として使用できる。

We investigated the effect of different training scenarios on predicting the (retro)synthesis of chemical compounds using a text-like representation of chemical reactions (SMILES) and Natural Language Processing neural network Transformer architecture. We showed that data augmentation, which is a powerful method used in image processing, eliminated the effect of data memorization by neural networks, and improved their performance for the prediction of new sequences. This effect was observed when augmentation was used simultaneously for input and the target data simultaneously. The top-5 accuracy was 84.8% for the prediction of the largest fragment (thus identifying principal transformation for classical retro-synthesis) for the USPTO-50k test dataset and was achieved by a combination of SMILES augmentation and a beam search algorithm. The same approach provided significantly better results for the prediction of direct reactions from the single-step USPTO-MIT test set. Our model achieved 90.6% top-1 and 96.1% top-5 accuracy for its challenging mixed set and 97% top-5 accuracy for the USPTO-MIT separated set. It also significantly improved results for USPTO-full set single-step retrosynthesis for both top-1 and top-10 accuracies. The appearance frequency of the most abundantly generated SMILES was well correlated with the prediction outcome and can be used as a measure of the quality of reaction prediction.
翻訳日:2022-12-26 06:31:46 公開日:2020-09-22
# 局所安定なディープニューラルネットワークのためのマニフォールド正規化

Manifold Regularization for Locally Stable Deep Neural Networks ( http://arxiv.org/abs/2003.04286v2 )

ライセンス: Link先を確認
Charles Jin, Martin Rinard(参考訳) 我々は,局所安定なディープニューラルネットワークを訓練するための新しい正規化手法の開発に多様体正規化の概念を適用した。 我々の正規化器はグラフラプラシアンのスパーシフィケーションに基づいており、これはディープラーニングでよく見られるように、データが高次元でスパースであるときに高い確率で保持される。 実験的に、我々のネットワークは、$\ell_2$, $\ell_\infty$, and Wasserstein-based perturbationsを含む様々な摂動モデルの安定性を示し、特に、$\ell_\infty$ perturbations of size $\epsilon = 8/255$, and the state-of-the-art correct accuracy of 21% in the same perturbation model。 さらに,本手法は効率が高く,ネットワークを経由する2つの並列フォワードパスと同等のオーバーヘッドが生じる。

We apply concepts from manifold regularization to develop new regularization techniques for training locally stable deep neural networks. Our regularizers are based on a sparsification of the graph Laplacian which holds with high probability when the data is sparse in high dimensions, as is common in deep learning. Empirically, our networks exhibit stability in a diverse set of perturbation models, including $\ell_2$, $\ell_\infty$, and Wasserstein-based perturbations; in particular, we achieve 40% adversarial accuracy on CIFAR-10 against an adaptive PGD attack using $\ell_\infty$ perturbations of size $\epsilon = 8/255$, and state-of-the-art verified accuracy of 21% in the same perturbation model. Furthermore, our techniques are efficient, incurring overhead on par with two additional parallel forward passes through the network.
翻訳日:2022-12-25 07:41:44 公開日:2020-09-22
# ParSeNet: 3Dポイントクラウドのためのパラメトリックサーフェスフィッティングネットワーク

ParSeNet: A Parametric Surface Fitting Network for 3D Point Clouds ( http://arxiv.org/abs/2003.12181v5 )

ライセンス: Link先を確認
Gopal Sharma, Difan Liu, Subhransu Maji, Evangelos Kalogerakis, Siddhartha Chaudhuri, Radom\'ir M\v{e}ch(参考訳) 本稿では、3dポイントクラウドをパラメトリックな表面パッチに分解し、bスプラインパッチや基本的な幾何学的プリミティブを含む新しいエンドツーエンドのトレーニング可能なディープネットワークparsenetを提案する。 parsenetは、人工の3d形状の大規模なデータセットで訓練され、形状分解のための高レベルなセマンティクスプリエントをキャプチャする。 以前の作業よりもずっとリッチなプリミティブクラスを処理し、より忠実な表面を表現することができます。 また、純粋に幾何学的なアプローチと比較して、表面の繰り返しかつ堅牢なパラメトリゼーションを生成する。 分析および学習に基づく代替案に対するアプローチを検証するための広範な実験を行った。 私たちのソースコードは、https://hippogriff.github.io/parsenetで公開しています。

We propose a novel, end-to-end trainable, deep network called ParSeNet that decomposes a 3D point cloud into parametric surface patches, including B-spline patches as well as basic geometric primitives. ParSeNet is trained on a large-scale dataset of man-made 3D shapes and captures high-level semantic priors for shape decomposition. It handles a much richer class of primitives than prior work, and allows us to represent surfaces with higher fidelity. It also produces repeatable and robust parametrizations of a surface compared to purely geometric approaches. We present extensive experiments to validate our approach against analytical and learning-based alternatives. Our source code is publicly available at: https://hippogriff.github.io/parsenet.
翻訳日:2022-12-19 21:23:33 公開日:2020-09-22
# 機械学習と臨床自然言語処理による救急部門ESIアサインメントの改善

Improving Emergency Department ESI Acuity Assignment Using Machine Learning and Clinical Natural Language Processing ( http://arxiv.org/abs/2004.05184v2 )

ライセンス: Link先を確認
Oleksandr Ivanov (1), Lisa Wolf (2), Deena Brecher (1), Kevin Masek (3), Erica Lewis (4), Stephen Liu (5), Robert B Dunne (6), Kevin Klauer (7), Kyla Montgomery (1), Yurii Andrieiev (1), Moss McLaughlin (1), and Christian Reilly (1) ((1) Mednition Inc., (2) Emergency Nurses Association, (3) San Mateo Medical Center, (4) El Camino Hospital, (5) Adventist Health, (6) Ascension Health, (7) American Osteopathic Association)(参考訳) 有効トリアージは、患者の明度を正確に決定し、リソースを必要とし、効果的な明度に基づく患者優先化を確立することにより、容積増加の効果を緩和するために重要である。 本研究の目的は,臨床自然言語処理(C-NLP)と最新のMLアルゴリズム(KATE)を用いて過去のERHデータを抽出・合成し,高精度なESI予測モデルを作成することである。 2つの病院から166,175人の患者を対象に, トリアージプロセスのためのMLモデル(KATE)を開発した。 次に, 調査現場で発生したトリアージのランダムなサンプルから得られた金集合に対して実験を行い, 緊急度指標(ESI)を基準として, 臨床検査医による正しい明度割り当てを記録した。 2つの研究現場でKATEは、看護師(59.8%)と平均的な個別の臨床医(75.3%)と比較して、正確なESI照度割り当てを75.9%と予測した。 KATEの精度は平均看護師の精度より26.9%高かった(p-value < 0.0001)。 ESI 2 と ESI 3 の周波数割当の境界では、KATE は 80% の精度で 93.2% 高く、41.4% のトリアージ看護師 (p-value < 0.0001) に対して 93.2% であった。 ケイトは、この研究サンプルのトリアージ看護師よりもかなり正確にトリアージアキューシティの割り当てを提供する。 KATEは文脈的要因とは独立して機能し、トリアージの下で引き起こされる外部の圧力の影響を受けず、トリアージの割り当ての正確さに悪影響を及ぼす人種的および社会的偏見を緩和する。 今後の研究は、リアルタイムでトリアージ看護師にフィードバックを提供するKATEの影響、KATEが死亡率と死亡率、EDスループット、リソース最適化、および看護結果に与える影響に焦点を当てるべきである。

Effective triage is critical to mitigating the effect of increased volume by accurately determining patient acuity, need for resources, and establishing effective acuity-based patient prioritization. The purpose of this retrospective study was to determine whether historical EHR data can be extracted and synthesized with clinical natural language processing (C-NLP) and the latest ML algorithms (KATE) to produce highly accurate ESI predictive models. An ML model (KATE) for the triage process was developed using 166,175 patient encounters from two participating hospitals. The model was then tested against a gold set that was derived from a random sample of triage encounters at the study sites and correct acuity assignments were recorded by study clinicians using the Emergency Severity Index (ESI) standard as a guide. At the two study sites, KATE predicted accurate ESI acuity assignments 75.9% of the time, compared to nurses (59.8%) and average individual study clinicians (75.3%). KATE accuracy was 26.9% higher than the average nurse accuracy (p-value < 0.0001). On the boundary between ESI 2 and ESI 3 acuity assignments, which relates to the risk of decompensation, KATE was 93.2% higher with 80% accuracy, compared to triage nurses with 41.4% accuracy (p-value < 0.0001). KATE provides a triage acuity assignment substantially more accurate than the triage nurses in this study sample. KATE operates independently of contextual factors, unaffected by the external pressures that can cause under triage and may mitigate the racial and social biases that can negatively affect the accuracy of triage assignment. Future research should focus on the impact of KATE providing feedback to triage nurses in real time, KATEs impact on mortality and morbidity, ED throughput, resource optimization, and nursing outcomes.
翻訳日:2022-12-18 13:32:16 公開日:2020-09-22
# フェデレーションラーニングのための個人的・ユーティリティの集中化

Concentrated Differentially Private and Utility Preserving Federated Learning ( http://arxiv.org/abs/2003.13761v4 )

ライセンス: Link先を確認
Rui Hu, Yuanxiong Guo, and Yanmin Gong(参考訳) フェデレーション学習(Federated Learning)とは、エッジデバイスのセットが、ローカルデータを共有せずに、中央サーバのオーケストレーション下でモデルを協調的にトレーニングする、機械学習環境である。 連合学習の各通信ラウンドにおいて、エッジデバイスはローカルデータと確率的勾配降下の複数のステップを実行し、モデル更新のために計算結果をサーバにアップロードする。 この過程で、サーバが完全に信頼されていない場合、エッジデバイスとサーバ間の情報交換によって、プライバシリークの課題が発生する。 以前のプライバシ保存メカニズムのいくつかは、フェデレーション学習に容易に使用できるが、通常、アルゴリズムの収束と学習モデルの有用性に高いコストがかかる。 本稿では,局所勾配摂動,セキュアアグリゲーション,ゼロ集中差分プライバシー(zCDP)を組み合わせることで,モデルユーティリティの劣化を伴わずに,プライバシー問題に対処するフェデレーション学習手法を開発する。 このアプローチのエンドツーエンドのプライバシ保証を厳格に提供し、理論的収束率を分析します。 実世界のデータセットに関する広範囲な数値実験を通じて,提案手法の有効性を実証し,プライバシとモデルの有用性のトレードオフを示す。

Federated learning is a machine learning setting where a set of edge devices collaboratively train a model under the orchestration of a central server without sharing their local data. At each communication round of federated learning, edge devices perform multiple steps of stochastic gradient descent with their local data and then upload the computation results to the server for model update. During this process, the challenge of privacy leakage arises due to the information exchange between edge devices and the server when the server is not fully trusted. While some previous privacy-preserving mechanisms could readily be used for federated learning, they usually come at a high cost on convergence of the algorithm and utility of the learned model. In this paper, we develop a federated learning approach that addresses the privacy challenge without much degradation on model utility through a combination of local gradient perturbation, secure aggregation, and zero-concentrated differential privacy (zCDP). We provide a tight end-to-end privacy guarantee of our approach and analyze its theoretical convergence rates. Through extensive numerical experiments on real-world datasets, we demonstrate the effectiveness of our proposed method and show its superior trade-off between privacy and model utility.
翻訳日:2022-12-18 07:18:47 公開日:2020-09-22
# 変圧器を用いたシーケンシャルビュー合成

Sequential View Synthesis with Transformer ( http://arxiv.org/abs/2004.04548v2 )

ライセンス: Link先を確認
Phong Nguyen-Ha, Lam Huynh, Esa Rahtu, Janne Heikkila(参考訳) 本稿では,任意のカメラポーズにおける新しい視点を,任意の視点から入力画像の集合に基づいて予測することに関心を持つニューラルレンダリングによる新しい視点合成の問題について述べる。 既知のクエリポーズと入力ポーズを使用して、順序付けられた観察セットを作成し、ターゲットビューに導く。 これにより、単一新規ビュー合成の問題は逐次ビュー予測タスクとして再構成される。 本稿では,提案するt-gqn(transformer-based generative query network)により,新たな概念を2つ加えたニューラルレンダリング手法を拡張する。 まず、コンテキスト画像間の多視点注意学習を用いて、複数の暗黙的なシーン表現を得る。 第2に、学習した表現に基づいて、ターゲットビューを含む画像シーケンスを予測するシーケンシャルレンダリングデコーダを導入する。 最後に,様々な難易度データセットでモデルを評価し,モデルが一貫した予測を与えるだけでなく,微調整のための再トレーニングも不要であることを実証する。

This paper addresses the problem of novel view synthesis by means of neural rendering, where we are interested in predicting the novel view at an arbitrary camera pose based on a given set of input images from other viewpoints. Using the known query pose and input poses, we create an ordered set of observations that leads to the target view. Thus, the problem of single novel view synthesis is reformulated as a sequential view prediction task. In this paper, the proposed Transformer-based Generative Query Network (T-GQN) extends the neural-rendering methods by adding two new concepts. First, we use multi-view attention learning between context images to obtain multiple implicit scene representations. Second, we introduce a sequential rendering decoder to predict an image sequence, including the target view, based on the learned representations. Finally, we evaluate our model on various challenging datasets and demonstrate that our model not only gives consistent predictions but also doesn't require any retraining for finetuning.
翻訳日:2022-12-15 02:36:54 公開日:2020-09-22
# 学習不確実性を有するロバスト制御障壁関数による安全なマルチエージェント相互作用

Safe Multi-Agent Interaction through Robust Control Barrier Functions with Learned Uncertainties ( http://arxiv.org/abs/2004.05273v2 )

ライセンス: Link先を確認
Richard Cheng, Mohammad Javad Khojasteh, Aaron D. Ames, and Joel W. Burdick(参考訳) 現実の環境で動作しているロボットは、多くの異種エージェントや障害物と対話しながら、安全をナビゲートし維持する必要がある。 マルチエージェント制御バリア関数(CBF)は、マルチエージェント環境における安全性を保証するための計算効率のよいツールとして登場したが、ロボット力学と他のエージェントのダイナミクスの双方について完全な知識を前提としている。 ロボットの力学の知識は合理的に知られているかもしれないが、現実の環境におけるエージェントの不均一性は、他のエージェントの力学の予測には常にかなりの不確実性が存在することを意味する。 本研究の目的は,マトリックス-可変ガウスプロセスモデルを用いて,これらの動的不確実性に対する高信頼境界を学習し,堅牢なマルチエージェントCBFフレームワークに組み込むことである。 結果のmin-maxロバストCBFを2次プログラムに変換し、リアルタイムに効率よく解けるようにする。 我々は,名目多エージェントCBFがエージェント間相互作用においてしばしば違反されることをシミュレーションにより検証し,ロバストな定式化はより高い確率で安全性を維持し,学習された不確実性に適応することを示す。

Robots operating in real world settings must navigate and maintain safety while interacting with many heterogeneous agents and obstacles. Multi-Agent Control Barrier Functions (CBF) have emerged as a computationally efficient tool to guarantee safety in multi-agent environments, but they assume perfect knowledge of both the robot dynamics and other agents' dynamics. While knowledge of the robot's dynamics might be reasonably well known, the heterogeneity of agents in real-world environments means there will always be considerable uncertainty in our prediction of other agents' dynamics. This work aims to learn high-confidence bounds for these dynamic uncertainties using Matrix-Variate Gaussian Process models, and incorporates them into a robust multi-agent CBF framework. We transform the resulting min-max robust CBF into a quadratic program, which can be efficiently solved in real time. We verify via simulation results that the nominal multi-agent CBF is often violated during agent interactions, whereas our robust formulation maintains safety with a much higher probability and adapts to learned uncertainties
翻訳日:2022-12-14 13:18:31 公開日:2020-09-22
# 物理に基づく高速デハジングネットワークによるリアルシーンからのデハジング学習

Learning to Dehaze from Realistic Scene with A Fast Physics-based Dehazing Network ( http://arxiv.org/abs/2004.08554v2 )

ライセンス: Link先を確認
Ruoteng Li, Xiaoyi Zhang, Shaodi You and Yu Li(参考訳) デハジングは長い間コンピュータビジョンのトピックとして人気がある。 自動運転など多くのアプリケーションでは,信頼性の高いリアルタイムデハジング手法が求められている。 近年の学習ベース手法では,一対のぼやけた画像とクリーングラウンドの真理参照を含むデータセットが必要であるが,実際のシーンで正確な地理を捉えることは一般的に不可能である。 多くの既存の研究は、ヘイズイメージングモデルを使用して、一般的なRGBDデータセットの奥行きからヘイズをレンダリングすることで、ヘイズ画像を生成することの難しさを損なう。 しかし、高品質の深度を持つ大規模なデータセットは主に屋内であり、屋外の深度マップは不正確であるため、合成データセットと実際の湿潤な画像の間にはまだギャップがある。 本稿では,既存のデータセットを,HD(High-Definition)3Dフィルムの実際の屋外シーンを含む,大規模で多様なデハージングデータセットで補完する。 実際の屋外シーンの高品質なフレームを多数選択し,ステレオからの奥行きを利用してヘイズを描画する。 我々のデータセットは既存のデータセットよりも現実的であり、このデータセットを使用することで実際のシーンでのデハージングパフォーマンスが大幅に向上することを示した。 データセットに加えて,物理モデルにインスパイアされた,軽量で信頼性の高いデヘイジングネットワークを提案する。 提案手法は,他の手法を大差で上回り,新たな最先端手法となる。 さらに,ネットワークの軽量化により,他のベースライン方式よりもはるかに高速なリアルタイム動作が可能となった。

Dehazing is a popular computer vision topic for long. A real-time dehazing method with reliable performance is highly desired for many applications such as autonomous driving. While recent learning-based methods require datasets containing pairs of hazy images and clean ground truth references, it is generally impossible to capture accurate ground truth in real scenes. Many existing works compromise this difficulty to generate hazy images by rendering the haze from depth on common RGBD datasets using the haze imaging model. However, there is still a gap between the synthetic datasets and real hazy images as large datasets with high-quality depth are mostly indoor and depth maps for outdoor are imprecise. In this paper, we complement the existing datasets with a new, large, and diverse dehazing dataset containing real outdoor scenes from High-Definition (HD) 3D movies. We select a large number of high-quality frames of real outdoor scenes and render haze on them using depth from stereo. Our dataset is more realistic than existing ones and we demonstrate that using this dataset greatly improves the dehazing performance on real scenes. In addition to the dataset, we also propose a light and reliable dehazing network inspired by the physics model. Our approach outperforms other methods by a large margin and becomes the new state-of-the-art method. Moreover, the light-weight design of the network enables our method to run at a real-time speed, which is much faster than other baseline methods.
翻訳日:2022-12-12 05:26:05 公開日:2020-09-22
# 耳障りなオーディオ・スーパービジョンによるレーダーからの許容走行経路

Keep off the Grass: Permissible Driving Routes from Radar with Weak Audio Supervision ( http://arxiv.org/abs/2005.05175v2 )

ライセンス: Link先を確認
David Williams, Daniele De Martini, Matthew Gadd, Letizia Marchegiani, Paul Newman(参考訳) 移動ロボットの信頼性の高い屋外展開には、所定の環境における許容走行経路の堅牢な識別が必要である。 LiDARと視覚に基づく知覚システムの性能は、特定の環境要因が存在する場合、例えば雨、霧、暗闇が著しく低下する。 fmcwスキャニングレーダに基づく知覚システムは、環境条件に関わらず、また代替センサーよりも長い範囲でフルパフォーマンスを維持する。 完全に教師された方法での運転性に基づくレーダースキャンのセグメンテーションの学習は、各レーダースキャンをビン・バイ・ビンベースでラベル付けすることは困難かつ時間を要する。 そこで我々は,ロボットの下の地形タイプを予測できるオーディオベース分類器を用いて,レーダベース分類器の訓練を弱く監督する。 音響分類器からの計測,GPS,および地形ラベルを組み合わせることで,ロボットの地形ラベル付き軌道を環境内に構築し,レーダスキャンのラベル付けを行うことができる。 カリキュラム学習手法を用いて,レーダセグメンテーションネットワークを訓練し,初期ラベリングを超えて環境中の全ての許容走行経路を検出する。

Reliable outdoor deployment of mobile robots requires the robust identification of permissible driving routes in a given environment. The performance of LiDAR and vision-based perception systems deteriorates significantly if certain environmental factors are present e.g. rain, fog, darkness. Perception systems based on FMCW scanning radar maintain full performance regardless of environmental conditions and with a longer range than alternative sensors. Learning to segment a radar scan based on driveability in a fully supervised manner is not feasible as labelling each radar scan on a bin-by-bin basis is both difficult and time-consuming to do by hand. We therefore weakly supervise the training of the radar-based classifier through an audio-based classifier that is able to predict the terrain type underneath the robot. By combining odometry, GPS and the terrain labels from the audio classifier, we are able to construct a terrain labelled trajectory of the robot in the environment which is then used to label the radar scans. Using a curriculum learning procedure, we then train a radar segmentation network to generalise beyond the initial labelling and to detect all permissible driving routes in the environment.
翻訳日:2022-12-04 20:48:54 公開日:2020-09-22
# プリミティブ発見とエンハンシングによる構成的部分ショット認識

Compositional Few-Shot Recognition with Primitive Discovery and Enhancing ( http://arxiv.org/abs/2005.06047v3 )

ライセンス: Link先を確認
Yixiong Zou, Shanghang Zhang, Ke Chen, Yonghong Tian, Yaowei Wang, Jos\'e M. F. Moura(参考訳) few-shot learning (fsl) は、わずかなトレーニングサンプルしか与えていない新しいクラスを認識することを目的としている。 しかし、ヒトはわずかなサンプルだけで新しいクラスを容易に認識できる。 このような能力の重要な構成要素は、認知科学でよく研究されているが、FSLでは十分に研究されていない、人間の構成認識である。 人間のこのような能力に触発され、視覚的プリミティブを学習し、プリミティブを構成して新しいクラスを認識する能力を模倣するために、我々はFSLにアプローチし、重要なプリミティブからなる特徴表現(プリミティブ発見とプリミティブ拡張)を学習する。 プリミティブディスカバリでは、画像分割の順序から自己スーパービジョンすることで、オブジェクト部分に関するプリミティブの学習に重点を置いています。 深層ネットワークの解釈可能性に関する最近の研究から着想を得たプリミティブエンハンスメントでは、FSLベースラインモデルのための構成ビューを提供する。 数学的推論と生物学的研究(ヘビアンラーニングルールとウィンナー・テイク・オールのメカニズム)の両面から着想を得たこのモデルを修正するため、重要なプリミティブの活性化を拡大し、他のプリミティブの活性化を低減し、重要なプリミティブの影響を高め、これらのプリミティブを活用して新しいクラスを構築するためのソフトコンポジション機構を提案する。 画像分類と画像認識の両タスクについて,公開ベンチマークによる大規模な実験を行った。 提案手法は,これらすべてのデータセットの最先端性能を達成し,より優れた解釈性を示す。

Few-shot learning (FSL) aims at recognizing novel classes given only few training samples, which still remains a great challenge for deep learning. However, humans can easily recognize novel classes with only few samples. A key component of such ability is the compositional recognition that human can perform, which has been well studied in cognitive science but is not well explored in FSL. Inspired by such capability of humans, to imitate humans' ability of learning visual primitives and composing primitives to recognize novel classes, we propose an approach to FSL to learn a feature representation composed of important primitives, which is jointly trained with two parts, i.e. primitive discovery and primitive enhancing. In primitive discovery, we focus on learning primitives related to object parts by self-supervision from the order of image splits, avoiding extra laborious annotations and alleviating the effect of semantic gaps. In primitive enhancing, inspired by current studies on the interpretability of deep networks, we provide our composition view for the FSL baseline model. To modify this model for effective composition, inspired by both mathematical deduction and biological studies (the Hebbian Learning rule and the Winner-Take-All mechanism), we propose a soft composition mechanism by enlarging the activation of important primitives while reducing that of others, so as to enhance the influence of important primitives and better utilize these primitives to compose novel classes. Extensive experiments on public benchmarks are conducted on both the few-shot image classification and video recognition tasks. Our method achieves the state-of-the-art performance on all these datasets and shows better interpretability.
翻訳日:2022-12-03 19:45:45 公開日:2020-09-22
# whenet: 広範囲頭部ポーズのリアルタイム細粒度推定

WHENet: Real-time Fine-Grained Estimation for Wide Range Head Pose ( http://arxiv.org/abs/2005.10353v2 )

ライセンス: Link先を確認
Yijun Zhou, James Gregson(参考訳) 本稿では,1枚のRGB画像から全方向のヘッドヤウからオイラー角度を推定するエンド・ツー・エンドのヘッドプレース推定ネットワークを提案する。 既存の手法は正面視ではうまく機能するが、あらゆる視点から標的頭部のポーズは少ない。 これは自動運転と小売に応用できる。 ネットワークは、損失関数の変更と広域推定に適応したトレーニング戦略によるマルチロスアプローチに基づいている。 さらに,本研究では,現在のパノプティクスデータセットから,前方視の接地真実ラベルを初めて抽出する。 得られたワイド・ヘッドポジション推定ネットワーク (WHENet) は、ヘッド・ユーのフルレンジ(幅広)に適用できる最初のきめ細かい現代的手法であるが、前頭頭部ポーズ推定のための最先端の手法にも適合または打ち勝つ。 私たちのネットワークは、モバイルデバイスやアプリケーションにとってコンパクトで効率的です。

We present an end-to-end head-pose estimation network designed to predict Euler angles through the full range head yaws from a single RGB image. Existing methods perform well for frontal views but few target head pose from all viewpoints. This has applications in autonomous driving and retail. Our network builds on multi-loss approaches with changes to loss functions and training strategies adapted to wide range estimation. Additionally, we extract ground truth labelings of anterior views from a current panoptic dataset for the first time. The resulting Wide Headpose Estimation Network (WHENet) is the first fine-grained modern method applicable to the full-range of head yaws (hence wide) yet also meets or beats state-of-the-art methods for frontal head pose estimation. Our network is compact and efficient for mobile devices and applications.
翻訳日:2022-12-01 05:49:29 公開日:2020-09-22
# クラウドソースプラットフォーム上の機械学習モデルはバイアスを示すか? モデルフェアネスに関する実証的研究

Do the Machine Learning Models on a Crowd Sourced Platform Exhibit Bias? An Empirical Study on Model Fairness ( http://arxiv.org/abs/2005.12379v2 )

ライセンス: Link先を確認
Sumon Biswas and Hridesh Rajan(参考訳) 機械学習モデルは、銀行ローンの承認、刑事判決の推薦、従業員の雇用など、重要な意思決定ソフトウェアでますます使われている。 これらのモデルの公平性を保証することは、意思決定中に保護された属性(例えば人種、性別、年齢)に基づいて差別を起こさないために重要である。 不公平さを計測し、ある程度緩和するためにアルゴリズムが開発されている。 本稿では,実世界の機械学習モデルにおける公平性と緩和の実証的評価に着目する。 われわれは、Kaggleが5つのタスクに使用した40の上位モデルのベンチマークを作成し、その上で、総合的な公正度測定値を使用して、その公正度を評価した。 そして,これらのモデルに7つの緩和手法を適用し,公平性,緩和結果,性能への影響を分析した。 モデル最適化手法によって、モデルに不公平が生じていることが判明した。 一方、機械学習ライブラリには公平性制御機構がいくつか存在するが、それらは文書化されていない。 緩和アルゴリズムはまた、後処理の緩和はしばしばコストがかかり(性能の観点から)、前処理段階の緩和が好ましいなど、一般的なパターンを示す。 また、公正緩和決定の異なるトレードオフ選択も提示しました。 本研究は, 理論的公平性を考慮したアルゴリズムとソフトウェア工学的手法とのギャップを減らすための今後の研究方向を提案する。

Machine learning models are increasingly being used in important decision-making software such as approving bank loans, recommending criminal sentencing, hiring employees, and so on. It is important to ensure the fairness of these models so that no discrimination is made based on protected attribute (e.g., race, sex, age) while decision making. Algorithms have been developed to measure unfairness and mitigate them to a certain extent. In this paper, we have focused on the empirical evaluation of fairness and mitigations on real-world machine learning models. We have created a benchmark of 40 top-rated models from Kaggle used for 5 different tasks, and then using a comprehensive set of fairness metrics, evaluated their fairness. Then, we have applied 7 mitigation techniques on these models and analyzed the fairness, mitigation results, and impacts on performance. We have found that some model optimization techniques result in inducing unfairness in the models. On the other hand, although there are some fairness control mechanisms in machine learning libraries, they are not documented. The mitigation algorithm also exhibit common patterns such as mitigation in the post-processing is often costly (in terms of performance) and mitigation in the pre-processing stage is preferred in most cases. We have also presented different trade-off choices of fairness mitigation decisions. Our study suggests future research directions to reduce the gap between theoretical fairness aware algorithms and the software engineering methods to leverage them in practice.
翻訳日:2022-11-30 23:12:42 公開日:2020-09-22
# プログラミング言語の教師なし翻訳

Unsupervised Translation of Programming Languages ( http://arxiv.org/abs/2006.03511v3 )

ライセンス: Link先を確認
Marie-Anne Lachaux, Baptiste Roziere, Lowik Chanussot, Guillaume Lample(参考訳) トランスコンパイラ(transcompiler)は、ソースコードを高レベルのプログラミング言語(c++やpythonなど)から別の言語に変換するシステムである。 トランスコンパイラは、主に相互運用性のために使用され、古いまたは非推奨の言語(例えば、COBOL、Python 2)で書かれたコードベースをモダンな言語に移植する。 通常は手書きの書き直しルールに依存し、ソースコードの抽象構文木に適用される。 残念ながら、結果の翻訳は可読性に欠けることが多く、ターゲット言語規約を尊重せず、適切に動作させるために手動で修正する必要がある。 全体的な翻訳プロセスは時間がかかり、ソース言語とターゲット言語の両方で専門知識が必要である。 ニューラルモデルは自然言語翻訳の文脈ではルールベースよりも大幅に優れているが、この領域では並列データが不足しているため、トランスコンパイルへの応用は限られている。 本稿では,教師なし機械翻訳における最近の手法を活用し,教師なし神経トランスコンパイラを訓練する。 私たちは、オープンソースgithubプロジェクトからソースコードをトレーニングし、c++、java、pythonの機能を高い精度で翻訳できることを示しています。 本手法は単言語ソースコードにのみ依存し,ソース言語や対象言語への専門知識を必要とせず,他のプログラミング言語に容易に一般化できる。 また、852の並列関数からなるテストセットと、翻訳の正確性をチェックするユニットテストを構築し、リリースする。 当社のモデルはルールベースの商用ベースラインをかなり上回っています。

A transcompiler, also known as source-to-source translator, is a system that converts source code from a high-level programming language (such as C++ or Python) to another. Transcompilers are primarily used for interoperability, and to port codebases written in an obsolete or deprecated language (e.g. COBOL, Python 2) to a modern one. They typically rely on handcrafted rewrite rules, applied to the source code abstract syntax tree. Unfortunately, the resulting translations often lack readability, fail to respect the target language conventions, and require manual modifications in order to work properly. The overall translation process is timeconsuming and requires expertise in both the source and target languages, making code-translation projects expensive. Although neural models significantly outperform their rule-based counterparts in the context of natural language translation, their applications to transcompilation have been limited due to the scarcity of parallel data in this domain. In this paper, we propose to leverage recent approaches in unsupervised machine translation to train a fully unsupervised neural transcompiler. We train our model on source code from open source GitHub projects, and show that it can translate functions between C++, Java, and Python with high accuracy. Our method relies exclusively on monolingual source code, requires no expertise in the source or target languages, and can easily be generalized to other programming languages. We also build and release a test set composed of 852 parallel functions, along with unit tests to check the correctness of translations. We show that our model outperforms rule-based commercial baselines by a significant margin.
翻訳日:2022-11-25 04:10:41 公開日:2020-09-22
# 入射高さ推定によるリモートセンシング画像の幾何学的セグメンテーション

Geometry-Aware Segmentation of Remote Sensing Images via Implicit Height Estimation ( http://arxiv.org/abs/2006.05848v2 )

ライセンス: Link先を確認
Xiang Li, Lingjing Wang, Yi Fang(参考訳) 最近の研究では、空中画像のセマンティックセグメンテーションの性能を高めるために追加の標高データ(例えばDSM)を使用することの利点が示されている。 しかし、従来の方法は3次元標高情報を付加的な入力として採用することが多い。 多くの実世界のアプリケーションでは、対応するDSM情報を手元に持っておらず、取得したDSM画像の空間分解能は、通常、空中画像と一致しない。 本稿では,このデータ制約を緩和し,かつ3次元標高情報を活用するために,高度推定による空中画像の正確な意味ラベリングを実現する幾何認識セグメンテーションモデルを提案する。 セマンティックラベリングのためにシングルストリームエンコーダデコーダネットワークを使用する代わりに、高さマップを予測するための分離デコーダブランチを設計し、新たに設計されたデコーダブランチをトレーニングするためのサイドインスペクタとしてDSMイメージを使用する。 このように、このモデルではdsmをモデル入力として必要とせず、トレーニング中に有用な3d幾何学的情報の恩恵を受けることができます。 さらに,高さデコーダ枝からの3次元幾何学的特徴と意味的セグメンテーション枝からの2次元文脈的特徴を融合する,幾何認識畳み込みモジュールを開発した。 融合した特徴埋め込みは、性能を向上した幾何対応セグメンテーションマップを作成することができる。 我々のモデルは,DSMイメージを副監督としてトレーニングする一方で,推論段階ではDSMデータを必要とせず,エンドツーエンドで意味ラベルを直接予測する。 ISPRS Vaihingen と Potsdam のデータセットを用いた実験により,航空画像のセマンティックセグメンテーションにおける提案手法の有効性が示された。 提案モデルは,手作りの機能や後処理を使わずに,両データセットで顕著な性能を実現する。

Recent studies have shown the benefits of using additional elevation data (e.g., DSM) for enhancing the performance of the semantic segmentation of aerial images. However, previous methods mostly adopt 3D elevation information as additional inputs. While in many real-world applications, one does not have the corresponding DSM information at hand and the spatial resolution of acquired DSM images usually do not match the aerial images. To alleviate this data constraint and also take advantage of 3D elevation information, in this paper, we introduce a geometry-aware segmentation model that achieves accurate semantic labeling of aerial images via joint height estimation. Instead of using a single-stream encoder-decoder network for semantic labeling, we design a separate decoder branch to predict the height map and use the DSM images as side supervision to train this newly designed decoder branch. In this way, our model does not require DSM as model input and still benefits from the helpful 3D geometric information during training. Moreover, we develop a new geometry-aware convolution module that fuses the 3D geometric features from the height decoder branch and the 2D contextual features from the semantic segmentation branch. The fused feature embeddings can produce geometry-aware segmentation maps with enhanced performance. Our model is trained with DSM images as side supervision, while in the inference stage, it does not require DSM data and directly predicts the semantic labels in an end-to-end fashion. Experiments on ISPRS Vaihingen and Potsdam datasets demonstrate the effectiveness of the proposed method for the semantic segmentation of aerial images. The proposed model achieves remarkable performance on both datasets without using any hand-crafted features or post-processing.
翻訳日:2022-11-23 05:49:49 公開日:2020-09-22
# IALE: アクティブラーナーの集まりを省略する

IALE: Imitating Active Learner Ensembles ( http://arxiv.org/abs/2007.04637v3 )

ライセンス: Link先を確認
Christoffer Loeffler and Christopher Mutschler(参考訳) アクティブラーニング(AL)は最も重要なデータサンプルのラベル付けを優先する。 しかし、ALヒューリスティックスの性能は、基礎となる分類器モデルとデータの構造に依存する。 本稿では,ALサイクルの各段階で,バッチモードプールをベースとした最適なヒューリスティックの選択を模倣する模倣学習手法を提案する。 DAGGERを使用して、データセット上でポリシーをトレーニングし、その後、同様のドメインのデータセットに適用します。 複数のALヒューリスティックを専門家として、このポリシーはALプロセスの現在の状況から、最高のALヒューリスティックの選択を反映することができる。 良く知られたデータセットを用いた実験により、私たちはともに美術模倣学習者やヒューリスティックスよりも優れています。

Active learning (AL) prioritizes the labeling of the most informative data samples. However, the performance of AL heuristics depends on the structure of the underlying classifier model and the data. We propose an imitation learning scheme that imitates the selection of the best expert heuristic at each stage of the AL cycle in a batch-mode pool-based setting. We use DAGGER to train the policy on a dataset and later apply it to datasets from similar domains. With multiple AL heuristics as experts, the policy is able to reflect the choices of the best AL heuristics given the current state of the AL process. Our experiment on well-known datasets show that we both outperform state of the art imitation learners and heuristics.
翻訳日:2022-11-12 03:21:57 公開日:2020-09-22
# ImageCLEFmed Caption 2020タスクのための競合型ディープニューラルネットワークアプローチ

A Competitive Deep Neural Network Approach for the ImageCLEFmed Caption 2020 Task ( http://arxiv.org/abs/2007.14226v3 )

ライセンス: Link先を確認
Marimuthu Kalimuthu, Fabrizio Nunnari, Daniel Sonntag(参考訳) ImageCLEFmed Captionタスクの目的は、放射線画像に関連する医療概念をラベル付けするシステムを開発することである。 本稿では,この問題に取り組むための深層ニューラルネットワーク(dnn)ベースのアプローチについて述べる。 3,534枚のX線画像のチャレンジテストセットにおいて,本システムではF1スコア0.375を達成し,得られたデータのみに依存し,外部の医用知識やオントロジー,あるいは他の医用画像リポジトリやアプリケーションドメインから事前学習したモデルを用いないシステムのうち,12位にランクインした。

The aim of ImageCLEFmed Caption task is to develop a system that automatically labels radiology images with relevant medical concepts. We describe our Deep Neural Network (DNN) based approach for tackling this problem. On the challenge test set of 3,534 radiology images, our system achieves an F1 score of 0.375 and ranks high, 12th among all systems that were successfully submitted to the challenge, whereby we only rely on the provided data sources and do not use any external medical knowledge or ontologies, or pretrained models from other medical image repositories or application domains.
翻訳日:2022-11-11 13:17:14 公開日:2020-09-22
# 敵集団を用いたロバスト強化学習

Robust Reinforcement Learning using Adversarial Populations ( http://arxiv.org/abs/2008.01825v2 )

ライセンス: Link先を確認
Eugene Vinitsky and Yuqing Du and Kanaad Parvate and Kathy Jang and Pieter Abbeel and Alexandre Bayen(参考訳) 強化学習(Reinforcement Learning, RL)は、コントローラ設計に有効なツールであるが、基盤となるシステムの力学が乱れたときに破滅的に失敗する堅牢性の問題に対処することができる。 ロバストなrlの定式化は、ダイナミックスに最悪の対向ノイズを加え、ゼロサムミニマックスゲームの解としてノイズ分布を構築することでこれに取り組む。 しかしながら、Robust RLの定式化に関する既存の研究は、主に単一のRLエージェントを1つの敵に対してトレーニングすることに焦点を当てている。 そこで本研究では,単一の敵を用いた場合,その敵の標準パラメトリゼーションの下での力学変動に対する頑健性が得られないことを示す。 そこで本研究では,学習中の集団から敵集団とサンプルをランダムに初期化する,ロバストなrl定式化の人口ベース拡張を提案する。 我々はロボティクスのベンチマークを通して、敵集団の使用によってより強固なポリシーが生まれ、分散の一般化が改善されることを実証的に検証する。 最後に、この手法がユビキタスなドメインランダム化の失敗モードを避けつつ、これらのベンチマークでドメインランダム化として同等の堅牢性と一般化をもたらすことを実証する。

Reinforcement Learning (RL) is an effective tool for controller design but can struggle with issues of robustness, failing catastrophically when the underlying system dynamics are perturbed. The Robust RL formulation tackles this by adding worst-case adversarial noise to the dynamics and constructing the noise distribution as the solution to a zero-sum minimax game. However, existing work on learning solutions to the Robust RL formulation has primarily focused on training a single RL agent against a single adversary. In this work, we demonstrate that using a single adversary does not consistently yield robustness to dynamics variations under standard parametrizations of the adversary; the resulting policy is highly exploitable by new adversaries. We propose a population-based augmentation to the Robust RL formulation in which we randomly initialize a population of adversaries and sample from the population uniformly during training. We empirically validate across robotics benchmarks that the use of an adversarial population results in a more robust policy that also improves out-of-distribution generalization. Finally, we demonstrate that this approach provides comparable robustness and generalization as domain randomization on these benchmarks while avoiding a ubiquitous domain randomization failure mode.
翻訳日:2022-11-02 23:56:41 公開日:2020-09-22
# 機能的後進変換器のためのglushkovの構成

Glushkov's construction for functional subsequential transducers ( http://arxiv.org/abs/2008.02239v4 )

ライセンス: Link先を確認
Aleksander Mendoza-Drosik(参考訳) グルシコフの構成は多くの興味深い性質を持ち、トランスデューサに適用するとさらに明らかになる。 本稿では,このアルゴリズムの拡張と最適化の無駄な範囲について述べる。 正規表現の特別なフレーバーが導入され、$\epsilon$-free関数後続重み付き有限状態変換器に効率的に変換できる。 生成されたオートマトンは非常にコンパクトで、元の式の各シンボル(入力アルファベットから)に対して1つの状態だけを含み、どんなに大きくても各シンボルの範囲で1つの遷移しか持たない。 このようなコンパクト化された遷移範囲は、オートマトン評価中に効率的なバイナリ検索検索を可能にする。 ここで提示されるすべてのメソッドとアルゴリズムは、マルチタペトランスデューサの正規表現のオープンソースコンパイラの実装に使用された。

Glushkov's construction has many interesting properties and they become even more evident when applied to transducers. This article strives to show the wast range of possible extensions and optimisations for this algorithm. Special flavour of regular expressions is introduced, which can be efficiently converted to $\epsilon$-free functional subsequential weighted finite state transducers. Produced automata are very compact, as they contain only one state for each symbol (from input alphabet) of original expression and only one transition for each range of symbols, no matter how large. Such compactified ranges of transitions allow for efficient binary search lookup during automaton evaluation. All the methods and algorithms presented here were used to implement open-source compiler of regular expressions for multitape transducers.
翻訳日:2022-11-02 18:30:07 公開日:2020-09-22
# 深層学習性能解析のための時間ベースルーフライン

Time-Based Roofline for Deep Learning Performance Analysis ( http://arxiv.org/abs/2009.04598v3 )

ライセンス: Link先を確認
Yunsong Wang, Charlene Yang, Steven Farrell, Yan Zhang, Thorsten Kurth, Samuel Williams(参考訳) ディープラーニングアプリケーションは、通常、非常に計算集約的で、トレーニングと推論に長い時間を要する。 ハードウェアとソフトウェアの両方の研究者がこの問題に取り組み,本稿では,アプリケーションの最適化を容易にするため,性能解析のためのルーフラインベースのアプローチを提案する。 このアプローチは、従来の高性能コンピューティングアプリケーションで広く使われているルーフラインモデルの拡張であり、計算/バンド幅の複雑さと実行時間の両方を計算式に組み込んで、ディープラーニング特有の特性に関する洞察を提供する。 2次元畳み込みと長時間の短期記憶という2つの代表カーネルの集合を用いて、この新しいアプローチの検証と実演を行い、演算強度、キャッシュローカリティ、自動チューニング、カーネル起動オーバーヘッド、Tensor Coreの使用がパフォーマンスに与える影響について検討する。 一般的なアドホックアプローチと比較して、この研究は、コードパフォーマンスを分析し、ディープラーニングアプリケーションのための最適化機会を特定するためのより体系的な方法を形成するのに役立つ。

Deep learning applications are usually very compute-intensive and require a long run time for training and inference. This has been tackled by researchers from both hardware and software sides, and in this paper, we propose a Roofline-based approach to performance analysis to facilitate the optimization of these applications. This approach is an extension of the Roofline model widely used in traditional high-performance computing applications, and it incorporates both compute/bandwidth complexity and run time in its formulae to provide insights into deep learning-specific characteristics. We take two sets of representative kernels, 2D convolution and long short-term memory, to validate and demonstrate the use of this new approach, and investigate how arithmetic intensity, cache locality, auto-tuning, kernel launch overhead, and Tensor Core usage can affect performance. Compared to the common ad-hoc approach, this study helps form a more systematic way to analyze code performance and identify optimization opportunities for deep learning applications.
翻訳日:2022-10-20 12:24:50 公開日:2020-09-22
# 領域特異的超低帯域画像伝送のための単一画像超解像

Single Image Super-Resolution for Domain-Specific Ultra-Low Bandwidth Image Transmission ( http://arxiv.org/abs/2009.04127v2 )

ライセンス: Link先を確認
Jesper Haahr Christensen, Lars Valdemar Mogensen, Ole Ravn(参考訳) 水中音響通信などの低帯域幅通信は、最大データレート30-50 kbit/sで制限される。 これにより、そのようなチャネルは、単一の画像、ビデオ、その他の帯域要求のセンサデータ伝送では使用不可能または非効率になる。 データ転送ボトルネックに対処するため,海上領域における実践的なユースケースを検討し,単一画像超解法の可能性を検討する。 本研究は,漁網にカメラを設置したトロール漁で得られた多種多様なデータセットについて検討した。 水中音響帯域要求を満たす約1kBの低解像度の低解像度化に対して,毎秒数フレームのダウンサンプリング画像を提案する。 ニューラルネットワークは、元のイメージを再構築しようと、アップサンプリングを行うように訓練される。 本研究は, 一般の実用場面において, 再構成画像の品質とその方法の展望について検討することを目的としたものである。 本研究の焦点は,「現実世界」データの高解像度画像を再構築することのみである。 本手法は,一般的なビキュービックアップサンプリングよりも知覚的品質と優れた再構成を達成し,この領域における水中応用へのさらなる取り組みを動機付ける。

Low-bandwidth communication, such as underwater acoustic communication, is limited by best-case data rates of 30--50 kbit/s. This renders such channels unusable or inefficient at best for single image, video, or other bandwidth-demanding sensor-data transmission. To combat data-transmission bottlenecks, we consider practical use-cases within the maritime domain and investigate the prospect of Single Image Super-Resolution methodologies. This is investigated on a large, diverse dataset obtained during years of trawl fishing where cameras have been placed in the fishing nets. We propose down-sampling images to a low-resolution low-size version of about 1 kB that satisfies underwater acoustic bandwidth requirements for even several frames per second. A neural network is then trained to perform up-sampling, trying to reconstruct the original image. We aim to investigate the quality of reconstructed images and prospects for such methods in practical use-cases in general. Our focus in this work is solely on learning to reconstruct the high-resolution images on "real-world" data. We show that our method achieves better perceptual quality and superior reconstruction than generic bicubic up-sampling and motivates further work in this area for underwater applications.
翻訳日:2022-10-20 12:16:30 公開日:2020-09-22
# 相互情報正規化によるモデルインバージョン攻撃のロバスト性向上

Improving Robustness to Model Inversion Attacks via Mutual Information Regularization ( http://arxiv.org/abs/2009.05241v2 )

ライセンス: Link先を確認
Tianhao Wang, Yuheng Zhang, Ruoxi Jia(参考訳) 本稿では,モデル逆転攻撃(MI)に対する防御機構について検討する。これは,ターゲット機械学習モデルへのアクセスからトレーニングデータ分布に関する情報を推測することを目的としたプライバシー攻撃の一種である。 既存の防御機構はモデル固有のヒューリスティックやノイズインジェクションに依存している。 攻撃を緩和できる一方で、既存の手法はモデル性能を著しく阻害する。 様々なモデルに適用可能な防御機構を設計し、より良いユーティリティとプライバシのトレードオフを実現する方法についてはまだ疑問が残る。 本稿では,mi攻撃に対する相互情報正規化に基づく防御(mid)を提案する。 鍵となるアイデアは、予測に含まれるモデル入力に関する情報を制限することで、モデル予測からプライベートトレーニング属性を推測する敵の能力を制限することである。 我々の防御原理はモデルに依存しないものであり、線形回帰、決定木、ニューラルネットワークのための正則化器にトラクタブル近似を提示する。 我々は、厳密なゲームベース定義を考案し、関連する情報漏洩を定量化することにより、MI攻撃の正式な研究を行う。 筆者らの理論的分析は,いくつかの先行研究で実証的に観察されているMI攻撃に対するDPの防御効果に光を当てている。 実験により、midは様々なmi攻撃、ターゲットモデル、データセットに対して最先端のパフォーマンスをもたらすことを実証した。

This paper studies defense mechanisms against model inversion (MI) attacks -- a type of privacy attacks aimed at inferring information about the training data distribution given the access to a target machine learning model. Existing defense mechanisms rely on model-specific heuristics or noise injection. While being able to mitigate attacks, existing methods significantly hinder model performance. There remains a question of how to design a defense mechanism that is applicable to a variety of models and achieves better utility-privacy tradeoff. In this paper, we propose the Mutual Information Regularization based Defense (MID) against MI attacks. The key idea is to limit the information about the model input contained in the prediction, thereby limiting the ability of an adversary to infer the private training attributes from the model prediction. Our defense principle is model-agnostic and we present tractable approximations to the regularizer for linear regression, decision trees, and neural networks, which have been successfully attacked by prior work if not attached with any defenses. We present a formal study of MI attacks by devising a rigorous game-based definition and quantifying the associated information leakage. Our theoretical analysis sheds light on the inefficacy of DP in defending against MI attacks, which has been empirically observed in several prior works. Our experiments demonstrate that MID leads to state-of-the-art performance for a variety of MI attacks, target models and datasets.
翻訳日:2022-10-19 21:59:27 公開日:2020-09-22
# ブロックチェーンにおける分散型協調型AIモデルの解析

Analysis of Models for Decentralized and Collaborative AI on Blockchain ( http://arxiv.org/abs/2009.06756v2 )

ライセンス: Link先を確認
Justin D. Harris(参考訳) 機械学習は近年、人工知能の大きな進歩を可能にしているが、これらの結果は高度に集中できる。 必要な大規模なデータセットは一般的にプロプライエタリであり、予測はクエリ毎に販売されることが多い。 Microsoft ResearchのDecentralized and Collaborative AI on Blockchainなど、特定のタスクのためにモデルとデータを無償で提供する提案が公開されている。 このフレームワークにより、参加者はデータセットを共同で構築し、スマートコントラクトを使用して、パブリックブロックチェーン上で継続的に更新されたモデルを共有することができる。 最初の提案は、実世界のシナリオで使用されるモデルとインセンティブメカニズムの多くの詳細を省略したフレームワークの概要を提供した。 本研究では,自己評価インセンティブ(自己評価インセンティブ,自己評価インセンティブ,自己評価インセンティブ,自己評価インセンティブ)を用いて,正しいデータを提出する参加者が利益を得る機会を得られるように,複数のモデルと構成を用いてベストプラクティスを提案する。 パーセプトロン,Na\"ive Bayes,Nearest Centroid Classifierの3つのモデルについて,エンドモンドからのユーザアクティビティによるスポーツの予測,IMDBからの映画レビューに対する感情分析,ニュース記事が偽であるかどうかの3つのデータセットを用いてシミュレーションを行った。 モデルがパブリックブロックチェーン上でスマートコントラクトでホストされている場合、データセット毎に、その正確さ、良質なユーザと悪質なユーザのバランス、デプロイ、更新、返金、報酬収集のためのトランザクションコスト(あるいはガス)など、いくつかの要因を比較します。 Pythonで書かれたEthereumブロックチェーンとシミュレーションのオープンソース実装はhttps://github.com/microsoft/0xDeCA10Bで公開されている。 このバージョンは、オリジナルの出版後に書かれた新しい最適化を使用して、ガスコストを更新した。

Machine learning has recently enabled large advances in artificial intelligence, but these results can be highly centralized. The large datasets required are generally proprietary; predictions are often sold on a per-query basis; and published models can quickly become out of date without effort to acquire more data and maintain them. Published proposals to provide models and data for free for certain tasks include Microsoft Research's Decentralized and Collaborative AI on Blockchain. The framework allows participants to collaboratively build a dataset and use smart contracts to share a continuously updated model on a public blockchain. The initial proposal gave an overview of the framework omitting many details of the models used and the incentive mechanisms in real world scenarios. In this work, we evaluate the use of several models and configurations in order to propose best practices when using the Self-Assessment incentive mechanism so that models can remain accurate and well-intended participants that submit correct data have the chance to profit. We have analyzed simulations for each of three models: Perceptron, Na\"ive Bayes, and a Nearest Centroid Classifier, with three different datasets: predicting a sport with user activity from Endomondo, sentiment analysis on movie reviews from IMDB, and determining if a news article is fake. We compare several factors for each dataset when models are hosted in smart contracts on a public blockchain: their accuracy over time, balances of a good and bad user, and transaction costs (or gas) for deploying, updating, collecting refunds, and collecting rewards. A free and open source implementation for the Ethereum blockchain and simulations written in Python is provided at https://github.com/microsoft/0xDeCA10B. This version has updated gas costs using newer optimizations written after the original publication.
翻訳日:2022-10-18 12:27:10 公開日:2020-09-22
# 時系列データにおけるトレンド予測のためのディープニューラルネットワークの解析

An analysis of deep neural networks for predicting trends in time series data ( http://arxiv.org/abs/2009.07943v2 )

ライセンス: Link先を確認
Kouame Hermann Kouassi and Deshendran Moodley(参考訳) 近年,時系列データの傾向を予測するために,ハイブリッドディープニューラルネットワーク(DNN)アルゴリズムであるTreNetが提案されている。 TreNetは、他のDNNや従来のMLアプローチよりも、トレンド予測に優れた性能を示したが、使用した検証方法は時系列データセットのシーケンシャルな性質を考慮せず、モデル更新に対処しなかった。 本研究では,同じデータセット上でのTreNet実験をウォークフォワード検証法を用いて再現し,モデル安定性を評価するために,複数の独立ランで最適モデルを検証した。 我々は,4つのデータセットにおけるハイブリッドTreNetアルゴリズムの性能を,点データを取り込むバニラDNNアルゴリズム,および従来のMLアルゴリズムと比較した。 一般的には、TreNetはバニラDNNモデルよりもパフォーマンスが良いが、オリジナルのTreNet研究で報告されたように、すべてのデータセット上では動作しない。 本研究は,時系列データにおけるトレンド予測のための機械学習モデルの評価と開発において,適切な検証手法とモデルの安定性を評価することの重要性を強調する。

Recently, a hybrid Deep Neural Network (DNN) algorithm, TreNet was proposed for predicting trends in time series data. While TreNet was shown to have superior performance for trend prediction to other DNN and traditional ML approaches, the validation method used did not take into account the sequential nature of time series data sets and did not deal with model update. In this research we replicated the TreNet experiments on the same data sets using a walk-forward validation method and tested our optimal model over multiple independent runs to evaluate model stability. We compared the performance of the hybrid TreNet algorithm, on four data sets to vanilla DNN algorithms that take in point data, and also to traditional ML algorithms. We found that in general TreNet still performs better than the vanilla DNN models, but not on all data sets as reported in the original TreNet study. This study highlights the importance of using an appropriate validation method and evaluating model stability for evaluating and developing machine learning models for trend prediction in time series data.
翻訳日:2022-10-17 23:18:48 公開日:2020-09-22
# 地名マッチングによる地理的候補選択への深層学習アプローチ

A Deep Learning Approach to Geographical Candidate Selection through Toponym Matching ( http://arxiv.org/abs/2009.08114v2 )

ライセンス: Link先を確認
Mariona Coll Ardanuy, Kasra Hosseini, Katherine McDonough, Amrey Krause, Daniel van Strien and Federico Nanni(参考訳) テキストデータに高度なセマンティックアクセスを提供するには、トポニムを認識して現実のレファレントに解決する必要がある。 このプロセスは、しばしば頭字語における高い変化によって妨げられる。 候補選択(英: candidate selection)は、以前に認識された頭字語によって参照される可能性のある実体を識別するタスクである。 伝統的に研究コミュニティではほとんど注目されていないが、特にノイズや非標準テキストにおいて、候補選択が下流のタスク(すなわちエンティティの解決)に大きな影響を与えることが示されている。 本稿では,最新のニューラルネットワークアーキテクチャを用いて,トポニムマッチングによる候補選択のための柔軟なディープラーニング手法を提案する。 我々は,様々な難解なシナリオ(言語と地域の違い,OCRの誤り)をカバーする,いくつかの新しい現実的データセットに基づく固有トポニムマッチング評価を行う。 既存のデータセットと、19世紀の英語OCRのテキストを手動で注釈付けした新たなリソースを用いて、トポニム解像度の下流タスクにおける候補選択の性能を報告する。

Recognizing toponyms and resolving them to their real-world referents is required for providing advanced semantic access to textual data. This process is often hindered by the high degree of variation in toponyms. Candidate selection is the task of identifying the potential entities that can be referred to by a toponym previously recognized. While it has traditionally received little attention in the research community, it has been shown that candidate selection has a significant impact on downstream tasks (i.e. entity resolution), especially in noisy or non-standard text. In this paper, we introduce a flexible deep learning method for candidate selection through toponym matching, using state-of-the-art neural network architectures. We perform an intrinsic toponym matching evaluation based on several new realistic datasets, which cover various challenging scenarios (cross-lingual and regional variations, as well as OCR errors). We report its performance on candidate selection in the context of the downstream task of toponym resolution, both on existing datasets and on a new manually-annotated resource of nineteenth-century English OCR'd text.
翻訳日:2022-10-17 12:06:52 公開日:2020-09-22
# ロボット制御におけるロバスト性に対する反事実的説明と因果推論

Counterfactual Explanation and Causal Inference in Service of Robustness in Robot Control ( http://arxiv.org/abs/2009.08856v2 )

ライセンス: Link先を確認
Sim\'on C. Smith and Subramanian Ramamoorthy(参考訳) 本稿では,ロボット制御の応用に動機づけられた「事象AをCに代えてBに変化させることができるか」という形態の対実条件の生成モデルを学習するためのアーキテクチャを提案する。 画像ベースのディープニューラルネットワークモデルは、"adversarial training"パラダイムを使用して、ユーザー定義の効果を引き起こすために、元のイメージに小さく現実的な修正を施すように訓練される。 これらの修正は、イメージベースのロバスト制御の設計プロセスにおいて、適応ではなく入力空間の変更によって、コントローラが動作するレジームに戻る能力を決定するために使用できる。 ノイズを拒否する能力でロバスト性が定量化される従来の制御設計アプローチとは対照的に、特定の要件に違反する可能性のある反事実の空間を探索し、特定のロボットアプリケーションにおいてより表現力のある代替モデルを提案する。 そこで我々は,ブラックボックスモデルの説明と,自律型ロボット制御における潜在的な移動経路を想定するための手法として,対物生成を提案する。 まず、よく知られたMNISTとCelebFaces Attributesデータセットを用いて、分類タスクのセットでこのアプローチを実証する。 そして,多次元回帰に対処し,物理ロボットによる到達タスク,デジタル双対シミュレーションにおけるロボットによるナビゲーションタスクにおいて,我々のアプローチを実証する。

We propose an architecture for training generative models of counterfactual conditionals of the form, 'can we modify event A to cause B instead of C?', motivated by applications in robot control. Using an 'adversarial training' paradigm, an image-based deep neural network model is trained to produce small and realistic modifications to an original image in order to cause user-defined effects. These modifications can be used in the design process of image-based robust control - to determine the ability of the controller to return to a working regime by modifications in the input space, rather than by adaptation. In contrast to conventional control design approaches, where robustness is quantified in terms of the ability to reject noise, we explore the space of counterfactuals that might cause a certain requirement to be violated, thus proposing an alternative model that might be more expressive in certain robotics applications. So, we propose the generation of counterfactuals as an approach to explanation of black-box models and the envisioning of potential movement paths in autonomous robotic control. Firstly, we demonstrate this approach in a set of classification tasks, using the well known MNIST and CelebFaces Attributes datasets. Then, addressing multi-dimensional regression, we demonstrate our approach in a reaching task with a physical robot, and in a navigation task with a robot in a digital twin simulation.
翻訳日:2022-10-17 03:26:48 公開日:2020-09-22
# funcnn:一般化入力空間を用いたディープニューラルネットワークに適合するrパッケージ

FuncNN: An R Package to Fit Deep Neural Networks Using Generalized Input Spaces ( http://arxiv.org/abs/2009.09111v2 )

ライセンス: Link先を確認
Barinder Thind, Sidi Wu, Richard Groenewald, Jiguo Cao(参考訳) 入力空間がスカラー変数からなる場合、ニューラルネットワークは回帰や分類の問題に優れていた。 この習熟度から,ユーザがこのようなモデルに容易に適合できるような,いくつかの人気パッケージが開発されている。 しかし、この方法論は機能的共変量の使用を除外しており、この一般化された入力空間でディープラーニングモデルを構築できるソフトウェアは存在しない。 我々の知る限り、関数型ニューラルネットワーク(FuncNN)ライブラリは、あらゆるプログラミング言語で最初のそのようなパッケージであり、ライブラリはR向けに開発され、ケラスアーキテクチャの上に構築されている。 本稿では,モデルの構築,予測生成,クロスバリデーションの実行を容易にするいくつかの機能を紹介する。 基礎となる方法論の要約も紹介する。 究極の貢献は、関数型とスカラー型の両方の共変量が存在するデータ問題の一般的なモデリングと診断ツールセットを提供するパッケージである。

Neural networks have excelled at regression and classification problems when the input space consists of scalar variables. As a result of this proficiency, several popular packages have been developed that allow users to easily fit these kinds of models. However, the methodology has excluded the use of functional covariates and to date, there exists no software that allows users to build deep learning models with this generalized input space. To the best of our knowledge, the functional neural network (FuncNN) library is the first such package in any programming language; the library has been developed for R and is built on top of the keras architecture. Throughout this paper, several functions are introduced that provide users an avenue to easily build models, generate predictions, and run cross-validations. A summary of the underlying methodology is also presented. The ultimate contribution is a package that provides a set of general modelling and diagnostic tools for data problems in which there exist both functional and scalar covariates.
翻訳日:2022-10-17 02:39:45 公開日:2020-09-22
# 正確な3次元姿勢の合成訓練と野生における形状推定

Synthetic Training for Accurate 3D Human Pose and Shape Estimation in the Wild ( http://arxiv.org/abs/2009.10013v2 )

ライセンス: Link先を確認
Akash Sengupta and Ignas Budvytis and Roberto Cipolla(参考訳) 本稿では,RGB画像からの単眼立体形状とポーズ推定の問題に対処する。 この分野におけるポーズ予測精度の進歩にもかかわらず、最先端の手法はしばしば不正確な身体形状を予測している。 本研究は,多種多様な身体形状ラベルを用いたWildトレーニングデータの不足に起因することが示唆された。 そこで本研究では,形状やポーズ回帰ニューラルネットワークへの入力としてシルエットや2次元関節などの代理表現を利用したストラップ(実正確なポーズと形状のための合成訓練)を提案し,データ不足を克服するために合成トレーニングデータ(smpl統計体モデルを用いた訓練中にオンザフライで生成する)を用いてトレーニングを行う。 我々は,学習中のデータ拡張と劣化を利用して,キーポイント検出とセグメンテーションCNNによって予測される合成学習入力とノイズの多い実入力のギャップを橋渡しする。 提案手法を評価するため, 単分子形状推定, スポーツ形状, ポース3D (SSP-3D) のための挑戦的な評価データセットをキュレートし, 提供する。 各種の体型とそれに対応する擬似地下構造SMPL形状を持つ密着スポーツ選手のRGB画像と、多フレーム最適化により得られるポーズパラメータからなる。 STRAPSは、形状予測精度の観点からSSP-3Dの他の最先端手法よりも優れており、ポーズ中心のデータセットやメトリクスでは最先端の手法と競合する。

This paper addresses the problem of monocular 3D human shape and pose estimation from an RGB image. Despite great progress in this field in terms of pose prediction accuracy, state-of-the-art methods often predict inaccurate body shapes. We suggest that this is primarily due to the scarcity of in-the-wild training data with diverse and accurate body shape labels. Thus, we propose STRAPS (Synthetic Training for Real Accurate Pose and Shape), a system that utilises proxy representations, such as silhouettes and 2D joints, as inputs to a shape and pose regression neural network, which is trained with synthetic training data (generated on-the-fly during training using the SMPL statistical body model) to overcome data scarcity. We bridge the gap between synthetic training inputs and noisy real inputs, which are predicted by keypoint detection and segmentation CNNs at test-time, by using data augmentation and corruption during training. In order to evaluate our approach, we curate and provide a challenging evaluation dataset for monocular human shape estimation, Sports Shape and Pose 3D (SSP-3D). It consists of RGB images of tightly-clothed sports-persons with a variety of body shapes and corresponding pseudo-ground-truth SMPL shape and pose parameters, obtained via multi-frame optimisation. We show that STRAPS outperforms other state-of-the-art methods on SSP-3D in terms of shape prediction accuracy, while remaining competitive with the state-of-the-art on pose-centric datasets and metrics.
翻訳日:2022-10-16 05:17:49 公開日:2020-09-22
# 自然言語理解におけるFew-shot Slot Taggingのためのベクトル投影ネットワーク

Vector Projection Network for Few-shot Slot Tagging in Natural Language Understanding ( http://arxiv.org/abs/2009.09568v2 )

ライセンス: Link先を確認
Su Zhu, Ruisheng Cao, Lu Chen and Kai Yu(参考訳) 対話型対話システムの飛躍的な発展を契機に,ドメイン転送と適応が急速に進んでいる。 本稿では,各ラベルベクトル上の文脈的単語埋め込みの投影を単語ラベルの類似性として活用する,少数ショットスロットタギングのためのベクトル投影ネットワークを提案する。 本質的にこのアプローチは、適応バイアスを持つ正規化線形モデルと同値である。 比較実験は,提案するベクトル射影に基づく類似度計量が,他の変種を大きく超えることを実証する。 具体的には、SNIPSとNERのベンチマークでの5ショット設定において、F$_1$スコアで6.30$と13.79$ポイントの差で最強の少ショット学習ベースラインを上回っている。 私たちのコードはhttps://github.com/sz128/few_shot_slot_tagging_and_NERでリリースされます。

Few-shot slot tagging becomes appealing for rapid domain transfer and adaptation, motivated by the tremendous development of conversational dialogue systems. In this paper, we propose a vector projection network for few-shot slot tagging, which exploits projections of contextual word embeddings on each target label vector as word-label similarities. Essentially, this approach is equivalent to a normalized linear model with an adaptive bias. The contrastive experiment demonstrates that our proposed vector projection based similarity metric can significantly surpass other variants. Specifically, in the five-shot setting on benchmarks SNIPS and NER, our method outperforms the strongest few-shot learning baseline by $6.30$ and $13.79$ points on F$_1$ score, respectively. Our code will be released at https://github.com/sz128/few_shot_slot_tagging_and_NER.
翻訳日:2022-10-16 04:40:52 公開日:2020-09-22
# 経験に学ぶ:並行政策最適化を用いたステレオ逆強化学習

Learn to Exceed: Stereo Inverse Reinforcement Learning with Concurrent Policy Optimization ( http://arxiv.org/abs/2009.09577v2 )

ライセンス: Link先を確認
Feng Tao and Yongcan Cao(参考訳) 本稿では,学習エージェントに報酬関数が不明なマルコフ決定過程において,専門家のデモンストレーションを模倣し,それを上回る制御方針を得ることの問題点について検討する。 主な関連する1つのアプローチは逆強化学習(IRL)であり、主に専門家によるデモンストレーションから報酬関数を推測することに焦点を当てている。 しかし、irlによる制御ポリシーと関連するアルゴリズムは、専門家のデモンストレーションをほとんど上回らない。 この制限を克服するために,学習エージェントが,新たな同時報酬と行動政策学習アプローチにより,実証者を上回ることができる新しい手法を提案する。 特に,我々はまず,専門家による実演の解釈におけるバイアスに対処することを目的とした,新しいステレオユーティリティ定義を提案する。 次に,学習エージェントが,学習エージェントが専門家のデモンストレーションを上回るように,報酬と行動方針を同時に学習するロス関数を提案する。 提案手法の性能はOpenAI環境で最初に実証された。 また,室内ドローン飛行シナリオを用いて,提案手法を実験的に検証する試みを行った。

In this paper, we study the problem of obtaining a control policy that can mimic and then outperform expert demonstrations in Markov decision processes where the reward function is unknown to the learning agent. One main relevant approach is the inverse reinforcement learning (IRL), which mainly focuses on inferring a reward function from expert demonstrations. The obtained control policy by IRL and the associated algorithms, however, can hardly outperform expert demonstrations. To overcome this limitation, we propose a novel method that enables the learning agent to outperform the demonstrator via a new concurrent reward and action policy learning approach. In particular, we first propose a new stereo utility definition that aims to address the bias in the interpretation of expert demonstrations. We then propose a loss function for the learning agent to learn reward and action policies concurrently such that the learning agent can outperform expert demonstrations. The performance of the proposed method is first demonstrated in OpenAI environments. Further efforts are conducted to experimentally validate the proposed method via an indoor drone flight scenario.
翻訳日:2022-10-16 04:32:24 公開日:2020-09-22
# 私の健康センサ, 私の分類器:未ラベルのエンドユーザーデータへの訓練済み分類器の適応

My Health Sensor, my Classifier: Adapting a Trained Classifier to Unlabeled End-User Data ( http://arxiv.org/abs/2009.10799v1 )

ライセンス: Link先を確認
Konstantinos Nikolaidis, Stein Kristiansen, Thomas Plagemann, Vera Goebel, Knut Liest{\o}l, Mohan Kankanhalli, Gunn Marit Traaen, Britt {\O}verland, Harriet Akre, Lars Aaker{\o}y, Sigurd Steinshamn(参考訳) 本研究では,制約付きドメイン適応(DA)に対して,ラベル付きソースデータが直接利用可能ではなく,ソースデータに基づいて訓練された分類器にのみアクセスする,というアプローチを提案する。 我々のソリューションは、分類器の信念に基づいて、ターゲットデータ分布の信頼性の高いサブリージョンのみを反復的にラベル付けする。 そして、拡大する高信頼データセットから新しい分類器を反復的に学習する。 本研究の目的は,患者のニーズに応じて睡眠時無呼吸を検知し,パーソナライズを実現するためのアプローチをDAに適用することである。 オープンとクローズドの両方の睡眠監視データセットを用いた一連の実験では、異なるデータセット間のDAのために、異なるセンサーのデータに適用される。 提案手法は, ソース領域で訓練された分類器のすべての実験において, 0.012から0.242までのkappa係数が向上した。 さらに,3つの確立されたデジットデータセット間のデジット分類daに適用し,アプローチの一般化可能性を調査し,関連する作業との比較を可能にした。 ソースデータに直接アクセスしなくてもよい結果が得られ、よく確立された教師なしDAメソッドよりも優れています。

In this work, we present an approach for unsupervised domain adaptation (DA) with the constraint, that the labeled source data are not directly available, and instead only access to a classifier trained on the source data is provided. Our solution, iteratively labels only high confidence sub-regions of the target data distribution, based on the belief of the classifier. Then it iteratively learns new classifiers from the expanding high-confidence dataset. The goal is to apply the proposed approach on DA for the task of sleep apnea detection and achieve personalization based on the needs of the patient. In a series of experiments with both open and closed sleep monitoring datasets, the proposed approach is applied to data from different sensors, for DA between the different datasets. The proposed approach outperforms in all experiments the classifier trained in the source domain, with an improvement of the kappa coefficient that varies from 0.012 to 0.242. Additionally, our solution is applied to digit classification DA between three well established digit datasets, to investigate the generalizability of the approach, and to allow for comparison with related work. Even without direct access to the source data, it achieves good results, and outperforms several well established unsupervised DA methods.
翻訳日:2022-10-15 23:29:04 公開日:2020-09-22
# 機械学習を用いた新しいcovid-19 vulnerability index(c19vi)の開発

Using Machine Learning to Develop a Novel COVID-19 Vulnerability Index (C19VI) ( http://arxiv.org/abs/2009.10808v1 )

ライセンス: Link先を確認
Anuj Tiwari, Arya V. Dadhania, Vijay Avin Balaji Ragunathrao, Edson R. A. Oliveira(参考訳) 新型コロナウイルス(COVID-19)は、現在米国で最も多い死因の1つである。 体系的な健康、社会的、経済的格差により、マイノリティや経済的に貧しい地域社会は他よりも高いリスクを負っている。 脆弱なコミュニティと新型コロナウイルスのパンデミックの両方の不均一性を捉えることのできる郡レベルの脆弱性の信頼性の高い尺度を開発する必要がある。 本研究は、米国内の脆弱な郡の識別とマッピングのためのCOVID19脆弱性指数(C19VI)を報告した。 我々はCDC社会デマトグラフィーとCOVID19固有のテーマを用いたランダムフォレスト機械学習に基づく脆弱性モデルを提案した。 また,全郡におけるパンデミックの重症度を評価するために,均質性およびトレンドアセスメント手法を用いて,革新的なCOVID19影響評価アルゴリズムを開発した。 C19VIの開発は統計学的に検証され、CDC COVID19 Community Vulnerability Index (CCVI)と比較された。 最後に,C19VIと国勢調査データを用いて,米国各地域での人種的不平等と経済的格差を調査した。 我々のC19VI指数は、郡の18.30%が非常に高い脆弱性クラス、24.34%が高い、23.32%が中等度、22.34%が低い、11.68%が低い。 さらに、c19viは75.57%の少数民族と82.84%の経済的に貧しい地域は非常に高いか高いcovid-19の脆弱な地域であることを明らかにした。 脆弱性モデリングのアプローチは、統計的解析の確立された分野と機械学習の急速な発展領域の両方を活用する。 C19VIは、アメリカ合衆国における郡レベルの脆弱性を測定する正確で信頼性の高い方法を提供している。 この指標は、特に不当に影響した地域社会のために、緊急プランナーがより効果的な緩和戦略を開発するのを支援することを目的としている。

COVID19 is now one of the most leading causes of death in the United States. Systemic health, social and economic disparities have put the minorities and economically poor communities at a higher risk than others. There is an immediate requirement to develop a reliable measure of county-level vulnerabilities that can capture the heterogeneity of both vulnerable communities and the COVID19 pandemic. This study reports a COVID19 Vulnerability Index (C19VI) for identification and mapping of vulnerable counties in the United States. We proposed a Random Forest machine learning based COVID19 vulnerability model using CDC sociodemographic and COVID19-specific themes. An innovative COVID19 Impact Assessment algorithm was also developed using homogeneity and trend assessment technique for evaluating severity of the pandemic in all counties and train RF model. Developed C19VI was statistically validated and compared with the CDC COVID19 Community Vulnerability Index (CCVI). Finally, using C19VI along with census data, we explored racial inequalities and economic disparities in COVID19 health outcomes amongst different regions in the United States. Our C19VI index indicates that 18.30% of the counties falls into very high vulnerability class, 24.34% in high, 23.32% in moderate, 22.34% in low, and 11.68% in very low. Furthermore, C19VI reveals that 75.57% of racial minorities and 82.84% of economically poor communities are very high or high COVID19 vulnerable regions. The proposed approach of vulnerability modeling takes advantage of both the well-established field of statistical analysis and the fast-evolving domain of machine learning. C19VI provides an accurate and more reliable way to measure county level vulnerability in the United States. This index aims at helping emergency planners to develop more effective mitigation strategies especially for the disproportionately impacted communities.
翻訳日:2022-10-15 23:28:43 公開日:2020-09-22
# どのくらい痛むか: 慢性的な痛みスコア評価のためのディープラーニングフレームワーク

How Much Does It Hurt: A Deep Learning Framework for Chronic Pain Score Assessment ( http://arxiv.org/abs/2009.12202v1 )

ライセンス: Link先を確認
Yun Zhao, Franklin Ly, Qinghang Hong, Zhuowei Cheng, Tyler Santander, Henry T. Yang, Paul K. Hansma, and Linda Petzold(参考訳) 慢性的な痛みは3ヶ月から6ヶ月以上続く痛みと定義され、最初に痛みを引き起こした怪我や病気が治った後に起こることが多い。 慢性的な痛み評価のための「金の標準」は、測定できる装置がないため、バイオサイコソシエーションによる自己報告と臨床評価が残っている。 痛みを測定するデバイスは、臨床評価だけでなく、痛みの軽減につながるバイオフィードバックデバイスとしても有用である。 本稿では,慢性痛覚評価のためのエンドツーエンドディープラーニングフレームワークを提案する。 我々のディープラーニングフレームワークは、長い時間軸データサンプルを短いシーケンスに分割し、Consensus Predictionを使って結果を分類する。 本研究は、慢性痛患者の健康状態をよりよく理解するために開発された2つの試作痛み計から収集した2つの慢性痛スコアデータセットの性能を評価する。

Chronic pain is defined as pain that lasts or recurs for more than 3 to 6 months, often long after the injury or illness that initially caused the pain has healed. The "gold standard" for chronic pain assessment remains self report and clinical assessment via a biopsychosocial interview, since there has been no device that can measure it. A device to measure pain would be useful not only for clinical assessment, but potentially also as a biofeedback device leading to pain reduction. In this paper we propose an end-to-end deep learning framework for chronic pain score assessment. Our deep learning framework splits the long time-course data samples into shorter sequences, and uses Consensus Prediction to classify the results. We evaluate the performance of our framework on two chronic pain score datasets collected from two iterations of prototype Pain Meters that we have developed to help chronic pain subjects better understand their health condition.
翻訳日:2022-10-15 23:27:59 公開日:2020-09-22
# 無線セルラーネットワークにおけるフェデレーション学習のインセンティブメカニズム--オークションアプローチ

An Incentive Mechanism for Federated Learning in Wireless Cellular network: An Auction Approach ( http://arxiv.org/abs/2009.10269v1 )

ライセンス: Link先を確認
Tra Huong Thi Le, Nguyen H. Tran, Yan Kyaw Tun, Minh N. H. Nguyen, Shashi Raj Pandey, Zhu Han, and Choong Seon Hong(参考訳) フェデレーション学習(federated learning, fl)は、マシンラーニングの分散問題に対処し、高い学習性能を保証できる分散学習フレームワークである。 しかし、すべてのユーザがFLアルゴリズムに参加するためにリソースを犠牲にするのは現実的ではない。 これは、flのインセンティブメカニズム設計を研究する動機となります。 本稿では,1つの基地局(BS)と複数のモバイルユーザを含むFLシステムについて考察する。 モバイルユーザは独自のデータを使用して、ローカル機械学習モデルをトレーニングし、トレーニングされたモデルをBSに送り、初期モデルを生成し、ローカルモデルを収集し、グローバルモデルを構築する。 次に,BSとモバイルユーザ間のインセンティブメカニズムを,BSが競売業者であり,モバイルユーザが売り手であるオークションゲームとして定式化する。 提案ゲームでは,モバイルユーザがflに参加する際に経験する最小限のエネルギーコストに従って,各モバイルユーザが入札を行う。 競売の勝者を選定し,社会福祉の最大化を図るため,プライマリ・デュアルグリージーオークション機構を提案する。 提案されたメカニズムは、真理性、個人の合理性、効率性の3つの経済的特性を保証することができる。 最後に,提案手法の有効性を示す数値実験を行った。

Federated Learning (FL) is a distributed learning framework that can deal with the distributed issue in machine learning and still guarantee high learning performance. However, it is impractical that all users will sacrifice their resources to join the FL algorithm. This motivates us to study the incentive mechanism design for FL. In this paper, we consider a FL system that involves one base station (BS) and multiple mobile users. The mobile users use their own data to train the local machine learning model, and then send the trained models to the BS, which generates the initial model, collects local models and constructs the global model. Then, we formulate the incentive mechanism between the BS and mobile users as an auction game where the BS is an auctioneer and the mobile users are the sellers. In the proposed game, each mobile user submits its bids according to the minimal energy cost that the mobile users experiences in participating in FL. To decide winners in the auction and maximize social welfare, we propose the primal-dual greedy auction mechanism. The proposed mechanism can guarantee three economic properties, namely, truthfulness, individual rationality and efficiency. Finally, numerical results are shown to demonstrate the performance effectiveness of our proposed mechanism.
翻訳日:2022-10-15 23:27:43 公開日:2020-09-22
# E-BATCH:エネルギー効率・高速RNNバッチ

E-BATCH: Energy-Efficient and High-Throughput RNN Batching ( http://arxiv.org/abs/2009.10656v1 )

ライセンス: Link先を確認
Franyell Silfa, Jose Maria Arnau, and Antonio Gonzalez(参考訳) リカレントニューラルネットワーク(RNN)推論は、時間ステップ間の厳密なデータ依存関係のため、ハードウェア使用率の低下を示す。 複数のリクエストをバッチすることでスループットが向上する。 しかし、rnnのバッチ化は、バッチ化された入力シーケンスの長さが大きく異なる可能性があるため、大量のパディングを必要とする。 バッチを数ステップ毎に動的に更新するスキームはパディングを避ける。 しかし、異なるrnn層を短時間で実行し、エネルギー効率を低下させる必要がある。 そこで我々は,RNN加速器に適した低レイテンシかつエネルギー効率のバッチ方式であるE-BATCHを提案する。 ランタイムシステムと効果的なハードウェアサポートで構成される。 ランタイムは複数のシーケンスを結合して大きなバッチを生成する。 さらに、アクセルは、シーケンスの評価が完了したときにそれを通知することで、新しいシーケンスを即座にバッチに追加することができるため、パディングの量を大幅に削減できる。 E-BATCHは、バッチ毎に評価された時間ステップ数を動的に制御し、与えられたハードウェアプラットフォームにおけるレイテンシとエネルギー効率の最良のトレードオフを達成する。 E-PURとTPUを用いたE-BATCHの評価を行った。 E-PURでは、E-BATCHはスループットを1.8倍、エネルギー効率を3.6倍、TPUではスループットを2.1倍、エネルギー効率を1.6倍改善する。

Recurrent Neural Network (RNN) inference exhibits low hardware utilization due to the strict data dependencies across time-steps. Batching multiple requests can increase throughput. However, RNN batching requires a large amount of padding since the batched input sequences may largely differ in length. Schemes that dynamically update the batch every few time-steps avoid padding. However, they require executing different RNN layers in a short timespan, decreasing energy efficiency. Hence, we propose E-BATCH, a low-latency and energy-efficient batching scheme tailored to RNN accelerators. It consists of a runtime system and effective hardware support. The runtime concatenates multiple sequences to create large batches, resulting in substantial energy savings. Furthermore, the accelerator notifies it when the evaluation of a sequence is done, so that a new sequence can be immediately added to a batch, thus largely reducing the amount of padding. E-BATCH dynamically controls the number of time-steps evaluated per batch to achieve the best trade-off between latency and energy efficiency for the given hardware platform. We evaluate E-BATCH on top of E-PUR and TPU. In E-PUR, E-BATCH improves throughput by 1.8x and energy-efficiency by 3.6x, whereas in TPU, it improves throughput by 2.1x and energy-efficiency by 1.6x, over the state-of-the-art.
翻訳日:2022-10-15 23:27:25 公開日:2020-09-22
# 私のツイートはあらゆる特徴をもたらす:オンラインソーシャルネットワークにおけるパーソナリティとリレーショナル特性の予測

My tweets bring all the traits to the yard: Predicting personality and relational traits in Online Social Networks ( http://arxiv.org/abs/2009.10802v1 )

ライセンス: Link先を確認
Dimitra Karanatsiou, Pavlos Sermpezis, Jon Gruda, Konstantinos Kafetsios, Ilias Dimitriadis and Athena Vakali(参考訳) Online Social Networks (OSN) のユーザーは、その性格の特徴を反映した痕跡を残している。 これらの痕跡の研究は、社会科学、心理学、OSN、マーケティングなど、多くの分野において重要である。 オンライン行動に基づくパーソナリティ予測の研究が著しく増加したにもかかわらず、パーソナリティのリレーショナルな面をほとんど無視する個人的パーソナリティ特性に焦点が当てられている。 本研究は, osn におけるパーソナリティプロファイルの予測モデルとして, 社会関係特性 (アタッメント指向) と標準パーソナリティ特性を組み合わせた予測モデルを提供することによって, このギャップを解消することを目的としている。 具体的には、OSNのユーザアカウントから幅広い機能(行動、言語、感情など)を抽出する機能エンジニアリング手法を最初に設計した。 そして,抽出した特徴に基づいて,ユーザの心理的特徴のスコアを予測する機械学習モデルを設計した。 提案したモデルアーキテクチャは, 心理理論に埋め込まれた特徴,すなわち, 人格間の相互関係を利用して, 芸術的アプローチの状況と比較して精度を向上させる。 このアプローチの有用性を示すために,我々は,osnユーザと組織リーダの2つのデータセットにモデルを適用し,その心理的プロファイルを比較した。 本研究は,osnユーザの特徴と分類に関する今後の研究に有望な方向性を開くため,心理的プロファイルのみを用いて,両グループを明確に分離できることを示す。

Users in Online Social Networks (OSN) leaves traces that reflect their personality characteristics. The study of these traces is important for a number of fields, such as a social science, psychology, OSN, marketing, and others. Despite a marked increase on research in personality prediction on based on online behavior the focus has been heavily on individual personality traits largely neglecting relational facets of personality. This study aims to address this gap by providing a prediction model for a holistic personality profiling in OSNs that included socio-relational traits (attachment orientations) in combination with standard personality traits. Specifically, we first designed a feature engineering methodology that extracts a wide range of features (accounting for behavior, language, and emotions) from OSN accounts of users. Then, we designed a machine learning model that predicts scores for the psychological traits of the users based on the extracted features. The proposed model architecture is inspired by characteristics embedded in psychological theory, i.e, utilizing interrelations among personality facets, and leads to increased accuracy in comparison with the state of the art approaches. To demonstrate the usefulness of this approach, we applied our model to two datasets, one of random OSN users and one of organizational leaders, and compared their psychological profiles. Our findings demonstrate that the two groups can be clearly separated by only using their psychological profiles, which opens a promising direction for future research on OSN user characterization and classification.
翻訳日:2022-10-15 23:27:04 公開日:2020-09-22
# Qlib: AI指向の量的投資プラットフォーム

Qlib: An AI-oriented Quantitative Investment Platform ( http://arxiv.org/abs/2009.11189v1 )

ライセンス: Link先を確認
Xiao Yang, Weiqing Liu, Dong Zhou, Jiang Bian and Tie-Yan Liu(参考訳) 量的投資は、一連の金融商品に対する一連の取引期間におけるリターンの最大化とリスクの最小化を目的としている。 近年,量的投資における著しいイノベーションを生み出すためのai技術の急速な発展と大きな可能性に触発され,定量的研究と実践的投資のためのai駆動ワークフローの採用が増加している。 量的投資方法論を充実させる一方で、AI技術は量的投資システムに新たな課題を提起している。 特に、定量的投資のための新たな学習パラダイムでは、改革されたワークフローに対応するためのインフラストラクチャのアップグレードが求められている。さらに、AI技術のデータ駆動性は、より強力なパフォーマンスを持つインフラストラクチャの要件を実際に示している。 これらの課題に対処し、AIテクノロジと量的投資のギャップを埋めるために、私たちは、量的投資においてAIテクノロジの可能性を実現し、研究を強化し、価値を生み出すことを目的としたQlibを設計し、開発します。

Quantitative investment aims to maximize the return and minimize the risk in a sequential trading period over a set of financial instruments. Recently, inspired by rapid development and great potential of AI technologies in generating remarkable innovation in quantitative investment, there has been increasing adoption of AI-driven workflow for quantitative research and practical investment. In the meantime of enriching the quantitative investment methodology, AI technologies have raised new challenges to the quantitative investment system. Particularly, the new learning paradigms for quantitative investment call for an infrastructure upgrade to accommodate the renovated workflow; moreover, the data-driven nature of AI technologies indeed indicates a requirement of the infrastructure with more powerful performance; additionally, there exist some unique challenges for applying AI technologies to solve different tasks in the financial scenarios. To address these challenges and bridge the gap between AI technologies and quantitative investment, we design and develop Qlib that aims to realize the potential, empower the research, and create the value of AI technologies in quantitative investment.
翻訳日:2022-10-15 23:26:39 公開日:2020-09-22
# 義手のための音声2次元特徴トラジェクトリのエンドツーエンド学習

End-to-End Learning of Speech 2D Feature-Trajectory for Prosthetic Hands ( http://arxiv.org/abs/2009.10283v1 )

ライセンス: Link先を確認
Mohsen Jafarzadeh, Yonas Tadesse(参考訳) 音声は人間にとって最も一般的なコミュニケーションの1つである。 音声コマンドは人工手のマルチモーダル制御の不可欠な部分である。 過去数十年間、研究者は自動音声認識システムを使用して、音声コマンドを使用して義手を制御する。 音声認識システムは、人間の音声をテキストにマッピングする方法を学ぶ。 そして、自然言語処理やルックアップテーブルを使用して、推定されたテキストを軌跡にマッピングした。 しかし、従来の音声制御義手の性能はまだ不十分である。 汎用グラフィックス処理ユニット(GPGPU)の最近の進歩は、インテリジェントデバイスがディープニューラルネットワークをリアルタイムで実行できるようにする。 このように、インテリジェントシステムのアーキテクチャは、複合サブシステム最適化のパラダイムからエンドツーエンド最適化のパラダイムへと急速に変化している。 本稿では,音声の2次元特徴を義手のための軌跡に直接マッピングするエンドツーエンド畳み込みニューラルネットワーク(cnn)を提案する。 提案する畳み込みニューラルネットワークは軽量であるため,組み込みGPGPUでリアルタイムに動作する。 提案手法では, スペクトログラム, mfcc, pnccなどの各次元の局所相関を持つ音声2次元特徴量を用いることができる。 本論文では, 義手制御において, 音声をテキストステップに省略する。 ネットワークは、TensorFlowバックエンドを持つKerasライブラリでPythonで記述されている。 我々はNVIDIA Jetson TX2開発キット用にCNNを最適化した。 このCNN実験は,音声入力データに対応する軌道出力を生成するために,0.119秒と20m秒のルート平均二乗誤差を示す。 リアルタイムに低いエラーを実現するため、NVIDIA AGX Xavierのようなより強力な組み込みGPGPUに対して、同様のCNNを最適化することができる。

Speech is one of the most common forms of communication in humans. Speech commands are essential parts of multimodal controlling of prosthetic hands. In the past decades, researchers used automatic speech recognition systems for controlling prosthetic hands by using speech commands. Automatic speech recognition systems learn how to map human speech to text. Then, they used natural language processing or a look-up table to map the estimated text to a trajectory. However, the performance of conventional speech-controlled prosthetic hands is still unsatisfactory. Recent advancements in general-purpose graphics processing units (GPGPUs) enable intelligent devices to run deep neural networks in real-time. Thus, architectures of intelligent systems have rapidly transformed from the paradigm of composite subsystems optimization to the paradigm of end-to-end optimization. In this paper, we propose an end-to-end convolutional neural network (CNN) that maps speech 2D features directly to trajectories for prosthetic hands. The proposed convolutional neural network is lightweight, and thus it runs in real-time in an embedded GPGPU. The proposed method can use any type of speech 2D feature that has local correlations in each dimension such as spectrogram, MFCC, or PNCC. We omit the speech to text step in controlling the prosthetic hand in this paper. The network is written in Python with Keras library that has a TensorFlow backend. We optimized the CNN for NVIDIA Jetson TX2 developer kit. Our experiment on this CNN demonstrates a root-mean-square error of 0.119 and 20ms running time to produce trajectory outputs corresponding to the voice input data. To achieve a lower error in real-time, we can optimize a similar CNN for a more powerful embedded GPGPU such as NVIDIA AGX Xavier.
翻訳日:2022-10-15 23:26:23 公開日:2020-09-22
# 含意線形論理における定理の導出

Deriving Theorems in Implicational Linear Logic, Declaratively ( http://arxiv.org/abs/2009.10241v1 )

ライセンス: Link先を確認
Paul Tarau (University of North Texas), Valeria de Paiva (Topos Institute)(参考訳) 私たちが解決したい問題は、命題直観主義線形論理の含意的断片において、与えられた大きさのすべての定理を生成する方法である。 まず、Implicational Intuitionistic Logic の Prolog-based theorem proofr に付随する証明項を線形性のためにフィルタリングする。 これは機能するが、各公式にpspace完全アルゴリズムを用いることで、非常に小さな公式に制限される。 証明項と定理の間の橋渡しを、カリー・ホワード同型(英語版)によって提供され、生成定理ごとに低い多項式労力を必要とする効率的なアルゴリズムをステップ・バイ・ステップで導出する。 結果のPrologプログラムはサイズ N の条件で O(N) 空間で実行され、線形直観主義論理(英語版)の含意的な断片における時間 7,566,084,686 の定理とそれらの証明項を正規形式で生成する。 応用として,線形論理定理の精度と拡張性をテストするためのデータセットを生成し,定理証明の課題に取り組むニューラルネットワークのトレーニングデータを生成する。 論文の成果は、リテラトPrologプログラムとして整理され、完全に複製可能である。 キーワード:与えられた大きさの証明可能な公式の組合せ生成、直観主義的および線形論理定理の証明、命題的線形直観主義論理の含意的断片の定理、カレーホワード同型、正規形における線形ラムダ項の効率的な生成、ラムダ項生成および定理証明のためのprologプログラム。

The problem we want to solve is how to generate all theorems of a given size in the implicational fragment of propositional intuitionistic linear logic. We start by filtering for linearity the proof terms associated by our Prolog-based theorem prover for Implicational Intuitionistic Logic. This works, but using for each formula a PSPACE-complete algorithm limits it to very small formulas. We take a few walks back and forth over the bridge between proof terms and theorems, provided by the Curry-Howard isomorphism, and derive step-by-step an efficient algorithm requiring a low polynomial effort per generated theorem. The resulting Prolog program runs in O(N) space for terms of size N and generates in a few hours 7,566,084,686 theorems in the implicational fragment of Linear Intuitionistic Logic together with their proof terms in normal form. As applications, we generate datasets for correctness and scalability testing of linear logic theorem provers and training data for neural networks working on theorem proving challenges. The results in the paper, organized as a literate Prolog program, are fully replicable. Keywords: combinatorial generation of provable formulas of a given size, intuitionistic and linear logic theorem provers, theorems of the implicational fragment of propositional linear intuitionistic logic, Curry-Howard isomorphism, efficient generation of linear lambda terms in normal form, Prolog programs for lambda term generation and theorem proving.
翻訳日:2022-10-15 23:20:17 公開日:2020-09-22
# Answer Set Programming を用いた競合解決に基づく動的マルチエージェントパス探索

Dynamic Multi-Agent Path Finding based on Conflict Resolution using Answer Set Programming ( http://arxiv.org/abs/2009.10249v1 )

ライセンス: Link先を確認
Basem Atiq (Sabanci University), Volkan Patoglu (Sabanci University), Esra Erdem (Sabanci University)(参考訳) 既存のエージェントが離脱し、新しいエージェントがチームに異なるタイミングで参加できる、マルチエージェントパス探索問題の動的バージョン(D-MAPF)について検討する。 コンフリクト分解能に基づく新しいD-MAPF法を提案する。 アイデアは、新しいエージェントのセットがチームに加わり、チーム全体の再計画ではなく、対立がある場合、計画が互いに衝突する最小限のエージェントに対してのみ再計画する、というものだ。 我々は,最小限のコンフリクトを計画,再計画,識別するための手法の一部として,解集合プログラミングを利用する。

We study a dynamic version of multi-agent path finding problem (called D-MAPF) where existing agents may leave and new agents may join the team at different times. We introduce a new method to solve D-MAPF based on conflict-resolution. The idea is, when a set of new agents joins the team and there are conflicts, instead of replanning for the whole team, to replan only for a minimal subset of agents whose plans conflict with each other. We utilize answer set programming as part of our method for planning, replanning and identifying minimal set of conflicts.
翻訳日:2022-10-15 23:19:47 公開日:2020-09-22
# 深層強化学習とフェデレーションラーニング:5G Ultra Dense Networkにおけるマルチアクセスエッジコンピューティングのためのインテリジェントなマルチスケールリソース管理

When Deep Reinforcement Learning Meets Federated Learning: Intelligent Multi-Timescale Resource Management for Multi-access Edge Computing in 5G Ultra Dense Network ( http://arxiv.org/abs/2009.10601v1 )

ライセンス: Link先を確認
Shuai Yu and Xu Chen and Zhi Zhou and Xiaowen Gong and Di Wu(参考訳) ultra-dense edge computing (udec)は、特に5g時代には大きな可能性を秘めているが、現在のソリューションでは、次のような課題に直面している。 一 複数の5G資源の効率的な利用(例えば、計算、通信、記憶及びサービス資源) 二 低オーバーヘッドオフロード意思決定及び資源配分戦略 三 プライバシー及びセキュリティ保護のスキーム そこで我々はまず,ブロックチェーンと人工知能(AI)を5G超高密度エッジコンピューティングネットワークに統合した,インテリジェントな超高密度エッジコンピューティング(I-UDEC)フレームワークを提案する。 まず、フレームワークのアーキテクチャを説明します。 そして, リアルタイムおよび低オーバーヘッド計算のオフロード決定と資源配分戦略を実現するために, 高速および低速の学習プロセスからなる新しい2段階の深層強化学習(\textit{2Ts-DRL})手法を設計する。 主な目的は、計算オフロード、リソース割り当て、サービスキャッシング配置を共同で最適化することで、全体のオフロード遅延とネットワークリソース使用量を最小化することである。 また、フェデレーション学習(FL)を活用して、エッジデバイスのデータプライバシを保護するために、分散型で \textit{2Ts-DRL} モデルをトレーニングします。 シミュレーション結果は,I-UDECフレームワークにおけるtextit{2Ts-DRL}とFLの有効性を相関させ,提案アルゴリズムがタスク実行時間を最大31.87%削減できることを示す。

Ultra-dense edge computing (UDEC) has great potential, especially in the 5G era, but it still faces challenges in its current solutions, such as the lack of: i) efficient utilization of multiple 5G resources (e.g., computation, communication, storage and service resources); ii) low overhead offloading decision making and resource allocation strategies; and iii) privacy and security protection schemes. Thus, we first propose an intelligent ultra-dense edge computing (I-UDEC) framework, which integrates blockchain and Artificial Intelligence (AI) into 5G ultra-dense edge computing networks. First, we show the architecture of the framework. Then, in order to achieve real-time and low overhead computation offloading decisions and resource allocation strategies, we design a novel two-timescale deep reinforcement learning (\textit{2Ts-DRL}) approach, consisting of a fast-timescale and a slow-timescale learning process, respectively. The primary objective is to minimize the total offloading delay and network resource usage by jointly optimizing computation offloading, resource allocation and service caching placement. We also leverage federated learning (FL) to train the \textit{2Ts-DRL} model in a distributed manner, aiming to protect the edge devices' data privacy. Simulation results corroborate the effectiveness of both the \textit{2Ts-DRL} and FL in the I-UDEC framework and prove that our proposed algorithm can reduce task execution time up to 31.87%.
翻訳日:2022-10-15 23:19:36 公開日:2020-09-22
# 物のモデリング言語(ThingML)から物の機械学習(ThingML2)へ

From Things' Modeling Language (ThingML) to Things' Machine Learning (ThingML2) ( http://arxiv.org/abs/2009.10632v1 )

ライセンス: Link先を確認
Armin Moin, Stephan R\"ossler, Marouane Sayih, Stephan G\"unnemann(参考訳) 本稿では,iot(internet of things, モノのインターネット)のための既存の最先端モデリング言語であるthingmlを拡張し,モデリングレベルで機械学習をサポートする方法について述べる。 この目的のために私たちは、thingmlのドメイン固有言語(dsl)とコード生成フレームワークを拡張します。 当社のDSLでは、データ分析を行う責務を負うものを定義することができます。 さらに、コードジェネレータは、javaとpythonで完全な実装を自動生成できます。 生成されたpythonコードはデータ分析に責任を持ち、keras、tensorflow、scikit learnといった機械学習ライブラリのapiを使用している。 私たちのプロトタイプはオープンソースソフトウェアとしてgithubから入手可能です。

In this paper, we illustrate how to enhance an existing state-of-the-art modeling language and tool for the Internet of Things (IoT), called ThingML, to support machine learning on the modeling level. To this aim, we extend the Domain-Specific Language (DSL) of ThingML, as well as its code generation framework. Our DSL allows one to define things, which are in charge of carrying out data analytics. Further, our code generators can automatically produce the complete implementation in Java and Python. The generated Python code is responsible for data analytics and employs APIs of machine learning libraries, such as Keras, Tensorflow and Scikit Learn. Our prototype is available as open source software on Github.
翻訳日:2022-10-15 23:17:56 公開日:2020-09-22
# ThingML+ 機械学習によるモノのインターネットのためのモデル駆動ソフトウェアエンジニアリングの拡張

ThingML+ Augmenting Model-Driven Software Engineering for the Internet of Things with Machine Learning ( http://arxiv.org/abs/2009.10633v1 )

ライセンス: Link先を確認
Armin Moin, Stephan R\"ossler, Stephan G\"unnemann(参考訳) 本稿では、IoT/CPSのオープンソースモデリングツールであるThingMLの方法論、モデリング言語、ツールサポートを拡張し、IoTアプリケーションにおける機械学習のニーズに対処することを目的とした、研究プロジェクトML-Quadratの現在の位置を示す。 現在、ThingMLはモデリング言語とツールサポートを提供しており、システムのコンポーネント、通信インターフェース、振る舞いをモデリングしている。 後者はステートマシンで実行される。 しかし、多くの場合、IoT/CPSサービスにはシステムコンポーネントや物理プロセスが含まれており、状態マシンを使ってモデル化される振る舞いはよく理解されていない。 したがって、多くの場合、観察したデータに基づく推論を可能にするデータ駆動アプローチが好まれる。 この目的のために、ML-Quadratは、モデリングレベル(モデリング言語の構文とセマンティクス)とコードジェネレータレベルの両方で、必要な機械学習の概念をThingMLに統合します。 ストリーム処理と複合イベント処理、すなわちApache SAMOAとApamaに関して、コード生成のための2つのターゲットプラットフォームをサポートする予定です。

In this paper, we present the current position of the research project ML-Quadrat, which aims to extend the methodology, modeling language and tool support of ThingML - an open source modeling tool for IoT/CPS - to address Machine Learning needs for the IoT applications. Currently, ThingML offers a modeling language and tool support for modeling the components of the system, their communication interfaces as well as their behaviors. The latter is done through state machines. However, we argue that in many cases IoT/CPS services involve system components and physical processes, whose behaviors are not well understood in order to be modeled using state machines. Hence, quite often a data-driven approach that enables inference based on the observed data, e.g., using Machine Learning is preferred. To this aim, ML-Quadrat integrates the necessary Machine Learning concepts into ThingML both on the modeling level (syntax and semantics of the modeling language) and on the code generators level. We plan to support two target platforms for code generation regarding Stream Processing and Complex Event Processing, namely Apache SAMOA and Apama.
翻訳日:2022-10-15 23:17:44 公開日:2020-09-22
# thzにおけるultra-dense low data rate(udld)通信

Ultra-dense Low Data Rate (UDLD) Communication in the THz ( http://arxiv.org/abs/2009.10674v1 )

ライセンス: Link先を確認
Rohit Singh and Doug Sicker(参考訳) 将来的には、IoT(Internet of Things)やワイヤレスセンサー、複数の5Gキラーアプリケーションが登場し、室内の部屋はデータレートの低いデバイスが1000ドル(約1万1000円)で満たされる可能性がある。 これらのデバイスの高レベルの密度化とモビリティはシステムを圧倒し、高い干渉、頻繁な停止、そして低いカバレッジをもたらす。 THzバンドは、この密集した屋内展開に対応する大量のグリーンフィールドスペクトルを持つ。 しかし、THzの限られた範囲では、ネットワークがより多くのインフラを持つ必要があり、NLOS型通信に依存する。 このような通信形態は、ネットワークオペレーターにとって利益を得られず、低データレートのデバイスで非効率なリソース利用に繋がる可能性がある。 thzにおける分散デバイス間通信(d2d)を利用することで、これらの超dense low data rate (udld) タイプのアプリケーションに対応できる。 thzのd2dは難しい場合があるが、日和見的割り当てとスマート学習アルゴリズムによって、これらの課題を軽減できる。 デバイスが協調型マルチエージェント強化学習(MARL)を用いて高密度屋内展開における効率とユーザカバレッジを最大化する2層分散D2Dモデルを提案する。 ネットワーク内の密度化とモビリティは、インフラやリソースを余分に必要とせずに、thzデバイスのカバー範囲の限定化に使用できることを示す。

In the future, with the advent of Internet of Things (IoT), wireless sensors, and multiple 5G killer applications, an indoor room might be filled with $1000$s of devices demanding low data rates. Such high-level densification and mobility of these devices will overwhelm the system and result in higher interference, frequent outages, and lower coverage. The THz band has a massive amount of greenfield spectrum to cater to this dense-indoor deployment. However, a limited coverage range of the THz will require networks to have more infrastructure and depend on non-line-of-sight (NLOS) type communication. This form of communication might not be profitable for network operators and can even result in inefficient resource utilization for devices demanding low data rates. Using distributed device-to-device (D2D) communication in the THz, we can cater to these Ultra-dense Low Data Rate (UDLD) type applications. D2D in THz can be challenging, but with opportunistic allocation and smart learning algorithms, these challenges can be mitigated. We propose a 2-Layered distributed D2D model, where devices use coordinated multi-agent reinforcement learning (MARL) to maximize efficiency and user coverage for dense-indoor deployment. We show that densification and mobility in a network can be used to further the limited coverage range of THz devices, without the need for extra infrastructure or resources.
翻訳日:2022-10-15 23:17:23 公開日:2020-09-22
# マルチソーストランスファー学習を用いたCTスキャンにおけるCOVID-19の分類

Classification of COVID-19 in CT Scans using Multi-Source Transfer Learning ( http://arxiv.org/abs/2009.10474v1 )

ライセンス: Link先を確認
Alejandro R. Martinez(参考訳) 2019年12月以降、新型コロナウイルス(covid-19)が世界中に広がり、何百万人もの人々が感染し、世界経済が悪化している。 感染率の高い原因の1つは、RT-PCR検査の信頼性の欠如によるものである。 ターンアラウンドの結果が数日に及ぶ場合もあるが、感度はおよそ70%である。 代替として、最近の研究では、CTスキャンからCOVID-19を分類するために、コンピュータビジョンと畳み込みニューラルネットワーク(CNN)の使用について調査している。 新型コロナウイルスのCTデータに固有の欠陥があるため、これらの研究はTransfer Learningの利用を利用せざるを得なくなった。 この一般的なディープラーニング技術は、ソース機能空間がターゲットの機能空間に幾分似ている限り、比較的少ないデータ量でタスクのモデルパフォーマンスを改善することが示されている。 残念ながら、医療画像の分類において類似性の欠如は、一般に利用可能なソースデータセットとしてしばしば発生する。 本研究では,CTスキャンからCOVID-19を分類するために,MSTL(Multi-Source Transfer Learning)を用いて従来のトランスファー学習を改善することを提案する。 マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。 さらに,残差深層ネットワークの性能を向上させるための教師なしラベル生成プロセスを提案する。 我々の最高のパフォーマンスモデルは0.893の精度と0.897のリコールスコアを達成し、ベースラインのリコールスコアを9.3%上回った。

Since December of 2019, novel coronavirus disease COVID-19 has spread around the world infecting millions of people and upending the global economy. One of the driving reasons behind its high rate of infection is due to the unreliability and lack of RT-PCR testing. At times the turnaround results span as long as a couple of days, only to yield a roughly 70% sensitivity rate. As an alternative, recent research has investigated the use of Computer Vision with Convolutional Neural Networks (CNNs) for the classification of COVID-19 from CT scans. Due to an inherent lack of available COVID-19 CT data, these research efforts have been forced to leverage the use of Transfer Learning. This commonly employed Deep Learning technique has shown to improve model performance on tasks with relatively small amounts of data, as long as the Source feature space somewhat resembles the Target feature space. Unfortunately, a lack of similarity is often encountered in the classification of medical images as publicly available Source datasets usually lack the visual features found in medical images. In this study, we propose the use of Multi-Source Transfer Learning (MSTL) to improve upon traditional Transfer Learning for the classification of COVID-19 from CT scans. With our multi-source fine-tuning approach, our models outperformed baseline models fine-tuned with ImageNet. We additionally, propose an unsupervised label creation process, which enhances the performance of our Deep Residual Networks. Our best performing model was able to achieve an accuracy of 0.893 and a Recall score of 0.897, outperforming its baseline Recall score by 9.3%.
翻訳日:2022-10-15 23:11:15 公開日:2020-09-22
# 二重チャネル型深層畳み込みネットワークによるコンクリートき裂の検出

Detection Of Concrete Cracks using Dual-channel Deep Convolutional Network ( http://arxiv.org/abs/2009.10612v1 )

ライセンス: Link先を確認
Babloo Kumar and Sayantari Ghosh(参考訳) 繰り返し荷重と疲労応力亀裂が発生し、公的なインフラの安全性に影響を及ぼす。 現在, 機械視は, コンクリート構造物の適切な保守, 監視, 検査の補助として, 人道検査を一部置き換えることによって, 活用されている。 本研究は, ひび割れ検出のための深部畳み込みニューラルネットワーク(CNN)に基づくひび割れ検出手法を提案する。 調査の過程で,コンクリートのひび割れのある3200枚のラベル付き画像のデータベースが作成され,コントラスト,照明条件,方向,ひび割れの重大さが極めて変化した。 本稿では,256 x 256ピクセル解像度の画像で訓練した深部CNNから,難易度を特定してモデルを徐々に最適化してきた。 ランダムなズーム、回転、強度のスケーリング、徹底的なアブレーションなど、ドローンビデオと互換性のあるバリエーションと劣化を考慮に入れた拡張データセットを用いて、高精度(約92.25%)の2チャンネル深層cnnと、実環境におけるコンクリートのひび割れ発見の堅牢さをデザインした。 このモデルは、パフォーマンスに基づいてテストされ、機能マップの助けを借りて分析され、デュアルチャネル構造の重要性が確立されている。

Due to cyclic loading and fatigue stress cracks are generated, which affect the safety of any civil infrastructure. Nowadays machine vision is being used to assist us for appropriate maintenance, monitoring and inspection of concrete structures by partial replacement of human-conducted onsite inspections. The current study proposes a crack detection method based on deep convolutional neural network (CNN) for detection of concrete cracks without explicitly calculating the defect features. In the course of the study, a database of 3200 labelled images with concrete cracks has been created, where the contrast, lighting conditions, orientations and severity of the cracks were extremely variable. In this paper, starting from a deep CNN trained with these images of 256 x 256 pixel-resolution, we have gradually optimized the model by identifying the difficulties. Using an augmented dataset, which takes into account the variations and degradations compatible to drone videos, like, random zooming, rotation and intensity scaling and exhaustive ablation studies, we have designed a dual-channel deep CNN which shows high accuracy (~ 92.25%) as well as robustness in finding concrete cracks in realis-tic situations. The model has been tested on the basis of performance and analyzed with the help of feature maps, which establishes the importance of the dual-channel structure.
翻訳日:2022-10-15 23:10:15 公開日:2020-09-22
# 深層学習に基づくNASスコアと線維化ステージのCTと病理データによる予測

Deep Learning based NAS Score and Fibrosis Stage Prediction from CT and Pathology Data ( http://arxiv.org/abs/2009.10687v1 )

ライセンス: Link先を確認
Ananya Jana, Hui Qu, Puru Rattan, Carlos D. Minacapelli, Vinod Rustgi, Dimitris Metaxas(参考訳) 非アルコール性脂肪肝疾患 (NAFLD) は世界の人口で増加傾向にある。 NAFLDは適切な診断がなければ非アルコール性脂肪肝炎(NASH)とその後の肝障害につながる可能性がある。 NAFLDの診断と治療はNAFLD活性スコア(NAS)と肝線維症ステージに依存しており、通常は病理医による肝生検で評価される。 本研究では,肝生検と比較して非侵襲的で安価なCTデータからNASスコアと線維化ステージを自動的に予測する方法を提案する。 また,CTとH\&Eの染色病理データから得られる情報を組み合わせてNASスコアと線維症ステージ予測の性能を向上させる手法を提案する。 これは、コンピュータ支援診断プロセスで病理医を助けるのに非常に有用である。 30人の患者を対象に,本手法の有効性を示す実験を行った。

Non-Alcoholic Fatty Liver Disease (NAFLD) is becoming increasingly prevalent in the world population. Without diagnosis at the right time, NAFLD can lead to non-alcoholic steatohepatitis (NASH) and subsequent liver damage. The diagnosis and treatment of NAFLD depend on the NAFLD activity score (NAS) and the liver fibrosis stage, which are usually evaluated from liver biopsies by pathologists. In this work, we propose a novel method to automatically predict NAS score and fibrosis stage from CT data that is non-invasive and inexpensive to obtain compared with liver biopsy. We also present a method to combine the information from CT and H\&E stained pathology data to improve the performance of NAS score and fibrosis stage prediction, when both types of data are available. This is of great value to assist the pathologists in computer-aided diagnosis process. Experiments on a 30-patient dataset illustrate the effectiveness of our method.
翻訳日:2022-10-15 23:09:53 公開日:2020-09-22
# 適応デバンドリングフィルタ

Adaptive Debanding Filter ( http://arxiv.org/abs/2009.10804v1 )

ライセンス: Link先を確認
Zhengzhong Tu, Jessie Lin, Yilin Wang, Balu Adsumilli, and Alan C. Bovik(参考訳) 写真やビデオフレームに階段のようなカラーバンドとして現れるバンド状アーティファクトは、低テクスチャスムーズな領域の圧縮によって引き起こされる一般的な歪みである。 これらの偽の輪郭は、高品質なビデオでも、特に高精細な画面で表示されても、非常に目立つ。 しかし、この問題には比較的注意が向けられていない。 そこで本研究では,包帯アーティファクト除去を視覚増進問題として考慮し,後処理モジュールとしてコンテンツ適応型平滑化フィルタリングとディザッド量子化を応用して解決する。 提案した解離フィルタは,画像のエッジや細部を保存しながら,適応的に帯状領域を平滑にすることができる。 実験の結果,提案手法は視覚と定量的の両方において,最先端の偽輪郭除去アルゴリズムよりも優れていることがわかった。

Banding artifacts, which manifest as staircase-like color bands on pictures or video frames, is a common distortion caused by compression of low-textured smooth regions. These false contours can be very noticeable even on high-quality videos, especially when displayed on high-definition screens. Yet, relatively little attention has been applied to this problem. Here we consider banding artifact removal as a visual enhancement problem, and accordingly, we solve it by applying a form of content-adaptive smoothing filtering followed by dithered quantization, as a post-processing module. The proposed debanding filter is able to adaptively smooth banded regions while preserving image edges and details, yielding perceptually enhanced gradient rendering with limited bit-depths. Experimental results show that our proposed debanding filter outperforms state-of-the-art false contour removing algorithms both visually and quantitatively.
翻訳日:2022-10-15 23:08:48 公開日:2020-09-22
# 材料セグメンテーションのための角輝度

Angular Luminance for Material Segmentation ( http://arxiv.org/abs/2009.10825v1 )

ライセンス: Link先を確認
Jia Xue, Matthew Purri, Kristin Dana(参考訳) 移動カメラは1ピクセルあたりの複数の強度測定を提供するが、セマンティックセグメンテーション、材料認識、オブジェクト認識ではこの情報は利用できない。 移動カメラ列の複数のフレームに基本的なアライメントを施し、複数の角度にまたがる強度の分布を求める。 以前の研究から、輝度ヒストグラムと自然画像の統計は強い物質認識の手がかりとなることが知られている。 我々は、表面の物質を識別する鍵となる特徴として、ピクセルあたりの角輝度分布を用いる。 多視点衛星画像シーケンスにおける角度空間サンプリングは、材料の基礎となる反射関数の非構造サンプリングである。 実世界の材料では、angular luminance network (anglnet) を構築することで、クラス内の大きなバリエーションを管理することができる。 このネットワークは、複数の画像からの角反射キューと空間キューを入力として組み合わせ、材料セグメンテーションのための完全な畳み込みネットワークを実現する。 衛星画像からの材料セグメンテーションにおけるAngLNetの性能向上を実証する。

Moving cameras provide multiple intensity measurements per pixel, yet often semantic segmentation, material recognition, and object recognition do not utilize this information. With basic alignment over several frames of a moving camera sequence, a distribution of intensities over multiple angles is obtained. It is well known from prior work that luminance histograms and the statistics of natural images provide a strong material recognition cue. We utilize per-pixel {\it angular luminance distributions} as a key feature in discriminating the material of the surface. The angle-space sampling in a multiview satellite image sequence is an unstructured sampling of the underlying reflectance function of the material. For real-world materials there is significant intra-class variation that can be managed by building a angular luminance network (AngLNet). This network combines angular reflectance cues from multiple images with spatial cues as input to fully convolutional networks for material segmentation. We demonstrate the increased performance of AngLNet over prior state-of-the-art in material segmentation from satellite imagery.
翻訳日:2022-10-15 23:08:32 公開日:2020-09-22
# GraphCrop:グラフ分類のためのグラフクロッピング

GraphCrop: Subgraph Cropping for Graph Classification ( http://arxiv.org/abs/2009.10564v1 )

ライセンス: Link先を確認
Yiwei Wang, Wei Wang, Yuxuan Liang, Yujun Cai, Bryan Hooi(参考訳) 本稿では,グラフ分類の一般化のために,グラフニューラルネットワーク(GNN)を正規化する新しい手法を提案する。 サブストラクチャの省略がグラフ全体のクラスラベルを必ずしも変更しないのを観察し、サブストラクチャの実際のノイズをシミュレートする「textbf{GraphCrop} (Subgraph Cropping)」データ拡張法を開発した。 原則としてgraphcropは、ノード中心の戦略を使用して、接続を維持しながら元のグラフから連続したサブグラフを抽出します。 グラフ分類のための有効な構造コンテキストを保存することによって、gnnはグラフ構造の内容を理解することを、いくつかのキーノードやエッジに頼るのではなく、大局的に奨励します。 GraphCropはパラメータ学習であり、既存のGNNベースのグラフ分類器で実装が容易である。 定性的には、graphcropは既存のトレーニングセットを拡張して、新奇で情報に富んだ拡張グラフを生成します。 定量的には、GraphCropは複数の標準データセットで大きく、一貫したゲインを獲得し、一般的なGNNを拡張してベースラインメソッドを上回ります。

We present a new method to regularize graph neural networks (GNNs) for better generalization in graph classification. Observing that the omission of sub-structures does not necessarily change the class label of the whole graph, we develop the \textbf{GraphCrop} (Subgraph Cropping) data augmentation method to simulate the real-world noise of sub-structure omission. In principle, GraphCrop utilizes a node-centric strategy to crop a contiguous subgraph from the original graph while maintaining its connectivity. By preserving the valid structure contexts for graph classification, we encourage GNNs to understand the content of graph structures in a global sense, rather than rely on a few key nodes or edges, which may not always be present. GraphCrop is parameter learning free and easy to implement within existing GNN-based graph classifiers. Qualitatively, GraphCrop expands the existing training set by generating novel and informative augmented graphs, which retain the original graph labels in most cases. Quantitatively, GraphCrop yields significant and consistent gains on multiple standard datasets, and thus enhances the popular GNNs to outperform the baseline methods.
翻訳日:2022-10-15 23:01:32 公開日:2020-09-22
# B.C.-Valjean事件で裁判員に挑む論理的判断

Logical Judges Challenge Human Judges on the Strange Case of B.C.-Valjean ( http://arxiv.org/abs/2010.05694v1 )

ライセンス: Link先を確認
Viviana Mascardi (University of Genova, DIBRIS, Italy), Domenico Pellegrini (Ministry of Justice, Tribunale di Genova, Italy)(参考訳) 2020年5月12日、イタリアのマギストクラシー学校が主催する人工知能と司法実務のコースにおいて、70人以上の判事が、武装強盗事件を推論するプロログの論理的判断のデモを行った。 実装された論理判断は知識表現と単純な推論の演習にすぎないが、そのような潜在的なエンドユーザの多くの聴衆に対する自動推論ツールの実践的なデモンストレーションは、イタリアにおける最初のユニークな試みであり、我々の知識の最良のところは国際パノラマにおけるものである。 本稿では,2015年に人間裁判官が解決した実例である論理的審査員が提示した事例と,参加者から収集した実例に対するフィードバックについて述べる。

On May 12th, 2020, during the course entitled Artificial Intelligence and Jurisdiction Practice organized by the Italian School of Magistracy, more than 70 magistrates followed our demonstration of a Prolog logical judge reasoning on an armed robbery case. Although the implemented logical judge is just an exercise of knowledge representation and simple deductive reasoning, a practical demonstration of an automated reasoning tool to such a large audience of potential end-users represents a first and unique attempt in Italy and, to the best of our knowledge, in the international panorama. In this paper we present the case addressed by the logical judge - a real case already addressed by a human judge in 2015 - and the feedback on the demonstration collected from the attendees.
翻訳日:2022-10-15 23:01:11 公開日:2020-09-22
# ブロックチェーンに資金を流すとき、どうやって殺さないのか?

How to Not Get Caught When You Launder Money on Blockchain? ( http://arxiv.org/abs/2010.15082v1 )

ライセンス: Link先を確認
Cuneyt G. Akcora, Sudhanva Purusotham, Yulia R. Gel, Mitchell Krawiec-Thayer, Murat Kantarcioglu(参考訳) 近年、ブロックチェーンユーザーの数は大幅に増加している。 意図しない結果、ブロックチェーン上のe-crimeトランザクションは増加傾向にある。 その結果、公開ブロックチェーンは、e-crimeに関連するユーザやトランザクションを検出し、追跡するaiツールを開発するための研究の場となっている。 選択した戦略に従うことで、既存のツールやアルゴリズムの多くでは事実上検出不可能なブロックチェーンのマネーロンダリングが可能になる、と私たちは主張しています。 その結果、暗号通貨を含むe-crime活動の効果的な対処には、aiにおける新しい分析手法の開発が必要である。

The number of blockchain users has tremendously grown in recent years. As an unintended consequence, e-crime transactions on blockchains has been on the rise. Consequently, public blockchains have become a hotbed of research for developing AI tools to detect and trace users and transactions that are related to e-crime. We argue that following a few select strategies can make money laundering on blockchain virtually undetectable with most of the existing tools and algorithms. As a result, the effective combating of e-crime activities involving cryptocurrencies requires the development of novel analytic methodology in AI.
翻訳日:2022-10-15 23:00:55 公開日:2020-09-22
# abm:グループと融合ラッソに基づく損失ベースモデルのための自動教師付き特徴設計手法

ABM: an automatic supervised feature engineering method for loss based models based on group and fused lasso ( http://arxiv.org/abs/2009.10498v1 )

ライセンス: Link先を確認
Weijian Luo and Yongxian Long(参考訳) A vital problem in solving classification or regression problem is to apply feature engineering and variable selection on data before fed into models.One of a most popular feature engineering method is to discretisize continous variable with some cutting points,which is refered to as bining processing.Good cutting points are important for improving model's ability, because wonderful bining may ignore some noisy variance in continous variable range and keep useful leveled information with good ordered encodings.However, to our best knowledge a majority of cutting point selection is done via researchers domain knownledge or some naive methods like equal-width cutting or equal-frequency cutting.In this paper we propose an end-to-end supervised cutting point selection method based on group and fused lasso along with the automatically variable selection effect.We name our method \textbf{ABM}(automatic bining machine). We firstly cut each variable range into fine grid bins and train model with our group and group fused lasso regularization on each successive bins.It is a method that integrates feature engineering,variable selection and model training simultanously.And one more inspiring thing is that the method is flexible such that it can be taken into a bunch of loss function based model including deep neural networks.We have also implemented the method in R and open the source code to other researchers.A Python version will also meet the community in days.

A vital problem in solving classification or regression problem is to apply feature engineering and variable selection on data before fed into models.One of a most popular feature engineering method is to discretisize continous variable with some cutting points,which is refered to as bining processing.Good cutting points are important for improving model's ability, because wonderful bining may ignore some noisy variance in continous variable range and keep useful leveled information with good ordered encodings.However, to our best knowledge a majority of cutting point selection is done via researchers domain knownledge or some naive methods like equal-width cutting or equal-frequency cutting.In this paper we propose an end-to-end supervised cutting point selection method based on group and fused lasso along with the automatically variable selection effect.We name our method \textbf{ABM}(automatic bining machine). We firstly cut each variable range into fine grid bins and train model with our group and group fused lasso regularization on each successive bins.It is a method that integrates feature engineering,variable selection and model training simultanously.And one more inspiring thing is that the method is flexible such that it can be taken into a bunch of loss function based model including deep neural networks.We have also implemented the method in R and open the source code to other researchers.A Python version will also meet the community in days.
翻訳日:2022-10-15 23:00:47 公開日:2020-09-22
# 三重項損失を超えて:細粒度差分認識による人物再同定

Beyond Triplet Loss: Person Re-identification with Fine-grained Difference-aware Pairwise Loss ( http://arxiv.org/abs/2009.10295v1 )

ライセンス: Link先を確認
Cheng Yan, Guansong Pang, Xiao Bai, Jun Zhou, Lin Gu(参考訳) Person Re-IDentification (ReID) は、複数のカメラで異なる視点から人物を識別することを目的としている。 細粒度の違いを捉えることは、正確な人物のReIDにとって鍵となることが多い。 しかし、ほとんどの最先端のReIDアプローチは、典型的にはトリプルトロスによって駆動され、大きな外観の違いの差別化に重点を置いているため、きめ細かい特徴を効果的に学習することができない。 そこで本研究では,reidモデルによる細粒度特徴の学習を可能にする新しいペアワイズ損失関数を導入し,小差分画像に指数関数的ペナリゼーションを適応的に実施し,大差分画像に有界ペナリゼーションを付与する。 提案された損失は汎用的であり、様々なタイプの最先端アプローチを強化するためにトリプルト損失を置き換えるプラグインとして使用できる。 4つのベンチマークデータセットでの実験的結果は、提案する損失が多くの人気のある損失関数を大きく上回っており、データ効率も大幅に向上していることを示している。

Person Re-IDentification (ReID) aims at re-identifying persons from different viewpoints across multiple cameras. Capturing the fine-grained appearance differences is often the key to accurate person ReID, because many identities can be differentiated only when looking into these fine-grained differences. However, most state-of-the-art person ReID approaches, typically driven by a triplet loss, fail to effectively learn the fine-grained features as they are focused more on differentiating large appearance differences. To address this issue, we introduce a novel pairwise loss function that enables ReID models to learn the fine-grained features by adaptively enforcing an exponential penalization on the images of small differences and a bounded penalization on the images of large differences. The proposed loss is generic and can be used as a plugin to replace the triplet loss to significantly enhance different types of state-of-the-art approaches. Experimental results on four benchmark datasets show that the proposed loss substantially outperforms a number of popular loss functions by large margins; and it also enables significantly improved data efficiency.
翻訳日:2022-10-15 23:00:13 公開日:2020-09-22
# ハイブリッド型論理文法の論理的基礎

Logical foundations for hybrid type-logical grammars ( http://arxiv.org/abs/2009.10387v1 )

ライセンス: Link先を確認
Richard Moot (TEXTE, LIRMM, CNRS), Symon Stevens-Guille(参考訳) 本稿では,Lambek文法とラムダ文法を組み合わせた論理であるハイブリッド型論理文法の証明論的側面について考察する。 正規化や部分形式特性などの計算の基本的な性質を証明し、ハイブリッド型論理文法のシーケントおよび証明ネット計算も提示する。 ハイブリッド型論理文法の論理的な基礎を明らかにすることに加えて,本研究では,非連想バージョンと構造規則とユニタリモードを組み込んだマルチモーダルバージョンを含む,元のシステムの変種や拡張への道を開く。

This paper explores proof-theoretic aspects of hybrid type-logical grammars , a logic combining Lambek grammars with lambda grammars. We prove some basic properties of the calculus, such as normalisation and the subformula property and also present both a sequent and a proof net calculus for hybrid type-logical grammars. In addition to clarifying the logical foundations of hybrid type-logical grammars, the current study opens the way to variants and extensions of the original system, including but not limited to a non-associative version and a multimodal version incorporating structural rules and unary modes.
翻訳日:2022-10-15 22:52:07 公開日:2020-09-22
# アクティビティ認識のためのスタック一般化

Stacked Generalization for Human Activity Recognition ( http://arxiv.org/abs/2009.10312v1 )

ライセンス: Link先を確認
Ambareesh Ravi(参考訳) 本稿では,HAR(Human Activity Recognition)のための古典的機械学習手法の有効性と性能について論じる。 モデルのパフォーマンスを最大化するために必要となるベストプラクティス、ヒューリスティック、測定値を強調した2つの重要なモデルを提案している。

This short paper aims to discuss the effectiveness and performance of classical machine learning approaches for Human Activity Recognition (HAR). It proposes two important models - Extra Trees and Stacked Classifier with the emphasize on the best practices, heuristics and measures that are required to maximize the performance of those models.
翻訳日:2022-10-15 22:51:57 公開日:2020-09-22
# K-12のためのAI学習エクスペリエンスの設計 - 新たな作業、将来の機会、設計フレームワーク

Designing AI Learning Experiences for K-12: Emerging Works, Future Opportunities and a Design Framework ( http://arxiv.org/abs/2009.10228v1 )

ライセンス: Link先を確認
Xiaofei Zhou and Jessica Van Brummelen and Phoebe Lin(参考訳) 人工知能(AI)リテラシーは、急速に成長する研究領域であり、K-12教育にとって重要な追加である。 しかし、K-12AIリテラシーを教えるためのツールやカリキュラムの設計のサポートはまだ限られている。 1) 一般のAIリテラシーが学習経験においてどのように実装されているか,(2) K-12 学習文脈において,AIリテラシーを教えるための追加のガイドラインが求められているか,といった調査を行う。 本稿では、k-12のaiと教育文献の収集を分析し、aiリテラシーの中核的能力がいかにうまく適用され、教育者フレンドリーなチャートにまとめられ、教育者が教室の適切なリソースを効率的に見つけることができるかを示す。 また、将来の機会とk-12特有のデザインガイドラインを特定し、k-12のai学習体験を作成するための研究者、設計者、教育者を支援する概念的なフレームワークに合成しました。

Artificial intelligence (AI) literacy is a rapidly growing research area and a critical addition to K-12 education. However, support for designing tools and curriculum to teach K-12 AI literacy is still limited. There is a need for additional interdisciplinary human-computer interaction and education research investigating (1) how general AI literacy is currently implemented in learning experiences and (2) what additional guidelines are required to teach AI literacy in specifically K-12 learning contexts. In this paper, we analyze a collection of K-12 AI and education literature to show how core competencies of AI literacy are applied successfully and organize them into an educator-friendly chart to enable educators to efficiently find appropriate resources for their classrooms. We also identify future opportunities and K-12 specific design guidelines, which we synthesized into a conceptual framework to support researchers, designers, and educators in creating K-12 AI learning experiences.
翻訳日:2022-10-15 22:51:50 公開日:2020-09-22
# 回答セットプログラミングによるゴシップ問題の解決--疫学計画アプローチ

Solving Gossip Problems using Answer Set Programming: An Epistemic Planning Approach ( http://arxiv.org/abs/2009.10237v1 )

ライセンス: Link先を確認
Esra Erdem (Sabanci University), Andreas Herzig (Institut de Recherche en Informatique de Toulouse)(参考訳) ゴシップ問題を解くための解集合プログラミングの利用を認識論的計画問題としてモデル化して検討する。

We investigate the use of Answer Set Programming to solve variations of gossip problems, by modeling them as epistemic planning problems.
翻訳日:2022-10-15 22:51:31 公開日:2020-09-22
# 自動アグリゲータ -- カウントアグリゲータによる書き換え

Automated Aggregator -- Rewriting with the Counting Aggregate ( http://arxiv.org/abs/2009.10240v1 )

ライセンス: Link先を確認
Michael Dingess (University of Kentucky), Miroslaw Truszczynski (University of Kentucky)(参考訳) 答えセットプログラミングは、複雑な知識集約アプリケーションのために広く使われる宣言型制約プログラミングパラダイムである。 現代の回答セットプログラミング言語は、プログラム内の制約や仕様をモデル化する多くの等価な方法をサポートしている。 しかし、これまでのところ、自動処理に一様に役立つ表現を構築するための体系的な手法の開発は失敗している。 このことは、アルゴリズムの選択やポートフォリオの解法と同様に、符号化選択が解法の性能を向上させるための有効な方向である可能性を示唆している。 必要な前提条件は、代替エンコーディングを生成するプロセスを自動化することである。 本稿では,AAgg(Automated Aggregator)という,非基底論理プログラムを付与した自動書き換えシステムを提案する。 実験分析により,この動作を実証し,自動解答集合プログラミングソルバ選択ツールにおけるシステムの利用を提案する。

Answer set programming is a leading declarative constraint programming paradigm with wide use for complex knowledge-intensive applications. Modern answer set programming languages support many equivalent ways to model constraints and specifications in a program. However, so far answer set programming has failed to develop systematic methodologies for building representations that would uniformly lend well to automated processing. This suggests that encoding selection, in the same way as algorithm selection and portfolio solving, may be a viable direction for improving performance of answer-set solving. The necessary precondition is automating the process of generating possible alternative encodings. Here we present an automated rewriting system, the Automated Aggregator or AAgg, that given a non-ground logic program, produces a family of equivalent programs with complementary performance when run under modern answer set programming solvers. We demonstrate this behavior through experimental analysis and propose the system's use in automated answer set programming solver selection tools.
翻訳日:2022-10-15 22:51:27 公開日:2020-09-22
# 説明可能な解答集合プログラミングのためのシステム

A System for Explainable Answer Set Programming ( http://arxiv.org/abs/2009.10242v1 )

ライセンス: Link先を確認
Pedro Cabalar (University of Coru\~na, Spain), Jorge Fandinno (University of Potsdam, Germany), Brais Mu\~niz (CITIC, University of Coru\~na, Spain)(参考訳) テキストやラベルを付加したASPプログラムから説明を生成するツールであるxclingoを提示する。 これらのアノテーションは、規則やそれらに由来する原子の応用をトレースすることができる。 xclingo のインプットは asp コメント行として書かれたマークアップ言語なので、この方法でアノテートされたプログラムは標準 asp ソルバによって受け入れられる。 xclingoはアノテーションを追加の述語とルールに変換し、asp solver clingoを使用して補助述語の拡張を取得する。 この情報は後に、テキストの説明を含む導出木を構築するために使われる。 この言語はどの原子を説明し、どの原子や規則をそれらの説明に含めるかを選択することができる。 文献からの診断問題を通して基本的特徴を説明する。

We present xclingo, a tool for generating explanations from ASP programs annotated with text and labels. These annotations allow tracing the application of rules or the atoms derived by them. The input of xclingo is a markup language written as ASP comment lines, so the programs annotated in this way can still be accepted by a standard ASP solver. xclingo translates the annotations into additional predicates and rules and uses the ASP solver clingo to obtain the extension of those auxiliary predicates. This information is used afterwards to construct derivation trees containing textual explanations. The language allows selecting which atoms to explain and, in its turn, which atoms or rules to include in those explanations. We illustrate the basic features through a diagnosis problem from the literature.
翻訳日:2022-10-15 22:51:12 公開日:2020-09-22
# コンテキストアブダクションのためのタリング最適化

Tabling Optimization for Contextual Abduction ( http://arxiv.org/abs/2009.10243v1 )

ライセンス: Link先を確認
Ridhwan Dewoprabowo, Ari Saptawijaya(参考訳) 論理プログラミングにおける文脈的推論は、以前得られた帰納的解を別の文脈で再利用するためにある文脈に格納する手段として導入された。 本稿では, タブリングの既存実装における問題点を整理し, 問題を緩和することを目的とする。 本稿では,テーブルメモリ使用量を削減しつつ,フィルタリングソリューションの適切なアプリケーションに対処するために,完全性制約のための新しいプログラム変換を提案する。 さらに、テーブルへの述語の選択と、問題の表現を実用的に単純化することで、テーブルメモリの使用を最適化する。 提案手法の評価は, 人工問題と実世界問題の両方において, 従来の実装と比較して, テーブルアブダクションのスケーラビリティが向上することを示す。

Tabling for contextual abduction in logic programming has been introduced as a means to store previously obtained abductive solutions in one context to be reused in another context. This paper identifies a number of issues in the existing implementations of tabling in contextual abduction and aims to mitigate the issues. We propose a new program transformation for integrity constraints to deal with their proper application for filtering solutions while also reducing the table memory usage. We further optimize the table memory usage by selectively picking predicates to table and by pragmatically simplifying the representation of the problem. The evaluation of our proposed approach, on both artificial and real world problems, shows that they improve the scalability of tabled abduction compared to previous implementations.
翻訳日:2022-10-15 22:51:00 公開日:2020-09-22
# 非単調パラ一貫性論理系に対するシークエント型計算

Sequent-Type Calculi for Systems of Nonmonotonic Paraconsistent Logics ( http://arxiv.org/abs/2009.10246v1 )

ライセンス: Link先を確認
Tobias Geibinger, Hans Tompits(参考訳) パラ一貫性論理は、矛盾した前提から非自明な推論を扱う形式論の重要なクラスを構成する。 本稿では,シーケント型証明システムにおける最小整合性に基づく非単調パラ一貫性論理系の一様公理を導入する。 後者は、証明探索を分析するのに適した、顕著で広く使われている計算形式である。 特に、パラドックスの3値最小矛盾論理とアリエリとアヴロンによる4値パラ一貫性推論関係に対してシークエント型計算を提供する。 この計算はボナッティとオリヴェッティによる非単調推論の文脈で最初に導入されたシークエント法に従っており、その特徴は無効な式を公理化するためにいわゆる拒絶解析を用いることである。 実際、極小の矛盾に基づく任意の多値論理に対するシークエント系を得るための一般的な方法を示し、プリーストとアリエリとアヴロンの論理の計算を特別な例として与える。

Paraconsistent logics constitute an important class of formalisms dealing with non-trivial reasoning from inconsistent premisses. In this paper, we introduce uniform axiomatisations for a family of nonmonotonic paraconsistent logics based on minimal inconsistency in terms of sequent-type proof systems. The latter are prominent and widely-used forms of calculi well-suited for analysing proof search. In particular, we provide sequent-type calculi for Priest's three-valued minimally inconsistent logic of paradox, and for four-valued paraconsistent inference relations due to Arieli and Avron. Our calculi follow the sequent method first introduced in the context of nonmonotonic reasoning by Bonatti and Olivetti, whose distinguishing feature is the use of a so-called rejection calculus for axiomatising invalid formulas. In fact, we present a general method to obtain sequent systems for any many-valued logic based on minimal inconsistency, yielding the calculi for the logics of Priest and of Arieli and Avron as special instances.
翻訳日:2022-10-15 22:50:48 公開日:2020-09-22
# LP2PB:回答セットプログラムを擬似ブール理論に変換する

LP2PB: Translating Answer Set Programs into Pseudo-Boolean Theories ( http://arxiv.org/abs/2009.10248v1 )

ライセンス: Link先を確認
Wolf De Wulf (Vrije Universiteit Brussel), Bart Bogaerts (Vrije Universiteit Brussel)(参考訳) ASP(Answer set programming)は、知識表現の形式主義である。 ほとんどのASPソルバはBooleanの満足度解決の技術(拡張)に基づいている。 これらの解法は多くの実用的な応用で非常に成功したが、その強度は基礎となる証明システム、分解能によって制限されている。 本稿では,ASPプログラムを疑似ブール理論に変換する新しいツールLP2PBを提案する。 従来のaspベンチマークやpseudo-boolean solveのベンチマークで,aspのカットプレーンベースの解決の可能性を評価した。 全体として、従来のASPソルバは翻訳のアプローチよりも優れていますが、バランスが逆の方向にシフトする場所をいくつかのベンチマークファミリが特定し、ASPのより強力な証明システムに関するさらなる調査が価値があることを示唆しています。

Answer set programming (ASP) is a well-established knowledge representation formalism. Most ASP solvers are based on (extensions of) technology from Boolean satisfiability solving. While these solvers have shown to be very successful in many practical applications, their strength is limited by their underlying proof system, resolution. In this paper, we present a new tool LP2PB that translates ASP programs into pseudo-Boolean theories, for which solvers based on the (stronger) cutting plane proof system exist. We evaluate our tool, and the potential of cutting-plane-based solving for ASP on traditional ASP benchmarks as well as benchmarks from pseudo-Boolean solving. Our results are mixed: overall, traditional ASP solvers still outperform our translational approach, but several benchmark families are identified where the balance shifts the other way, thereby suggesting that further investigation into a stronger proof system for ASP is valuable.
翻訳日:2022-10-15 22:50:32 公開日:2020-09-22
# 分散アーキテクチャにおける解集合プログラミングの応用:aspマイクロサービス

An application of Answer Set Programming in Distributed Architectures: ASP Microservices ( http://arxiv.org/abs/2009.10250v1 )

ライセンス: Link先を確認
Stefania Costantini (University of L'Aquila, Italy), Lorenzo De Lauretis (University of L'Aquila, Italy)(参考訳) マイクロサービスは、独立してデプロイ可能なインタラクションコンポーネントのスイートとして分散アプリケーションを設計する上で成功している抽象化です。 このようなASPベースのコンポーネントは、クラウドコンピューティングやIoT(Internet of Things)に関連する分散アーキテクチャに採用される可能性がある。

We propose an approach to the definition of microservices with an Answer Set Programming (ASP) `core', where microservices are a successful abstraction for designing distributed applications as suites of independently deployable interacting components. Such ASP-based components might be employed in distributed architectures related to Cloud Computing or to the Internet of Things (IoT).
翻訳日:2022-10-15 22:50:19 公開日:2020-09-22
# SAMOT:スイッチャー対応のマルチオブジェクトトラッキングとMOT

SAMOT: Switcher-Aware Multi-Object Tracking and Still Another MOT Measure ( http://arxiv.org/abs/2009.10338v1 )

ライセンス: Link先を確認
Weitao Feng, Zhihao Hu, Baopu Li, Weihao Gan, Wei Wu, Wanli Ouyang(参考訳) マルチオブジェクト追跡(MOT)はコンピュータビジョンにおいて一般的なトピックである。 しかし、アイデンティティの問題、すなわち、オブジェクトは別のアイデンティティの別のオブジェクトと誤って関連付けられており、依然として難しい問題である。 これに対処するためには、スイッチャー、すなわち、アイデンティティの問題を引き起こすような混乱したターゲットに焦点を合わせる必要がある。 そこで本研究では,Spatial Conflict Graph Model (SCG) と Switcher-Aware Association (SAA) から構成されるマルチオブジェクト追跡のためのスイッチャー対応フレームワークを提案する。 SCGは、コンフリクトグラフを構築し、最適なサブグラフを出力することで、1フレーム以内の空間スイッチを除去する。 SAAはフレームをまたいだ潜在的時間切換器からの追加情報を活用し、より正確なデータアソシエーションを可能にする。 また,本手法は,従来手法の問題点を克服し,motにおけるアイデンティティ問題に対するより良い洞察を提供するため,idfスコア(saidf)を新たに提案する。 最後に,提案手法を従来の尺度と提案した新たな尺度の両方で検証する。 広範な実験により,本手法はあらゆる点で競争力のある結果が得られることが示された。

Multi-Object Tracking (MOT) is a popular topic in computer vision. However, identity issue, i.e., an object is wrongly associated with another object of a different identity, still remains to be a challenging problem. To address it, switchers, i.e., confusing targets thatmay cause identity issues, should be focused. Based on this motivation,this paper proposes a novel switcher-aware framework for multi-object tracking, which consists of Spatial Conflict Graph model (SCG) and Switcher-Aware Association (SAA). The SCG eliminates spatial switch-ers within one frame by building a conflict graph and working out the optimal subgraph. The SAA utilizes additional information from potential temporal switcher across frames, enabling more accurate data association. Besides, we propose a new MOT evaluation measure, Still Another IDF score (SAIDF), aiming to focus more on identity issues.This new measure may overcome some problems of the previous measures and provide a better insight for identity issues in MOT. Finally,the proposed framework is tested under both the traditional measures and the new measure we proposed. Extensive experiments show that ourmethod achieves competitive results on all measure.
翻訳日:2022-10-15 22:44:52 公開日:2020-09-22
# 実例に基づく視覚音声合成のためのニューラルフェイスモデル

Neural Face Models for Example-Based Visual Speech Synthesis ( http://arxiv.org/abs/2009.10361v1 )

ライセンス: Link先を確認
Wolfgang Paier and Anna Hilsmann and Peter Eisert(参考訳) 人間の顔のリアルなアニメーションをコンピュータのグラフィックモデルで作ることはまだ難しい課題だ。 面倒な手作業や、特別で高価なハードウェアを必要とするモーションキャプチャーベースの技術でしばしば解決される。 例ベースのアニメーションアプローチでは、実際の人のキャプチャーデータを再利用することでこれらの問題を回避している。 このデータは短い動きのサンプルに分割され、新しい動きのシーケンスを生成するためにループや連結が可能である。 このアプローチの明らかな利点は、データの実際の変形のみを示すため、使用の単純さと高いリアリズムである。 複雑な顔リグの重みを調整するのではなく、所望の顔性能を実現するように典型的な動作サンプルを配置することで、より高いレベルでアニメーションタスクを行う。 しかし、サンプルベースアプローチの2つの困難は、高いメモリ要求と、モーションサンプル間のアーティファクトフリーおよび現実的な遷移の生成である。 これらの問題は、例ベースのアニメーションのリアリズムと単純さとニューラルフェイスモデルの利点を組み合わせることで解決する。 我々のニューラルフェイスモデルは、コンパクトな潜在パラメータベクトルに基づいて高品質な3次元顔形状とテクスチャを合成することができる。 この潜在表現は、メモリ要求を100倍削減し、連結されたモーションサンプル間のシームレスな遷移を作成するのに役立つ。 本稿では,マルチビュー映像に基づく顔の動きキャプチャのためのマーカーレスアプローチを提案する。 得られたデータに基づいて,表情のニューラル表現を学習し,アニメーション処理中に表情をシームレスに結合する。 スイス・ドイツ手話におけるビセムクエリーシーケンスに基づく口語合成によるアプローチの有効性を実証する。

Creating realistic animations of human faces with computer graphic models is still a challenging task. It is often solved either with tedious manual work or motion capture based techniques that require specialised and costly hardware. Example based animation approaches circumvent these problems by re-using captured data of real people. This data is split into short motion samples that can be looped or concatenated in order to create novel motion sequences. The obvious advantages of this approach are the simplicity of use and the high realism, since the data exhibits only real deformations. Rather than tuning weights of a complex face rig, the animation task is performed on a higher level by arranging typical motion samples in a way such that the desired facial performance is achieved. Two difficulties with example based approaches, however, are high memory requirements as well as the creation of artefact-free and realistic transitions between motion samples. We solve these problems by combining the realism and simplicity of example-based animations with the advantages of neural face models. Our neural face model is capable of synthesising high quality 3D face geometry and texture according to a compact latent parameter vector. This latent representation reduces memory requirements by a factor of 100 and helps creating seamless transitions between concatenated motion samples. In this paper, we present a marker-less approach for facial motion capture based on multi-view video. Based on the captured data, we learn a neural representation of facial expressions, which is used to seamlessly concatenate facial performances during the animation procedure. We demonstrate the effectiveness of our approach by synthesising mouthings for Swiss-German sign language based on viseme query sequences.
翻訳日:2022-10-15 22:44:30 公開日:2020-09-22
# 効率的なグローバル画像修正のための条件系列変調

Conditional Sequential Modulation for Efficient Global Image Retouching ( http://arxiv.org/abs/2009.10390v1 )

ライセンス: Link先を確認
Jingwen He, Yihao Liu, Yu Qiao, and Chao Dong(参考訳) photo retouchingは、露出の過剰/アンダー、コントラストの低下、不調和といった写真の欠陥に苦しむ画像の美的視覚品質を向上させることを目的としている。 実際に、写真のリタッチは一連の画像処理操作によって実現できる。 本稿では,よく使われるリタッチ操作について検討し,画素非依存操作を多層パーセプトロン(mlps)で近似あるいは定式化できることを数学的に確認する。 本研究では,より効率的なグローバルイメージリタッチを実現するための超軽量フレームワークである条件付きシーケンシャルリタッチネットワーク(csrnet)を提案する。 CSRNetはベースネットワークと条件ネットワークで構成されている。 ベースネットワークは各画素を独立して処理するMLPとして機能し、条件ネットワークは入力画像のグローバルな特徴を抽出して条件ベクトルを生成する。 修正操作を実現するために,条件ベクトルによってパラメータが変換されるGlobal Feature Modulation (GFM)を用いて中間特徴を変調する。 CSRNetは$1\times1$の畳み込みを利用しており、既存の学習ベースの手法よりも桁違い小さい37k以下のトレーニング可能なパラメータしか含まない。 実験の結果,この手法はMIT-Adobe FiveKのベンチマークを用いて,定量的かつ定性的に,最先端の性能を実現することがわかった。 コードはhttps://github.com/hejingwenhejingwen/csrnetで入手できる。

Photo retouching aims at enhancing the aesthetic visual quality of images that suffer from photographic defects such as over/under exposure, poor contrast, inharmonious saturation. Practically, photo retouching can be accomplished by a series of image processing operations. In this paper, we investigate some commonly-used retouching operations and mathematically find that these pixel-independent operations can be approximated or formulated by multi-layer perceptrons (MLPs). Based on this analysis, we propose an extremely light-weight framework - Conditional Sequential Retouching Network (CSRNet) - for efficient global image retouching. CSRNet consists of a base network and a condition network. The base network acts like an MLP that processes each pixel independently and the condition network extracts the global features of the input image to generate a condition vector. To realize retouching operations, we modulate the intermediate features using Global Feature Modulation (GFM), of which the parameters are transformed by condition vector. Benefiting from the utilization of $1\times1$ convolution, CSRNet only contains less than 37k trainable parameters, which is orders of magnitude smaller than existing learning-based methods. Extensive experiments show that our method achieves state-of-the-art performance on the benchmark MIT-Adobe FiveK dataset quantitively and qualitatively. Code is available at https://github.com/hejingwenhejingwen/CSRNet.
翻訳日:2022-10-15 22:43:53 公開日:2020-09-22
# マルチ線形圧縮学習における性能指標

Performance Indicator in Multilinear Compressive Learning ( http://arxiv.org/abs/2009.10456v1 )

ライセンス: Link先を確認
Dat Thanh Tran, Moncef Gabbouj, Alexandros Iosifidis(参考訳) 近年,マルチリニア圧縮学習(MCL)フレームワークが提案されている。 圧縮学習全般において、特にMCLでは、圧縮センシング装置によって捕捉された圧縮測定回数は、伝送のための記憶要求または帯域幅要求を特徴付ける。 しかし、この数値はmclシステムの学習性能を完全に特徴づけるものではない。 本稿では,入力信号の分解能,圧縮された測定値数,MCLの学習性能の関係を解析する。 実験により,MCLの初期化段階で得られた再構成誤差は学習性能と強く相関し,システム全体を最適化することなく,異なるセンサ構成から得られた学習性能を効率よく評価できる指標として機能することを示した。

Recently, the Multilinear Compressive Learning (MCL) framework was proposed to efficiently optimize the sensing and learning steps when working with multidimensional signals, i.e. tensors. In Compressive Learning in general, and in MCL in particular, the number of compressed measurements captured by a compressive sensing device characterizes the storage requirement or the bandwidth requirement for transmission. This number, however, does not completely characterize the learning performance of a MCL system. In this paper, we analyze the relationship between the input signal resolution, the number of compressed measurements and the learning performance of MCL. Our empirical analysis shows that the reconstruction error obtained at the initialization step of MCL strongly correlates with the learning performance, thus can act as a good indicator to efficiently characterize learning performances obtained from different sensor configurations without optimizing the entire system.
翻訳日:2022-10-15 22:43:30 公開日:2020-09-22
# OpenREALM:無人航空機のリアルタイムマッピング

OpenREALM: Real-time Mapping for Unmanned Aerial Vehicles ( http://arxiv.org/abs/2009.10492v1 )

ライセンス: Link先を確認
Alexander Kern, Markus Bobbe, Yogesh Khedar and Ulf Bestmann(参考訳) 本稿では,無人航空機(UAV)のリアルタイムマッピングフレームワークOpenREALMを提案する。 移動UAVの搭載コンピュータに取り付けられたカメラを利用して、対象領域の高解像度画像モザイクを取得する。 異なる操作モードにより、OpenREALMは近似平面を仮定して単純な縫合を行うことができ、複雑な3次元表面情報を復元して高度マップと幾何学的に修正された正光線の両方を抽出することができる。 さらに、UAVのグローバルな位置は、データのジオレファレンスに使用される。 すべてのモードにおいて、結果の地図の漸進的な進行は、地上のオペレーターによってライブで見ることができる。 得られた最新のsurface情報は、さまざまなuavアプリケーションへの前進となるだろう。 コミュニティの利益のために、ソースコードはhttps://github.com/laxnpander/OpenREALM.comで公開されている。

This paper presents OpenREALM, a real-time mapping framework for Unmanned Aerial Vehicles (UAVs). A camera attached to the onboard computer of a moving UAV is utilized to acquire high resolution image mosaics of a targeted area of interest. Different modes of operation allow OpenREALM to perform simple stitching assuming an approximate plane ground, or to fully recover complex 3D surface information to extract both elevation maps and geometrically corrected orthophotos. Additionally, the global position of the UAV is used to georeference the data. In all modes incremental progress of the resulting map can be viewed live by an operator on the ground. Obtained, up-to-date surface information will be a push forward to a variety of UAV applications. For the benefit of the community, source code is public at https://github.com/laxnpander/OpenREALM.
翻訳日:2022-10-15 22:43:16 公開日:2020-09-22
# ダスト・スクラッチ・アーティファクト除去のための残留学習による生成的敵意的アプローチ

A Generative Adversarial Approach with Residual Learning for Dust and Scratches Artifacts Removal ( http://arxiv.org/abs/2009.10663v1 )

ライセンス: Link先を確認
Ionu\c{t} Mironic\u{a}(参考訳) リタッチは写真の視覚的な魅力を著しく高めるが、多くのカジュアルフォトグラファーはプロフェッショナルなやり方で操作する専門知識を欠いている。 古い写真編集で特に難しい課題は、ほこりを取り除き、アーティファクトを傷付けることだ。 従来、このタスクは特別な画像強調ソフトウェアで手作業で完了しており、写真編集アプリケーションの特別なノウハウを必要とする面倒なタスクを表している。 しかし、GAN(Generative Adversarial Networks)を用いた最近の研究は、従来の手法と比較して、様々な自動画像強調タスクにおいて良い結果が得られることが証明されている。 これにより,映像編集におけるGANの利用を探求する動機となった。 本稿では,フィルムスキャンからダストを除去し,誤差をスクラッチできるgan法を提案する。 具体的には、残差学習を用いて学習プロセスを高速化するとともに、発声性能を向上させる。 コミュニティが提供するデータセット上での我々のモデルの広範な評価は、特定の種類の画像に依存しない、驚くほどよく一般化していることを示している。 最後に、最先端の手法やソフトウェアアプリケーションを大幅に上回り、優れた結果をもたらす。

Retouching can significantly elevate the visual appeal of photos, but many casual photographers lack the expertise to operate in a professional manner. One particularly challenging task for old photo retouching remains the removal of dust and scratches artifacts. Traditionally, this task has been completed manually with special image enhancement software and represents a tedious task that requires special know-how of photo editing applications. However, recent research utilizing Generative Adversarial Networks (GANs) has been proven to obtain good results in various automated image enhancement tasks compared to traditional methods. This motivated us to explore the use of GANs in the context of film photo editing. In this paper, we present a GAN based method that is able to remove dust and scratches errors from film scans. Specifically, residual learning is utilized to speed up the training process, as well as boost the denoising performance. An extensive evaluation of our model on a community provided dataset shows that it generalizes remarkably well, not being dependent on any particular type of image. Finally, we significantly outperform the state-of-the-art methods and software applications, providing superior results.
翻訳日:2022-10-15 22:42:35 公開日:2020-09-22
# 顔表情認識のための粒密層

Kernelized dense layers for facial expression recognition ( http://arxiv.org/abs/2009.10814v1 )

ライセンス: Link先を確認
M.Amine Mahmoudi, Aladine Chetouani, Fatma Boufera and Hedi Tabia(参考訳) 完全な接続層は畳み込みニューラルネットワーク(CNN)の重要なコンポーネントであり、コンピュータビジョンタスクにおける効率性を示す。 CNNプロセスは通常、畳み込み層とプール層から始まり、まず入力イメージを機能に分解し、それから独立して解析する。 このプロセスの結果は、最終分類決定を駆動する完全に接続されたニューラルネットワーク構造に入力される。 本稿では,従来の線形関係ではなく,高次特徴的相互作用を捉えたkdl(kernelized dense layer)を提案する。 本手法を顔表情認識(FER)に適用し,RAF,FER2013,ExpWデータセット上での性能評価を行う。 実験結果は,このような層の利点を実証し,最先端のアプローチに関して,我々のモデルが競争力のある結果を得ることを示す。

Fully connected layer is an essential component of Convolutional Neural Networks (CNNs), which demonstrates its efficiency in computer vision tasks. The CNN process usually starts with convolution and pooling layers that first break down the input images into features, and then analyze them independently. The result of this process feeds into a fully connected neural network structure which drives the final classification decision. In this paper, we propose a Kernelized Dense Layer (KDL) which captures higher order feature interactions instead of conventional linear relations. We apply this method to Facial Expression Recognition (FER) and evaluate its performance on RAF, FER2013 and ExpW datasets. The experimental results demonstrate the benefits of such layer and show that our model achieves competitive results with respect to the state-of-the-art approaches.
翻訳日:2022-10-15 22:42:16 公開日:2020-09-22
# 地層材料認識のための微分的視点

Differential Viewpoints for Ground Terrain Material Recognition ( http://arxiv.org/abs/2009.11072v1 )

ライセンス: Link先を確認
Jia Xue, Hang Zhang, Ko Nishino, Kristin J. Dana(参考訳) 材料認識の基盤となる計算曲面モデリングは, 実験管内放射計を用いた反射率モデリングから, 現場で撮影されたインターネットマイニング画像に基づく画像ベース表現へと移行した。 我々は、リッチなラジオメトリック・キューとフレキシブルな画像キャプチャの両方を活かした、物質認識のための中間的アプローチを採っている。 重要な概念はディファレンシャル・角イメージングであり、画像キャプチャにおける小さな角のバリエーションは、認識を改善するように拡張された外観表現のための角勾配機能を可能にする。 本研究では,大規模物質データベースであるGTOSデータベースを構築し,自律走行やロボットナビゲーションなどの応用のための地上地形認識を支援する。 データベースは、天候や照明条件の異なる屋外地形の40クラスをカバーする3万以上の画像で構成されている。 我々は,この大規模データセットを十分に活用するために,rgb情報と差分角画像の深いエンコードプールを組み合わせたテクスチャエンコードangular network(tean)と呼ばれる新しい素材認識手法を開発した。 このネットワークアーキテクチャを用いて, 表面の角勾配および空間勾配にエンコードされた材料の特性を抽出する。 その結果,シングルビュー性能と標準(非微分・大角サンプリング)マルチビュー性能を上回って認識性能が向上した。

Computational surface modeling that underlies material recognition has transitioned from reflectance modeling using in-lab controlled radiometric measurements to image-based representations based on internet-mined single-view images captured in the scene. We take a middle-ground approach for material recognition that takes advantage of both rich radiometric cues and flexible image capture. A key concept is differential angular imaging, where small angular variations in image capture enables angular-gradient features for an enhanced appearance representation that improves recognition. We build a large-scale material database, Ground Terrain in Outdoor Scenes (GTOS) database, to support ground terrain recognition for applications such as autonomous driving and robot navigation. The database consists of over 30,000 images covering 40 classes of outdoor ground terrain under varying weather and lighting conditions. We develop a novel approach for material recognition called texture-encoded angular network (TEAN) that combines deep encoding pooling of RGB information and differential angular images for angular-gradient features to fully leverage this large dataset. With this novel network architecture, we extract characteristics of materials encoded in the angular and spatial gradients of their appearance. Our results show that TEAN achieves recognition performance that surpasses single view performance and standard (non-differential/large-angle sampling) multiview performance.
翻訳日:2022-10-15 22:42:03 公開日:2020-09-22
# cuneiformテキストの言語・方言識別のための機械学習手法の検討

Investigating Machine Learning Methods for Language and Dialect Identification of Cuneiform Texts ( http://arxiv.org/abs/2009.10794v1 )

ライセンス: Link先を確認
Ehsan Doostmohammadi, Minoo Nassajian(参考訳) キュニフォーム記号を用いて書かれた言語の識別は、リソース不足とトークン化の問題のため難しい作業である。 シュメール語と6つのアッカド語の方言:古バビロニア語、中バビロニア語、標準バビロニア語、ネオバビロニア語、後期バビロニア語、ネオアッシリア語。 本稿では,SharifCLチームによるVarDial 2019におけるこの問題に対するアプローチについて述べる。 最良の結果は、サポートベクターマシンとネイブベイズ分類器のアンサンブルであり、どちらも文字レベルの機能に取り組んでおり、マクロ平均f1-scoreは72.10%である。

Identification of the languages written using cuneiform symbols is a difficult task due to the lack of resources and the problem of tokenization. The Cuneiform Language Identification task in VarDial 2019 addresses the problem of identifying seven languages and dialects written in cuneiform; Sumerian and six dialects of Akkadian language: Old Babylonian, Middle Babylonian Peripheral, Standard Babylonian, Neo-Babylonian, Late Babylonian, and Neo-Assyrian. This paper describes the approaches taken by SharifCL team to this problem in VarDial 2019. The best result belongs to an ensemble of Support Vector Machines and a naive Bayes classifier, both working on character-level features, with macro-averaged F1-score of 72.10%.
翻訳日:2022-10-15 22:35:37 公開日:2020-09-22
# 生成対話におけるスタイル制御

Controlling Style in Generated Dialogue ( http://arxiv.org/abs/2009.10855v1 )

ライセンス: Link先を確認
Eric Michael Smith, Diana Gonzalez-Rico, Emily Dinan, Y-Lan Boureau(参考訳) オープンドメインの会話モデルは、何十億もの訓練可能なパラメータを持つ非常に大きなアーキテクチャを用いて、自然な音声対話を生成するのに長けている。 これらのアーキテクチャのトレーニングに必要な膨大なトレーニングデータは、さまざまなスタイル、音色、品質を集約している。 このデータを使って単一のモデルをトレーニングすることは、安定したペルソナ特性と典型的な表現スタイルを持つような、一貫した会話エージェントとしてモデルを使用するのが難しくなる。 世代アーキテクチャに対する制御機構を提供するいくつかのアーキテクチャが提案され、それぞれ異なるトレードオフがある。 しかし、彼らの対話における使用が可能かどうか、そして最新の最先端の対話型アーキテクチャとのトレードオフがどのようなものかは、まだ明らかではない。 本研究では,先述した3つの制御可能な生成アーキテクチャをオープンドメイン対話生成に適用し,約200の可能なスタイルのうち1つにマッチする生成スタイルを制御する。 それぞれのパフォーマンスとトレードオフを比較し、既存の会話データセットに対する洞察を提供するためにどのように使用できるかを示し、さまざまなスタイルの会話応答を生成する。

Open-domain conversation models have become good at generating natural-sounding dialogue, using very large architectures with billions of trainable parameters. The vast training data required to train these architectures aggregates many different styles, tones, and qualities. Using that data to train a single model makes it difficult to use the model as a consistent conversational agent, e.g. with a stable set of persona traits and a typical style of expression. Several architectures affording control mechanisms over generation architectures have been proposed, each with different trade-offs. However, it remains unclear whether their use in dialogue is viable, and what the trade-offs look like with the most recent state-of-the-art conversational architectures. In this work, we adapt three previously proposed controllable generation architectures to open-domain dialogue generation, controlling the style of the generation to match one among about 200 possible styles. We compare their respective performance and tradeoffs, and show how they can be used to provide insights into existing conversational datasets, and generate a varied set of styled conversation replies.
翻訳日:2022-10-15 22:34:46 公開日:2020-09-22
# ハイブリッドaspプログラムを分割する

Splitting a Hybrid ASP Program ( http://arxiv.org/abs/2009.10236v1 )

ライセンス: Link先を確認
Alex Brik (Google Inc.)(参考訳) Hybrid Answer Set Programming (Hybrid ASP)は、Answer Set Programming (ASP)の拡張であり、ASPライクなルールが外部ソースと対話できるようにする。 Splitting Set TheoremはASP.NETにとって重要かつ広く使われている結果である。 本稿では,ハイブリッド asp の分割集合定理を,ハイブリッド asp の分割集合定理と等価なものとして紹介し,実用的応用に最も関係のあるハイブリッド asp プログラムに対する解集合の計算を単純化する方法について述べる。

Hybrid Answer Set Programming (Hybrid ASP) is an extension of Answer Set Programming (ASP) that allows ASP-like rules to interact with outside sources. The Splitting Set Theorem is an important and extensively used result for ASP. The paper introduces the Splitting Set Theorem for Hybrid ASP, which is for Hybrid ASP the equivalent of the Splitting Set Theorem, and shows how it can be applied to simplify computing answer sets for Hybrid ASP programs most relevant for practical applications.
翻訳日:2022-10-15 22:34:07 公開日:2020-09-22
# 幾何学的情報を展開する経路計画のための制約プログラミングアルゴリズム

Constraint Programming Algorithms for Route Planning Exploiting Geometrical Information ( http://arxiv.org/abs/2009.10253v1 )

ライセンス: Link先を確認
Alessandro Bertagnon (University of Ferrara)(参考訳) 人や商品の輸送に影響を及ぼす問題は、産業や商業において豊富であり、さらに複雑な問題の原因となっている。 近年、物流・輸送分野は技術進歩に支えられつつあり、競争力のある企業は効率と効率性を目的とした革新的な技術に頼っている。 企業が人工知能(AI)やブロックチェーン、IoT(Internet of Things)といったテクノロジをますます活用している理由がここにあります。 特に人工知能は、利用可能なリソースを利用する最も効率的な方法を提供するために、最適化問題を解決するためにしばしば使用される。 本稿では,CLP技術に基づく新しいアルゴリズム開発に関する現在の研究動向について概説し,その多くが本質的に存在する幾何学的情報を利用した経路計画問題について概説する。 これまでの研究は、euclidean travel salesperson problem (euclidean tsp) に焦点をあてており、将来のeuclidean vehicle routing problem (euclidean vrp) など、同様のカテゴリの他の問題にもその成果を活用している。

Problems affecting the transport of people or goods are plentiful in industry and commerce and they also appear to be at the origin of much more complex problems. In recent years, the logistics and transport sector keeps growing supported by technological progress, i.e. companies to be competitive are resorting to innovative technologies aimed at efficiency and effectiveness. This is why companies are increasingly using technologies such as Artificial Intelligence (AI), Blockchain and Internet of Things (IoT). Artificial intelligence, in particular, is often used to solve optimization problems in order to provide users with the most efficient ways to exploit available resources. In this work we present an overview of our current research activities concerning the development of new algorithms, based on CLP techniques, for route planning problems exploiting the geometric information intrinsically present in many of them or in some of their variants. The research so far has focused in particular on the Euclidean Traveling Salesperson Problem (Euclidean TSP) with the aim to exploit the results obtained also to other problems of the same category, such as the Euclidean Vehicle Routing Problem (Euclidean VRP), in the future.
翻訳日:2022-10-15 22:33:53 公開日:2020-09-22
# ニューラルネットワークによる解集合プログラムの拡張

Extending Answer Set Programs with Neural Networks ( http://arxiv.org/abs/2009.10256v1 )

ライセンス: Link先を確認
Zhun Yang(参考訳) 低レベル知覚と高レベル推論の統合は、人工知能における最も古い問題の1つである。 近年,複雑なニューラルネットワークアーキテクチャにおいて推論プロセスを実装するための提案がなされている。 これらは推論機能を備えたニューラルネットワークの拡張を目的としていますが、私たちが考える自然な疑問は、 ニューラルネットワークによる応答セットプログラムを拡張して、ニューラルネットワーク出力の複雑かつハイレベルな推論を可能にすることができるか? そこで本研究では,ニューラルネットワークの出力をアトミック・ファクトの確率分布として扱うニューラルネットワークを導入することで,解集合プログラムの簡単な拡張であるneuraspを提案する。 我々は、NeurASPがトレーニング済みニューラルネットワークの知覚精度を向上できるだけでなく、論理ルールによる制約を与えることで、ニューラルネットワークをより良くトレーニングできることを示した。 しかし、neuraspでのトレーニングは、シンボリック推論エンジンの内部使用のため、純粋なニューラルネットワークのトレーニングよりもはるかに時間がかかる。 今後の取り組みとして、neuraspのスケーラビリティ問題を解決する潜在的な方法について検討する予定です。 可能性の1つは、論理プログラムを直接ニューラルネットワークに埋め込む方法である。 この経路では,まずニューラルネットワークを用いたsatソルバの設計を行い,その解法を拡張して論理プログラムを実現する。

The integration of low-level perception with high-level reasoning is one of the oldest problems in Artificial Intelligence. Recently, several proposals were made to implement the reasoning process in complex neural network architectures. While these works aim at extending neural networks with the capability of reasoning, a natural question that we consider is: can we extend answer set programs with neural networks to allow complex and high-level reasoning on neural network outputs? As a preliminary result, we propose NeurASP -- a simple extension of answer set programs by embracing neural networks where neural network outputs are treated as probability distributions over atomic facts in answer set programs. We show that NeurASP can not only improve the perception accuracy of a pre-trained neural network, but also help to train a neural network better by giving restrictions through logic rules. However, training with NeurASP would take much more time than pure neural network training due to the internal use of a symbolic reasoning engine. For future work, we plan to investigate the potential ways to solve the scalability issue of NeurASP. One potential way is to embed logic programs directly in neural networks. On this route, we plan to first design a SAT solver using neural networks, then extend such a solver to allow logic programs.
翻訳日:2022-10-15 22:33:33 公開日:2020-09-22
# 誘導の相対性

The Relativity of Induction ( http://arxiv.org/abs/2009.10613v1 )

ライセンス: Link先を確認
Larry Muhlstein(参考訳) 近年、ディープラーニングアルゴリズムが理論的に疑わしいよりも優れている理由が議論されている。 この質問に対する洞察を得るためには、学習の仕組みを理解するのに役立つ。 一般化の核となる問題を調査し,occamのカミソリとパルシモニーの原則が基礎学習に不十分であることを示す。 その代わりに、学習の本質とダイナミクスについてより明確な洞察を与える一連の相対論的原則を導出し、実証する。 単純さの概念は基本的に連続であり、すべての学習は初期推測と相対的に作用し、一般化は測定や強い推論はできないが十分な観察が期待できることを示す。 これらの原則を用いて、コンポーネントが信念を継承する分散学習システムの観点から理解を再構築し、更新する。 そして、この視点を適用して、ディープラーニングを含む現実世界の帰納的プロセスの性質を解明します。

Lately there has been a lot of discussion about why deep learning algorithms perform better than we would theoretically suspect. To get insight into this question, it helps to improve our understanding of how learning works. We explore the core problem of generalization and show that long-accepted Occam's razor and parsimony principles are insufficient to ground learning. Instead, we derive and demonstrate a set of relativistic principles that yield clearer insight into the nature and dynamics of learning. We show that concepts of simplicity are fundamentally contingent, that all learning operates relative to an initial guess, and that generalization cannot be measured or strongly inferred, but that it can be expected given enough observation. Using these principles, we reconstruct our understanding in terms of distributed learning systems whose components inherit beliefs and update them. We then apply this perspective to elucidate the nature of some real world inductive processes including deep learning.
翻訳日:2022-10-15 22:33:13 公開日:2020-09-22
# オンライン対話状態追跡のための深層強化学習

Deep Reinforcement Learning for On-line Dialogue State Tracking ( http://arxiv.org/abs/2009.10321v1 )

ライセンス: Link先を確認
Zhi Chen, Lu Chen, Xiang Zhou and Kai Yu(参考訳) 対話状態追跡(DST)は対話管理において重要なモジュールである。 通常は教師付きトレーニング問題として扱われるが、オンライン最適化には向いていない。 本稿では,オンラインdst最適化のための新しいコンパニオン学習型深層強化学習(drl)フレームワークを提案する。 我々の知る限りでは、オンラインタスク指向音声対話システムのためのDRLフレームワーク内でDSTモジュールを最適化する最初の試みである。 さらに、対話ポリシーをさらに共同で更新することができる。 実験により、オンラインDST最適化は、事前定義されたポリシーの使用の柔軟性を維持しながら、対話マネージャのパフォーマンスを効果的に向上できることが示された。 DSTとポリシーの併用トレーニングにより、パフォーマンスがさらに向上する。

Dialogue state tracking (DST) is a crucial module in dialogue management. It is usually cast as a supervised training problem, which is not convenient for on-line optimization. In this paper, a novel companion teaching based deep reinforcement learning (DRL) framework for on-line DST optimization is proposed. To the best of our knowledge, this is the first effort to optimize the DST module within DRL framework for on-line task-oriented spoken dialogue systems. In addition, dialogue policy can be further jointly updated. Experiments show that on-line DST optimization can effectively improve the dialogue manager performance while keeping the flexibility of using predefined policy. Joint training of both DST and policy can further improve the performance.
翻訳日:2022-10-15 22:26:13 公開日:2020-09-22
# ユニバーサル対話管理のための分散構造化アクタ-クリティック強化学習

Distributed Structured Actor-Critic Reinforcement Learning for Universal Dialogue Management ( http://arxiv.org/abs/2009.10326v1 )

ライセンス: Link先を確認
Zhi Chen, Lu Chen, Xiaoyuan Liu, and Kai Yu(参考訳) タスク指向音声対話システム(sds)は、特定のタスク(ホテル予約など)の達成を支援することを目的としている。 対話管理はSDSの中核部分である。 対話管理には2つの主要なミッションがある: 対話信条状態追跡(会話履歴の推測)と対話決定(ユーザへの返信方法の決定)である。 本研究は,ユーザに対して応答する対話行動を選択するポリシーの策定にのみ焦点をあてる。 逐次的なシステム決定プロセスは、部分的に観測可能なマルコフ決定プロセス(POMDP)に抽象化することができる。 このフレームワークでは、強化学習アプローチをポリシの自動最適化に使用できる。 過去数年間、ニューラルネットワーク(nn)を関数近似器として使用する深層強化学習(drl)アルゴリズムが対話政策として研究されている。

The task-oriented spoken dialogue system (SDS) aims to assist a human user in accomplishing a specific task (e.g., hotel booking). The dialogue management is a core part of SDS. There are two main missions in dialogue management: dialogue belief state tracking (summarising conversation history) and dialogue decision-making (deciding how to reply to the user). In this work, we only focus on devising a policy that chooses which dialogue action to respond to the user. The sequential system decision-making process can be abstracted into a partially observable Markov decision process (POMDP). Under this framework, reinforcement learning approaches can be used for automated policy optimization. In the past few years, there are many deep reinforcement learning (DRL) algorithms, which use neural networks (NN) as function approximators, investigated for dialogue policy.
翻訳日:2022-10-15 22:26:05 公開日:2020-09-22
# グラフニューラルネットワークを用いた階層型対話ポリシー

Structured Hierarchical Dialogue Policy with Graph Neural Networks ( http://arxiv.org/abs/2009.10355v1 )

ライセンス: Link先を確認
Zhi Chen, Xiaoyuan Liu, Lu Chen and Kai Yu(参考訳) 複数の場所でのレストラン予約のような複合作業のための対話政策訓練は、事実上重要かつ困難な問題である。 近年,階層型深層強化学習 (hdrl) 法が複合作業において優れた性能を達成している。 しかしながら、バニラHDRLでは、トップレベルとローレベルの両方のポリシーは、全て多層パーセプトロン(MLP)によって表現され、環境からのすべての観測を、アクションを予測する入力として扱う。 したがって、従来のHDRLアプローチはサンプリング効率が低く、転送性も低い。 本稿では,グラフニューラルネットワーク(GNN)の柔軟性を利用して,これらの問題に対処する。 階層型エージェントの構造をモデル化する新しいComNetを提案する。 ComNetのパフォーマンスは、PyDialベンチマークの複合タスクでテストされる。 実験によると、comnetはバニラhdrlシステムよりも上限に近い性能で優れている。 サンプル効率を達成するだけでなく、他の複合タスクへの転送性を維持しながら、ノイズに対してより堅牢である。

Dialogue policy training for composite tasks, such as restaurant reservation in multiple places, is a practically important and challenging problem. Recently, hierarchical deep reinforcement learning (HDRL) methods have achieved good performance in composite tasks. However, in vanilla HDRL, both top-level and low-level policies are all represented by multi-layer perceptrons (MLPs) which take the concatenation of all observations from the environment as the input for predicting actions. Thus, traditional HDRL approach often suffers from low sampling efficiency and poor transferability. In this paper, we address these problems by utilizing the flexibility of graph neural networks (GNNs). A novel ComNet is proposed to model the structure of a hierarchical agent. The performance of ComNet is tested on composited tasks of the PyDial benchmark. Experiments show that ComNet outperforms vanilla HDRL systems with performance close to the upper bound. It not only achieves sample efficiency but also is more robust to noise while maintaining the transferability to other composite tasks.
翻訳日:2022-10-15 22:25:51 公開日:2020-09-22
# 対話状態追跡のためのデュアルラーニング

Dual Learning for Dialogue State Tracking ( http://arxiv.org/abs/2009.10430v1 )

ライセンス: Link先を確認
Zhi Chen, Lu Chen, Yanbin Zhao, Su Zhu and Kai Yu(参考訳) タスク指向多ターン対話システムでは、対話状態は対話履歴の文脈においてユーザの目標のコンパクトな表現を指す。 対話状態追跡(DST)とは、各ターンの対話状態を推定することである。 複雑な対話履歴のコンテキストに依存しているため、DSTデータアノテーションは単文言語理解よりも高価である。 本研究では,DSTをシーケンス生成問題として定式化し,ラベルのないデータを完全に活用するための新しい2元学習フレームワークを提案する。 デュアルラーニングフレームワークでは、プライマルトラッカエージェント(発話から状態への生成)と2つの発話生成エージェント(状態から発話へのジェネラ-tor)という2つのエージェントがある。 従来の教師付き学習フレームワークと比較して、デュアルラーニングは、ラベル付きデータなしで、レコンストラクションエラーと報酬信号を介して、両方のエージェントを反復的に更新することができる。 逆空間問題は従来のDST法では解決が難しい。 本研究では、シーケンス生成モデルとしてのDSTの再構成により、この問題を効果的に緩和する。 我々はこの原始トラッカーエージェントをデュアルDSTと呼ぶ。 MultiWOZ2.1データセットの実験結果から、特にラベル付きデータが制限された場合、提案されたデュアルDSTが非常にうまく機能することが示された。 ラベル付きデータが完全に使用されるシステムに匹敵するパフォーマンスを実現する。

In task-oriented multi-turn dialogue systems, dialogue state refers to a compact representation of the user goal in the context of dialogue history. Dialogue state tracking (DST) is to estimate the dialogue state at each turn. Due to the dependency on complicated dialogue history contexts, DST data annotation is more expensive than single-sentence language understanding, which makes the task more challenging. In this work, we formulate DST as a sequence generation problem and propose a novel dual-learning framework to make full use of unlabeled data. In the dual-learning framework, there are two agents: the primal tracker agent (utterance-to-state generator) and the dual utterance generator agent (state-to-utterance genera-tor). Compared with traditional supervised learning framework, dual learning can iteratively update both agents through the reconstruction error and reward signal respectively without labeled data. Reward sparsity problem is hard to solve in previous DST methods. In this work, the reformulation of DST as a sequence generation model effectively alleviates this problem. We call this primal tracker agent dual-DST. Experimental results on MultiWOZ2.1 dataset show that the proposed dual-DST works very well, especially when labelled data is limited. It achieves comparable performance to the system where labeled data is fully used.
翻訳日:2022-10-15 22:25:37 公開日:2020-09-22
# CREDIT:対話状態追跡のための粗-重系列生成

CREDIT: Coarse-to-Fine Sequence Generation for Dialogue State Tracking ( http://arxiv.org/abs/2009.10435v1 )

ライセンス: Link先を確認
Zhi Chen, Lu Chen, Zihan Xu, Yanbin Zhao, Su Zhu and Kai Yu(参考訳) 対話システムにおいて、対話状態トラッカーは、対話履歴全体に基づいて、現在の対話状態のコンパクトな表現を正確に見つけることを目的としている。 従来のアプローチでは対話状態は分離三重項 ({\em domain-slot-value}) の組合せとして定義されることが多いが,本論文では構造化状態表現と対話状態追跡をシーケンス生成問題として用いる。 この新たな定式化に基づき、我々は {\bf C}o{\bf R}s{\bf E}-to-fine {\bf DI}alogue state {\bf T}racking ({\bf CREDIT}) アプローチを提案する。 マーク付き言語列である構造化状態表現を利用することで、自然言語メトリクスをポリシー勾配法で最適化することで、(教師付き学習によって)事前学習されたモデルをさらに微調整することができる。 全ての生成状態追跡方法と同様に、CREDITはすべての可能なスロット値を列挙する事前に定義された対話オントロジーに依存しない。 実験により,マルチウォズ2.0およびマルチウォズ2.1データセットにおける5つのドメインの共同目標精度が向上することを示した。

In dialogue systems, a dialogue state tracker aims to accurately find a compact representation of the current dialogue status, based on the entire dialogue history. While previous approaches often define dialogue states as a combination of separate triples ({\em domain-slot-value}), in this paper, we employ a structured state representation and cast dialogue state tracking as a sequence generation problem. Based on this new formulation, we propose a {\bf C}oa{\bf R}s{\bf E}-to-fine {\bf DI}alogue state {\bf T}racking ({\bf CREDIT}) approach. Taking advantage of the structured state representation, which is a marked language sequence, we can further fine-tune the pre-trained model (by supervised learning) by optimizing natural language metrics with the policy gradient method. Like all generative state tracking methods, CREDIT does not rely on pre-defined dialogue ontology enumerating all possible slot values. Experiments demonstrate our tracker achieves encouraging joint goal accuracy for the five domains in MultiWOZ 2.0 and MultiWOZ 2.1 datasets.
翻訳日:2022-10-15 22:25:18 公開日:2020-09-22
# 自然言語の文脈論的意味論:代数的枠組み

Context-theoretic Semantics for Natural Language: an Algebraic Framework ( http://arxiv.org/abs/2009.10542v1 )

ライセンス: Link先を確認
Daoud Clarke(参考訳) 単語をベクトルとして表現する手法は、計算言語学において多くの応用で有用であることが証明されているが、現在ではベクトルの意味での意味を表現する一般的な意味論的形式は存在しない。 本稿では,言葉,句,文がすべてベクトルとして表現される自然言語意味論の枠組みについて,文脈によって意味が決定されることを前提とした理論的分析を行った。 理論的解析では,テキストコーパスの数学的抽象化としてコーパスモデルを定義する。 単語列の意味は、コーパスモデルで発生する文脈を表すベクトルであると仮定される。 この仮定に基づいて、単語のベクトル表現を体上の代数の元と考えることができることを示すことができる。 単語の意味を表現するベクトル空間の応用には、下層の格子構造があり、格子の部分的な順序付けは意味間の関係を記述するものとして解釈する。 また、文字列の文脈論的確率を定義し、この構造と格子構造に基づいて、文字列間の重み付けの度合を定義する。 これらのプロパティは、フレームワーク内でセマンティック表現を構築する方法に関するガイドラインを形成する。 文脈理論はフレームワークの実装であり、実装文字列は理論解析から導出される特性を持つベクトルとして表現される。 これにより、個々の表現の重み付け和を取ることにより、不確実性に関する統計的情報を表現することができる。 また,本フレームワークは,意味のオントロジ的表現や統語的構造を表現するために,テキストの意味認識タスクに対するアプローチの分析にも使用される。 後者については、リンク文法の新しい代数的記述を与える。

Techniques in which words are represented as vectors have proved useful in many applications in computational linguistics, however there is currently no general semantic formalism for representing meaning in terms of vectors. We present a framework for natural language semantics in which words, phrases and sentences are all represented as vectors, based on a theoretical analysis which assumes that meaning is determined by context. In the theoretical analysis, we define a corpus model as a mathematical abstraction of a text corpus. The meaning of a string of words is assumed to be a vector representing the contexts it occurs in in the corpus model. Based on this assumption, we can show that the vector representations of words can be considered as elements of an algebra over a field. We note that in applications of vector spaces to representing meanings of words there is an underlying lattice structure; we interpret the partial ordering of the lattice as describing entailment between meanings. We also define the context-theoretic probability of a string, and, based on this and the lattice structure, a degree of entailment between strings. Together these properties form guidelines as to how to construct semantic representations within the framework. A context theory is an implementation of the framework; in an implementation strings are represented as vectors with the properties deduced from the theoretical analysis. We show how to incorporate logical semantics into context theories; this enables us to represent statistical information about uncertainty by taking weighted sums of individual representations. We also use the framework to analyse approaches to the task of recognising textual entailment, to ontological representations of meaning and to representing syntactic structure. For the latter, we give new algebraic descriptions of link grammar.
翻訳日:2022-10-15 22:24:35 公開日:2020-09-22
# Ghmerti at SemEval-2019 Task 6: A Deep Word-based Approach to Offensive Language Identification (英語)

Ghmerti at SemEval-2019 Task 6: A Deep Word- and Character-based Approach to Offensive Language Identification ( http://arxiv.org/abs/2009.10792v1 )

ライセンス: Link先を確認
Ehsan Doostmohammadi, Hossein Sameti, Ali Saffar(参考訳) 本稿では,SemEval 2019におけるOffensEval共有タスクのサブタスクAとBのためにGhmertiチームが提出したモデルについて述べる。 OffensEvalは、ソーシャルメディアにおける攻撃的言語を3つのサブタスクで識別し分類する問題に対処する:コンテンツが攻撃的であるか否か(サブタスクA)、個人、グループ、または他のエンティティ(サブタスクC)をターゲットにしているかどうか(サブタスクB)。 提案手法は、文字レベルの畳み込みニューラルネットワーク、単語レベルのリカレントニューラルネットワーク、いくつかの前処理を含む。 提案したサブタスクAモデルの性能は77.93%のマクロ平均F1スコアである。

This paper presents the models submitted by Ghmerti team for subtasks A and B of the OffensEval shared task at SemEval 2019. OffensEval addresses the problem of identifying and categorizing offensive language in social media in three subtasks; whether or not a content is offensive (subtask A), whether it is targeted (subtask B) towards an individual, a group, or other entities (subtask C). The proposed approach includes character-level Convolutional Neural Network, word-level Recurrent Neural Network, and some preprocessing. The performance achieved by the proposed model for subtask A is 77.93% macro-averaged F1-score.
翻訳日:2022-10-15 22:23:39 公開日:2020-09-22
# 都市樹による炭素貯蔵評価のための意味的ワークフローと機械学習

Semantic Workflows and Machine Learning for the Assessment of Carbon Storage by Urban Trees ( http://arxiv.org/abs/2009.10263v1 )

ライセンス: Link先を確認
Juan Carrillo, Daniel Garijo, Mark Crowley, Rober Carrillo, Yolanda Gil, Katherine Borda(参考訳) 気候科学は、世界気温の変化の原因と結果の両方を理解するために重要であり、決定的な政策立案に不可欠になっている。 しかし、気候科学の研究では、データ、ソフトウェア、実験的なアプローチ間の複雑な相互運用性の問題に対処する必要がある。 科学的ワークフローシステムは、実験の再現性、プロヴァンスキャプチャー、ソフトウェア再利用性、知識共有など、これらの問題に対処するための非並列的な利点を提供する。 本稿では,空間データ作成,衛星画像の機械学習アルゴリズムによる分類,都市木に蓄えられた炭素の評価を行う,一連の連結成分を用いた新しいワークフローを提案する。 我々の知る限りでは、気候変動に関する政府間パネル(IPCC)のガイドラインに従って、アフリカのある地域の炭素貯蔵量を推定する最初の研究である。

Climate science is critical for understanding both the causes and consequences of changes in global temperatures and has become imperative for decisive policy-making. However, climate science studies commonly require addressing complex interoperability issues between data, software, and experimental approaches from multiple fields. Scientific workflow systems provide unparalleled advantages to address these issues, including reproducibility of experiments, provenance capture, software reusability and knowledge sharing. In this paper, we introduce a novel workflow with a series of connected components to perform spatial data preparation, classification of satellite imagery with machine learning algorithms, and assessment of carbon stored by urban trees. To the best of our knowledge, this is the first study that estimates carbon storage for a region in Africa following the guidelines from the Intergovernmental Panel on Climate Change (IPCC).
翻訳日:2022-10-15 22:17:10 公開日:2020-09-22
# 深層畳み込みニューラルネットワークを用いたtsv押出し形態分類

TSV Extrusion Morphology Classification Using Deep Convolutional Neural Networks ( http://arxiv.org/abs/2009.10692v1 )

ライセンス: Link先を確認
Brendan Reidy, Golareh Jalilvand, Tengfei Jiang, Ramtin Zand(参考訳) 本稿では,深層畳み込みニューラルネットワーク(cnns)を用いて,3次元(3次元)集積回路(ic)における(tsv)押出によるスルーシリコンのモルフォロジーを分類する。 TSV押出しは、3次元ICにおいて配線層を変形・破砕し、デバイス故障を引き起こす重要な信頼性上の問題である。 ここで、押出tsvの表面形状を得るために、白色光干渉法(wli)技術が用いられる。 我々は、WLIから得られた生データを用いて、54x54ピクセルのTSV画像を含むTSV押出形態データセットを作成し、3つの形態分類クラスに分類するプログラムを開発した。 ネットワークの複雑さが異なる4つのCNNアーキテクチャを実装し,TSV押出形態分類への応用を訓練する。 データ拡張とドロップアウトのアプローチを用いて、CNNモデルにおけるオーバーフィットとアンダーフィットのバランスを実現する。 その結果, CNNモデルでは, 複雑性, ドロップアウト, データの増大が最適化され, 人間の専門知識に匹敵する分類精度が得られた。

In this paper, we utilize deep convolutional neural networks (CNNs) to classify the morphology of through-silicon via (TSV) extrusion in three dimensional (3D) integrated circuits (ICs). TSV extrusion is a crucial reliability concern which can deform and crack interconnect layers in 3D ICs and cause device failures. Herein, the white light interferometry (WLI) technique is used to obtain the surface profile of the extruded TSVs. We have developed a program that uses raw data obtained from WLI to create a TSV extrusion morphology dataset, including TSV images with 54x54 pixels that are labeled and categorized into three morphology classes. Four CNN architectures with different network complexities are implemented and trained for TSV extrusion morphology classification application. Data augmentation and dropout approaches are utilized to realize a balance between overfitting and underfitting in the CNN models. Results obtained show that the CNN model with optimized complexity, dropout, and data augmentation can achieve a classification accuracy comparable to that of a human expert.
翻訳日:2022-10-15 22:16:58 公開日:2020-09-22
# 階層化雑音クロスバリデーションによるラベル付けバーデンの診断精度の向上

Improving Medical Annotation Quality to Decrease Labeling Burden Using Stratified Noisy Cross-Validation ( http://arxiv.org/abs/2009.10858v1 )

ライセンス: Link先を確認
Joy Hsu, Sonia Phene, Akinori Mitani, Jieying Luo, Naama Hammel, Jonathan Krause, Rory Sayres(参考訳) 医療画像データに機械学習がますます応用されるにつれて、トレーニングラベルのノイズが重要な課題となっている。 医用画像の診断における多様性は十分に確立されており、また、トレーニングにおける多様性と医療ラベルの課題への注意が、この問題を悪化させる可能性がある。 低品質ラベルの影響を同定し緩和する手法が研究されているが、医用画像検査の課題には適していない。 例えば、Noisy Cross-Validationはトレーニングデータを半分に分割し、コンピュータビジョンタスクの低品質ラベルを特定することが示されているが、特に医療画像タスクには適用されていない。 本研究では,雑音クロス検証の拡張である階層化雑音クロスバリデーション(sncv)を導入する。 SNCVは、各例に品質スコアを割り当て、クラス不均衡を処理するためにラベルを階層化し、原因を分析するために低品質なラベルを特定することによって、モデル予測の信頼性を見積もることができる。 網膜眼底撮影による緑内障疑いの診断におけるsncvの有用性について検討した。 これまでに公表されたディープラーニングモデルのトレーニングデータを用いて,トレーニング例毎に連続品質スコア(QS)を算出する。 トレーニングした緑内障専門医を用いた低QS例は1,277例であり,新ラベルは初期ラベルの85%以上のSNCV予測と一致しており,低QS例はラベルの誤りをほとんど反映している。 次に,高QSラベルのみによるトレーニングの効果を定量化し,より少ない例で強力なモデル性能が得られることを示す。 本手法をランダムにサブサンプル化したトレーニングデータセットに適用することにより,モデル性能の非推論を実現しつつ,ラベル付け負荷を約50%削減できることを示す。

As machine learning has become increasingly applied to medical imaging data, noise in training labels has emerged as an important challenge. Variability in diagnosis of medical images is well established; in addition, variability in training and attention to task among medical labelers may exacerbate this issue. Methods for identifying and mitigating the impact of low quality labels have been studied, but are not well characterized in medical imaging tasks. For instance, Noisy Cross-Validation splits the training data into halves, and has been shown to identify low-quality labels in computer vision tasks; but it has not been applied to medical imaging tasks specifically. In this work we introduce Stratified Noisy Cross-Validation (SNCV), an extension of noisy cross validation. SNCV can provide estimates of confidence in model predictions by assigning a quality score to each example; stratify labels to handle class imbalance; and identify likely low-quality labels to analyze the causes. We assess performance of SNCV on diagnosis of glaucoma suspect risk from retinal fundus photographs, a clinically important yet nuanced labeling task. Using training data from a previously-published deep learning model, we compute a continuous quality score (QS) for each training example. We relabel 1,277 low-QS examples using a trained glaucoma specialist; the new labels agree with the SNCV prediction over the initial label >85% of the time, indicating that low-QS examples mostly reflect labeler errors. We then quantify the impact of training with only high-QS labels, showing that strong model performance may be obtained with many fewer examples. By applying the method to randomly sub-sampled training dataset, we show that our method can reduce labelling burden by approximately 50% while achieving model performance non-inferior to using the full dataset on multiple held-out test sets.
翻訳日:2022-10-15 22:16:42 公開日:2020-09-22
# 論理プログラミングと機械倫理

Logic Programming and Machine Ethics ( http://arxiv.org/abs/2009.11186v1 )

ライセンス: Link先を確認
Abeer Dyoub (University of L'Aquila, Italy), Stefania Costantini (University of L'Aquila, Italy), Francesca A. Lisi (University of Bari "A. Moro", Italy)(参考訳) 透明性は倫理機械にとって重要な要件である。 検証された倫理行動は、自律的な知的エージェントに対する正当化された信頼を確立するには不十分である。 論理プログラミング(LP)は、論理規則が人間によって容易に理解できるため、このような観点から倫理システムを開発する大きな可能性を持っている。 さらに、LPは因果関係をモデル化することができ、倫理的意思決定に不可欠である。

Transparency is a key requirement for ethical machines. Verified ethical behavior is not enough to establish justified trust in autonomous intelligent agents: it needs to be supported by the ability to explain decisions. Logic Programming (LP) has a great potential for developing such perspective ethical systems, as in fact logic rules are easily comprehensible by humans. Furthermore, LP is able to model causality, which is crucial for ethical decision making.
翻訳日:2022-10-15 22:16:08 公開日:2020-09-22
# 調停情報を使用しないマルチロスニューラルネットワークによるイベント干渉解消

Event Coreference Resolution via a Multi-loss Neural Network without Using Argument Information ( http://arxiv.org/abs/2009.10290v1 )

ライセンス: Link先を確認
Xinyu Zuo, Yubo Chen, Kang Liu and Jun Zhao(参考訳) イベントコリファレンス解決(ecr)は自然言語処理(nlp)において重要なタスクであり、このタスクに対する既存のアプローチのほとんどはイベント引数情報に依存している。 しかし、これらの手法はイベント引数抽出の段階からエラーの伝播に悩まされる傾向にある。 議論情報は、イベントが実際のテキストでイベントのコア参照を検出するために引数を持つモデルを混乱させる可能性がある。 さらに、イベントのコンテキスト情報は、イベント間のコリファレンスを推測するのに役立ちます。 したがって、イベント引数抽出から伝播する誤りを低減し、文脈情報を有効に利用するために、文書内イベントコリファレンス解決タスクを行うための引数情報を必要としない、最先端の手法よりも大きな性能を達成するマルチロスニューラルネットワークモデルを提案する。

Event coreference resolution(ECR) is an important task in Natural Language Processing (NLP) and nearly all the existing approaches to this task rely on event argument information. However, these methods tend to suffer from error propagation from the stage of event argument extraction. Besides, not every event mention contains all arguments of an event, and argument information may confuse the model that events have arguments to detect event coreference in real text. Furthermore, the context information of an event is useful to infer the coreference between events. Thus, in order to reduce the errors propagated from event argument extraction and use context information effectively, we propose a multi-loss neural network model that does not need any argument information to do the within-document event coreference resolution task and achieve a significant performance than the state-of-the-art methods.
翻訳日:2022-10-15 22:14:52 公開日:2020-09-22
# プライバシ保護k-meansクラスタリング:セキュアなマルチパーティ計算アプローチ

Privacy Preserving K-Means Clustering: A Secure Multi-Party Computation Approach ( http://arxiv.org/abs/2009.10453v1 )

ライセンス: Link先を確認
Daniel Hurtado Ram\'irez, J. M. Au\~n\'on(参考訳) 知識発見は人工知能の主要な目標の1つだ。 この知識は、通常、異なる環境に分散したデータベースに保存され、それらからデータにアクセスして抽出する退屈なタスク(あるいは不可能)である。 このような困難のために、これらのデータソースがプライベートデータを含む可能性があるため、情報はソースを離れることができない。 プライバシ保護機械学習(PPML)は、この困難を克服し、暗号化技術を採用し、データのプライバシを確保しながら知識発見を可能にする。 K-meansは、知識を発見し、類似した特徴を含むクラスタにデータポイントをグループ化するために使用されるデータマイニング技術の1つである。 本稿では,K-meansに適用されたプライバシ保護機械学習について,最近のクリプトグラフィー分野のプロトコルを用いて述べる。 このアルゴリズムは、データを水平または垂直に分散できるさまざまなシナリオに適用される。

Knowledge discovery is one of the main goals of Artificial Intelligence. This Knowledge is usually stored in databases spread in different environments, being a tedious (or impossible) task to access and extract data from them. To this difficulty we must add that these datasources may contain private data, therefore the information can never leave the source. Privacy Preserving Machine Learning (PPML) helps to overcome this difficulty, employing cryptographic techniques, allowing knowledge discovery while ensuring data privacy. K-means is one of the data mining techniques used in order to discover knowledge, grouping data points in clusters that contain similar features. This paper focuses in Privacy Preserving Machine Learning applied to K-means using recent protocols from the field of criptography. The algorithm is applied to different scenarios where data may be distributed either horizontally or vertically.
翻訳日:2022-10-15 22:08:52 公開日:2020-09-22
# 販売予測に対するパーセンテージ誤差最小化を用いた指数因子化マシン

An Exponential Factorization Machine with Percentage Error Minimization to Retail Sales Forecasting ( http://arxiv.org/abs/2009.10619v1 )

ライセンス: Link先を確認
Chongshou Li, Brenda Cheang, Zhixing Luo and Andrew Lim(参考訳) 本稿では,リードタイムは長いが製品ライフサイクルが短い新製品の販売予測に対する新しいアプローチを提案する。 これらのSKUは通常1シーズンのみ販売され、補充は行わない。 指数因子化マシン(EFM)の販売予測モデルを開発し、SKU属性だけでなく、ペアの相互作用も考慮する。 efmモデルは,(1)説明変数に対する属性レベルの定式化,(2)正の応答変数に対する指数的定式化,の2つと,原因子化機械(fm)とは大きく異なる。 属性レベルの形成は属性内相互作用を除外し、従来の1ホットエンコーディングと比較してより効率的な特徴工学を実現する一方、指数定式化は正の対数変換よりも効果的であることが示される。 パラメータを推定するために、トレーニングセット上の適応型バッチ勾配法により、パーセンテージエラー平方(PES)とエラー平方(ES)を最小化する。 シンガポールの靴小売業者が提供した現実世界のデータは、提案されたアプローチをテストするために使用される。 平均絶対パーセンテージ誤差 (MAPE) と平均絶対パーセンテージ誤差 (MAE) の両者の予測性能は, 市販モデルだけでなく, 既存販売および需要予測研究によって報告された結果とも良好に比較できる。 提案手法の有効性を2つの外部公開データセットで示す。 さらに, PES と ES の最小化の理論的関係を証明し, 回帰モデルにおける PES の最小化の重要な特性を示す。 この特性は、ユニット保有コストがユニット保有コストよりもはるかに大きい販売予測の状況に適合する。

This paper proposes a new approach to sales forecasting for new products with long lead time but short product life cycle. These SKUs are usually sold for one season only, without any replenishments. An exponential factorization machine (EFM) sales forecast model is developed to solve this problem which not only considers SKU attributes, but also pairwise interactions. The EFM model is significantly different from the original Factorization Machines (FM) from two-fold: (1) the attribute-level formulation for explanatory variables and (2) exponential formulation for the positive response variable. The attribute-level formation excludes infeasible intra-attribute interactions and results in more efficient feature engineering comparing with the conventional one-hot encoding, while the exponential formulation is demonstrated more effective than the log-transformation for the positive but not skewed distributed responses. In order to estimate the parameters, percentage error squares (PES) and error squares (ES) are minimized by a proposed adaptive batch gradient descent method over the training set. Real-world data provided by a footwear retailer in Singapore is used for testing the proposed approach. The forecasting performance in terms of both mean absolute percentage error (MAPE) and mean absolute error (MAE) compares favourably with not only off-the-shelf models but also results reported by extant sales and demand forecasting studies. The effectiveness of the proposed approach is also demonstrated by two external public datasets. Moreover, we prove the theoretical relationships between PES and ES minimization, and present an important property of the PES minimization for regression models; that it trains models to underestimate data. This property fits the situation of sales forecasting where unit-holding cost is much greater than the unit-shortage cost.
翻訳日:2022-10-15 22:08:15 公開日:2020-09-22
# smooth-sparse decomposition による部分観測可能なオンライン変更検出

Partially Observable Online Change Detection via Smooth-Sparse Decomposition ( http://arxiv.org/abs/2009.10645v1 )

ライセンス: Link先を確認
Jie Guo, Hao Yan, Chen Zhang, Steven Hoi(参考訳) センサ容量の制限により,各センシング時点においてデータストリームのサブセットのみを観測できる,スパースな変化を伴う高次元データストリームのオンライン変更検出について検討する。 一方、検出スキームは部分的に観測可能なデータを扱うことができ、一方、ばらばらな変更に対する効率的な検出能力を持つべきである。 一方、このスキームは、検出力を最大化するために観察すべき最も重要な変数を適応的かつ積極的に選択できるべきである。 そこで本稿では,この2点に対処するため,cdssdと呼ばれる新しい検出方式を提案する。 特に、滑らかなスパース分解によるスパース変化を伴う高次元データの構造を記述し、そのパラメータはスパイク・スラブ変分ベイズ推論によって学習できる。 そして、学習パラメータとスパース変化情報を組み込んだ後部ベイズ係数を検出統計として定式化する。 最後に,組合せ多腕バンディット問題の報奨として統計式を定式化し,トンプソンサンプリングに基づく適応サンプリング戦略を提案する。 本手法の有効性と適用性は数値的研究と実例研究で実証された。

We consider online change detection of high dimensional data streams with sparse changes, where only a subset of data streams can be observed at each sensing time point due to limited sensing capacities. On the one hand, the detection scheme should be able to deal with partially observable data and meanwhile have efficient detection power for sparse changes. On the other, the scheme should be able to adaptively and actively select the most important variables to observe to maximize the detection power. To address these two points, in this paper, we propose a novel detection scheme called CDSSD. In particular, it describes the structure of high dimensional data with sparse changes by smooth-sparse decomposition, whose parameters can be learned via spike-slab variational Bayesian inference. Then the posterior Bayes factor, which incorporates the learned parameters and sparse change information, is formulated as a detection statistic. Finally, by formulating the statistic as the reward of a combinatorial multi-armed bandit problem, an adaptive sampling strategy based on Thompson sampling is proposed. The efficacy and applicability of our method in practice are demonstrated with numerical studies and a real case study.
翻訳日:2022-10-15 22:07:44 公開日:2020-09-22
# FedCluster: クラスタサイクルによるフェデレーション学習の収束性を高める

FedCluster: Boosting the Convergence of Federated Learning via Cluster-Cycling ( http://arxiv.org/abs/2009.10748v1 )

ライセンス: Link先を確認
Cheng Chen, Ziyi Chen, Yi Zhou, Bhavya Kailkhura(参考訳) 最適化効率を向上した新しいフェデレーション学習フレームワークであるFedClusterを開発し,その理論的収束特性について検討する。 FedClusterはデバイスを複数のクラスタにグループ化し、各学習ラウンドでフェデレーション学習を循環的に実行する。 したがって、FedClusterの各学習ラウンドは、全体的な収束を促進する複数のメタ更新サイクルで構成される。 非凸最適化では,sgd(local {stochasticgradient descent)アルゴリズムを実装したデバイスを用いたfeedclusterが,デバイスレベルのデータ不均一性が存在する場合,従来のfederated averaging(fedavg)アルゴリズムよりも高速に収束することを示す。 深層学習アプリケーションについて実験を行い、様々な局所最適化器のデバイスレベルのデータ不均一性において、フェデレーションが従来のフェデレーション学習よりもかなり高速に収束することを示す。

We develop FedCluster--a novel federated learning framework with improved optimization efficiency, and investigate its theoretical convergence properties. The FedCluster groups the devices into multiple clusters that perform federated learning cyclically in each learning round. Therefore, each learning round of FedCluster consists of multiple cycles of meta-update that boost the overall convergence. In nonconvex optimization, we show that FedCluster with the devices implementing the local {stochastic gradient descent (SGD)} algorithm achieves a faster convergence rate than the conventional {federated averaging (FedAvg)} algorithm in the presence of device-level data heterogeneity. We conduct experiments on deep learning applications and demonstrate that FedCluster converges significantly faster than the conventional federated learning under diverse levels of device-level data heterogeneity for a variety of local optimizers.
翻訳日:2022-10-15 22:05:59 公開日:2020-09-22
# 手話認識のための視覚的手法:モダリティに基づくレビュー

Visual Methods for Sign Language Recognition: A Modality-Based Review ( http://arxiv.org/abs/2009.10370v1 )

ライセンス: Link先を確認
Bassem Seddik and Najoua Essoukri Ben Amara(参考訳) 連続するマルチモーダルストリームからの手話の視覚認識は、依然として最も難しい分野の1つである。 人間の行動認識の最近の進歩は、大量のデータからgpuベースの学習を駆使し、人間のようなパフォーマンスに近づいている。 そして、聴覚障害者や聴覚障害者のためのインタラクティブなサービスを作る傾向にある。 今後何年にもわたって大きく成長すると予想される人口。 本稿では,手話の視覚的理解を範囲として,人間の行動認識文献をレビューすることを目的とする。 分析された手法は主に、悪用された様々なユニモーダル入力、それらの相対的マルチモーダル結合、パイプラインステップに従って構成される。 各セクションでは、関連するデータセットの詳細と比較を行い、次に手話関連サービスの作成に適した、まだオープンなコントリビューションパスを区別します。 表情と継続的な署名を扱うアプローチと商用ソリューションには、特に注意が払われるだろう。

Sign language visual recognition from continuous multi-modal streams is still one of the most challenging fields. Recent advances in human actions recognition are exploiting the ascension of GPU-based learning from massive data, and are getting closer to human-like performances. They are then prone to creating interactive services for the deaf and hearing-impaired communities. A population that is expected to grow considerably in the years to come. This paper aims at reviewing the human actions recognition literature with the sign-language visual understanding as a scope. The methods analyzed will be mainly organized according to the different types of unimodal inputs exploited, their relative multi-modal combinations and pipeline steps. In each section, we will detail and compare the related datasets, approaches then distinguish the still open contribution paths suitable for the creation of sign language related services. Special attention will be paid to the approaches and commercial solutions handling facial expressions and continuous signing.
翻訳日:2022-10-15 21:59:44 公開日:2020-09-22
# 熱的感情認識におけるaiの利用 : 標準設計とデータにおける問題点と限界のレビュー

The Use of AI for Thermal Emotion Recognition: A Review of Problems and Limitations in Standard Design and Data ( http://arxiv.org/abs/2009.10589v1 )

ライセンス: Link先を確認
Catherine Ordun, Edward Raff, Sanjay Purushotham(参考訳) コビッド19のスクリーニングに熱画像に注目が集まる中、公共セクターはコンピュータービジョンとAIのモダリティとして熱を利用する新たな機会があると信じているかもしれない。 熱生理学の研究は90年代後半から続いている。 この研究は医学、心理学、機械学習、光学、感情コンピューティングの交差点にある。 顔の感情認識のための熱対RGB画像の既知の要因について概説する。 しかし,熱画像は,顔認識の誤用に悩まされているRGBよりも,コンピュータビジョンに半匿名のモダリティを与える可能性が示唆された。 しかし、人間中心のAIタスクのソースとして熱画像を採用することへの移行は簡単ではなく、複数の階層にわたる高忠実度データソースの可用性と徹底的な検証に依存している。 本稿では、熱FERにおける機械学習の短いレビューと、AIトレーニングのための熱FERデータの収集・開発限界について述べる。 私たちのモチベーションは、最近のサーマルferの進歩を概観し、現在のデータセットの制限に関する会話を刺激することにあります。

With the increased attention on thermal imagery for Covid-19 screening, the public sector may believe there are new opportunities to exploit thermal as a modality for computer vision and AI. Thermal physiology research has been ongoing since the late nineties. This research lies at the intersections of medicine, psychology, machine learning, optics, and affective computing. We will review the known factors of thermal vs. RGB imaging for facial emotion recognition. But we also propose that thermal imagery may provide a semi-anonymous modality for computer vision, over RGB, which has been plagued by misuse in facial recognition. However, the transition to adopting thermal imagery as a source for any human-centered AI task is not easy and relies on the availability of high fidelity data sources across multiple demographics and thorough validation. This paper takes the reader on a short review of machine learning in thermal FER and the limitations of collecting and developing thermal FER data for AI training. Our motivation is to provide an introductory overview into recent advances for thermal FER and stimulate conversation about the limitations in current datasets.
翻訳日:2022-10-15 21:59:29 公開日:2020-09-22
# 遺伝的アルゴリズムを用いた効率的なDWT融合手法による最適パラメータ推定

Efficient DWT-based fusion techniques using genetic algorithm for optimal parameter estimation ( http://arxiv.org/abs/2009.10777v1 )

ライセンス: Link先を確認
S. Kavitha, K. K. Thyagharajan(参考訳) 画像融合は医療画像において重要な役割を果たす。 画像融合は、情報の歪みや損失を伴わずに、複数のモードから冗長な情報を単一の融合画像に統合することを目的としている。 本研究では, 遺伝的アルゴリズム (GA) を用いた離散ウェーブレット変換 (DWT) と非効率離散ウェーブレット変換 (UDWT) に基づく融合法について検討した。 DWTを用いて画像融合を行う際のシフト分散の欠如をUDWTを用いて解決する。 提案する融合モデルはdwtとudwtの効率的な修正gaを用いて最適なパラメータ推定を行い,画質とコントラストを向上させる。 基本GA(ピクセルレベル)の複雑さは、検索空間を制限することにより、修正GA(機能レベル)において減少している。 最適パラメータ推定のためのdwtおよびudwt法とgaによる融合は,人間の知覚と客観的指標を用いた評価の両方において,情報の保持とコントラストの維持という面において,より良好な融合画像が得られた。 本研究の貢献は,(1)核融合用gaを用いた重み値推定における時間と空間の複雑さの低減(2)は,機能レベルのga実装により,類似した時間複雑性を持つ任意のサイズの入力画像に対してスケーラブルであり,(3)融合画像に寄与するソース画像の同定は,推定された重み値から可能である。

Image fusion plays a vital role in medical imaging. Image fusion aims to integrate complementary as well as redundant information from multiple modalities into a single fused image without distortion or loss of information. In this research work, discrete wavelet transform (DWT)and undecimated discrete wavelet transform (UDWT)-based fusion techniques using genetic algorithm (GA)foroptimalparameter(weight)estimationinthefusionprocessareimplemented and analyzed with multi-modality brain images. The lack of shift variance while performing image fusion using DWT is addressed using UDWT. The proposed fusion model uses an efficient, modified GA in DWT and UDWT for optimal parameter estimation, to improve the image quality and contrast. The complexity of the basic GA (pixel level) has been reduced in the modified GA (feature level), by limiting the search space. It is observed from our experiments that fusion using DWT and UDWT techniques with GA for optimal parameter estimation resulted in a better fused image in the aspects of retaining the information and contrast without error, both in human perception as well as evaluation using objective metrics. The contributions of this research work are (1) reduced time and space complexity in estimating the weight values using GA for fusion (2) system is scalable for input image of any size with similar time complexity, owing to feature level GA implementation and (3) identification of source image that contributes more to the fused image, from the weight values estimated.
翻訳日:2022-10-15 21:59:09 公開日:2020-09-22
# 世代遺伝プログラミングのためのC++におけるマルチスレッドメモリ効率のクロスオーバー

Multi-threaded Memory Efficient Crossover in C++ for Generational Genetic Programming ( http://arxiv.org/abs/2009.10460v1 )

ライセンス: Link先を確認
W. B. Langdon(参考訳) 遺伝的プログラミングのためのマルチコア並列メモリ効率クロスオーバーからのC++コードスニペットが提供される。 それらは、M+(2倍のnthreads)以上の大きな染色体または小さなRAMが同時に活性な個体を必要とする、別世代進化アルゴリズムに適応することができる。

C++ code snippets from a multi-core parallel memory-efficient crossover for genetic programming are given. They may be adapted for separate generation evolutionary algorithms where large chromosomes or small RAM require no more than M + (2 times nthreads) simultaneously active individuals.
翻訳日:2022-10-15 21:58:42 公開日:2020-09-22
# メモリ拡張ニューラルネットワークを用いた複合車両ルーティング

Complex Vehicle Routing with Memory Augmented Neural Networks ( http://arxiv.org/abs/2009.10520v1 )

ライセンス: Link先を確認
Marijn van Knippenberg, Mike Holenderski, Vlado Menkovski(参考訳) 複雑な実生活のルーティング課題は、よく知られた組合せ最適化問題のバリエーションとしてモデル化できる。 これらのルーティング問題は長い間研究されており、大規模な解決は困難である。 特定の設定は正確な定式化を難しくする。 Deep Learningは、さまざまなヒューリスティックの使用を中心に進化する従来のソリューションに代わる、ますます魅力的な代替手段を提供する。 ディープラーニングは、一般的に反復的な方法でソリューションを生成する必要がないため、時間が少なく、大規模で高品質なソリューションを提供する可能性がある。 本稿では,cvrp(capacitated vehicle routing)問題の特徴を考察し,明示的なメモリコンポーネントを用いたディープラーニングモデルの利用について検討する。 このようなメモリコンポーネントは、メモリとオペレーションがいつでも直接検査できるので、モデルの決定に対する洞察を得るのに役立つかもしれません。

Complex real-life routing challenges can be modeled as variations of well-known combinatorial optimization problems. These routing problems have long been studied and are difficult to solve at scale. The particular setting may also make exact formulation difficult. Deep Learning offers an increasingly attractive alternative to traditional solutions, which mainly revolve around the use of various heuristics. Deep Learning may provide solutions which are less time-consuming and of higher quality at large scales, as it generally does not need to generate solutions in an iterative manner, and Deep Learning models have shown a surprising capacity for solving complex tasks in recent years. Here we consider a particular variation of the Capacitated Vehicle Routing (CVRP) problem and investigate the use of Deep Learning models with explicit memory components. Such memory components may help in gaining insight into the model's decisions as the memory and operations on it can be directly inspected at any time, and may assist in scaling the method to such a size that it becomes viable for industry settings.
翻訳日:2022-10-15 21:58:35 公開日:2020-09-22
# ASP論理プログラムのための機械学習ガイドによる書き換え手法

A Machine Learning guided Rewriting Approach for ASP Logic Programs ( http://arxiv.org/abs/2009.10252v1 )

ライセンス: Link先を確認
Elena Mastria (Department of Mathematics and Computer Science, University of Calabria, Italy), Jessica Zangari (Department of Mathematics and Computer Science, University of Calabria, Italy), Simona Perri (Department of Mathematics and Computer Science, University of Calabria, Italy), Francesco Calimeri (Department of Mathematics and Computer Science, University of Calabria, Italy)(参考訳) Answer Set Programming (ASP) は、論理プログラムを通じて計算問題をエンコードできる宣言論理形式である。 形式主義の宣言的な性質にもかかわらず、いくつかの高度な専門知識は、一般に、実際のASPシステムによって効率的に評価できるASPエンコーディングを設計するために必要である。 ASPプログラムを手動で微調整する作業の負担を軽減するための一般的な方法は、適切なテクニックに従って入力エンコーディングを自動的に書き換えることである。 しかし、書き直しが必ずしもパフォーマンスの面で利益を与えるとは限らないため、この点においてその効果を予測するには適切な手段が必要である。 本稿では,機械学習(ML)に基づいて書き直しを自動決定する手法について述べる。 特に、aspプログラムと一連の入力事実を与えられた場合、その構造的特性とドメイン情報を測定する一連の特徴に基づいて、入力ルールを書き換えるかどうかと方法を選択する。 この目的のために、Multilayer Perceptronsモデルがトレーニングされ、ASPのグラウンドI-DLVを入力ルールの書き換えについてガイドする。 原型的実装における実験評価の結果について報告する。

Answer Set Programming (ASP) is a declarative logic formalism that allows to encode computational problems via logic programs. Despite the declarative nature of the formalism, some advanced expertise is required, in general, for designing an ASP encoding that can be efficiently evaluated by an actual ASP system. A common way for trying to reduce the burden of manually tweaking an ASP program consists in automatically rewriting the input encoding according to suitable techniques, for producing alternative, yet semantically equivalent, ASP programs. However, rewriting does not always grant benefits in terms of performance; hence, proper means are needed for predicting their effects with this respect. In this paper we describe an approach based on Machine Learning (ML) to automatically decide whether to rewrite. In particular, given an ASP program and a set of input facts, our approach chooses whether and how to rewrite input rules based on a set of features measuring their structural properties and domain information. To this end, a Multilayer Perceptrons model has then been trained to guide the ASP grounder I-DLV on rewriting input rules. We report and discuss the results of an experimental evaluation over a prototypical implementation.
翻訳日:2022-10-15 21:58:22 公開日:2020-09-22
# ウェイトアグリゲーション論理による概念の学習

Learning Concepts Described by Weight Aggregation Logic ( http://arxiv.org/abs/2009.10574v1 )

ライセンス: Link先を確認
Steffen van Bergerem, Nicole Schweikardt(参考訳) 重み付き構造 (重み付き構造) を, 特定の群や環の要素を, 構造に存在するタプルに割り当てることで, 通常の関係構造を拡張する。 我々は,タプルの重みを集約し,それらの重みを比較し,より複雑な公式を構築するための一階述語論理の拡張を提案する。 我々は、feferman-vaught分解を含むこの論理の断片の局所性特性と、fow1と呼ばれる断片に対するgaifman正規形と、fowa1と呼ばれるより大きな断片の局所化定理を提供する。 このフラグメントは、さまざまな機械学習シナリオの概念を表現することができる。 局所性特性を用いて, FOWA1で定義可能な概念が, 擬似線形時間前処理後の多言語時間において, 最大多言語次数で重み付けされた背景構造上のPAC学習可能であることを示す。

We consider weighted structures, which extend ordinary relational structures by assigning weights, i.e. elements from a particular group or ring, to tuples present in the structure. We introduce an extension of first-order logic that allows to aggregate weights of tuples, compare such aggregates, and use them to build more complex formulas. We provide locality properties of fragments of this logic including Feferman-Vaught decompositions and a Gaifman normal form for a fragment called FOW1, as well as a localisation theorem for a larger fragment called FOWA1. This fragment can express concepts from various machine learning scenarios. Using the locality properties, we show that concepts definable in FOWA1 over a weighted background structure of at most polylogarithmic degree are agnostically PAC-learnable in polylogarithmic time after pseudo-linear time preprocessing.
翻訳日:2022-10-15 21:58:03 公開日:2020-09-22
# 睡眠自動スコアリングのための深層学習手法のデータベース間検証

Inter-database validation of a deep learning approach for automatic sleep scoring ( http://arxiv.org/abs/2009.10365v1 )

ライセンス: Link先を確認
Diego Alvarez-Estevez and Roselyne M. Rijsman(参考訳) 本稿では,睡眠自動ステージングのための新しい深層学習手法について述べるとともに,多種多様なステージングデータベース上でその一般化機能に対処することにより,その検証を行う。 予測能力は、独立した局所および外部一般化シナリオの文脈で評価される。 いずれの手順も比較することにより、特定のデータベースのデータに関係なく、睡眠ステージングの一般的な参照タスクにおいて、メソッドの期待性能をよりよく推定することができる。 さらに,個々の局所モデルのアンサンブルを用いた新しいアプローチの適用性について検討し,データベース間一般化性能への影響について検討した。 検証結果は、ヒト専門家合意の期待レベルと、最先端の自動睡眠ステージングアプローチと比較して、良好な総合性能を示す。

In this work we describe a new deep learning approach for automatic sleep staging, and carry out its validation by addressing its generalization capabilities on a wide range of sleep staging databases. Prediction capabilities are evaluated in the context of independent local and external generalization scenarios. Effectively, by comparing both procedures it is possible to better extrapolate the expected performance of the method on the general reference task of sleep staging, regardless of data from a specific database. In addition, we examine the suitability of a novel approach based on the use of an ensemble of individual local models and evaluate its impact on the resulting inter-database generalization performance. Validation results show good general performance, as compared to the expected levels of human expert agreement, as well as state-of-the-art automatic sleep staging approaches
翻訳日:2022-10-15 21:57:35 公開日:2020-09-22
# グラフ表現学習のための説明可能で安定でスケーラブルなグラフ畳み込みネットワーク

Explainable, Stable, and Scalable Graph Convolutional Networks for Learning Graph Representation ( http://arxiv.org/abs/2009.10367v1 )

ライセンス: Link先を確認
Ping-En Lu and Cheng-Shang Chang(参考訳) グラフ内のノードをユークリッド空間内のベクトルにマッピングするネットワーク埋め込み問題は、グラフ上のいくつかの重要なタスクに対処するのに非常に有用である。 近年,このような問題を解決するためにグラフニューラルネットワーク(GNN)が提案されている。 しかし、ほとんどの埋め込みアルゴリズムやGNNは解釈が困難であり、数百万のノードを扱うのに十分ではない。 本稿では,ネットワーク埋め込み問題,サンプルグラフにおけるモジュラリティ行列のトレース最大化問題,サンプルグラフにおけるモジュラリティ行列の行列因数分解問題という,3つの制約付き最適化問題の等価性に基づく新しい視点から問題に取り組む。 これら3つの問題の最適解はモジュラリティ行列の優性固有ベクトルである。 これらの問題を解決するために,我々はグラフ畳み込みネットワーク(gcns)の特殊クラスに属する2つのアルゴリズムを提案した。 (i)特徴埋め込みgcn(cafe-gcn)とクラスタリング (II)Sphere-GCN。 どちらのアルゴリズムも安定なトレース最大化アルゴリズムであり、支配的固有ベクトルのよい近似を与える。 さらに、スパースグラフの線形時間実装もある。 ネットワーク埋め込みの問題を解決することに加えて、提案したGCNも次元削減を行うことができる。 提案したGCNを各種実験により評価し,提案したGCNがほぼすべてのベースライン法より優れていることを示す。 さらに、CAFE-GCNはラベル付きデータから恩恵を受けることができ、様々なパフォーマンス指標が大幅に改善される。

The network embedding problem that maps nodes in a graph to vectors in Euclidean space can be very useful for addressing several important tasks on a graph. Recently, graph neural networks (GNNs) have been proposed for solving such a problem. However, most embedding algorithms and GNNs are difficult to interpret and do not scale well to handle millions of nodes. In this paper, we tackle the problem from a new perspective based on the equivalence of three constrained optimization problems: the network embedding problem, the trace maximization problem of the modularity matrix in a sampled graph, and the matrix factorization problem of the modularity matrix in a sampled graph. The optimal solutions to these three problems are the dominant eigenvectors of the modularity matrix. We proposed two algorithms that belong to a special class of graph convolutional networks (GCNs) for solving these problems: (i) Clustering As Feature Embedding GCN (CAFE-GCN) and (ii) sphere-GCN. Both algorithms are stable trace maximization algorithms, and they yield good approximations of dominant eigenvectors. Moreover, there are linear-time implementations for sparse graphs. In addition to solving the network embedding problem, both proposed GCNs are capable of performing dimensionality reduction. Various experiments are conducted to evaluate our proposed GCNs and show that our proposed GCNs outperform almost all the baseline methods. Moreover, CAFE-GCN could be benefited from the labeled data and have tremendous improvements in various performance metrics.
翻訳日:2022-10-15 21:57:23 公開日:2020-09-22
# PS8-Net:8状態タンパク質二次構造を予測する深層畳み込みニューラルネットワーク

PS8-Net: A Deep Convolutional Neural Network to Predict the Eight-State Protein Secondary Structure ( http://arxiv.org/abs/2009.10380v1 )

ライセンス: Link先を確認
Md Aminur Rab Ratul, Maryam Tavakol Elahi, M. Hamed Mozaffari and WonSook Lee(参考訳) タンパク質二次構造は一次構造と第三次構造の間に情報ブリッジを作るために重要である。 8状態タンパク質二次構造(PSS)の精密な予測は、バイオインフォマティクスにおけるタンパク質の構造と機能解析に大きく活用されている。 近年, 深層学習技術が応用され, 8状態 (q8) タンパク質二次構造予測精度が著しく向上している。 それでも理論的な観点からは、特に8状態pss予測において、改善の余地はまだたくさんある。 本研究では,8クラスpss予測の精度を向上させるために,新しい深層畳み込みニューラルネットワーク(dcnn)であるps8-netを提案する。 このアーキテクチャのインプットは、タンパク質配列の特徴とプロファイルの特徴から注意深く構築された特徴マトリックスである。 ネットワークに新しいps8モジュールを導入し,スキップ接続を用いて,上位層からの長期的相互依存性の抽出,先行層での局所的コンテキストの取得,二次構造予測時のグローバル情報の実現を行う。 提案したPS8-Netは、ベンチマークのCullPdb6133、CB513、CASP10、CASP11データセットでそれぞれ76.89%、71.94%、76.86%、75.26%の精度を達成した。 このアーキテクチャにより、アミノ酸間の局所的およびグローバルな相互依存性を効率的に処理し、各クラスを正確に予測することができる。 我々の知る限り、PS8-Net実験の結果は、前述のベンチマークデータセットの最先端メソッドよりも優れていることを示した。

Protein secondary structure is crucial to creating an information bridge between the primary and tertiary (3D) structures. Precise prediction of eight-state protein secondary structure (PSS) has significantly utilized in the structural and functional analysis of proteins in bioinformatics. Deep learning techniques have been recently applied in this research area and raised the eight-state (Q8) protein secondary structure prediction accuracy remarkably. Nevertheless, from a theoretical standpoint, there are still lots of rooms for improvement, specifically in the eight-state PSS prediction. In this study, we have presented a new deep convolutional neural network (DCNN), namely PS8-Net, to enhance the accuracy of eight-class PSS prediction. The input of this architecture is a carefully constructed feature matrix from the proteins sequence features and profile features. We introduce a new PS8 module in the network, which is applied with skip connection to extracting the long-term inter-dependencies from higher layers, obtaining local contexts in earlier layers, and achieving global information during secondary structure prediction. Our proposed PS8-Net achieves 76.89%, 71.94%, 76.86%, and 75.26% Q8 accuracy respectively on benchmark CullPdb6133, CB513, CASP10, and CASP11 datasets. This architecture enables the efficient processing of local and global interdependencies between amino acids to make an accurate prediction of each class. To the best of our knowledge, PS8-Net experiment results demonstrate that it outperforms all the state-of-the-art methods on the aforementioned benchmark datasets.
翻訳日:2022-10-15 21:51:49 公開日:2020-09-22
# 中心化ソフトアクター批判的深層強化学習による都市学習による地域需要側管理

A Centralised Soft Actor Critic Deep Reinforcement Learning Approach to District Demand Side Management through CityLearn ( http://arxiv.org/abs/2009.10562v1 )

ライセンス: Link先を確認
Anjukan Kathirgamanathan, Kacper Twardowski, Eleni Mangina, Donal Finn(参考訳) 強化学習は、将来のスマートグリッドの一部として、地区レベルで需要側管理のためのモデルフリーかつ適応型コントローラである。 本稿では,2020年初頭に開催されていたCityLearn Challengeに提出されたアルゴリズムの結果について,各種建築物の電気的需要の集約曲線を平坦化し円滑にするために,強化学習エージェントを設計・調整することを目的とした。 提案手法は,連続的な行動空間を扱える集中型「ソフトアクター批判」深部強化学習エージェントを用いて,課題の2位を確保した。 コントローラは、異なる建物と気候からなるチャレンジデータセットで平均0.967点を達成した。 このことは、異なる気候と異質なビルのストックを扱えるプラグアンドプレイ型コントローラとしての深層強化学習を、地区需要側で建物を管理できる可能性を強調している。

Reinforcement learning is a promising model-free and adaptive controller for demand side management, as part of the future smart grid, at the district level. This paper presents the results of the algorithm that was submitted for the CityLearn Challenge, which was hosted in early 2020 with the aim of designing and tuning a reinforcement learning agent to flatten and smooth the aggregated curve of electrical demand of a district of diverse buildings. The proposed solution secured second place in the challenge using a centralised 'Soft Actor Critic' deep reinforcement learning agent that was able to handle continuous action spaces. The controller was able to achieve an averaged score of 0.967 on the challenge dataset comprising of different buildings and climates. This highlights the potential application of deep reinforcement learning as a plug-and-play style controller, that is capable of handling different climates and a heterogenous building stock, for district demand side management of buildings.
翻訳日:2022-10-15 21:51:22 公開日:2020-09-22
# 画像分類のための深部ネットワーク特性改善における直交制約の役割

Role of Orthogonality Constraints in Improving Properties of Deep Networks for Image Classification ( http://arxiv.org/abs/2009.10762v1 )

ライセンス: Link先を確認
Hongjun Choi, Anirudh Som, Pavan Turaga(参考訳) 分類的クロスエントロピー損失を用いた標準的なディープラーニングモデルは、画像分類タスクでよく機能することが知られている。 しかし、その結果得られた多くの標準モデルは、特徴冗長性、低い解釈可能性、キャリブレーションの欠如といった問題が多い。 クロスエントロピー損失に加えて、新しい正規化関数の使用を提案することで、これらの課題のいくつかに対処しようとする最近の研究が数多く登場している。 本稿では,画像に共通する物理学的制約を課す手段として,単純直交性制約が果たす役割を探究した驚くべき知見を提案する。 物理に基づく潜在表現からシンプルな仮定で現れる直交球正則化器(OS)を提案する。 さらに単純化された仮定の下では、OS制約は単純な正則項として閉形式で書かれ、クロスエントロピー損失関数と共に用いられる。 以上の結果から, 正則性損失関数が関与することが示唆された。 a)豊かで多様な特徴表現 b) 特徴的部分選択に対する堅牢性 c) クラスアクティベーションマップにおける意味的局在性の向上,および d) モデル校正誤差の低減。 CIFAR10, CIFAR100, SVHN, 小画像Netの4つのベンチマークデータセットに対して, 定量的および定性的な結果を提供することにより, 提案OS正則化の有効性を示す。

Standard deep learning models that employ the categorical cross-entropy loss are known to perform well at image classification tasks. However, many standard models thus obtained often exhibit issues like feature redundancy, low interpretability, and poor calibration. A body of recent work has emerged that has tried addressing some of these challenges by proposing the use of new regularization functions in addition to the cross-entropy loss. In this paper, we present some surprising findings that emerge from exploring the role of simple orthogonality constraints as a means of imposing physics-motivated constraints common in imaging. We propose an Orthogonal Sphere (OS) regularizer that emerges from physics-based latent-representations under simplifying assumptions. Under further simplifying assumptions, the OS constraint can be written in closed-form as a simple orthonormality term and be used along with the cross-entropy loss function. The findings indicate that orthonormality loss function results in a) rich and diverse feature representations, b) robustness to feature sub-selection, c) better semantic localization in the class activation maps, and d) reduction in model calibration error. We demonstrate the effectiveness of the proposed OS regularization by providing quantitative and qualitative results on four benchmark datasets - CIFAR10, CIFAR100, SVHN and tiny ImageNet.
翻訳日:2022-10-15 21:49:56 公開日:2020-09-22
# ファセットラッシュ計測と多タスク深層学習による区間変数の構成:ヘイトスピーチへの応用

Constructing interval variables via faceted Rasch measurement and multitask deep learning: a hate speech application ( http://arxiv.org/abs/2009.10277v1 )

ライセンス: Link先を確認
Chris J. Kennedy, Geoff Bacon, Alexander Sahn, Claudia von Vacano(参考訳) 本稿では,教師付き深層学習とファセットされたラッシュアイテム応答理論(IRT)構築手法を組み合わせることで,連続区間スペクトル上の複素変数の一般的な測定法を提案する。 我々は,対象構成,ヘイトスピーチを,通常調査項目としてラベル付けされた複数の構成要素に分解する。 これらの調査の回答は、IRTを通して不偏の継続的な結果尺度に変換されます。 提案手法は, 人間のラベルの解釈バイアスを推定し, 生成した連続測定に与える影響を除去する。 さらに、ファセットIRTを用いて各ラベルの応答品質を推定し、低品質ラベルからの応答を除去する。 我々の顔のRaschスケーリング手順は、新しいデータの自動予測のためのマルチタスクディープラーニングアーキテクチャと自然に統合されます。 目標結果の理論的コンポーネントに対する評価は、ニューラルネットワークの内部概念学習のための教師付き順序変数として使用される。 本研究では,通常の結果変数の構造を利用するために,アクティベーション関数 (ordinal softmax) と損失関数 (ordinal cross-entropy) を試験する。 当社のマルチタスクアーキテクチャは,各連続予測をペナルティメート層を構成するコンポーネントによって直接説明できるため,新たな形式のモデル解釈につながります。 われわれは、YouTube、Twitter、Redditから5万件のソーシャルメディアコメントを収集し、1万1000人の米国拠点のAmazon Mechanical Turkの労働者によってラベル付けされたデータセット上で、ヘイトスピーチから反音声への連続スペクトルを測定する。 我々は,コメントテキストの言語表現モデルとしてUniversal Sentence Encoders,BERT,RoBERTaを評価し,予測精度をGoogle JigsawのパースペクティブAPIモデルと比較した。

We propose a general method for measuring complex variables on a continuous, interval spectrum by combining supervised deep learning with the Constructing Measures approach to faceted Rasch item response theory (IRT). We decompose the target construct, hate speech in our case, into multiple constituent components that are labeled as ordinal survey items. Those survey responses are transformed via IRT into a debiased, continuous outcome measure. Our method estimates the survey interpretation bias of the human labelers and eliminates that influence on the generated continuous measure. We further estimate the response quality of each labeler using faceted IRT, allowing responses from low-quality labelers to be removed. Our faceted Rasch scaling procedure integrates naturally with a multitask deep learning architecture for automated prediction on new data. The ratings on the theorized components of the target outcome are used as supervised, ordinal variables for the neural networks' internal concept learning. We test the use of an activation function (ordinal softmax) and loss function (ordinal cross-entropy) designed to exploit the structure of ordinal outcome variables. Our multitask architecture leads to a new form of model interpretation because each continuous prediction can be directly explained by the constituent components in the penultimate layer. We demonstrate this new method on a dataset of 50,000 social media comments sourced from YouTube, Twitter, and Reddit and labeled by 11,000 U.S.-based Amazon Mechanical Turk workers to measure a continuous spectrum from hate speech to counterspeech. We evaluate Universal Sentence Encoders, BERT, and RoBERTa as language representation models for the comment text, and compare our predictive accuracy to Google Jigsaw's Perspective API models, showing significant improvement over this standard benchmark.
翻訳日:2022-10-15 21:49:35 公開日:2020-09-22
# podsumm --podオーディオ要約

PodSumm -- Podcast Audio Summarization ( http://arxiv.org/abs/2009.10315v1 )

ライセンス: Link先を確認
Aneesh Vartakavi and Amanmeet Garg(参考訳) ポッドキャストの多様な性質、規模、特異性は、コンテンツ発見システムにとってユニークな課題である。 リスナーはしばしば、ポッドキャスト作者が新しいコンテンツを見つけるために提供したエピソードのテキスト記述に頼っている。 ナレーターの提示スタイルや生産品質などの要因は、主観的ユーザの好みを示す重要な指標であるが、ポッドキャスト作成者が提供するテキスト記述の定量化や反映が難しい。 本稿では,ポッドキャスト音声要約の自動作成によるコンテンツ発見の支援と,全エピソードを聴く時間を費やす前に,聴取者がポッドキャストコンテンツをすばやくプレビューする支援を提案する。 本稿では,テキストドメインからの指導によりポッドキャスト要約を自動的に構築する手法を提案する。 本手法は音声からテキストへの書き起こしと要約生成という2つの重要なステップを実行する。 このタスクにはデータセットが不足しているため、内部データセットをキュレートし、データ拡張の効果的なスキームを見つけ、アノテータから要約を集めるためのプロトコルを設計する。 我々は、PreSumm[10]モデルを拡張現実データセットに微調整し、アブレーション研究を行う。 本手法は, ROUGE-F(1/2/L)スコア0.63/0.53/0.63を達成する。 これらの結果がこの方向に将来の研究を刺激することを期待している。

The diverse nature, scale, and specificity of podcasts present a unique challenge to content discovery systems. Listeners often rely on text descriptions of episodes provided by the podcast creators to discover new content. Some factors like the presentation style of the narrator and production quality are significant indicators of subjective user preference but are difficult to quantify and not reflected in the text descriptions provided by the podcast creators. We propose the automated creation of podcast audio summaries to aid in content discovery and help listeners to quickly preview podcast content before investing time in listening to an entire episode. In this paper, we present a method to automatically construct a podcast summary via guidance from the text-domain. Our method performs two key steps, namely, audio to text transcription and text summary generation. Motivated by a lack of datasets for this task, we curate an internal dataset, find an effective scheme for data augmentation, and design a protocol to gather summaries from annotators. We fine-tune a PreSumm[10] model with our augmented dataset and perform an ablation study. Our method achieves ROUGE-F(1/2/L) scores of 0.63/0.53/0.63 on our dataset. We hope these results may inspire future research in this direction.
翻訳日:2022-10-15 21:48:48 公開日:2020-09-22
# 道路カメラ画像と気象データからの道路表面条件決定のための効率的な深層学習モデルの設計

Design of Efficient Deep Learning models for Determining Road Surface Condition from Roadside Camera Images and Weather Data ( http://arxiv.org/abs/2009.10282v1 )

ライセンス: Link先を確認
Juan Carrillo, Mark Crowley, Guangyuan Pan, Liping Fu(参考訳) 冬期における道路の整備は、安全と資源を要求される作業である。 その重要な活動の1つは、道路を優先し、耕作や塩漬けなどの清掃作業を割り当てるために路面条件(rsc)を決定することである。 RSCを決定するための従来のアプローチは、訓練された職員による道路カメラ画像の視覚検査と、現場での検査を行うための道路パトロールである。 しかし、オンタリオ州全域で500台以上のカメラが撮影され、視覚検査は資源集約的な活動となり、特に吹雪の時期にはスケールしにくい。 本稿では,道路整備作業の効率化を目的とした研究結果について述べる。 複数のDeep Learningモデルを用いて、道路カメラ画像と気象変数からRCCを自動的に判定し、同様の手法を用いてこの問題に対処する以前の研究を拡張した。 私たちが使用しているデータセットは、2017-2018年の冬季にオンタリオ道路気象情報システム(RWIS)に接続する40の局から収集され、14万枚のラベル付き画像と70万個の気象測定結果を含んでいる。 我々は,最近のdungnet,nasnet,mobilenetなど,コンピュータビジョン文献から得られた7つの最先端モデルのパフォーマンスをトレーニングし,評価する。 さらに、系統的アブレーション実験により、先行したディープラーニングモデルに適応し、パラメータ数を元のパラメータ数と比較して約1.3%に削減し、気象変数からの観測結果を統合することにより、可視性の低い環境下でのrscの確度が向上する。

Road maintenance during the Winter season is a safety critical and resource demanding operation. One of its key activities is determining road surface condition (RSC) in order to prioritize roads and allocate cleaning efforts such as plowing or salting. Two conventional approaches for determining RSC are: visual examination of roadside camera images by trained personnel and patrolling the roads to perform on-site inspections. However, with more than 500 cameras collecting images across Ontario, visual examination becomes a resource-intensive activity, difficult to scale especially during periods of snowstorms. This paper presents the results of a study focused on improving the efficiency of road maintenance operations. We use multiple Deep Learning models to automatically determine RSC from roadside camera images and weather variables, extending previous research where similar methods have been used to deal with the problem. The dataset we use was collected during the 2017-2018 Winter season from 40 stations connected to the Ontario Road Weather Information System (RWIS), it includes 14.000 labeled images and 70.000 weather measurements. We train and evaluate the performance of seven state-of-the-art models from the Computer Vision literature, including the recent DenseNet, NASNet, and MobileNet. Moreover, by following systematic ablation experiments we adapt previously published Deep Learning models and reduce their number of parameters to about ~1.3% compared to their original parameter count, and by integrating observations from weather variables the models are able to better ascertain RSC under poor visibility conditions.
翻訳日:2022-10-15 21:48:30 公開日:2020-09-22
# 消防アプリケーションにおける拡張現実のための組込み深層学習システム

An embedded deep learning system for augmented reality in firefighting applications ( http://arxiv.org/abs/2009.10679v1 )

ライセンス: Link先を確認
Manish Bhattarai, Aura Rose Jensen-Curtis, Manel Mart\'iNez-Ram\'on(参考訳) 消火活動は動的活動であり、同時に多数の操作が行われる。 現場における状況認識(現在の状況や活動の知識)を維持することは、消防士による火災環境の安全かつ良好な航行に必要な正確な意思決定に不可欠である。 逆に、煙や過熱などの危険によって引き起こされる方向転換は、怪我や死に至ることがある。 本研究では,深層学習,ポイントクラウド,サーマルイメージング,拡張現実プラットフォームなどの最近の技術進歩を実装し,消防士の状況認識とシーンナビゲーションを改善し,そのシーンの解釈を改善した。 我々は、消防士の個人防護装置(PPE)に組み込まれたカメラからストリームされるデータを利用して、熱、RGB色、深度画像をキャプチャし、すでに開発されたディープラーニングモデルをデプロイし、リアルタイムで入力データを分析できる、プロトタイプの組込みシステムを構築し、構築した。 組込みシステムは、処理された画像をワイヤレスストリーミングで分析・返却し、遠隔で見ることができ、分析された入力の結果を可視化する拡張現実プラットフォームを使用して消防士に中継し、煙や炎によって見えないドアや窓などの興味のある物体に消防士の注意を向ける。

Firefighting is a dynamic activity, in which numerous operations occur simultaneously. Maintaining situational awareness (i.e., knowledge of current conditions and activities at the scene) is critical to the accurate decision-making necessary for the safe and successful navigation of a fire environment by firefighters. Conversely, the disorientation caused by hazards such as smoke and extreme heat can lead to injury or even fatality. This research implements recent advancements in technology such as deep learning, point cloud and thermal imaging, and augmented reality platforms to improve a firefighter's situational awareness and scene navigation through improved interpretation of that scene. We have designed and built a prototype embedded system that can leverage data streamed from cameras built into a firefighter's personal protective equipment (PPE) to capture thermal, RGB color, and depth imagery and then deploy already developed deep learning models to analyze the input data in real time. The embedded system analyzes and returns the processed images via wireless streaming, where they can be viewed remotely and relayed back to the firefighter using an augmented reality platform that visualizes the results of the analyzed inputs and draws the firefighter's attention to objects of interest, such as doors and windows otherwise invisible through smoke and flames.
翻訳日:2022-10-15 21:42:40 公開日:2020-09-22
# SQuARE: セマンティックスに基づく質問応答と推論エンジン

SQuARE: Semantics-based Question Answering and Reasoning Engine ( http://arxiv.org/abs/2009.10239v1 )

ライセンス: Link先を確認
Kinjal Basu, Sarat Chandra Varanasi, Farhad Shakerin, Gopal Gupta(参考訳) テキストの意味を理解することは自然言語理解(NLU)の根本的な課題であり、初期から質問応答(QA)タスクを通じて大きな注目を集めてきた。 本稿では,自然言語QAのための汎用意味論に基づくフレームワークを紹介し,その応用であるSQuAREシステムについても述べる。 このフレームワークは、プログラミング言語の研究で広く使われている表記意味論のアプローチに基づいている。 我々のフレームワークでは、評価関数はテキストの構文木を、基本知識プリミティブ(意味代数学)で表現され、解集合プログラミング(asp)でコード化された共通意味にマッピングする。 本稿では,本フレームワークのセマンティック代数としてのVerbNetプリミティブと,テキストの知識を表現した解集合プログラムを生成する部分木マッチングに基づく新しいアルゴリズムによる応用について述べる。 そのテキストに対する質問は、同じフレームワークを使用してASPクエリに変換し、s(CASP)ゴール指向のASPシステムを使用して実行される。 我々のアプローチは純粋に(常識的な)推論に基づいている。 SQuAREは、テストした5つのbAbIQAタスクのすべてのデータセットに対して100%の精度を達成する。 私たちの研究の意義は、他の機械学習ベースのアプローチと異なり、テキストの“理解”に基づいており、トレーニングを必要としないことです。 SQuAREはまた、高い精度を維持しながら、回答の説明を生成することができる。

Understanding the meaning of a text is a fundamental challenge of natural language understanding (NLU) and from its early days, it has received significant attention through question answering (QA) tasks. We introduce a general semantics-based framework for natural language QA and also describe the SQuARE system, an application of this framework. The framework is based on the denotational semantics approach widely used in programming language research. In our framework, valuation function maps syntax tree of the text to its commonsense meaning represented using basic knowledge primitives (the semantic algebra) coded using answer set programming (ASP). We illustrate an application of this framework by using VerbNet primitives as our semantic algebra and a novel algorithm based on partial tree matching that generates an answer set program that represents the knowledge in the text. A question posed against that text is converted into an ASP query using the same framework and executed using the s(CASP) goal-directed ASP system. Our approach is based purely on (commonsense) reasoning. SQuARE achieves 100% accuracy on all the five datasets of bAbI QA tasks that we have tested. The significance of our work is that, unlike other machine learning based approaches, ours is based on "understanding" the text and does not require any training. SQuARE can also generate an explanation for an answer while maintaining high accuracy.
翻訳日:2022-10-15 21:42:19 公開日:2020-09-22
# 教師なし学習を使って因果グラフを発見する

Using Unsupervised Learning to Help Discover the Causal Graph ( http://arxiv.org/abs/2009.10790v1 )

ライセンス: Link先を確認
Seamus Brady(参考訳) 本論文で概説されたソフトウェア aitiaexplorer は探索的因果分析ツールであり,教師なし学習を用いて特徴選択を行い,因果発見を促進する。 本稿では,因果関係の問題空間を簡潔に説明し,関連する研究の概要を述べる。 ソフトウェアに関する問題ステートメントと要件を概説する。 実装における重要な要件、重要な設計決定、そして実際のAitiaExplorerの実装について議論する。 最後に、この実装は、前述した問題ステートメントと要件の観点から評価される。 AitiaExplorerはこれらの要件を満たしており、データセットから重要な機能のサブセットを自動的に選択し、これらの機能に基づいたレビューのための因果グラフ候補を作成するための有用な因果解析ツールである。 このソフトウェアはhttps://github.com/corvideon/aitiaexplorerで入手できる。

The software outlined in this paper, AitiaExplorer, is an exploratory causal analysis tool which uses unsupervised learning for feature selection in order to expedite causal discovery. In this paper the problem space of causality is briefly described and an overview of related research is provided. A problem statement and requirements for the software are outlined. The key requirements in the implementation, the key design decisions and the actual implementation of AitiaExplorer are discussed. Finally, this implementation is evaluated in terms of the problem statement and requirements outlined earlier. It is found that AitiaExplorer meets these requirements and is a useful exploratory causal analysis tool that automatically selects subsets of important features from a dataset and creates causal graph candidates for review based on these features. The software is available at https://github.com/corvideon/aitiaexplorer
翻訳日:2022-10-15 21:41:39 公開日:2020-09-22
# 知識グラフから埋め込みと論理規則を同時学習するためのハイブリッドモデル

A Hybrid Model for Learning Embeddings and Logical Rules Simultaneously from Knowledge Graphs ( http://arxiv.org/abs/2009.10800v1 )

ライセンス: Link先を確認
Susheel Suresh and Jennifer Neville(参考訳) 知識グラフ推論(KG)の問題は、従来のルールベースのシステムや、近年では知識グラフの埋め込み手法によって広く研究されている。 論理的ルールはKGにおける決定論的挙動を捉えることができるが、既知のKGを超える事実を推測する脆く、マイニングするものは困難である。 確率的埋め込み法はグローバルなソフトな統計傾向を捉えるのに有効であり、それらの推論は計算的に効率的である。 リッチトレーニングデータから学習した埋め込み表現は表現力があるが、現実世界のKGにおける不完全性と疎性は、その効果に影響を与える可能性がある。 両手法の相補的特性を活用し,高品質なルールと埋め込みを同時に学習するハイブリッドモデルの開発を目指す。 提案手法は相互フィードバックのパラダイムを用いて,ルールマイニングシステムの探索と新たな事実の推測を行うための埋め込みモデルを用いている。 これらの新しい事実はサンプル化され、さらに埋め込みモデルの改良に使われる。 複数のベンチマークデータセットの実験は、他の競合するスタンドアロンおよびハイブリッドベースラインに対して、我々の手法の有効性を示す。 また, スパースKG設定においても有効性を示し, 最終的に陰性サンプリングとの関係を探求した。

The problem of knowledge graph (KG) reasoning has been widely explored by traditional rule-based systems and more recently by knowledge graph embedding methods. While logical rules can capture deterministic behavior in a KG they are brittle and mining ones that infer facts beyond the known KG is challenging. Probabilistic embedding methods are effective in capturing global soft statistical tendencies and reasoning with them is computationally efficient. While embedding representations learned from rich training data are expressive, incompleteness and sparsity in real-world KGs can impact their effectiveness. We aim to leverage the complementary properties of both methods to develop a hybrid model that learns both high-quality rules and embeddings simultaneously. Our method uses a cross feedback paradigm wherein, an embedding model is used to guide the search of a rule mining system to mine rules and infer new facts. These new facts are sampled and further used to refine the embedding model. Experiments on multiple benchmark datasets show the effectiveness of our method over other competitive standalone and hybrid baselines. We also show its efficacy in a sparse KG setting and finally explore the connection with negative sampling.
翻訳日:2022-10-15 21:41:24 公開日:2020-09-22
# 敵攻撃防止のための不確実な注意グラフニューラルネットワーク

Uncertainty-aware Attention Graph Neural Network for Defending Adversarial Attacks ( http://arxiv.org/abs/2009.10235v1 )

ライセンス: Link先を確認
Boyuan Feng, Yuke Wang, Zheng Wang, and Yufei Ding(参考訳) グラフベースの学習の普及に伴い、グラフニューラルネットワーク(GNN)が、グラフから洞察を得るために不可欠なツールとして登場した。 しかし、これまで広く調査され、徹底的にテストされてきた従来のCNNとは異なり、人々は金融サービスなどのクリティカルセッティングの下でGNNの堅牢性に懸念を抱いている。 主な理由は、既存のGNNが予測においてブラックボックスとして機能し、予測の不確実性を提供しないからである。 一方、最近のCNNにおけるベイズ的深層学習の進歩は、CNNモデルを強化するための不確実性を定量化し、説明することに成功した。 本研究は,GNNの階層的不確実性を特定し,活用することによって,GNNに対する敵対的攻撃を防御する最初の体系的ソリューションであるUAGを提案する。 UAGは、GNNにおける不確実性を明示的に捉えるためにベイズ不確実性技術(BUT)を開発し、さらにGNNに対する敵の攻撃を防御するために不確実性認識注意技術(UAT)を使用している。 集中的な実験により,提案手法が最先端ソリューションを著しく上回っていることが示された。

With the increasing popularity of graph-based learning, graph neural networks (GNNs) emerge as the essential tool for gaining insights from graphs. However, unlike the conventional CNNs that have been extensively explored and exhaustively tested, people are still worrying about the GNNs' robustness under the critical settings, such as financial services. The main reason is that existing GNNs usually serve as a black-box in predicting and do not provide the uncertainty on the predictions. On the other side, the recent advancement of Bayesian deep learning on CNNs has demonstrated its success of quantifying and explaining such uncertainties to fortify CNN models. Motivated by these observations, we propose UAG, the first systematic solution to defend adversarial attacks on GNNs through identifying and exploiting hierarchical uncertainties in GNNs. UAG develops a Bayesian Uncertainty Technique (BUT) to explicitly capture uncertainties in GNNs and further employs an Uncertainty-aware Attention Technique (UAT) to defend adversarial attacks on GNNs. Intensive experiments show that our proposed defense approach outperforms the state-of-the-art solutions by a significant margin.
翻訳日:2022-10-15 21:41:06 公開日:2020-09-22
# ディープヴァー-"イン・シリコ"型抗ウイルスリポジションのためのグラフィカルディープマトリックス因子化-COVID-19への応用

DeepVir -- Graphical Deep Matrix Factorization for "In Silico" Antiviral Repositioning: Application to COVID-19 ( http://arxiv.org/abs/2009.10333v1 )

ライセンス: Link先を確認
Aanchal Mongia, Stuti Jain, Emilie Chouzenoux and Angshul Majumda(参考訳) 本研究は、抗ウイルス薬が列に沿っているマトリックス完成問題として抗ウイルス再配置を定式化する。 入力マトリックスは部分的に充填され、抗ウイルス薬がウイルスに対して有効であることが知られている位置にある。 抗ウイルス (化学構造と経路) およびウイルス (ゲノム構造と症状) の硬化したメタデータを, グラフラプラシアン正則化としてマトリックス完成フレームワークにエンコードする。 次に、結果のグラフ正規化行列完備化問題をディープ行列分解としてフレーム化する。 これはHyPALM(Hybrid Proximal Alternating Linearized Minimization)と呼ばれる新しい最適化手法を用いて解決される。 得られたRNAドラッグウイルスアソシエーション(DVA)データセットの結果,提案手法は最先端のグラフ正規化マトリックス完成技術よりも優れていることが示された。 新型コロナウイルス(COVID-19)の抗ウイルス剤の「シリコ」予測に応用すると、患者の治療に使用されるか、同じ臨床試験を受けている抗ウイルス薬を返却する。

This work formulates antiviral repositioning as a matrix completion problem where the antiviral drugs are along the rows and the viruses along the columns. The input matrix is partially filled, with ones in positions where the antiviral has been known to be effective against a virus. The curated metadata for antivirals (chemical structure and pathways) and viruses (genomic structure and symptoms) is encoded into our matrix completion framework as graph Laplacian regularization. We then frame the resulting multiple graph regularized matrix completion problem as deep matrix factorization. This is solved by using a novel optimization method called HyPALM (Hybrid Proximal Alternating Linearized Minimization). Results on our curated RNA drug virus association (DVA) dataset shows that the proposed approach excels over state-of-the-art graph regularized matrix completion techniques. When applied to "in silico" prediction of antivirals for COVID-19, our approach returns antivirals that are either used for treating patients or are under for trials for the same.
翻訳日:2022-10-15 21:39:46 公開日:2020-09-22
# ガンマ分布に基づく不均衡データのサンプリング

Gamma distribution-based sampling for imbalanced data ( http://arxiv.org/abs/2009.10343v1 )

ライセンス: Link先を確認
Firuz Kamalov and Dmitry Denisov(参考訳) 不均衡なクラス分布は、医学診断、不正検出など、多くの分野において一般的な問題である。 分類アルゴリズムのバイアスが発生し、マイノリティクラスデータのパフォーマンスが低下する。 本稿では、マイノリティクラスインスタンスのインテリジェントな再サンプリングを通じて、データのクラス分布をバランスさせる新しい手法を提案する。 提案手法は,ガンマ分布を用いて,既存マイノリティポイント近傍のマイノリティインスタンスを新たに生成することに基づく。 本手法は,データのバランスをとるための自然かつコヒーレントなアプローチを提供する。 我々は,新しいサンプリング手法の包括的数値解析を行う。 実験の結果,提案手法は既存の非平衡データに対する最先端手法よりも優れていた。 具体的には、新しいサンプリング技術は、24の現実生活のうち12のベストな結果と、合成データセットを生成する。 比較のために、SMOTE法は1つのデータセットでトップスコアを得る。 この新しい手法は,データのバランスをとるための,単純かつ効果的なサンプリング手法を提供する。

Imbalanced class distribution is a common problem in a number of fields including medical diagnostics, fraud detection, and others. It causes bias in classification algorithms leading to poor performance on the minority class data. In this paper, we propose a novel method for balancing the class distribution in data through intelligent resampling of the minority class instances. The proposed method is based on generating new minority instances in the neighborhood of the existing minority points via a gamma distribution. Our method offers a natural and coherent approach to balancing the data. We conduct a comprehensive numerical analysis of the new sampling technique. The experimental results show that the proposed method outperforms the existing state-of-the-art methods for imbalanced data. Concretely, the new sampling technique produces the best results on 12 out of 24 real life as well as synthetic datasets. For comparison, the SMOTE method achieves the top score on only 1 dataset. We conclude that the new technique offers a simple yet effective sampling approach to balance data.
翻訳日:2022-10-15 21:39:24 公開日:2020-09-22
# コンピュータビジョンタスクの多様性を考慮したカリキュラム学習

Curriculum Learning with Diversity for Supervised Computer Vision Tasks ( http://arxiv.org/abs/2009.10625v1 )

ライセンス: Link先を確認
Petru Soviany(参考訳) カリキュラム学習技術は、従来のランダムトレーニングを難解な戦略に置き換えることで、自動モデルの精度を向上させるための有効なソリューションである。 しかし、標準カリキュラムの方法論は、自動的に改良された結果を提供するわけではないが、データ分布や提案モデルのような複数の要素によって制限されている。 本稿では,学習データの多様性と入力の難しさを考慮に入れた,新たなカリキュラムサンプリング戦略を提案する。 視覚探索課題の解決に要する人間の時間に基づいて,最先端の推定器を用いて難易度を判定する。 このような難易度基準は、特定のタスク依存要素ではなく、各画像の文脈に基づくため、一般的な問題を解決するのに適していると考えられる。 トレーニング中の多様性を保証し、訪問の少ないクラスからの要素を優先します。 我々はPascal VOC 2007およびCityscapesデータセット上でオブジェクト検出とインスタンスセグメンテーション実験を行い、ランダムに訓練されたベースラインと標準カリキュラムアプローチの両方を超越した。 我々は、我々の戦略が不均衡なデータセットに対して非常に効率的であることを証明し、他のカリキュラムベースの戦略が失敗すると、より高速な収束とより正確な結果をもたらす。

Curriculum learning techniques are a viable solution for improving the accuracy of automatic models, by replacing the traditional random training with an easy-to-hard strategy. However, the standard curriculum methodology does not automatically provide improved results, but it is constrained by multiple elements like the data distribution or the proposed model. In this paper, we introduce a novel curriculum sampling strategy which takes into consideration the diversity of the training data together with the difficulty of the inputs. We determine the difficulty using a state-of-the-art estimator based on the human time required for solving a visual search task. We consider this kind of difficulty metric to be better suited for solving general problems, as it is not based on certain task-dependent elements, but more on the context of each image. We ensure the diversity during training, giving higher priority to elements from less visited classes. We conduct object detection and instance segmentation experiments on Pascal VOC 2007 and Cityscapes data sets, surpassing both the randomly-trained baseline and the standard curriculum approach. We prove that our strategy is very efficient for unbalanced data sets, leading to faster convergence and more accurate results, when other curriculum-based strategies fail.
翻訳日:2022-10-15 21:34:00 公開日:2020-09-22
# 何が見えるか? ニューラルネットワークによる説明可能な人工知能(XAI)の解釈性の評価

What Do You See? Evaluation of Explainable Artificial Intelligence (XAI) Interpretability through Neural Backdoors ( http://arxiv.org/abs/2009.10639v1 )

ライセンス: Link先を確認
Yi-Shan Lin, Wen-Chuan Lee, Z. Berkay Celik(参考訳) 説明可能なAI(XAI)手法は、ディープニューラルネットワークが特定のターゲットで決定に到達する上で重要とされる入力の一部を強調したモデル唾液度説明を通じて、入力を予測する方法を理解するために提案されている。 しかし、現在の評価手法では人間からの主観的な入力を必要とするか、自動評価で高い計算コストを必要とするため、解釈可能性の正しさを定量化することは依然として困難である。 そこで,本稿では,誤分類の原因となる悪質な機能を隠蔽するバックドアトリガーパターンを提案する。 我々のキーとなる観察は、XAI法で同定された領域がその出力に真に関係しているかどうかを評価するための入力に対して、トリガーが基礎的な真実を提供することである。 バックドアトリガーは意図的な誤分類を引き起こす最も重要な特徴であるため、堅牢なXAI手法は推論時にその存在を明らかにする必要がある。 XAI法は, 色, 形状, テクスチャ, 位置, サイズを用いて, トリガを具体化した36種類のモデルを用いて, 最先端のモデルフリー, モデル固有のポストホック手法を生成・評価する。 局所的な説明と特徴関連性を利用する6つの手法がトリガー領域を完全に強調できず、モデルフリーアプローチのみがトリガー領域全体を明らかにすることができることがわかった。

EXplainable AI (XAI) methods have been proposed to interpret how a deep neural network predicts inputs through model saliency explanations that highlight the parts of the inputs deemed important to arrive a decision at a specific target. However, it remains challenging to quantify correctness of their interpretability as current evaluation approaches either require subjective input from humans or incur high computation cost with automated evaluation. In this paper, we propose backdoor trigger patterns--hidden malicious functionalities that cause misclassification--to automate the evaluation of saliency explanations. Our key observation is that triggers provide ground truth for inputs to evaluate whether the regions identified by an XAI method are truly relevant to its output. Since backdoor triggers are the most important features that cause deliberate misclassification, a robust XAI method should reveal their presence at inference time. We introduce three complementary metrics for systematic evaluation of explanations that an XAI method generates and evaluate seven state-of-the-art model-free and model-specific posthoc methods through 36 models trojaned with specifically crafted triggers using color, shape, texture, location, and size. We discovered six methods that use local explanation and feature relevance fail to completely highlight trigger regions, and only a model-free approach can uncover the entire trigger region.
翻訳日:2022-10-15 21:33:40 公開日:2020-09-22
# 文書レベル関係抽出のためのグローバル-ローカルニューラルネットワーク

Global-to-Local Neural Networks for Document-Level Relation Extraction ( http://arxiv.org/abs/2009.10359v1 )

ライセンス: Link先を確認
Difeng Wang and Wei Hu and Ermei Cao and Weijian Sun(参考訳) 関係抽出(RE)は、テキスト内の名前付きエンティティ間の意味的関係を特定することを目的としている。 近年、文書のレベルに引き上げられるのを目撃しており、エンティティとの複雑な推論とドキュメント全体への言及が必要である。 本稿では,文書情報をエンティティのグローバル表現やローカル表現,コンテキスト関係表現といった観点からエンコードすることで,文書レベルREの新たなモデルを提案する。 エンティティグローバル表現モデル ドキュメント内のすべてのエンティティのセマンティック情報、エンティティローカル表現は、特定のエンティティの複数の言及のコンテキスト情報を集約し、コンテキスト関連表現は、他の関係のトピック情報をエンコードする。 実験の結果,本モデルはドキュメントレベルのreに対して2つの公開データセットにおいて優れた性能を達成できることがわかった。 長距離の実体間の関係を抽出し、複数の言及を持つのに特に有効である。

Relation extraction (RE) aims to identify the semantic relations between named entities in text. Recent years have witnessed it raised to the document level, which requires complex reasoning with entities and mentions throughout an entire document. In this paper, we propose a novel model to document-level RE, by encoding the document information in terms of entity global and local representations as well as context relation representations. Entity global representations model the semantic information of all entities in the document, entity local representations aggregate the contextual information of multiple mentions of specific entities, and context relation representations encode the topic information of other relations. Experimental results demonstrate that our model achieves superior performance on two public datasets for document-level RE. It is particularly effective in extracting relations between entities of long distance and having multiple mentions.
翻訳日:2022-10-15 21:31:52 公開日:2020-09-22
# 歴史的筆跡の全ページ認識

Whole page recognition of historical handwriting ( http://arxiv.org/abs/2009.10634v1 )

ライセンス: Link先を確認
Hans J.G.A. Dolfing(参考訳) 歴史的手書き文書は、少数の学者や専門家の範囲内でのみ人間の知識の重要な部分を保護する。 機械学習と手書き文字研究の最近の進歩は、この情報にアクセスし、より多くの聴衆に検索できる可能性を持っている。 そこで本研究では,手書きのページを取り,その全文を書き起こすテキストローカライゼーションを伴わないエンドツーエンド推論手法について検討する。 明示的な文字や単語や行のセグメンテーションは推論に関係しないため、我々はこのアプローチを「セグメンテーションフリー」と呼ぶ。 IAM, RODRIGO, ScribbleLens corporaをベースとしたライン・バイ・ラインセグメンテーションアプローチと比較して, 400年にわたる手書きスタイルを持つ3言語で, その堅牢性と正確性を検討した。 ハンドヘルドデバイスや組み込みデバイスにデプロイ可能なモデルタイプやサイズに集中しています。 テキストのローカライゼーションやセグメンテーションを伴わないページ全体の推論手法は競争力がある。

Historical handwritten documents guard an important part of human knowledge only within reach of a few scholars and experts. Recent developments in machine learning and handwriting research have the potential of rendering this information accessible and searchable to a larger audience. To this end, we investigate an end-to-end inference approach without text localization which takes a handwritten page and transcribes its full text. No explicit character, word or line segmentation is involved in inference which is why we call this approach "segmentation free". We explore its robustness and accuracy compared to a line-by-line segmented approach based on the IAM, RODRIGO and ScribbleLens corpora, in three languages with handwriting styles spanning 400 years. We concentrate on model types and sizes which can be deployed on a hand-held or embedded device. We conclude that a whole page inference approach without text localization and segmentation is competitive.
翻訳日:2022-10-15 21:30:28 公開日:2020-09-22
# ハイパーリレーショナル知識グラフのためのメッセージパッシング

Message Passing for Hyper-Relational Knowledge Graphs ( http://arxiv.org/abs/2009.10847v1 )

ライセンス: Link先を確認
Mikhail Galkin, Priyansh Trivedi, Gaurav Maheshwari, Ricardo Usbeck, Jens Lehmann(参考訳) ハイパーリレーショナル・ナレッジグラフ(KG)(例えばWikidata)は、追加のキーと値のペアとメインのトリプルを関連付けて曖昧にしたり、事実の有効性を制限することができる。 本研究では,このようなハイパーリレーショナルkgをモデル化可能なメッセージパッシングベースのグラフエンコーダ stare を提案する。 既存のアプローチとは異なり、StarEは任意の数の付加情報(修飾子)と主三重項をエンコードし、修飾子と三重項の意味的な役割をそのまま維持することができる。 また、ハイパーリレーショナルkgsにおけるリンク予測(lp)性能を評価するための既存のベンチマークは根本的な欠陥を抱えており、新しいウィキデータベースのデータセットであるwd50kを開発した。 実験により、StarEベースのLPモデルは、複数のベンチマークで既存のアプローチよりも優れていることが示された。 また,三重項表現に比べて最大25mr点のリンク予測には修飾子の利用が不可欠であることを確認した。

Hyper-relational knowledge graphs (KGs) (e.g., Wikidata) enable associating additional key-value pairs along with the main triple to disambiguate, or restrict the validity of a fact. In this work, we propose a message passing based graph encoder - StarE capable of modeling such hyper-relational KGs. Unlike existing approaches, StarE can encode an arbitrary number of additional information (qualifiers) along with the main triple while keeping the semantic roles of qualifiers and triples intact. We also demonstrate that existing benchmarks for evaluating link prediction (LP) performance on hyper-relational KGs suffer from fundamental flaws and thus develop a new Wikidata-based dataset - WD50K. Our experiments demonstrate that StarE based LP model outperforms existing approaches across multiple benchmarks. We also confirm that leveraging qualifiers is vital for link prediction with gains up to 25 MRR points compared to triple-based representations.
翻訳日:2022-10-15 21:23:42 公開日:2020-09-22
# 極端多重ラベル分類のためのデータ拡張について

On Data Augmentation for Extreme Multi-label Classification ( http://arxiv.org/abs/2009.10778v1 )

ライセンス: Link先を確認
Danqing Zhang, Tao Li, Haiyang Zhang, Bing Yin(参考訳) 本稿では,極端多重ラベル分類(XMC)問題に対するデータ拡張に着目した。 XMCの最も困難な問題の1つは、強力なモデルでさえ監督不足に悩まされる長い尾のラベル分布である。 このようなラベルバイアスを軽減するために,単純かつ効果的な拡張フレームワークと最先端の分類器を提案する。 この拡張フレームワークは,事前学習したgpt-2モデルを利用して入力テキストのラベル不変な摂動を生成し,既存のトレーニングデータの強化を行う。 その結果、ベースラインモデルよりも大幅に改善されている。 我々は,1)RoBERTaとラベルアテンションを併用した新しい最先端分類器を導入し,さらに改善するための拡張フレームワークと組み合わせ,(2)XMCタスクにおける異なる拡張方法がどの程度有効であるかを広く研究する。

In this paper, we focus on data augmentation for the extreme multi-label classification (XMC) problem. One of the most challenging issues of XMC is the long tail label distribution where even strong models suffer from insufficient supervision. To mitigate such label bias, we propose a simple and effective augmentation framework and a new state-of-the-art classifier. Our augmentation framework takes advantage of the pre-trained GPT-2 model to generate label-invariant perturbations of the input texts to augment the existing training data. As a result, it present substantial improvements over baseline models. Our contributions are two-factored: (1) we introduce a new state-of-the-art classifier that uses label attention with RoBERTa and combine it with our augmentation framework for further improvement; (2) we present a broad study on how effective are different augmentation methods in the XMC task.
翻訳日:2022-10-15 21:23:06 公開日:2020-09-22
# 乗算器の交互方向法によるグラフニューラルネットワークのスケーラブルな逆攻撃

Scalable Adversarial Attack on Graph Neural Networks with Alternating Direction Method of Multipliers ( http://arxiv.org/abs/2009.10233v1 )

ライセンス: Link先を確認
Boyuan Feng, Yuke Wang, Xu Li, and Yufei Ding(参考訳) グラフニューラルネットワーク(GNN)は、グラフ構造化データの解析において高いパフォーマンスを実現しており、金融や自動運転などの安全クリティカルな領域に広くデプロイされている。 しかしながら、GNNの敵攻撃に対する堅牢性を探る研究はごくわずかであり、その設計は通常、入力データセットのスケール(つまり数千のノードしか持たない小さなグラフ)によって制限される。 本研究では,ALMM(Alternating Direction Method of Multipliers)を用いた最初のスケーラブルな敵攻撃手法であるSAGを提案する。 まず、大規模なグラフを複数の小さなグラフパーティションに分割し、元の問題をいくつかのサブ問題にキャストします。 そこで本研究では,これらのサブプロブレムを,従来の攻撃手法に比べてメモリ消費が大幅に減少するグラフトポロジとノード特徴の両方に勾配勾配を投影して解決する。 厳密な実験により、SAGは最先端のアプローチと比較して計算とメモリオーバーヘッドを著しく削減し、ノードとエッジの大きいグラフに適用できることを示した。

Graph neural networks (GNNs) have achieved high performance in analyzing graph-structured data and have been widely deployed in safety-critical areas, such as finance and autonomous driving. However, only a few works have explored GNNs' robustness to adversarial attacks, and their designs are usually limited by the scale of input datasets (i.e., focusing on small graphs with only thousands of nodes). In this work, we propose, SAG, the first scalable adversarial attack method with Alternating Direction Method of Multipliers (ADMM). We first decouple the large-scale graph into several smaller graph partitions and cast the original problem into several subproblems. Then, we propose to solve these subproblems using projected gradient descent on both the graph topology and the node features that lead to considerably lower memory consumption compared to the conventional attack methods. Rigorous experiments further demonstrate that SAG can significantly reduce the computation and memory overhead compared with the state-of-the-art approach, making SAG applicable towards graphs with large size of nodes and edges.
翻訳日:2022-10-15 21:22:53 公開日:2020-09-22
# Q-Learningはおそらく効率的か? 拡張解析

Is Q-Learning Provably Efficient? An Extended Analysis ( http://arxiv.org/abs/2009.10396v1 )

ライセンス: Link先を確認
Kushagra Rastogi and Jonathan Lee and Fabrice Harel-Canada and Aditya Joglekar(参考訳) この研究は、論文Q-Learning Provicient is Efficient?の中で提示される理論結果の分析を拡張した。 ジンらによる。 我々は,モデルフリー強化学習において,おそらく最も重要なスレッドに関連する理論的保証を強化する必要性について,文脈的に調査する。 また,ucb探索によるq-learningが,モデルベースアプローチで達成できる最適な後悔に合致するサンプル効率を達成することを示す,主要な結果につながる重要なステップを強調するために,証明で使用される推論についても紹介する。

This work extends the analysis of the theoretical results presented within the paper Is Q-Learning Provably Efficient? by Jin et al. We include a survey of related research to contextualize the need for strengthening the theoretical guarantees related to perhaps the most important threads of model-free reinforcement learning. We also expound upon the reasoning used in the proofs to highlight the critical steps leading to the main result showing that Q-learning with UCB exploration achieves a sample efficiency that matches the optimal regret that can be achieved by any model-based approach.
翻訳日:2022-10-15 21:22:35 公開日:2020-09-22
# リカレントニューラルネットワークの特性指向検証

Property-Directed Verification of Recurrent Neural Networks ( http://arxiv.org/abs/2009.10610v1 )

ライセンス: Link先を確認
Igor Khmelnitsky, Daniel Neider, Rajarshi Roy, Beno\^it Barbot, Benedikt Bollig, Alain Finkel, Serge Haddad, Martin Leucker, Lina Ye(参考訳) 本稿では,recurrent neural networks (rnns) の検証手法を提案する。 そこで本研究では,与えられたrnnから決定論的有限オートマトンをサロゲートモデルとして学習する。 このモデルを検証手法としてモデル検査を用いて解析することができる。 property-directed という用語は、2つのステップを別々に実行するのではなく、与えられたプロパティによって操作され制御されるという考えを反映している。 これにより、小さな反例を高速に発見できるだけでなく、RNNの根底にある誤りを示唆する不良な流れに飛び乗ることで、それらを一般化できることを示す。

This paper presents a property-directed approach to verifying recurrent neural networks (RNNs). To this end, we learn a deterministic finite automaton as a surrogate model from a given RNN using active automata learning. This model may then be analyzed using model checking as verification technique. The term property-directed reflects the idea that our procedure is guided and controlled by the given property rather than performing the two steps separately. We show that this not only allows us to discover small counterexamples fast, but also to generalize them by pumping towards faulty flows hinting at the underlying error in the RNN.
翻訳日:2022-10-15 21:22:07 公開日:2020-09-22
# ニューラルアーキテクチャ探索を用いたマルチモーダルディープラーニングモデルにおけるソフトウェア欠陥検出の改善

Using Neural Architecture Search for Improving Software Flaw Detection in Multimodal Deep Learning Models ( http://arxiv.org/abs/2009.10644v1 )

ライセンス: Link先を確認
Alexis Cooper and Xin Zhou and Scott Heidbrink and Daniel M. Dunlavy(参考訳) マルチモーダルディープラーニングモデルを用いたソフトウェア欠陥検出は、ベンチマーク問題に対する非常に競合的なアプローチとして実証されている。 本研究では,ニューラルネットワークサーチ(NAS)とマルチモーダル学習モデルを組み合わせることで,さらに優れた性能が得られることを示す。 画像分類をソフトウェア欠陥検出問題に適用することを目的としたnasフレームワークを適用し,この問題領域における機械学習モデルの性能を測定するための一般的なベンチマークデータセットであるjuliet test suite上で,改善結果を示す。

Software flaw detection using multimodal deep learning models has been demonstrated as a very competitive approach on benchmark problems. In this work, we demonstrate that even better performance can be achieved using neural architecture search (NAS) combined with multimodal learning models. We adapt a NAS framework aimed at investigating image classification to the problem of software flaw detection and demonstrate improved results on the Juliet Test Suite, a popular benchmarking data set for measuring performance of machine learning models in this problem domain.
翻訳日:2022-10-15 21:21:57 公開日:2020-09-22
# ALICE: 対照的な自然言語説明を用いたアクティブラーニング

ALICE: Active Learning with Contrastive Natural Language Explanations ( http://arxiv.org/abs/2009.10259v1 )

ライセンス: Link先を確認
Weixin Liang, James Zou, Zhou Yu(参考訳) 教師付きニューラルネットワーク分類器のトレーニングは通常、多くの注釈付きトレーニングサンプルを必要とする。 大量のデータポイントの収集と注釈付けはコストがかかり、時には不可能である。 従来のアノテーションプロセスでは、低帯域幅のヒューマンマシン通信インタフェース(分類ラベル)を使用している。 本研究では,学習におけるデータ効率を向上させるために,対照的な自然言語の説明を利用するエキスパート・イン・ザ・ループ・トレーニング・フレームワークであるActive Learning with Contrastive Explanations (ALICE)を提案する。 アリスはまずアクティブラーニングを使ってラベルクラスの最も有益なペアを選び、専門家から対照的な自然言語の説明を導き出す。 そして、意味解析器を用いてこれらの説明から知識を抽出する。 最後に、学習モデルの構造を動的に変化させることにより、抽出した知識を組み込む。 鳥種分類と社会関係分類の2つの視覚的タスクにALICEを適用した。 私たちのモデルは、40~100%のトレーニングデータでトレーニングされたベースラインモデルよりも優れています。 1つ説明を加えると、ラベル付きトレーニングデータポイントが13~30個追加されるのと同じパフォーマンス向上が得られることがわかった。

Training a supervised neural network classifier typically requires many annotated training samples. Collecting and annotating a large number of data points are costly and sometimes even infeasible. Traditional annotation process uses a low-bandwidth human-machine communication interface: classification labels, each of which only provides several bits of information. We propose Active Learning with Contrastive Explanations (ALICE), an expert-in-the-loop training framework that utilizes contrastive natural language explanations to improve data efficiency in learning. ALICE learns to first use active learning to select the most informative pairs of label classes to elicit contrastive natural language explanations from experts. Then it extracts knowledge from these explanations using a semantic parser. Finally, it incorporates the extracted knowledge through dynamically changing the learning model's structure. We applied ALICE in two visual recognition tasks, bird species classification and social relationship classification. We found by incorporating contrastive explanations, our models outperform baseline models that are trained with 40-100% more training data. We found that adding 1 explanation leads to similar performance gain as adding 13-30 labeled training data points.
翻訳日:2022-10-15 21:21:37 公開日:2020-09-22