このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200530となっている論文です。

PDF登録状況(公開日: 20200530)

TitleAuthorsAbstract論文公表日・翻訳日
# 漸近的自由と閉じ込めの間の共形橋

Conformal bridge between asymptotic freedom and confinement ( http://arxiv.org/abs/1912.11752v3 )

ライセンス: Link先を確認
Luis Inzunza, Mikhail S. Plyushchay, Andreas Wipf(参考訳) 我々は、与えられた「漸近自由な」共形量子力学系$H_f$と、その閉じ込められた調和されたバージョン$H_c$を関連付ける非単位変換を構築する。 我々の構成では、Jordan状態は$H_f$のゼロ固有値に対応し、その固有状態とガウスパケットはそれぞれ$H_c$の固有状態、コヒーレントな状態、圧縮された状態にマップされる。 この変換は等式変換の四階根の性質の共形 $\mathfrak{sl}(2,{\mathbb r})$ 代数の自己同型であり、複素正準変換は空間反射の四階根である古典的レベルに対応する。 特に2次元自由粒子とランダウ問題の間の興味深い関係を明らかにする一次元および二次元の例について検討する。

We construct a nonunitary transformation that relates a given "asymptotically free" conformal quantum mechanical system $H_f$ with its confined, harmonically trapped version $H_c$. In our construction, Jordan states corresponding to the zero eigenvalue of $H_f$, as well as its eigenstates and Gaussian packets are mapped into the eigenstates, coherent states and squeezed states of $H_c$, respectively. The transformation is an automorphism of the conformal $\mathfrak{sl}(2,{\mathbb R})$ algebra of the nature of the fourth-order root of the identity transformation, to which a complex canonical transformation corresponds on the classical level being the fourth-order root of the spatial reflection. We investigate the one- and two-dimensional examples that reveal, in particular, a curious relation between the two-dimensional free particle and the Landau problem.
翻訳日:2023-06-10 08:38:36 公開日:2020-05-30
# 半充填から遠い駆動ハバード系における磁気相関の制御

Controlling magnetic correlations in a driven Hubbard system far from half-filling ( http://arxiv.org/abs/2002.02312v2 )

ライセンス: Link先を確認
Hongmin Gao, Jonathan R. Coulthard, Dieter Jaksch and Jordi Mur-Petit(参考訳) 本稿では, T-Jハミルトニアンの量子シミュレータとして, 周期的に揺らぎ光格子に閉じ込められた超低温フェルミオン原子を用いて, ドープ反強磁性体の力学を記述し, 銅酸化物の高温超伝導問題に関係していると考えられる。 オフ共振駆動のためのこのシステムを記述する効果的なハミルトニアンはt-jモデルであり、そのパラメータは全てドライブによって制御可能であることを解析的に示す。 次に, 1次元格子のテンソルネットワーク法を用いて, 駆動強度の緩やかな修正により, 基礎となるハバード模型の基底状態から有効t-Jハミルトニアンの基底状態への系の断熱的移動が可能であることを示す。 最後に,この手法を現在の冷原子量子シミュレーション技術で応用した2次元格子におけるスピン・シンクレット対の動的特性に基づく制御の正確な対角化計算を報告する。 これらの結果は、強相関フェルミオン系における密度とスピンの相互作用を、平衡外ダイナミクスを通じて探究するための新しい経路を開く。

We propose using ultracold fermionic atoms trapped in a periodically shaken optical lattice as a quantum simulator of the t-J Hamiltonian, which describes the dynamics in doped antiferromagnets and is thought to be relevant to the problem of high-temperature superconductivity in the cuprates. We show analytically that the effective Hamiltonian describing this system for off-resonant driving is the t-J model with additional pair hopping terms, whose parameters can all be controlled by the drive. We then demonstrate numerically using tensor network methods for a 1D lattice that a slow modification of the driving strength allows near-adiabatic transfer of the system from the ground state of the underlying Hubbard model to the ground state of the effective t-J Hamiltonian. Finally, we report exact diagonalization calculations illustrating the control achievable on the dynamics of spin-singlet pairs in 2D lattices utilising this technique with current cold-atom quantum-simulation technology. These results open new routes to explore the interplay between density and spin in strongly-correlated fermionic systems through their out-of-equilibrium dynamics.
翻訳日:2023-06-04 14:05:16 公開日:2020-05-30
# 単一光子から絡み合った状態を生成するアルゴリズムの改良

Improved Heralded Schemes to Generate Entangled States From Single Photons ( http://arxiv.org/abs/2004.02691v2 )

ライセンス: Link先を確認
F.V. Gubarev, I.V. Dyakonov, M.Yu. Saygin, G.I. Struchalin, S.S. Straupe and S.P. Kulik(参考訳) 本稿では,3光子GHZと2光子ベル状態の半解析により最適線形光回路を構築する手法を提案する。 両線符号化3GHZおよびベル状態生成における1/54と2/27の成功確率をそれぞれ提供する光学スキームの詳細な記述と解析を行う。 この結果は,3GHZ状態の成功確率に関する既知の構成的境界を改善し,これらの状態が必須資源となる弾道量子コンピューティングモデルにおいて特に重要である。

We present a novel semi-analytical methodology to construct optimal linear optical circuits for heralded production of 3-photon GHZ and 2-photon Bell states. We provide a detailed description and analysis of the resulting optical schemes, which deliver success probabilities of 1/54 and 2/27 for dual-rail encoded 3-GHZ and Bell states generation, respectively. Our results improve the known constructive bounds on the success probabilities for 3-GHZ states and are of particular importance for a ballistic quantum computing model, for which these states provide an essential resource.
翻訳日:2023-05-26 06:25:22 公開日:2020-05-30
# TiO2のテンプレート原子層堆積法によるダイヤモンド膜上の高Qナノフォトニック共振器

High-Q Nanophotonic Resonators on Diamond Membranes using Templated Atomic Layer Deposition of TiO2 ( http://arxiv.org/abs/2004.03532v3 )

ライセンス: Link先を確認
Amy Butcher, Xinghan Guo, Robert Shreiner, Nazar Delegan, Kai Hao, Peter J. Duda III, David D. Awschalom, F. Joseph Heremans, Alexander A. High(参考訳) 固体量子エミッタとナノフォトニック共振器の統合は、効率的なスピンフォトニック界面および光ネットワーク応用に不可欠である。 ダイヤモンド色中心は新興量子技術の優れた候補であることが証明されているが、光共振器との統合は依然として困難である。 ダイヤモンドへのエッチング共振器に基づく従来のアプローチは、しばしば色中心の性能に悪影響を及ぼし、デバイス収率の低下をもたらす。 そこで我々は,ダイヤモンド膜上のTiO2のテンプレート原子層堆積に基づく集積フォトニクスプラットフォームを開発した。 製法は, ダイヤモンドへのエッチングを回避しつつ, 高性能なナノフォトニクス素子を作製する。 さらに、この手法は高い再現性を持つ光共鳴を生成し、個々のダイヤモンドサンプルで繰り返し処理することができる。 本手法は,広帯域の波長と基板に適合し,ダイヤモンド,炭化ケイ素,希土類イオンなどの材料系におけるキャビティフォトンとコヒーレント欠陥との間の高い共役性を実現する。

Integrating solid-state quantum emitters with nanophotonic resonators is essential for efficient spin-photon interfacing and optical networking applications. While diamond color centers have proven to be excellent candidates for emerging quantum technologies, their integration with optical resonators remains challenging. Conventional approaches based on etching resonators into diamond often negatively impact color center performance and offer low device yield. Here, we developed an integrated photonics platform based on templated atomic layer deposition of TiO2 on diamond membranes. Our fabrication method yields high-performance nanophotonic devices while avoiding etching wavelength-scale features into diamond. Moreover, this technique generates highly reproducible optical resonances and can be iterated on individual diamond samples, a unique processing advantage. Our approach is suitable for a broad range of both wavelengths and substrates and can enable high-cooperativity interfacing between cavity photons and coherent defects in diamond or silicon carbide, rare earth ions, or other material systems.
翻訳日:2023-05-26 04:10:37 公開日:2020-05-30
# 定深さ量子回路からのフォールトトレラント量子スピードアップ

Fault-tolerant quantum speedup from constant depth quantum circuits ( http://arxiv.org/abs/2005.11539v2 )

ライセンス: Link先を確認
Rawad Mezher, Joe Ghalbouni, Joseph Dgheim, and Damian Markham(参考訳) 量子コンピューティングの分野における決定的な特徴は、量子デバイスが特定の計算タスクに対して、古典的デバイスよりも優れる可能性である。 現在までに、ある種のサンプリング問題は量子的に効率的に行うことができるが、複雑性理論の強い予想を仮定して、古典的に効率的に行うことはできないことを示すいくつかの提案が存在する。 量子スピードアップと呼ばれる機能。 しかし、これらの提案に対するノイズの影響は一般にはよく理解されておらず、一部のケースでは単純なノイズが量子スピードアップを破壊することが知られている。 本稿では,これらのサンプリング問題の1つのファミリーのフォールトトレラント版を開発し,一定の深さの量子回路を用いて実装可能であることを示す。 2つの構成を示し、それぞれ$poly(n)$ physical qubitsを持ち、そのうちのいくつかはノイズの多い魔法の状態で準備される。 最初の構成は、4次元の1および2量子ビット近傍のクリフォードゲートからなる定深さ量子回路である。 この回路は、最終的な測定の前に古典的コンピュータと1層ずつ相互作用する。 2番目の構成は、隣り合うクリフォードゲートが3次元で、最後の測定の前に古典的なコンピュータと相互作用する2つの層を持つ定深さ量子回路である。 これらの構成に対して、2つの標準複雑性理論予想が成り立つと仮定して、出力分布に応じて$poly(n)$ timeでサンプリングできる古典的なアルゴリズムは存在しないことを示す。 私たちが想定するノイズモデルは、いわゆる局所確率量子ノイズである。 その過程で, 一定深度マジック状態蒸留(MSD)や, 測定ベース量子計算(MBQC)で自然に発生する定数深度出力ルーティングなど, 回路モデルに一定の深度アナログが存在しない, 様々な新しい概念を紹介した。

A defining feature in the field of quantum computing is the potential of a quantum device to outperform its classical counterpart for a specific computational task. By now, several proposals exist showing that certain sampling problems can be done efficiently quantumly, but are not possible efficiently classically, assuming strongly held conjectures in complexity theory. A feature dubbed quantum speedup. However, the effect of noise on these proposals is not well understood in general, and in certain cases it is known that simple noise can destroy the quantum speedup. Here we develop a fault-tolerant version of one family of these sampling problems, which we show can be implemented using quantum circuits of constant depth. We present two constructions, each taking $poly(n)$ physical qubits, some of which are prepared in noisy magic states. The first of our constructions is a constant depth quantum circuit composed of single and two-qubit nearest neighbour Clifford gates in four dimensions. This circuit has one layer of interaction with a classical computer before final measurements. Our second construction is a constant depth quantum circuit with single and two-qubit nearest neighbour Clifford gates in three dimensions, but with two layers of interaction with a classical computer before the final measurements. For each of these constructions, we show that there is no classical algorithm which can sample according to its output distribution in $poly(n)$ time, assuming two standard complexity theoretic conjectures hold. The noise model we assume is the so-called local stochastic quantum noise. Along the way, we introduce various new concepts such as constant depth magic state distillation (MSD), and constant depth output routing, which arise naturally in measurement based quantum computation (MBQC), but have no constant-depth analogue in the circuit model.
翻訳日:2023-05-18 23:38:42 公開日:2020-05-30
# 教育技術の実践における批判的教育

Critical pedagogy in the implementation of educational technologies ( http://arxiv.org/abs/2006.00245v1 )

ライセンス: Link先を確認
Parvathy Panicker(参考訳) 本稿では,開発途上国に焦点をあてた学習技術の実現に向けた課題について,批判的なレビューを行う。 開発途上国の課題を理解するために,学習技術に関する総合的な文献レビューを行った。 研究課題は、教育が学習者に社会民主主義社会へのフル参加をどの程度与えているかである。 文献レビューは、この話題に関連する25の論文を特定した。 課題は相互に関連し,途上国に変化をもたらすため,本稿では,次の2つの教育技術フレームワークを提案する。 1.文化概念の枠組み、及び 2. 問題に基づく構成主義心理学シミュレーションモデル フレームワークとシミュレーションモデルの両方が実践と研究のガイドに役立ちます。

This paper presents a critical review of the challenges to the implementation of learning technologies with particular focus on developing countries. A comprehensive literature review on learning technologies was undertaken for the purpose of understanding the challenges in developing countries. The research question is: what extent does education empower learners to be full participants in a socially democratic society? The literature review identified 25 papers relevant to this topic. Challenges are interrelated and to bring about changes in developing countries, this paper proposes two educational technology frameworks based on: 1. cultural conceptual framework, and 2. problem-based constructivist psychology simulation model. The framework and simulation model are both useful to guide practice and research.
翻訳日:2023-05-17 22:47:40 公開日:2020-05-30
# dzyaloshinskii-moriyaと双極子-双極子相互作用は結合に基づくlandau-majorana-st\"uckelberg-zener遷移に影響を及ぼす

Dzyaloshinskii-Moriya and dipole-dipole interactions affect coupling-based Landau-Majorana-St\"uckelberg-Zener transitions ( http://arxiv.org/abs/2006.00229v1 )

ライセンス: Link先を確認
Roberto Grimaudo, Hiromichi Nakazato, Antonino Messina, Nikolay V. Vitanov(参考訳) 理論的には、2つのスピン (qubitsまたはqutrits) が交換相互作用のみによって結合され、リニアランプが2つのスピンの1つに作用するときに結合ベースのジョイントランダウ・メジャーナ-st\"uckelberg-zener (lmsz)遷移が起こることが示されている。 このような遷移は、パラメータの適切な条件下で、2スピン系を最大絡み合った状態へと駆動する。 本稿では,ジアラロシンスキー-モリヤ(DM)とジポール-双極子相互作用(d-d)から生じる2つの量子力学への影響を質的に,定量的に検討する。 2つのスピンのエンリッチハミルトニアンモデルは、以前の顕微鏡的モデルと同じc2対称性を共有しており、これが新たな量子力学問題の厳密な処理をもたらす。 本論文はdmとd-d相互作用が独立に発生し、交換相互作用によってのみ結合された2つのスピンによって予測される動的挙動の修正が促進または妨げられることを透過的に明らかにする。 ここで開発された理論に基づいて、制御されたLMSZシナリオにおける磁化の時間進化の測定により、スピン系を記述する3種類のカップリングの相対重みに関する情報を得ることができることに注意する必要がある。 この可能性は、原理上、特定の物理シナリオにおいて顕微鏡モデルの選択を合法化できるため、非常に重要である。

It has been theoretically demonstrated that two spins (qubits or qutrits), coupled by exchange interaction only, undergo a coupling-based joint Landau-Majorana-St\"uckelberg-Zener (LMSZ) transition when a linear ramp acts upon one of the two spins. Such a transition, under appropriate conditions on the parameters, drives the two-spin system toward a maximally entangled state. In this paper, effects on the quantum dynamics of the two qudits, stemming from the Dzyaloshinskii-Moriya (DM) and dipole-dipole (d-d) interactions, are investigated qualitatively and quantitatively. The enriched Hamiltonian model of the two spins, shares with the previous microscopic one the same C2-symmetry which once more brings about an exact treatment of the new quantum dynamical problem. This paper transparently reveals that the DM and d-d interactions generate independent, enhancing or hindering, modifications in the dynamical behaviour predicted for the two spins coupled exclusively by the exchange interaction. It is worthy noticing that, on the basis of the theory here developed, the measurement of the time evolution of the magnetization in a controlled LMSZ scenario, can furnish information on the relative weights of the three kinds of couplings describing the spin system. This possibility is very important since it allows in principle to legitimate the choice of the microscopic model to be adopted in a given physical scenario.
翻訳日:2023-05-17 22:47:32 公開日:2020-05-30
# 第4Painlev\'e 方程式とエルマコフ方程式:量子不変量と新しい正確な時間依存ハミルトニアン

Fourth Painlev\'e and Ermakov equations: quantum invariants and new exactly-solvable time-dependent Hamiltonians ( http://arxiv.org/abs/2006.00207v1 )

ライセンス: Link先を確認
Kevin Zelaya, Ian Marquette, and V\'eronique Hussin(参考訳) 本研究では, 4次パンレブ方程式とエルマコフ方程式の解に基づいて, 完全可解時間依存ハミルトニアンの新たな実現法を提案する。 後者は、未知の量子不変量と時間依存係数を持つ3階交叉作用素の集合の間に形状不変条件を導入することで達成される。 新しい量子不変量は、よく知られたパラメトリック振動子不変量に変形項を加えることによって構成される。 このような変形はエルマコフ方程式の解を通じて時間に明示的に依存し、ハミルトニアンの新しい時間依存ポテンシャルの正則性を保証する。 一方、適切な再パラメータ化の助けを借りて、第4のPainlev\'e方程式が現れ、量子不変量のスペクトル挙動を規定するパラメータが現れる。 特に、三階ラダー作用素の固有関数は、リッカティ方程式、岡本多項式、あるいは微分非線形シュル=オディンガー方程式の非線形境界状態の解によって決定されるシュル=オディンガー方程式の解のいくつかの系列を導く。 注目すべきことに、非線形境界状態の項による解は、(n+1)次元と無限個の固有関数の両方を含む同値固有値を持つ量子不変量をもたらす。 時間に依存したハミルトニアンの族は、著者の知識により、定常系と非定常系の文献に気付かないほどである。

In this work, we introduce a new realization of exactly-solvable time-dependent Hamiltonians based on the solutions of the fourth Painlev\'e and the Ermakov equations. The latter is achieved by introducing a shape-invariant condition between an unknown quantum invariant and a set of third-order intertwining operators with time-dependent coefficients. The new quantum invariant is constructed by adding a deformation term to the well-known parametric oscillator invariant. Such a deformation depends explicitly on time through the solutions of the Ermakov equation, which ensures the regularity of the new time-dependent potential of the Hamiltonian at each time. On the other hand, with the aid of the proper reparametrization, the fourth Painlev\'e equation appears, the parameters of which dictate the spectral behavior of the quantum invariant. In particular, the eigenfunctions of the third-order ladder operators lead to several sequences of solutions to the Schr\"odinger equation, determined in terms of the solutions of a Riccati equation, Okamoto polynomials, or nonlinear bound states of the derivative nonlinear Schr\"odinger equation. Remarkably, it is noticed that the solutions in terms of the nonlinear bound states lead to a quantum invariant with equidistant eigenvalues, which contains both an (N+1)-dimensional and an infinite sequence of eigenfunctions. The resulting family of time-dependent Hamiltonians is such that, to the authors' knowledge, have been unnoticed in the literature of stationary and nonstationary systems.
翻訳日:2023-05-17 22:46:43 公開日:2020-05-30
# 情報幾何学における量子状態密度の測定と量子多パラメータ推定への応用

Measure of the density of quantum states in information geometry and its application in the quantum multi-parameter estimation ( http://arxiv.org/abs/2006.00203v1 )

ライセンス: Link先を確認
Haijun Xing, and Libin Fu(参考訳) 近年、情報幾何学の観点から量子力学の研究への関心が高まっており、そこでは射影ヒルベルト空間の点で量子状態が描かれる。 量子フィッシャー情報(QFI)を射影ヒルベルト空間の計量として捉えることで、小さなパラメータシフトを推定することは、与えられた曲線に沿って隣接する量子状態の区別に等しい。 したがって、情報幾何は単一のパラメータ推定において重要な役割を果たす。 しかし、高次元測度が存在しないため、多パラメータ系の研究における応用は制限される。 本稿では,QFIの体積要素の物理的意味について論じる。 射影ヒルベルト空間における量子状態(英語版)(idqs)の固有密度を測定し、これは量子状態のクラスにおける(超)完全性関係を定義するための測度である。 応用例として、IDQSは量子計測やマルチパラメータ推定に利用できる。 我々は, qfi の古典的対応であり, 統計多様体の計量として機能する古典的フィッシャー情報の不変量を用いて, 効率的な推定器の集合に対する識別可能状態の密度(dds)を求める。 それに対応して、量子Cram\'{e}r-Rao不等式の決定式が提案され、量子測定によってIDQSを推論する能力を定量化する。 その結果,IDQSと最大DDSの差が得られた。 ギャップは不確実性関係と密接な関係にある。 2つのパラメータを持つ3レベル系を例示すると、 \emph{vertex Measurement} (MvDDS) によって得られる最大 DDS は、量子幾何テンソルの行列式の平方根と等しい。 これは、IDQSとMvDDSの間の正方形ギャップがベリー曲率の正方形に比例していることを示している。

Recently, there is a growing interest in study quantum mechanics from the information geometry perspective, where a quantum state is depicted with a point in the projective Hilbert space. By taking quantum Fisher information (QFI) as the metric of projective Hilbert spaces, estimating a small parameter shift is equivalent to distinguishing neighboring quantum states along a given curve. Henceforth, information geometry plays a significant role in the single parameter estimation. However, the absence of high dimensional measures limits its applications in studying the multi-parameter systems. In this paper, we will discuss the physical implications of the volume element of QFI. It measures the intrinsic density of quantum states (IDQS) in projective Hilbert spaces, which is, then, a measure to define the (over) completeness relation of a class of quantum states. As an application, IDQS can be used in quantum measurement and multi-parameter estimation. We find the density of distinguishable states (DDS) for a set of efficient estimators is measured by the invariant volume of the classical Fisher information, which is the classical counterpart of QFI and serves as the metric of statistical manifolds. Correspondingly, a determinant form of quantum Cram\'{e}r-Rao inequality is proposed to quantify the ability to infer the IDQS via quantum measurement. As a result, we find a gap between IDQS and maximal DDS over the measurements. The gap has tight connections with the uncertainty relationship. Exemplified with the three-level system with two parameters, we find the maximal DDS attained via the \emph{vertex measurements} (MvDDS) equals the square root of the quantum geometric tensor's determinant. It indicates the square gap between IDQS and MvDDS is proportional to the square of Berry curvature.
翻訳日:2023-05-17 22:46:17 公開日:2020-05-30
# 憲法論争の最前線の市民:チリにおける参加決定事項と創発的内容

Citizens at the forefront of the constitutional debate: Participation determinants and emergent content in Chile ( http://arxiv.org/abs/2006.00140v1 )

ライセンス: Link先を確認
M. P. Raveau, J. P. Couyoumdjian, C. Fuentes-Bravo, C. Rodriguez-Sickert, Cristian Candia(参考訳) 過去数十年間、憲法制定プロセスは、クローズド・エリート・ライティングから民主的なメカニズムの導入へと移行してきた。 しかし、憲法制定過程における民主的参加についてはほとんど知られていない。 ここでは,2015年から2016年にかけてチリ政府が実施した審議的構成過程について検討する。 チリのプロセスは、そのような過程において、世界で最も高い市民参加率(204,402米ドル、すなわち人口の1.3対%)を有し、国民領土の98対%をカバーした。 その参加段階において、人々は10人から30人の自決的なグループに集まり、彼らはまとめて選択し、思慮し、新しい憲法にその社会的権利を含めるべき理由を論議した。 このボランティアプロセスにおける市民参加ドライバーを理解するために,まず自治体レベルで決定要因を特定する。 我々は、教育レベル、政治への関与、(左翼の)政府のサポート、そしてインターネットアクセスの増加を見出した。 対照的に、人口密度と福音主義キリスト教徒の比率は低下した。 さらに、市民参加に対する政治的操作の証拠も見つかっていない。 これらの決定要因を踏まえて, 社会的権利の集団的選択と, 審議段階における内容の分析を行った。 以上の結果から,都市に埋め込まれた知識は,教育水準と主要な経済活動を用いて,テーマ,概念,アイデアに関する審議を促進することが示唆された。 これらの結果は、市民相談から憲法制定プロセスまで、自発的な市民参加を伴う新しい審議過程の組織に知らせることができる。

In the past few decades, constitution-making processes have shifted from closed elite writing to incorporating democratic mechanisms. Yet, little is known about democratic participation in deliberative constitution-making processes. Here, we study a deliberative constituent process held by the Chilean government between 2015 and 2016. The Chilean process had the highest level of citizen participation in the world ($204,402$ people, i.e., $1.3\%$ of the population) for such a process and covered $98\%$ of the national territory. In its participatory phase, people gathered in self-convoked groups of 10 to 30 members, and they collectively selected, deliberated, and wrote down an argument on why the new constitution should include those social rights. To understand the citizen participation drivers in this volunteer process, we first identify the determinants at the municipality level. We find the educational level, engagement in politics, support for the (left-wing) government, and Internet access increased participation. In contrast, population density and the share of evangelical Christians decreased participation. Moreover, we do not find evidence of political manipulation on citizen participation. In light of those determinants, we analyze the collective selection of social rights, and the content produced during the deliberative phase. The findings suggest that the knowledge embedded in cities, proxied using education levels and main economic activity, facilitates deliberation about themes, concepts, and ideas. These results can inform the organization of new deliberative processes that involve voluntary citizen participation, from citizen consultations to constitution-making processes.
翻訳日:2023-05-17 22:45:28 公開日:2020-05-30
# キャリア育成を支援するためのOER勧告

OER Recommendations to Support Career Development ( http://arxiv.org/abs/2006.00365v1 )

ライセンス: Link先を確認
Mohammadreza Tavakoli, Ali Faraji, Stefan T. Mol, G\'abor Kismih\'ok(参考訳) この進歩研究論文は、近年のグローバル社会の混乱的な変化から脱却し、多くの市民が再雇用することを余儀なくされている。 そのため、学習者は自己のスキル開発について自律的で戦略的なスキルを身につける必要がある。 その後、高品質、オンライン、パーソナライズされた教育コンテンツやサービスも、この高い需要を満たすために必要となる。 オープン・エデュケーション・リソース(oers)は、世界中の幅広い学習や職業の文脈で利用可能であるため、これらの問題の緩和に貢献する可能性が高い。 しかし、メタデータの品質が低く、複雑な品質管理のため、適用性は制限されている。 これらの問題により、リコメンデーションや検索といったOERの個人化機能が欠如した。 そこで本研究では,スキル開発目標とオープンラーニングコンテンツとを一致させる新しい個人化oer推薦手法を提案する。 これは次のとおりです 1) メタデータ,OER特性及び内容に基づくOER品質予測モデルを用いた。 2)実際の労働市場情報に基づく個別スキル目標の設定を支援する学習者 3) 学習者のスキル目標の習得を支援する,パーソナライズされたoerレコメンデータの構築。 そこで我々は,データサイエンス関連の仕事に焦点を当てたプロトタイプを作成し,そのプロトタイプを23名のデータサイエンティストで評価した。 パイロット参加者はプロトタイプを少なくとも30分間使用し、推奨のOERについてコメントしました。 その結果、400以上のレコメンデーションが生成され、80.9%のレコメンデーションが有用であると報告された。

This Work in Progress Research paper departs from the recent, turbulent changes in global societies, forcing many citizens to re-skill themselves to (re)gain employment. Learners therefore need to be equipped with skills to be autonomous and strategic about their own skill development. Subsequently, high-quality, on-line, personalized educational content and services are also essential to serve this high demand for learning content. Open Educational Resources (OERs) have high potential to contribute to the mitigation of these problems, as they are available in a wide range of learning and occupational contexts globally. However, their applicability has been limited, due to low metadata quality and complex quality control. These issues resulted in a lack of personalised OER functions, like recommendation and search. Therefore, we suggest a novel, personalised OER recommendation method to match skill development targets with open learning content. This is done by: 1) using an OER quality prediction model based on metadata, OER properties, and content; 2) supporting learners to set individual skill targets based on actual labour market information, and 3) building a personalized OER recommender to help learners to master their skill targets. Accordingly, we built a prototype focusing on Data Science related jobs, and evaluated this prototype with 23 data scientists in different expertise levels. Pilot participants used our prototype for at least 30 minutes and commented on each of the recommended OERs. As a result, more than 400 recommendations were generated and 80.9% of the recommendations were reported as useful.
翻訳日:2023-05-17 22:38:52 公開日:2020-05-30
# 不確実性原理の再考

The Uncertainty Principle Revisited ( http://arxiv.org/abs/2006.00347v1 )

ライセンス: Link先を確認
Ady Mann, Pier A. Mello, and Michael Revzen(参考訳) 同じ系上でそれぞれ固有値 $a_n$ と $b_m$ の2つの観測値 $\hat{A}$ と $\hat{B}$ の連続測定から導かれる量子力学的不確実性関係について検討する。 我々はフォン・ノイマン測定モデルの拡張を用いて、2つのプローブが2回連続して同じ系と相互作用し、第1の相互作用の乱れ効果が第2の測定にどのように影響するかを示す。 第2の {\em probe} 変数 $q_2$ を第1の {\em probe} 測定値で条件付けした値$q_1$ の統計的性質を検知すると、$a^{(n)$ の間隔でシステム変数 $a_n$ を見つけたときに条件付けされた {\em system} 変数 $b_m$ の統計分布に関する情報が得られる。 この統計分布の$\delta a$の関数としての幅は、不確かさ関係を構成する。 この不確実性は, 連続的に測定された2つの可観測体の可換子との一般的な関係を見いだす。 この関係を離散的および連続的なケースにおける位置と運動量の連続的な測定と、モデル内ではより一般的な観測可能なクラスの連続的な測定について述べる。

We study the quantum-mechanical uncertainty relation originating from the successive measurement of two observables $\hat{A}$ and $\hat{B}$, with eigenvalues $a_n$ and $b_m$, respectively, performed on the same system. We use an extension of the von Neumann model of measurement, in which two probes interact with the same system proper at two successive times, so we can exhibit how the disturbing effect of the first interaction affects the second measurement. Detecting the statistical properties of the second {\em probe} variable $Q_2$ conditioned on the first {\em probe} measurement yielding $Q_1$ we obtain information on the statistical distribution of the {\em system} variable $b_m$ conditioned on having found the system variable $a_n$ in the interval $\delta a$ around $a^{(n)}$. The width of this statistical distribution as function of $\delta a$ constitutes an {\em uncertainty relation}. We find a general connection of this uncertainty relation with the commutator of the two observables that have been measured successively. We illustrate this relation for the successive measurement of position and momentum in the discrete and in the continuous cases and, within a model, for the successive measurement of a more general class of observables.
翻訳日:2023-05-17 22:37:59 公開日:2020-05-30
# 結合キャビティアレイにおける原子エンタングルメントの生成と分布

Generation and distribution of atomic entanglement in coupled-cavity arrays ( http://arxiv.org/abs/2006.00293v1 )

ライセンス: Link先を確認
J. P. Mendon\c{c}a, F. A. B. F. de Moura, M. L. Lyra, G. M. A. Almeida(参考訳) 単一励起セクターにおけるJynes-Cummings-Hubbard(JCH)ハミルトニアンの2レベル原子を含む1次元結合キャビティアレイにおける絡み合いのダイナミクスについて検討した。 このモデルは、絡み合い制御に利用できる様々な動的レギュレーションを特徴としている。 このプロトコルは、励起原子を基底状態より上に設定し、さらにハミルトニアンの自然なダイナミクスに従って進化させることに基づいている。 ここでは、対の原子間の共起と、原子場相関と配列の構造との関係に焦点を当てる。 対方向の絡み合いの伸縮と分布パターンは、原子キャビティ結合強度のみの均一なチューニングによって操作可能であることを示す。 我々の研究は、単一励起JCHハミルトニアンの機械に関する包括的な説明を提供し、ハイブリッド光マター量子ネットワークの設計に貢献する。

We study the dynamics of entanglement in a 1D coupled-cavity array, each cavity containing a two-level atom, via the Jaynes-Cummings-Hubbard (JCH) Hamiltonian in the single-excitation sector. The model features a rich variety of dynamical regimes that can be harnessed for entanglement control. The protocol is based on setting an excited atom above the ground state and further letting it evolve following the natural dynamics of the Hamiltonian. Here we focus on the concurrence between pairs of atoms and its relation to atom-field correlations and the structure of the array. We show that the extension and distribution pattern of pairwise entanglement can be manipulated through a judicious tuning of the atom-cavity coupling strength only. Our work offers a comprehensive account over the machinery of the single-excitation JCH Hamiltonian as well as contributes to the design of hybrid light-matter quantum networks.
翻訳日:2023-05-17 22:37:32 公開日:2020-05-30
# モジュラリティ最適化による病院サービスエリアと病院紹介地域の自動分割

Automated Delineation of Hospital Service Areas and Hospital Referral Regions by Modularity Optimization ( http://arxiv.org/abs/2006.00275v1 )

ライセンス: Link先を確認
Yujie Hu, Fahui Wang, Imam Xierali(参考訳) 目的。 全患者を代表して最新のHSAとHRRをデライン化し、病院訪問の最適な地域化を図るための、自動化された、データ駆動、スケールフレキシブルな方法を開発する。 データソース。 2011年、フロリダ州の医療費・利用プロジェクト(HCUP)から、患者データベース(SID)を取得。 デザインを学ぶ。 HSA/HRR間のフローを最小化しつつ,各HSA/HRR内の患者対ホスピタルフローを最大化することにより,HSAとHRRを再定義するネットワーク最適化手法を開発した。 フロリダ州の既存のDartmouthユニットと同じ数のHSA/HRRを最初に構築し、その2つをさまざまな指標で比較した。 次に,フロリダ州の入院パターンのモジュラリティを最もよく反映したHSA/HRRの最適数と構成の導出を試みた。 主な発見。 本手法によるHSA/HRRは, 地域規模と市場構造, 形状, そして最も重要な点において, ダートマス単位よりも有利である。 結論だ 新しい方法は自動化され、スケールフレキシブルであり、医療システムの自然な構造を捉えるのに効果的である。 これは、他の医療サービスエリアや、より広い地域におけるアプリケーションにとって大きな可能性を秘めている。

Objective. To develop an automated, data-driven, and scale-flexible method to delineate HSAs and HRRs that are up-to-date, representative of all patients, and have the optimal localization of hospital visits. Data Sources. The 2011 State Inpatient Database (SID) in Florida from the Healthcare Cost and Utilization Project (HCUP). Study Design. A network optimization method was used to redefine HSAs and HRRs by maximizing patient-to-hospital flows within each HSA/HRR while minimizing flows between them. We first constructed as many HSAs/HRRs as existing Dartmouth units in Florida, and then compared the two by various metrics. Next, we sought to derive the optimal numbers and configurations of HSAs/HRRs that best reflect the modularity of hospitalization patterns in Florida. Principal Findings. The HSAs/HRRs by our method are favored over the Dartmouth units in balance of region size and market structure, shape, and most importantly, local hospitalization. Conclusions. The new method is automated, scale-flexible, and effective in capturing the natural structure of healthcare system. It has great potential for applications in delineating other healthcare service areas or in larger geographic regions.
翻訳日:2023-05-17 22:37:17 公開日:2020-05-30
# 予測犯罪ホットスポットマッピングと評価のための時空間カーネル密度推定フレームワーク

A Spatio-Temporal Kernel Density Estimation Framework for Predictive Crime Hotspot Mapping and Evaluation ( http://arxiv.org/abs/2006.00272v1 )

ライセンス: Link先を確認
Yujie Hu, Fahui Wang, Cecile Guin, Haojie Zhu(参考訳) 予測ホットスポットマッピングはホットスポットポリシングにおいて重要な役割を果たす。 一般的なカーネル密度推定(KDE)のような既存の手法では、犯罪の時間次元を考慮していない。 関連分野における最近の研究に基づいて, 予測ホットスポットマッピングと評価のための時空間的枠組みを提案する。 Comparing to existing work in this scope, the proposed framework has four major features: (1) a spatio-temporal kernel density estimation (STKDE) method is applied to include the temporal component in predictive hotspot mapping, (2) a data-driven optimization technique, the likelihood cross-validation, is used to select the most appropriate bandwidths, (3) a statistical significance test is designed to filter out false positives in the density estimates, and (4) a new metric, the predictive accuracy index (PAI) curve, is proposed to evaluate predictive hotspots at multiple areal scales. この枠組みは、2011年にルイジアナ州バトンルージュの住宅強盗のケーススタディで説明され、その実用性を検証した。

Predictive hotspot mapping plays a critical role in hotspot policing. Existing methods such as the popular kernel density estimation (KDE) do not consider the temporal dimension of crime. Building upon recent works in related fields, this article proposes a spatio-temporal framework for predictive hotspot mapping and evaluation. Comparing to existing work in this scope, the proposed framework has four major features: (1) a spatio-temporal kernel density estimation (STKDE) method is applied to include the temporal component in predictive hotspot mapping, (2) a data-driven optimization technique, the likelihood cross-validation, is used to select the most appropriate bandwidths, (3) a statistical significance test is designed to filter out false positives in the density estimates, and (4) a new metric, the predictive accuracy index (PAI) curve, is proposed to evaluate predictive hotspots at multiple areal scales. The framework is illustrated in a case study of residential burglaries in Baton Rouge, Louisiana in 2011, and the results validate its utility.
翻訳日:2023-05-17 22:36:53 公開日:2020-05-30
# 沿岸ハザードが住民の健康サービスへの空間的アクセシビリティに及ぼす影響

Impact of Coastal Hazards on Residents Spatial Accessibility to Health Services ( http://arxiv.org/abs/2006.00271v1 )

ライセンス: Link先を確認
Georgios P. Balomenos, Yujie Hu, Jamie E. Padgett, Kyle Shelton(参考訳) 住民の移動性や本質的なサービスへのアクセスは、沿岸の危険イベントの前後に発生する交通網の閉鎖の影響が大きい。 地理的情報システムとインフラの脆弱性モデルを組み合わせることで、ハリケーン後の商品やサービスへの空間的アクセシビリティの変化を調査する研究はほとんどない。 医療サービスへの空間的アクセシビリティを探求するモデルは特に不足している。 本研究は,ハリケーン前後の交通ネットワークの破壊が住民の健康サービスへの時間的アクセスにどのように影響するかを検討する枠組みを提供する。 2つの異なる橋の閉鎖条件(浸水と構造障害)と道路の浸水は短期的および長期の時間的スケールでフルリカン後アクセシビリティを定量化するために用いられる。 浸水は数時間から数日橋を閉鎖するが、構造的障害は数週間から数ヶ月の間、経路を閉じることがある。 どちらの閉鎖形態も,GISモデルと組み合わせた確率的脆弱性モデルを用いて,沿岸災害後の空間的アクセシビリティを評価する。 テキサス州南東部のハリス郡は海岸の危険に晒されやすい地域であり、ケーススタディに使われている。 その結果,特定のエリアのアクセシビリティスコアの変化は,時間的関心尺度と危険シナリオの強度に依存することがわかった。 社会デモグラフィ指標が研究地域について調査され、アクセシビリティの欠如に最も苦しむ人口が明らかになった。 提示されたフレームワークは,短期的機能損失と長期的ダメージの両方が,障害後の医療などの重要なサービスへのアクセスにどのように影響するかを理解するのに役立つ。 この情報は、将来の緩和と計画の取り組みに関する決定を形作ることができる一方で、提示されたフレームワークは他の危険を伴う領域にも拡張することができる。

The mobility of residents and their access to essential services can be highly affected by transportation network closures that occur during and after coastal hazard events. Few studies have used geographic information systems coupled with infrastructure vulnerability models to explore how spatial accessibility to goods and services shifts after a hurricane. Models that explore spatial accessibility to health services are particularly lacking. This study provides a framework to examine how the disruption of transportation networks during and after a hurricane can impact a residents ability to access health services over time. Two different bridge closure conditions, inundation and structural failure, along with roadway inundation are used to quantify post-hurricane accessibility at short- and long-term temporal scales. Inundation may close a bridge for hours or days, but a structural failure may close a route for weeks or months. Both forms of closure are incorporated using probabilistic vulnerability models coupled with GIS-based models to assess spatial accessibility in the aftermath of a coastal hazard. Harris County, an area in Southeastern Texas prone to coastal hazards, is used as a case study. The results indicate changes in the accessibility scores of specific areas depending on the temporal scale of interest and intensity of the hazard scenario. Sociodemographic indicators are also examined for the study region, revealing the populations most likely to suffer from lack of accessibility. Overall, the presented framework helps to understand how both short-term functionality loss and long-term damage affect access to critical services such as health care after a hazard. This information, in turn, can shape decisions about future mitigation and planning efforts, while the presented framework can be expanded to other hazard-prone areas.
翻訳日:2023-05-17 22:36:38 公開日:2020-05-30
# 時空間アクセシビリティの測定と可視化

Measuring and Visualizing Place-Based Space-Time Job Accessibility ( http://arxiv.org/abs/2006.00268v1 )

ライセンス: Link先を確認
Yujie Hu, Joni Downs(参考訳) 重力モデルのような場所ベースのアクセシビリティ尺度は、都市の雇用機会に対する労働者の空間的アクセシビリティを研究するために広く適用されている。 しかし、重力に基づく測定は、(1)仕事のアクセシビリティ・パターンを捉えるために特別に設計されたものではなく、しばしば粗い分析単位の空間的構成やスケールに敏感であり、(2)仕事の機会や労働者の時間的ダイナミクスを省略し、時間とともに安定し続けると仮定し、(3)動的なジオビジュアライゼーション技術には適さない、という3つの大きな制限に苦しむことが多い。 本稿では,これら3つの制約を克服し,空間と時間における場所ベースのジョブアクセシビリティを計測・可視化するための新しい手法を提案する。 第一に、離散化とダシメトリックマッピングのアプローチは、特定の時間間隔で作業員と作業員の数を分解するために用いられる。 第二に、Shen (1998) の重力によるアクセシビリティ測定は、仕事の供給と労働者の需要の空間分布の時間的変動を考慮し、各セルでの時間的ジョブアクセシビリティを推定するために用いられる。 第3に、時間単位のジョブアクセス推定を時空間キューブ環境に統合する4次元ボリュームトリクスレンダリング手法を採用し、ユーザが時空間のジョブアクセシビリティパターンをインタラクティブに可視化できるようにする。 この統合フレームワークは、フロリダ州タンパベイ地域のケーススタディの文脈で実証されている。 その結果,ジョブアクセシビリティ分析と政策策定プロセスにおける提案手法の価値が示された。

Place-based accessibility measures, such as the gravity-based model, are widely applied to study the spatial accessibility of workers to job opportunities in cities. However, gravity-based measures often suffer from three main limitations: (1) they are sensitive to the spatial configuration and scale of the units of analysis, which are not specifically designed for capturing job accessibility patterns and are often too coarse; (2) they omit the temporal dynamics of job opportunities and workers in the calculation, instead assuming that they remain stable over time; and (3) they do not lend themselves to dynamic geovisualization techniques. In this paper, a new methodological framework for measuring and visualizing place-based job accessibility in space and time is presented that overcomes these three limitations. First, discretization and dasymetric mapping approaches are used to disaggregate counts of jobs and workers over specific time intervals to a fine-scale grid. Second, Shen (1998) gravity-based accessibility measure is modified to account for temporal fluctuations in the spatial distributions of the supply of jobs and the demand of workers and is used to estimate hourly job accessibility at each cell. Third, a four-dimensional volumetric rendering approach is employed to integrate the hourly job access estimates into a space-time cube environment, which enables the users to interactively visualize the space-time job accessibility patterns. The integrated framework is demonstrated in the context of a case study of the Tampa Bay region of Florida. The findings demonstrate the value of the proposed methodology in job accessibility analysis and the policy-making process.
翻訳日:2023-05-17 22:36:11 公開日:2020-05-30
# 統計的意義試験によるコロケーションの地域指標:犯罪・施設の空間的関連性の検討

Local Indicator of Colocation Quotient with a Statistical Significance Test: Examining Spatial Association of Crime and Facilities ( http://arxiv.org/abs/2006.13277v1 )

ライセンス: Link先を確認
Fahui Wang, Yujie Hu, Shuai Wang, Xiaojuan Li(参考訳) 既存の点ベースのコロケーション法は、大域的測度(例えば、結合数統計、クロスk関数、大域的コロケーション商)である。 近年,地域間のコロケーションの変動を捉えるために,局所コロケーション商などの局所指標が提案されている。 本研究は,lclq (local indicator of colocation quotient) のためのシミュレーションに基づく統計テストの開発により,この研究の行を前進させる。 本研究は,土地利用施設と犯罪パターンとの関連性を検討するために指標を適用する。 また,道路ネットワーク上での人的活動(施設や犯罪を含む)が通常発生するため,近隣住民の定義には従来のユークリッド距離に加えて,道路ネットワーク距離を用いる。 中国江蘇省の都市における3種類の犯罪と3種類の施設のコロケーションを解析するために,本手法を適用した。 本研究は,犯罪と施設のコロケーション分析とポイントデータのコロケーション解析において,提案手法の有用性を示すものである。

Most existing point-based colocation methods are global measures (e.g., join count statistic, cross K function, and global colocation quotient). Most recently, a local indicator such as the local colocation quotient is proposed to capture the variability of colocation across areas. Our research advances this line of work by developing a simulation-based statistic test for the local indicator of colocation quotient (LCLQ). The study applies the indicator to examine the association of land use facilities with crime patterns. Moreover, we use the street network distance in addition to the traditional Euclidean distance in defining neighbors since human activities (including facilities and crimes) usually occur along a street network. The method is applied to analyze the colocation of three types of crimes and three categories of facilities in a city in Jiangsu Province, China. The findings demonstrate the value of the proposed method in colocation analysis of crime and facilities, and in general colocation analysis of point data.
翻訳日:2023-05-17 22:30:07 公開日:2020-05-30
# CC-Light eQASMアーキテクチャ仕様

CC-Light eQASM Architecture Specification ( http://arxiv.org/abs/2006.09294v1 )

ライセンス: Link先を確認
Xiang Fu(参考訳) この文書は、量子命令セットアーキテクチャ(QISA)である実行可能なQASM(eQASM)のCC-Lightインスタンス化の仕様であり、7ビットの超伝導量子プロセッサを制御するためにQuTechで開発された。 この文書は、低レベルのプログラマ、コンパイラバックエンド開発者、eQASMのマイクロアーキテクチャ実装者のための参照マニュアルとして機能する。 CC-Light eQASMの設計はApache 2.0ライセンスのもとである。

This document is the specification of the CC-Light instantiation of executable QASM (eQASM), a quantum instruction set architecture (QISA) developed in QuTech targeting to control a seven-qubit superconducting quantum processor. This document can serve as a reference manual for low-level programmers, compiler backend developers, and microarchitecture implementers of eQASM. The design of CC-Light eQASM is under the Apache 2.0 License.
翻訳日:2023-05-17 22:29:43 公開日:2020-05-30
# パーソナルヘルスデバイスへの執着 : 糖尿病管理におけるケーススタディ

Adherence to Personal Health Devices: A Case Study in Diabetes Management ( http://arxiv.org/abs/2006.04947v1 )

ライセンス: Link先を確認
Sudip Vhaduri and Temiloluwa Prioleau(参考訳) パーソナルヘルスデバイスは、健康パラメータの継続的な監視を可能にする。 しかし、これらの機器の利点は、しばしば使用頻度に直接関係している。 したがって、個人の健康装置への付着が重要である。 本稿では,糖尿病管理における連続血糖モニターの有用性について検討する。 被験者44名から60~270日間の2つの独立したデータセットを評価した。 結果はこう示しています 1) 目標目標(すなわち、最適でない結果)の欠落は、個人の健康装置の着用行動に関連する要因であり、 2) データの欠落やデータギャップによって識別される非一貫性の持続時間は, 結果の低下と著しく関連している。 より具体的には、ユーザが異常な血糖値にあるときに、データギャップの最大33%が発生しました。 最も長いデータギャップは、最も深刻な(非常に低い/非常に高い)グルコースカテゴリーで発生した。 また, 糖尿病患者は, 糖尿病患者よりも平均データギャップ期間が長い。 この研究は、非着用行動に影響を与える要因を理解するためにデータ駆動アプローチを活用できる文脈認識システムの設計に関する文献に貢献する。 結果は、健康状態を改善するために標的となる介入を支援することもできる。

Personal health devices can enable continuous monitoring of health parameters. However, the benefit of these devices is often directly related to the frequency of use. Therefore, adherence to personal health devices is critical. This paper takes a data mining approach to study continuous glucose monitor use in diabetes management. We evaluate two independent datasets from a total of 44 subjects for 60 - 270 days. Our results show that: 1) missed target goals (i.e. suboptimal outcomes) is a factor that is associated with wearing behavior of personal health devices, and 2) longer duration of non-adherence, identified through missing data or data gaps, is significantly associated with poorer outcomes. More specifically, we found that up to 33% of data gaps occurred when users were in abnormal blood glucose categories. The longest data gaps occurred in the most severe (i.e. very low / very high) glucose categories. Additionally, subjects with poorly-controlled diabetes had longer average data gap duration than subjects with well-controlled diabetes. This work contributes to the literature on the design of context-aware systems that can leverage data-driven approaches to understand factors that influence non-wearing behavior. The results can also support targeted interventions to improve health outcomes.
翻訳日:2023-05-17 22:29:18 公開日:2020-05-30
# リカレントニューラルネットワークと畳み込みニューラルネットワークを用いた救急救急サービスのための非構造音声とテキストデータへの変換

Transforming unstructured voice and text data into insight for paramedic emergency service using recurrent and convolutional neural networks ( http://arxiv.org/abs/2006.04946v1 )

ライセンス: Link先を確認
Kyongsik Yun, Thomas Lu, Alexander Huyen(参考訳) 救急隊員はしばしば救急車内で限られた時間内に救命判断をしなければならない。 彼らは時々医者に追加の医療指示を求め、その間に貴重な時間が患者に渡される。 本研究の目的は,音声とテキストデータを自動的に融合し,状況認識情報を救急医療者に提供することである。 音声認識モデルのトレーニングとテストのために、双方向のディープリカレントニューラルネットワーク(long short-term memory (lstm))を構築した。 そして、文レベルの分類タスクのために、カスタムトレーニングされた単語ベクトルの上に畳み込みニューラルネットワークを用いた。 各文は、患者の状態、医療歴、治療計画、薬のリマインダーの4種類に自動的に分類される。 その後、インシデントレポートが自動生成され、キーワードを抽出し、救急医や医師の意思決定を支援する。 提案システムでは,非構造化音声およびテキストデータに基づくタイムリーな薬物通知を,現在の救急救急医療では不可能であることがわかった。 また,提案システムが提供する自動インシデントレポート生成は,救急医や医師の日常的だが誤りやすいタスクを改善し,患者のケアに集中できる。

Paramedics often have to make lifesaving decisions within a limited time in an ambulance. They sometimes ask the doctor for additional medical instructions, during which valuable time passes for the patient. This study aims to automatically fuse voice and text data to provide tailored situational awareness information to paramedics. To train and test speech recognition models, we built a bidirectional deep recurrent neural network (long short-term memory (LSTM)). Then we used convolutional neural networks on top of custom-trained word vectors for sentence-level classification tasks. Each sentence is automatically categorized into four classes, including patient status, medical history, treatment plan, and medication reminder. Subsequently, incident reports were automatically generated to extract keywords and assist paramedics and physicians in making decisions. The proposed system found that it could provide timely medication notifications based on unstructured voice and text data, which was not possible in paramedic emergencies at present. In addition, the automatic incident report generation provided by the proposed system improves the routine but error-prone tasks of paramedics and doctors, helping them focus on patient care.
翻訳日:2023-05-17 22:28:44 公開日:2020-05-30
# 表面ネットワークを用いたモビリティホットスポットの検出と解析

Detecting and Analyzing Mobility Hotspots using Surface Networks ( http://arxiv.org/abs/2006.03499v1 )

ライセンス: Link先を確認
Yujie Hu, Harvey J Miller, Xiang Li(参考訳) モバイルオブジェクト上のデータの収集と保存能力は、過去数十年間で劇的に増加している。 永続的な困難は、モバイルオブジェクトの大規模なコレクションをまとめることである。 本稿では,比較的高い移動度でホットスポットや場所を抽出・分析する方法を開発した。 我々は,モバイルオブジェクトの大規模なコレクションを滑らかで連続的な表面に変換するために,カーネル密度推定 (kde) を用いる。 次に,臨界点(ピーク,ピット,パス)と臨界線(リッジライン,コースライン)を含む,曲面の臨界幾何学的特徴を抽出するトポロジカルアルゴリズムを開発した。 我々は、ピークと対応するリッジラインを接続し、表面のトポロジカル構造を要約する表面ネットワークを作成する。 グラフ理論の指標を用いて、時間とともに表面とその変化を解析的に特徴付ける。 このアプローチを説明するために,中国の上海で収集したタクシーデータに適用する。 早朝, 午後, 夕方の通常活動時間におけるホットスポット空間分布の複雑さの増加と, タクシーがワークへのサービスに集中するにつれ, 朝のホットスポット空間分布の接続性の急激な増加がみられた。 これらの結果は、研究領域における人間の活動パターンに関する科学的・逸話的な知識と一致する。

Capabilities for collecting and storing data on mobile objects have increased dramatically over the past few decades. A persistent difficulty is summarizing large collections of mobile objects. This paper develops methods for extracting and analyzing hotspots or locations with relatively high levels of mobility activity. We use kernel density estimation (KDE) to convert a large collection of mobile objects into a smooth, continuous surface. We then develop a topological algorithm to extract critical geometric features of the surface; these include critical points (peaks, pits and passes) and critical lines (ridgelines and course-lines). We connect the peaks and corresponding ridgelines to produce a surface network that summarizes the topological structure of the surface. We apply graph theoretic indices to analytically characterize the surface and its changes over time. To illustrate our approach, we apply the techniques to taxi cab data collected in Shanghai, China. We find increases in the complexity of the hotspot spatial distribution during normal activity hours in the late morning, afternoon and evening and a spike in the connectivity of the hotspot spatial distribution in the morning as taxis concentrate on servicing travel to work. These results match with scientific and anecdotal knowledge about human activity patterns in the study area.
翻訳日:2023-05-17 22:28:25 公開日:2020-05-30
# バトンルージュ1990-2010における賃金グループによる通勤変動

Commuting Variability by Wage Groups in Baton Rouge 1990-2010 ( http://arxiv.org/abs/2006.03498v1 )

ライセンス: Link先を確認
Yujie Hu, Fahui Wang, Chester Wilmot(参考訳) 住宅の人種分離は、最近米国では階級や収入に基づくものにシフトしており、近隣では通勤パターンなど重要な変化が続いている。 所得レベルの異なる地域間での通勤不平等をよりよく理解するために、賃金グループ間での通勤変動(距離と時間の両方)と、バトンルージュのctppデータ1990-2010を用いて経時安定性を分析した。 モンテカルロシミュレーションによる集計誤差とスケール効果を緩和する個別トリップの可換距離を従来の研究と比較し,より正確に推定した。 地域平均賃金率に基づく結果は、通勤行動は異なる賃金率の地域によって異なり、そのような変動は凸形状によって捉えられることを示している。 裕福な地区は通勤する傾向にあったが、高賃金の地区は通勤を減らし後退した。 全般的な交通改善にもかかわらず、この傾向は時間とともに比較的安定している。 賃金集団の分布に基づく相補的な分析を行い、1990-2010年における最低賃金労働者の流動性(場所と輸送の選択肢の減少など)の持続的低下を明らかにする。

Residential segregation recently has shifted to more class or income-based in the United States, and neighborhoods are undergoing significant changes such as commuting patterns over time. To better understand the commuting inequality across neighborhoods of different income levels, this research analyzes commuting variability (in both distance and time) across wage groups as well as stability over time using the CTPP data 1990-2010 in Baton Rouge. In comparison to previous work, commuting distance is estimated more accurately by Monte Carlo simulation of individual trips to mitigate aggregation error and scale effect. The results based on neighborhoods mean wage rate indicate that commuting behaviors vary across areas of different wage rates and such variability is captured by a convex shape. Affluent neighborhoods tended to commute more but highest-wage neighborhoods retreated for less commuting. This trend remains relatively stable over time despite an overall transportation improvement in general. A complementary analysis based on the distribution of wage groups is conducted to gain more detailed insights and uncovers the lasting poor mobility (e.g., fewer location and transport options) of the lowest-wage workers in 1990-2010.
翻訳日:2023-05-17 22:28:03 公開日:2020-05-30
# 歩行者と自転車の危険な交差点:コロケーションに基づくアプローチ

Where are the Dangerous Intersections for Pedestrians and Cyclists: A Colocation-Based Approach ( http://arxiv.org/abs/2006.03131v1 )

ライセンス: Link先を確認
Yujie Hu, Yu Zhang, Kyle Shelton(参考訳) 歩行者とサイクリストは脆弱な道路利用者です。 彼らは他の道路利用者よりも事故で死亡するリスクが高い。 歩行者やサイクリストが関わる致命的な事故の割合は、どちらのモードでも取られる旅行総数よりも高い。 このリスクのため、問題のある街路環境を最小化する方法を見つけることが重要です。 交通安全空間パターンの理解と歩行者や自転車の事故リスクが著しく高い危険な場所の特定は、道路安全を改善するための可能な対策を設計するために不可欠である。 本研究では,建築環境の要素(断面)と衝突(歩行者,サイクリスト)の空間的相関パターンを調べるための2つの指標を開発した。 グローバルコロケーション商は地域全体の接続を検出し、ローカルコロケーション商はハイリスク交差点の場所を特定する。 このアプローチを説明するために,テキサス州ヒューストンの歩行者と自転車の衝突と交差点間のコロケーションパターンを検査する手法を適用し,衝突を惹起する多数の交差点を同定した。 また,これらの交差点を調査し,衝突の高いコロケーションにつながる可能性のある属性について検討し,対応策を提案した。

Pedestrians and cyclists are vulnerable road users. They are at greater risk for being killed in a crash than other road users. The percentage of fatal crashes that involve a pedestrian or cyclist is higher than the overall percentage of total trips taken by both modes. Because of this risk, finding ways to minimize problematic street environments is critical. Understanding traffic safety spatial patterns and identifying dangerous locations with significantly high crash risks for pedestrians and cyclists is essential in order to design possible countermeasures to improve road safety. This research develops two indicators for examining spatial correlation patterns between elements of the built environment (intersections) and crashes (pedestrian- or cyclist-involved). The global colocation quotient detects the overall connection in an area while the local colocation quotient identifies the locations of high-risk intersections. To illustrate our approach, we applied the methods to inspect the colocation patterns between pedestrian- or cyclist-vehicle crashes and intersections in Houston, Texas and we identified among many intersections the ones that significantly attract crashes. We also scrutinized those intersections, discussed possible attributes leading to high colocation of crashes and proposed corresponding countermeasures.
翻訳日:2023-05-17 22:27:43 公開日:2020-05-30
# バトンルージュにおける都市内通勤の時間的動向

Temporal Trends of Intraurban Commuting in Baton Rouge 1990-2010 ( http://arxiv.org/abs/2006.02254v1 )

ライセンス: Link先を確認
Yujie Hu, Fahui Wang(参考訳) バトンルージュにおける1990-2010年のCTPPデータに基づいて、通勤パターンの時間・距離の時間的傾向を分析する。 従来の研究と比較すると、通勤距離はモンテカルロによる個別の移動と作業のシミュレーションによりより正確に調整され、粒子効果が軽減される。 最初の平均通勤距離は1990-2010年に上昇し、平均通勤時間は1990-2000年に増加した。 第二に、都市部の土地利用は時間の経過とともに通勤パターンの予測に優れていた(例えば、平均通勤距離の90%と平均通勤時間の約30%)。 最終的に、1990-2000年の通勤率は大幅に増加し、その後安定化した。

Based on the 1990-2010 CTPP data in Baton Rouge, this research analyzes the temporal trends of commuting patterns in both time and distance. In comparison to previous work, commuting length is calibrated more accurately by Monte Carlo based simulation of individual journey-to-work trips to mitigate the zonal effect. First, average commute distance kept climbing in 1990-2010 while average commute time increased in 1990-2000 but then slightly dropped toward 2010. Secondly, urban land use remained a good predictor of commuting pattern over time (e.g., explaining up to 90% of mean commute distance and about 30% of mean commute time). Finally, the percentage of excess commuting increased significantly in 1990-2000 and stabilized afterwards.
翻訳日:2023-05-17 22:27:25 公開日:2020-05-30
# 余分な通勤の分解:モンテカルロシミュレーションによるアプローチ

Decomposing Excess Commuting: A Monte Carlo Simulation Approach ( http://arxiv.org/abs/2006.01638v1 )

ライセンス: Link先を確認
Yujie Hu, Fahui Wang(参考訳) 余剰または無駄な通勤は、人々が都市で自由に家や仕事を交換できると仮定した場合、最小限(最適)の通勤率として測定される。 研究は通常、実際の通勤を定義するために調査データに頼り、線形プログラミング(LP)による凝集帯レベルで最適な通勤度を測定する。 調査から得られた旅行時間には、報告エラーが含まれ、回答者は自分が住んでいる地域を代表していないかもしれない。 どちらも過度の通勤推定に偏りがある。 ルイジアナ州バトンルージュの2006-2010年国勢調査交通計画パッケージ(ctpp)データに基づき、この研究はモンテカルロアプローチを用いて、国勢調査管内の個々の居住者と個々の職種をシミュレートし、旅行から仕事までの通勤距離と時間を推定し、シミュレーションされた個々の場所に基づいて最適な通勤時間を定義する。 発見は, 過度の通勤の誤算には, 誤差の報告と, 凝集帯データの利用の両方が寄与していることを示している。

Excess or wasteful commuting is measured as the proportion of actual commute that is over minimum (optimal) commute when assuming that people could freely swap their homes and jobs in a city. Studies usually rely on survey data to define actual commute, and measure the optimal commute at an aggregate zonal level by linear programming (LP). Travel time from a survey could include reporting errors and respondents might not be representative of the areas they reside; and the derived optimal commute at an aggregate areal level is also subject to the zonal effect. Both may bias the estimate of excess commuting. Based on the 2006-2010 Census for Transportation Planning Package (CTPP) data in Baton Rouge, Louisiana, this research uses a Monte Carlo approach to simulate individual resident workers and individual jobs within census tracts, estimate commute distance and time from journey-to-work trips, and define the optimal commute based on simulated individual locations. Findings indicate that both reporting errors and the use of aggregate zonal data contribute to miscalculation of excess commuting.
翻訳日:2023-05-17 22:27:11 公開日:2020-05-30
# コメント:「多項式解を用いた摂動理論の開発」J. Math Phys 60, 012103 (2019)

Comment on: "Development of the perturbation theory using polynomial solutions" J. Math. Phys. 60, 012103 (2019) ( http://arxiv.org/abs/2006.00384v1 )

ライセンス: Link先を確認
Francisco M. Fern\'andez(参考訳) このコメントの目的は、Maiz J. Math が提唱した摂動アプローチを示すことである。 Phys 60, 012103 (2019) より明確な方法で。 直接的手続きの結果は著者によって得られたものと一致し, 著者が近似的な結果を得た場合を除いては一致した。 さらに,ダブルウェルポテンシャルが十分に深い場合には摂動アプローチが著しく低下することを示す。

The purpose of this comment is to present the perturbation approach proposed by Maiz J. Math. Phys. 60, 012103 (2019) in a clearer way. The results of our straightforward procedure agree with those obtained by that author except for one case in which we obtain the exact result while he obtained an approximate one. In addition to it, we show that for sufficiently deep double-well potentials the perturbation approach deteriorates considerably.
翻訳日:2023-05-17 22:26:52 公開日:2020-05-30
# 相関と不一致:非局所相関の計算可能な対策

Correlance and Discordance: Computable Measures of Nonlocal Correlation ( http://arxiv.org/abs/2001.03453v2 )

ライセンス: Link先を確認
Samuel R. Hedemann(参考訳) 離散多部量子系に対する非局所相関の6つの新しい尺度(相関、統計、確率、強い不一致、不一致、対角不一致)を提示する。 相関はすべての非局所的相関(有界絡み合いでさえも)を測り、全ての純粋な状態と混合状態に対して正確に計算可能である。 統計学と確率学はまだ計算可能ではないが、強い不一致(厳密に古典的状態によって達成可能な非局所的相関)、不一致(量子状態における全ての非局所的相関の尺度)、対角的不一致(対角的状態における非局所的相関の尺度)を動機付けている。 古典性の相関と概念の類型について議論し、相関性、強い不一致、量子不協和性の比較を行う。 また,厳密な古典的確率分布を扱うために対角関係を定義し,広い範囲のアプリケーションで強力なツールを提供する。

We present six new measures of nonlocal correlation for discrete multipartite quantum systems; correlance, statance, probablance, strong discordance, discordance, and diagonal discordance. The correlance measures all nonlocal correlation (even bound entanglement), and is exactly computable for all pure and mixed states. Statance and probablance are not yet computable, but motivate the strong discordance (for nonlocal correlation beyond that achievable by a strictly classical state), discordance (a measure of all nonlocal correlation in distinguishably quantum states), and diagonal discordance (for nonlocal correlation in diagonal states), all of which are exactly computable for all states. We discuss types of correlation and notions of classicality, and compare correlance, strong discordance, and discordance to quantum discord. We also define diagonal correlance to handle strictly classical probability distributions, providing a powerful tool with wide-ranging applications.
翻訳日:2023-01-13 05:05:11 公開日:2020-05-30
# ランドウレベルと収束空間におけるゲージ不変性の問題

Landau Levels and the Issue of Gauge Invariance in Confined Spaces ( http://arxiv.org/abs/2001.03860v2 )

ライセンス: Link先を確認
Asadullah Bhuiyan and Frank Marsiglio(参考訳) 二次元閉じ込め電位における荷電粒子の挙動を磁場の存在下で検討する。 監禁は、さもなければ無限の退化を取り除くのに役立つが、賢明な結果を生み出すために追加の材料が必要である。 円と正方形の両方の幾何学を扱い、後者ではエネルギー準位と波動関数の振幅のゲージ不変性を明確に示す。 バルク状態とエッジ状態の両方を調べ、後者の場合、十分に高い量子数を持つと、正方形と円形の幾何学において大きな差が生じる。 結果は、現場の初心者にアクセス可能な方法で、単純な行列力学を用いて達成される。

We examine the behaviour of a charged particle in a two-dimensional confining potential, in the presence of a magnetic field. The confinement serves to remove the otherwise infinite degeneracy, but additional ingredients are required to produce sensible results. We treat both circular and square geometries, and in the latter we explicitly demonstrate the gauge invariance of the energy levels and wave function amplitudes. Both bulk states and edge states are examined, and in the latter case, with sufficiently high quantum numbers we achieve significant differences in the square and circular geometries. Results are achieved using straightforward matrix mechanics, in a manner that is accessible to novices in the field.
翻訳日:2023-01-12 04:57:34 公開日:2020-05-30
# パートナーから集団への意味の一般化:階層的推論はネットワーク上の慣習形成を支援する

Generalizing meanings from partners to populations: Hierarchical inference supports convention formation on networks ( http://arxiv.org/abs/2002.01510v2 )

ライセンス: Link先を確認
Robert D. Hawkins, Noah D. Goodman, Adele E. Goldberg, Thomas L. Griffiths(参考訳) 言語的慣習の重要な特性は、話者のコミュニティ全体を保持し、これまで会ったことのない人とでも効率的にコミュニケーションできるということです。 同時に、私たちの言語の使用の多くはパートナー固有のものであり、共通の歴史に基づいて、異なる人々によって異なる言葉が理解される可能性があることを知っています。 これはコンベンション形成の理由として問題となる。 エージェントは、パートナー固有の知識を維持しながら、コミュニティ全体の期待にどのように近づいたのか? 本稿では,この帰納的問題を解決するための階層型ベイズモデルを提案する。 モデルの予測を評価するため,小コミュニティにおいて,参加者が様々なパートナーと拡張自然言語通信ゲームを行う実験を行った。 モデルと代替品を区別する,パートナー特化度とコミュニティ収束性の両面で重要な指標を見出した。 これらの結果から,パートナーの特異性はコミュニティ全体の慣習の形成と相容れないだけでなく,強力な帰納的メカニズムと組み合わさることで促進される可能性が示唆された。

A key property of linguistic conventions is that they hold over an entire community of speakers, allowing us to communicate efficiently even with people we have never met before. At the same time, much of our language use is partner-specific: we know that words may be understood differently by different people based on our shared history. This poses a challenge for accounts of convention formation. Exactly how do agents make the inferential leap to community-wide expectations while maintaining partner-specific knowledge? We propose a hierarchical Bayesian model to explain how speakers and listeners solve this inductive problem. To evaluate our model's predictions, we conducted an experiment where participants played an extended natural-language communication game with different partners in a small community. We examine several measures of generalization and find key signatures of both partner-specificity and community convergence that distinguish our model from alternatives. These results suggest that partner-specificity is not only compatible with the formation of community-wide conventions, but may facilitate it when coupled with a powerful inductive mechanism.
翻訳日:2023-01-04 03:27:23 公開日:2020-05-30
# 隣り合う相互作用を持つ双線形グラフニューラルネットワーク

Bilinear Graph Neural Network with Neighbor Interactions ( http://arxiv.org/abs/2002.03575v5 )

ライセンス: Link先を確認
Hongmin Zhu, Fuli Feng, Xiangnan He, Xiang Wang, Yan Li, Kai Zheng, Yongdong Zhang(参考訳) グラフニューラルネットワーク(GNN)は,グラフデータ上で表現を学習し,予測を行う強力なモデルである。 GNNにおける既存の取り組みは、グラフの畳み込みを、対象ノードの表現を形成する連結ノードの特徴の重み付けされた和として定義している。 それでも、重み付き和の演算は隣ノード同士が独立であると仮定し、それらの間の相互作用を無視する。 このような相互作用が存在する場合、例えば2つの隣接ノードの共起がターゲットノードの特性の強い信号である場合、既存のGNNモデルは信号の捕捉に失敗する。 本稿では,GNNにおける隣接ノード間の相互作用をモデル化することの重要性を論じる。 重み付き和を隣ノードの表現の対方向の相互作用で強化する新しいグラフ畳み込み演算子を提案する。 このフレームワークをBGNN(Bilinear Graph Neural Network)と呼び、隣ノード間の双方向相互作用によるGNN表現能力を向上させる。 特に、よく知られたGCNとGATに基づいて、BGCNとBGATという2つのBGNNモデルを指定する。 bgnn -- bgcn (bgat) は分類精度で gcn (gat) を1.6% (1.5%) 上回っている。

Graph Neural Network (GNN) is a powerful model to learn representations and make predictions on graph data. Existing efforts on GNN have largely defined the graph convolution as a weighted sum of the features of the connected nodes to form the representation of the target node. Nevertheless, the operation of weighted sum assumes the neighbor nodes are independent of each other, and ignores the possible interactions between them. When such interactions exist, such as the co-occurrence of two neighbor nodes is a strong signal of the target node's characteristics, existing GNN models may fail to capture the signal. In this work, we argue the importance of modeling the interactions between neighbor nodes in GNN. We propose a new graph convolution operator, which augments the weighted sum with pairwise interactions of the representations of neighbor nodes. We term this framework as Bilinear Graph Neural Network (BGNN), which improves GNN representation ability with bilinear interactions between neighbor nodes. In particular, we specify two BGNN models named BGCN and BGAT, based on the well-known GCN and GAT, respectively. Empirical results on three public benchmarks of semi-supervised node classification verify the effectiveness of BGNN -- BGCN (BGAT) outperforms GCN (GAT) by 1.6% (1.5%) in classification accuracy.Codes are available at: https://github.com/zhuhm1996/bgnn.
翻訳日:2023-01-02 08:18:19 公開日:2020-05-30
# マトリックス因子化の景観再考

The Landscape of Matrix Factorization Revisited ( http://arxiv.org/abs/2002.12795v2 )

ライセンス: Link先を確認
Hossein Valavi, Sulin Liu and Peter J. Ramadge(参考訳) 我々は、単純な行列分解問題の展望を再検討する。 低ランク行列分解について、以前の研究は、すべて大域ミニマあるいは厳密なサドルである無限に多くの臨界点が存在することを示した。 厳密な saddle において、ヘッセンの最小固有値は負である。 興味深いのは、この最小固有値がすべての厳密な鞍の上でゼロ以下で一様に有界であるかどうかである。 これに対応するために、一般線型群の下で臨界点の軌道を考える。 各軌道に対して、正準点と呼ばれる代表点を特定する。 標準点が厳密な鞍であれば、軌道上のすべての点も同様である。 我々は、各正準厳密なサドルにおけるヘッセンの最小固有値の式を導出し、これを用いて、厳密なサドルの集合上のヘッセンの最小固有値がゼロ以下に一様有界でないことを示す。 また, 勾配流の既知の不変性は, 勾配流の解が初期条件によって決定される不変多様体 $\mathcal{m}_c$ 上の臨界点にのみ遭遇することを保証することを示した。 一般的な状況とは対照的に、$\mathcal{M}_{0}$ の厳密なサドルの最小固有値は、ゼロ以下に一様有界であることを示す。 我々は、行列の特異値が分解されるという観点から、この境界に対する式を得る。 この境界は、非零特異値の大きさと行列の異なる非零特異値の分離に依存する。

We revisit the landscape of the simple matrix factorization problem. For low-rank matrix factorization, prior work has shown that there exist infinitely many critical points all of which are either global minima or strict saddles. At a strict saddle the minimum eigenvalue of the Hessian is negative. Of interest is whether this minimum eigenvalue is uniformly bounded below zero over all strict saddles. To answer this we consider orbits of critical points under the general linear group. For each orbit we identify a representative point, called a canonical point. If a canonical point is a strict saddle, so is every point on its orbit. We derive an expression for the minimum eigenvalue of the Hessian at each canonical strict saddle and use this to show that the minimum eigenvalue of the Hessian over the set of strict saddles is not uniformly bounded below zero. We also show that a known invariance property of gradient flow ensures the solution of gradient flow only encounters critical points on an invariant manifold $\mathcal{M}_C$ determined by the initial condition. We show that, in contrast to the general situation, the minimum eigenvalue of strict saddles in $\mathcal{M}_{0}$ is uniformly bounded below zero. We obtain an expression for this bound in terms of the singular values of the matrix being factorized. This bound depends on the size of the nonzero singular values and on the separation between distinct nonzero singular values of the matrix.
翻訳日:2022-12-28 07:11:36 公開日:2020-05-30
# スマートフォン内蔵センサーを用いた新しいAIを利用したコロナウイルス19の診断フレームワーク:設計研究

A Novel AI-enabled Framework to Diagnose Coronavirus COVID 19 using Smartphone Embedded Sensors: Design Study ( http://arxiv.org/abs/2003.07434v2 )

ライセンス: Link先を確認
Halgurd S. Maghdid and Kayhan Zrar Ghafoor and Ali Safaa Sadiq and Kevin Curran and Danda B. Rawat and Khaled Rabie(参考訳) コロナウイルスはヒトと動物の両方に病気を引き起こすウイルスの有名なファミリーである。 新型コロナウイルスの新型ウイルスは、中国武漢で最初に発見された。 しかし最近、世界保健機関(WHO)によると、このウイルスは世界中に広まり、パンデミックを引き起こしている。 さらに最近では、世界各国が新型コロナウイルス(covid-19)対策に全力を挙げている。 ウイルスの検出には、胸部ctスキャン画像の臨床分析や血液検査結果など多くのメカニズムがある。 確認された新型コロナウイルス患者は、発熱、疲労、乾燥したうっ血を呈する。 特に、医療検出キットなどのウイルスの初期結果を検出するために、いくつかの技術が使用できる。 しかし、こうしたデバイスは膨大なコストを被り、インストールと使用に時間がかかる。 そこで本稿では,スマートフォンセンサを内蔵した新型コロナウイルス検出のための新しい枠組みを提案する。 この提案は低コストのソリューションを提供しており、多くの放射線学者がすでにさまざまな日用スマートフォンを所有している。 それだけでなく、一般の人々も、ウイルス検出の目的でスマートフォンでこのフレームワークを利用できる。 現在スマートフォンは、既存の計算能力豊富なプロセッサ、メモリ空間、カメラ、マイク、温度センサー、慣性センサー、近接センサー、色センサー、湿度センサー、ワイヤレスチップセット/センサーを含む多数のセンサーで強力である。 デザインされた人工知能(AI)フレームワークは、スマートフォンセンサーの信号を読み取り、肺炎の重症度を予測し、疾患の結果を予測する。

Coronaviruses are a famous family of viruses that cause illness in both humans and animals. The new type of coronavirus COVID-19 was firstly discovered in Wuhan, China. However, recently, the virus has widely spread in most of the world and causing a pandemic according to the World Health Organization (WHO). Further, nowadays, all the world countries are striving to control the COVID-19. There are many mechanisms to detect coronavirus including clinical analysis of chest CT scan images and blood test results. The confirmed COVID-19 patient manifests as fever, tiredness, and dry cough. Particularly, several techniques can be used to detect the initial results of the virus such as medical detection Kits. However, such devices are incurring huge cost, taking time to install them and use. Therefore, in this paper, a new framework is proposed to detect COVID-19 using built-in smartphone sensors. The proposal provides a low-cost solution, since most of radiologists have already held smartphones for different daily-purposes. Not only that but also ordinary people can use the framework on their smartphones for the virus detection purposes. Nowadays Smartphones are powerful with existing computation-rich processors, memory space, and large number of sensors including cameras, microphone, temperature sensor, inertial sensors, proximity, colour-sensor, humidity-sensor, and wireless chipsets/sensors. The designed Artificial Intelligence (AI) enabled framework reads the smartphone sensors signal measurements to predict the grade of severity of the pneumonia as well as predicting the result of the disease.
翻訳日:2022-12-23 04:07:36 公開日:2020-05-30
# CNNにおける翻訳不変性について:畳み込み層は絶対的な空間的位置を爆発させることができる

On Translation Invariance in CNNs: Convolutional Layers can Exploit Absolute Spatial Location ( http://arxiv.org/abs/2003.07064v2 )

ライセンス: Link先を確認
Osman Semih Kayhan and Jan C. van Gemert(参考訳) 本稿では,現代CNNにおける畳み込み層が翻訳不変である,という一般的な仮定に挑戦する。 画像境界効果を利用して、特定の絶対位置にのみ応答するフィルタを学習することで、CNNが絶対空間位置を活用できることを示す。 現代のCNNフィルタは受容界が大きいため、これらの境界効果は画像境界から遠く離れても動作し、ネットワークは画像全体にわたって絶対的な空間的位置を利用することができる。 空間的位置符号化の簡易な解法により、翻訳不変性が向上し、特に小さなデータセットに有利なより強力な視覚的帰納バイアスを与える。 画像分類やパッチマッチング,2つのビデオ分類データセットといった,いくつかのアーキテクチャやさまざまなアプリケーションにおいて,これらのメリットを広く示しています。

In this paper we challenge the common assumption that convolutional layers in modern CNNs are translation invariant. We show that CNNs can and will exploit the absolute spatial location by learning filters that respond exclusively to particular absolute locations by exploiting image boundary effects. Because modern CNNs filters have a huge receptive field, these boundary effects operate even far from the image boundary, allowing the network to exploit absolute spatial location all over the image. We give a simple solution to remove spatial location encoding which improves translation invariance and thus gives a stronger visual inductive bias which particularly benefits small data sets. We broadly demonstrate these benefits on several architectures and various applications such as image classification, patch matching, and two video classification datasets.
翻訳日:2022-12-23 03:04:22 公開日:2020-05-30
# マルチモーダルオンライン環境におけるAt-Risk K-12学生の同定 : 機械学習アプローチ

Identifying At-Risk K-12 Students in Multimodal Online Environments: A Machine Learning Approach ( http://arxiv.org/abs/2003.09670v2 )

ライセンス: Link先を確認
Hang Li, Wenbiao Ding, Zitao Liu(参考訳) K-12オンライン学習プラットフォームが急速に出現し、新しい教育の時代が開かれた。 オンラインコースから抜け出す危険のあるk-12の生徒を事前に特定するための、ドロップアウト警告フレームワークを持つことは重要です。 以前の研究者は、上位機関の高等教育、すなわち大学院レベルのコースを提供するMOOC(Massive Open Online Courses)の減少を予測することに集中していた。 しかし、K-12オンラインコースの学生向けの機械学習アプローチの開発に焦点を当てた研究はほとんどない。 本稿では,K-12マルチモーダルオンライン環境に特化した,リスクの高い学生識別を行う機械学習フレームワークを開発する。 Our approach considers both online and offline factors around K-12 students and aims at solving the challenges of (1) multiple modalities, i.e., K-12 online environments involve interactions from different modalities such as video, voice, etc; (2) length variability, i.e., students with different lengths of learning history; (3) time sensitivity, i.e., the dropout likelihood is changing with time; and (4) data imbalance, i.e., only less than 20\% of K-12 students will choose to drop out the class. 我々は,このアプローチの有効性を示すために,オフラインおよびオンラインの幅広い実験を実施している。 オフライン実験では,実世界の教育データセットにおける最先端のベースラインと比較して,ドロップアウト予測性能が向上することを示す。 オンライン実験では,K-12オンライン学習プラットフォームを2カ月間テストし,70 %以上のドロップアウト学生がシステムによって検出されていることを示した。

With the rapid emergence of K-12 online learning platforms, a new era of education has been opened up. It is crucial to have a dropout warning framework to preemptively identify K-12 students who are at risk of dropping out of the online courses. Prior researchers have focused on predicting dropout in Massive Open Online Courses (MOOCs), which often deliver higher education, i.e., graduate level courses at top institutions. However, few studies have focused on developing a machine learning approach for students in K-12 online courses. In this paper, we develop a machine learning framework to conduct accurate at-risk student identification specialized in K-12 multimodal online environments. Our approach considers both online and offline factors around K-12 students and aims at solving the challenges of (1) multiple modalities, i.e., K-12 online environments involve interactions from different modalities such as video, voice, etc; (2) length variability, i.e., students with different lengths of learning history; (3) time sensitivity, i.e., the dropout likelihood is changing with time; and (4) data imbalance, i.e., only less than 20\% of K-12 students will choose to drop out the class. We conduct a wide range of offline and online experiments to demonstrate the effectiveness of our approach. In our offline experiments, we show that our method improves the dropout prediction performance when compared to state-of-the-art baselines on a real-world educational dataset. In our online experiments, we test our approach on a third-party K-12 online tutoring platform for two months and the results show that more than 70\% of dropout students are detected by the system.
翻訳日:2022-12-21 13:26:43 公開日:2020-05-30
# 時間変化ダイナミクスを用いた比較的エピデミックモデルの総変分正規化

Total Variation Regularization for Compartmental Epidemic Models with Time-Varying Dynamics ( http://arxiv.org/abs/2004.00412v2 )

ライセンス: Link先を確認
Wenjie Zheng(参考訳) 疫学で最も人気のある疫病モデルの一つである。 これらのモデルを特徴づけるパラメータ(例えば伝達率)については、研究者の大多数が定数として単純化し、他の研究者は連続的な変動を検出する。 本稿では,都市封鎖,野戦病院の開館,ウイルスの変異など,多くの注目すべき事象の影響をよりよく表現した不連続な変化を捉えることを目的としている。 これを実現するために,モデルパラメータの時間的変動を調節する全変動によるモデルの可能性のバランスをとる。 これらのパラメータを推測するため,モンテカルロ法の代わりにIterated Nelder--Meadと呼ばれる新しい最適化アルゴリズムを設計し,繰り返しNelder--Meadアルゴリズムを適用した。 シミュレーションデータを用いて行った実験は,これらの不連続を再現し,流行を正確に表現できることを示した。

Compartmental epidemic models are among the most popular ones in epidemiology. For the parameters (e.g., the transmission rate) characterizing these models, the majority of researchers simplify them as constants, while some others manage to detect their continuous variations. In this paper, we aim at capturing, on the other hand, discontinuous variations, which better describe the impact of many noteworthy events, such as city lockdowns, the opening of field hospitals, and the mutation of the virus, whose effect should be instant. To achieve this, we balance the model's likelihood by total variation, which regulates the temporal variations of the model parameters. To infer these parameters, instead of using Monte Carlo methods, we design a novel yet straightforward optimization algorithm, dubbed Iterated Nelder--Mead, which repeatedly applies the Nelder--Mead algorithm. Experiments conducted on the simulated data demonstrate that our approach can reproduce these discontinuities and precisely depict the epidemics.
翻訳日:2022-12-17 18:28:43 公開日:2020-05-30
# モデル解釈可能性のヒューマンファクター:産業実践,課題,ニーズ

Human Factors in Model Interpretability: Industry Practices, Challenges, and Needs ( http://arxiv.org/abs/2004.11440v2 )

ライセンス: Link先を確認
Sungsoo Ray Hong, Jessica Hullman, Enrico Bertini(参考訳) 製品開発やデータ駆動型意思決定プロセスにおける機械学習(ML)モデルの利用が多くのドメインで広まり、優れたモデルの構築に対する人々の関心は、モデルがどのように機能するかを理解するようにシフトしている。 モデル解釈可能性への学術的な関心は、HCI、MLなどの研究コミュニティで急速に高まっているが、実践者が既存のワークフローの文脈でどのように認識し、解釈可能性を提供することを目指すかについてはほとんど分かっていない。 この解釈可能性の理解の欠如は、解釈可能性の研究が重要なニーズに対処するのを防ぐか、非現実的な解決につながる可能性がある。 このギャップを埋めるために,22の半構造化インタビューを業界実践者に対して実施し,モデルを計画し,構築し,使用する際の解釈可能性に対する考え方と設計について検討した。 結果の質的分析に基づいて,mlモデルを多用した組織内に存在する解釈可能性の役割,プロセス,目標,戦略を区別する。 分析から得られた解釈可能性作業の特徴は、モデル解釈可能性はしばしば、異なる役割を持つ人々間の協力とメンタルモデルの比較を伴い、しばしば人とモデルだけでなく、組織内の人々間の信頼を構築することを目的としていることを示唆している。 本稿では,実践者が実践で直面する解釈可能性の課題と文献で提案するアプローチのギャップを議論する設計について,現実的なニーズに対処するための研究の方向性を明らかにする。

As the use of machine learning (ML) models in product development and data-driven decision-making processes became pervasive in many domains, people's focus on building a well-performing model has increasingly shifted to understanding how their model works. While scholarly interest in model interpretability has grown rapidly in research communities like HCI, ML, and beyond, little is known about how practitioners perceive and aim to provide interpretability in the context of their existing workflows. This lack of understanding of interpretability as practiced may prevent interpretability research from addressing important needs, or lead to unrealistic solutions. To bridge this gap, we conducted 22 semi-structured interviews with industry practitioners to understand how they conceive of and design for interpretability while they plan, build, and use their models. Based on a qualitative analysis of our results, we differentiate interpretability roles, processes, goals and strategies as they exist within organizations making heavy use of ML models. The characterization of interpretability work that emerges from our analysis suggests that model interpretability frequently involves cooperation and mental model comparison between people in different roles, often aimed at building trust not only between people and models but also between people within the organization. We present implications for design that discuss gaps between the interpretability challenges that practitioners face in their practice and approaches proposed in the literature, highlighting possible research directions that can better address real-world needs.
翻訳日:2022-12-10 12:44:43 公開日:2020-05-30
# 量子機械学習と量子バイオミメティクス

Quantum machine learning and quantum biomimetics: A perspective ( http://arxiv.org/abs/2004.12076v2 )

ライセンス: Link先を確認
Lucas Lamata(参考訳) 量子機械学習は、量子技術の中でエキサイティングで有望なパラダイムとして登場した。 一方、量子デバイスによってより効率的な機械学習計算を行うことができ、一方、量子システムをよりよく制御するために機械学習技術を使用することができる。 量子機械学習の内部では、量子強化学習(quantum reinforcement learning)は、外界と相互作用し、それに対応する「インテリジェント」量子エージェントを開発することを目的としている。 量子機械学習におけるもうひとつのパラダイムは、量子オートエンコーダ(quantum autoencoder)である。 さらに、量子バイオミメティクスの分野は、生物学的システムと量子システムの間の類似性を確立し、有用な応用を可能にする以前の不注意接続を探すことを目的としている。 最近の2つの例は、量子人工生命の概念と量子メムリスタの概念である。 本稿では,これらのトピックについて概観し,科学コミュニティが実施した関連研究について述べる。

Quantum machine learning has emerged as an exciting and promising paradigm inside quantum technologies. It may permit, on the one hand, to carry out more efficient machine learning calculations by means of quantum devices, while, on the other hand, to employ machine learning techniques to better control quantum systems. Inside quantum machine learning, quantum reinforcement learning aims at developing "intelligent" quantum agents that may interact with the outer world and adapt to it, with the strategy of achieving some final goal. Another paradigm inside quantum machine learning is that of quantum autoencoders, which may allow one for employing fewer resources in a quantum device via a training process. Moreover, the field of quantum biomimetics aims at establishing analogies between biological and quantum systems, to look for previously inadvertent connections that may enable useful applications. Two recent examples are the concepts of quantum artificial life, as well as of quantum memristors. In this Perspective, we give an overview of these topics, describing the related research carried out by the scientific community.
翻訳日:2022-12-09 22:19:25 公開日:2020-05-30
# 最適化問題の展開に触発されたハイパースペクトルアンミックスネットワーク

Hyperspectral Unmixing Network Inspired by Unfolding an Optimization Problem ( http://arxiv.org/abs/2005.10856v2 )

ライセンス: Link先を確認
Chao Zhou(参考訳) hyperspectral image (hsi) unmixing taskは本質的に逆問題であり、事前定義された(非)線形混合モデルの下で最適化アルゴリズムによってよく解かれる。 これらの最適化アルゴリズムは印象的な性能を示すが、反復更新方式に依存することが多いため、非常に計算量を要する。 近年、ニューラルネットワークの台頭は、多くの学習ベースのアルゴリズムに影響を与えている。 しかし、そのほとんどは解釈性がなく、大規模なトレーニングデータセットを必要とする。 モデルに基づくアルゴリズムと学習に基づくアルゴリズムを利用して、HSIアンミックス問題に対する解釈可能かつ高速なアルゴリズムを実現できるか? 本稿では,従来の最適化モデルに基づく解混和法と上昇学習に基づく解混和法を組み合わせたネットワークアーキテクチャであるu-admm-aenetとu-admm-bunetを提案する。 まず,スパルシリティ制約を持つ線形混合モデルについて検討し,次に乗算器(admm)アルゴリズムの交互方向法を展開し,非混合ネットワーク構造を構築する。 また,未解決の構造は機械学習文献に対応する解釈を見出すことができ,提案手法の有効性がさらに示された。 この解釈から、提案したネットワークは、HSIデータに関する事前情報を組み込むことで初期化することができる。 従来の展開型ネットワークとは違って,提案するネットワークがhsiアプリケーションに適合する新たなトレーニング戦略を提案する。 広範な実験により,最先端アルゴリズムと比較して,トレーニングデータのサイズが極めて小さい場合でも,提案手法はより高速にコンバージェンスと競合性能を達成できることが示された。

The hyperspectral image (HSI) unmixing task is essentially an inverse problem, which is commonly solved by optimization algorithms under a predefined (non-)linear mixture model. Although these optimization algorithms show impressive performance, they are very computational demanding as they often rely on an iterative updating scheme. Recently, the rise of neural networks has inspired lots of learning based algorithms in unmixing literature. However, most of them lack of interpretability and require a large training dataset. One natural question then arises: can one leverage the model based algorithm and learning based algorithm to achieve interpretable and fast algorithm for HSI unmixing problem? In this paper, we propose two novel network architectures, named U-ADMM-AENet and U-ADMM-BUNet, for abundance estimation and blind unmixing respectively, by combining the conventional optimization-model based unmixing method and the rising learning based unmixing method. We first consider a linear mixture model with sparsity constraint, then we unfold Alternating Direction Method of Multipliers (ADMM) algorithm to construct the unmixing network structures. We also show that the unfolded structures can find corresponding interpretations in machine learning literature, which further demonstrates the effectiveness of proposed methods. Benefit from the interpretation, the proposed networks can be initialized by incorporating prior information about the HSI data. Different from traditional unfolding networks, we propose a new training strategy for proposed networks to better fit in the HSI applications. Extensive experiments show that the proposed methods can achieve much faster convergence and competitive performance even with very small size of training data, when compared with state-of-art algorithms.
翻訳日:2022-12-01 00:04:22 公開日:2020-05-30
# コンテクストアウェア合成による咬合下のロバスト物体検出

Robust Object Detection under Occlusion with Context-Aware CompositionalNets ( http://arxiv.org/abs/2005.11643v2 )

ライセンス: Link先を確認
Angtian Wang, Yihong Sun, Adam Kortylewski, Alan Yuille(参考訳) 部分的に隠されたオブジェクトを検出するのは難しい作業です。 実験の結果,より高速なR-CNNのような深層学習手法は,閉塞下での物体検出において堅牢ではないことがわかった。 構成畳み込みニューラルネットワーク(CompositionalNets)は、対象を部品の合成として明示的に表現することで、隠蔽対象を分類する上で堅牢であることが示されている。 そこで本研究では,部分閉塞物体の検出を可能にするコンポジションアルネットの2つの限界を克服する。 1) ComposalNetsは、他のDCNNアーキテクチャと同様に、コンテキストの表現をオブジェクト自身から明示的に分離するものではない。 強い物体の閉塞下では、コンテキストの影響が増幅され、テスト時の検出に重大な負の影響が生じる。 これを解決するために,ボックスアノテーションによるトレーニング中にコンテキストのセグメンテーションを提案する。 次に、セグメンテーションを使用して、コンテキストとオブジェクトの表現をアンタングルするコンポジションネットを学習します。 2) 部分ベースの投票方式をコンポジションアルネットに拡張し, オブジェクトのバウンディングボックスの隅角に投票することで, 部分的に占有されたオブジェクトのバウンディングボックスを確実に見積もることができる。 提案モデルでは, PASCAL3D+ と MS-COCO をそれぞれ 41% と 35% で検出し, 高速R-CNN と比較して絶対性能が 35% 向上した。

Detecting partially occluded objects is a difficult task. Our experimental results show that deep learning approaches, such as Faster R-CNN, are not robust at object detection under occlusion. Compositional convolutional neural networks (CompositionalNets) have been shown to be robust at classifying occluded objects by explicitly representing the object as a composition of parts. In this work, we propose to overcome two limitations of CompositionalNets which will enable them to detect partially occluded objects: 1) CompositionalNets, as well as other DCNN architectures, do not explicitly separate the representation of the context from the object itself. Under strong object occlusion, the influence of the context is amplified which can have severe negative effects for detection at test time. In order to overcome this, we propose to segment the context during training via bounding box annotations. We then use the segmentation to learn a context-aware CompositionalNet that disentangles the representation of the context and the object. 2) We extend the part-based voting scheme in CompositionalNets to vote for the corners of the object's bounding box, which enables the model to reliably estimate bounding boxes for partially occluded objects. Our extensive experiments show that our proposed model can detect objects robustly, increasing the detection performance of strongly occluded vehicles from PASCAL3D+ and MS-COCO by 41% and 35% respectively in absolute performance relative to Faster R-CNN.
翻訳日:2022-11-29 13:51:37 公開日:2020-05-30
# 視覚的局所化のためのコンテキストアグリゲーションによる局所的特徴の学習

Learning Local Features with Context Aggregation for Visual Localization ( http://arxiv.org/abs/2005.12880v2 )

ライセンス: Link先を確認
Siyu Hong, Kunhong Li, Yongcong Zhang, Zhiheng Fu, Mengyi Liu and Yulan Guo(参考訳) キーポイントの検出と記述は多くの視覚応用において不可欠である。 既存の手法の多くは、文脈情報を考慮せずに局所的な特徴を学習するために、検出・記述または検出・記述戦略を使用する。 したがって、これらの手法が堅牢な局所的特徴を学習することは困難である。 本稿では,局所特徴の識別性を改善するために,低レベルテキスト情報と高レベル意味文脈情報の融合に注目する。 具体的には、まず、すべての画素のディスクリプタの品質に応じて、潜在的キーポイントの分布を表すスコアマップを推定する。 そこで我々は,スコアマップのガイダンスに基づいて,マルチスケールなハイレベルセマンティックな特徴を抽出し,集約する。 最後に、低レベルのローカル特徴と高レベルのセマンティック特徴は、残余モジュールを使用して融合され、洗練される。 局所的特徴量ベンチマークにおける局所的特徴量評価実験により,本手法が局所的特徴量評価において最先端の性能を達成することを示す。

Keypoint detection and description is fundamental yet important in many vision applications. Most existing methods use detect-then-describe or detect-and-describe strategy to learn local features without considering their context information. Consequently, it is challenging for these methods to learn robust local features. In this paper, we focus on the fusion of low-level textual information and high-level semantic context information to improve the discrimitiveness of local features. Specifically, we first estimate a score map to represent the distribution of potential keypoints according to the quality of descriptors of all pixels. Then, we extract and aggregate multi-scale high-level semantic features based by the guidance of the score map. Finally, the low-level local features and high-level semantic features are fused and refined using a residual module. Experiments on the challenging local feature benchmark dataset demonstrate that our method achieves the state-of-the-art performance in the local feature challenge of the visual localization benchmark.
翻訳日:2022-11-29 00:23:07 公開日:2020-05-30
# stack overflowにおけるポストの回答セットの品質向上

Improving Quality of a Post's Set of Answers in Stack Overflow ( http://arxiv.org/abs/2006.00341v1 )

ライセンス: Link先を確認
Mohammadrezar Tavakoli, Maliheh Izadi, Abbas Heydarnoori(参考訳) Stack Overflowのようなコミュニティ質問回答プラットフォームは、オンラインの課題を幅広く解決するのに役立つ。 これらのコミュニティの人気が年々高まってきており、会員数も投稿数も増加している。 また、ユーザのバックグラウンド、スキル、専門知識、視点が多様であるため、各質問には複数の回答が得られます。 それゆえ、質問者のみを満足させるという目的ではなく、コミュニティ全体にとってより価値のある回答のセットを持つ投稿の制作に焦点が移っている。 すべてのユニバーサルコミュニティと同様、Stack Overflowの低品質なポストには改善が必要だ。 これらの投稿は不十分で、まだ答えがない、あるいは他の投稿によって改善できる質問のある投稿と定義します。 本稿では,関連専門家の助けを借りて,そのような投稿の識別プロセスを自動化し,回答の集合を強化するアプローチを提案する。 60名の参加者の助けを借りて,stack overflowに投稿された3075の質問の特徴と,より優れた回答セットの必要性との関係を調査し,不足したポストを特定するための分類モデルを訓練した。 そして、sopiというeclipseプラグインを開発し、プラグインに予測モデルを統合して、これらの欠陥のある投稿を関連開発者とリンクし、回答セットの改善を支援しました。 当社のプラグインの機能と,stack overflowに提出された回答の影響を,それぞれ10名と15名の専門家の協力を得て評価しました。 その結果、決定木、特にj48は0.945の精度と0.903のリコールを持つ他の方法よりも欠陥のある質問を予測できることがわかった。 私たちのプラグインはプログラマがStack Overflowに簡単に貢献できるだけでなく、回答の質も向上します。

Community Question Answering platforms such as Stack Overflow help a wide range of users solve their challenges online. As the popularity of these communities has grown over the years, both the number of members and posts have escalated. Also, due to the diverse backgrounds, skills, expertise, and viewpoints of users, each question may obtain more than one answers. Therefore, the focus has changed toward producing posts that have a set of answers more valuable for the community as a whole, not just one accepted-answer aimed at satisfying only the question-asker. Same as every universal community, a large number of low-quality posts on Stack Overflow require improvement. We call these posts deficient and define them as posts with questions that either have no answer yet or can be improved by other ones. In this paper, we propose an approach to automate the identification process of such posts and boost their set of answers, utilizing the help of related experts. With the help of 60 participants, we trained a classification model to identify deficient posts by investigating the relationship between characteristics of 3075 questions posted on Stack Overflow and their need for better answers set. Then, we developed an Eclipse plugin named SOPI and integrated the prediction model in the plugin to link these deficient posts to related developers and help them improve the answer set. We evaluated both the functionality of our plugin and the impact of answers submitted to Stack Overflow with the help of 10 and 15 expert industrial developers, respectively. Our results indicate that decision trees, specifically J48, predicts a deficient question better than the other methods with 0.945 precision and 0.903 recall. We conclude that not only our plugin helps programmers contribute more easily to Stack Overflow, but also it improves the quality of answers.
翻訳日:2022-11-26 18:18:10 公開日:2020-05-30
# 階層型注意トランザクション埋め込みによるトランザクション内およびトランザクション間依存性の協調モデリング

Jointly Modeling Intra- and Inter-transaction Dependencies with Hierarchical Attentive Transaction Embeddings for Next-item Recommendation ( http://arxiv.org/abs/2006.04530v1 )

ライセンス: Link先を確認
Shoujin Wang, Longbing Cao, Liang Hu, Shlomo Berkovsky, Xiaoshui Huang, Lin Xiao, Wenpeng Lu(参考訳) トランザクションベースのレコメンデータシステム(TBRS)は、トランザクションデータの依存関係をモデル化することで、次の項目を予測することを目的としている。 一般的に考慮される2種類の依存関係は、トランザクション内依存性とトランザクション間依存性である。 既存のtbrsの多くは、トランザクション内依存性をモデリングするだけで次の項目を推奨するが、トランザクション間依存性は次の項目にも影響する可能性がある最近のトランザクションでは無視する。 しかしながら、最近のすべてのトランザクションが現在の項目と次の項目に関連しているわけではないので、関連するトランザクションを特定し優先順位を付ける必要がある。 本稿では,これらの問題に対処する新しい階層型注意トランザクション埋め込み(HATE)モデルを提案する。 具体的には、2段階のアテンションメカニズムはアイテムの埋め込みとトランザクションの埋め込みの両方を統合して、トランザクション内およびトランザクション間依存関係の両方を組み込んだ注意深いコンテキスト表現を構築する。 学習したコンテキスト表現により、HATEは次の項目を推奨する。 2つの実世界のトランザクションデータセットに対する実験的評価は、HATEが推奨精度で最先端の手法を著しく上回っていることを示している。

A transaction-based recommender system (TBRS) aims to predict the next item by modeling dependencies in transactional data. Generally, two kinds of dependencies considered are intra-transaction dependency and inter-transaction dependency. Most existing TBRSs recommend next item by only modeling the intra-transaction dependency within the current transaction while ignoring inter-transaction dependency with recent transactions that may also affect the next item. However, as not all recent transactions are relevant to the current and next items, the relevant ones should be identified and prioritized. In this paper, we propose a novel hierarchical attentive transaction embedding (HATE) model to tackle these issues. Specifically, a two-level attention mechanism integrates both item embedding and transaction embedding to build an attentive context representation that incorporates both intraand inter-transaction dependencies. With the learned context representation, HATE then recommends the next item. Experimental evaluations on two real-world transaction datasets show that HATE significantly outperforms the state-ofthe-art methods in terms of recommendation accuracy.
翻訳日:2022-11-26 18:17:44 公開日:2020-05-30
# OPAL-Net:部分ベースオブジェクトレイアウト生成モデル

OPAL-Net: A Generative Model for Part-based Object Layout Generation ( http://arxiv.org/abs/2006.00190v1 )

ライセンス: Link先を確認
Rishabh Baghel, Ravi Kiran Sarvadevabhatla(参考訳) 単一統一モデルを用いて複数のカテゴリからオブジェクトを部品ベースで生成する新しい階層型アーキテクチャであるopal-netを提案する。 我々は,境界ボックスレイアウトのセマンティック条件付き自己回帰生成と,オブジェクトのピクセルレベルの部分レイアウトを含む粗大な戦略を採用する。 私たちは、グラフ畳み込みネットワーク、ディープリカレントネットワーク、およびカスタム設計の条件付き変分オートエンコーダを使用して、柔軟で多様でカテゴリ対応なオブジェクトレイアウト生成を可能にします。 PASCAL-Partsデータセット上でOPAL-Netをトレーニングする。 生成されたサンプルとそれに対応する評価スコアは,ablative variantsとbaselinesと比較してOPAL-Netの汎用性を示した。

We propose OPAL-Net, a novel hierarchical architecture for part-based layout generation of objects from multiple categories using a single unified model. We adopt a coarse-to-fine strategy involving semantically conditioned autoregressive generation of bounding box layouts and pixel-level part layouts for objects. We use Graph Convolutional Networks, Deep Recurrent Networks along with custom-designed Conditional Variational Autoencoders to enable flexible, diverse and category-aware generation of object layouts. We train OPAL-Net on PASCAL-Parts dataset. The generated samples and corresponding evaluation scores demonstrate the versatility of OPAL-Net compared to ablative variants and baselines.
翻訳日:2022-11-26 18:17:15 公開日:2020-05-30
# キーワードスポッティングのためのフィルタバンク学習の探索

Exploring Filterbank Learning for Keyword Spotting ( http://arxiv.org/abs/2006.00217v1 )

ライセンス: Link先を確認
Iv\'an L\'opez-Espejo and Zheng-Hua Tan and Jesper Jensen(参考訳) 長年にわたる優れたパフォーマンスにもかかわらず、手作りの音声機能は必ずしも特定の音声アプリケーションに最適ではない。 その結果,様々な音声処理タスクにおいてフィルタバンク学習の最適化が研究されている。 本稿では,キーワードスポッティング(KWS)のためのフィルタバンク学習を探索することによって,ギャップを埋める。 パワースペクトル領域におけるフィルタバンク行列学習と,精神音響的動機づけによるガンマチャープフィルタバンクのパラメータ学習の2つのアプローチを検討した。 フィルタバンクパラメータは、現代のディープニューラルネットワークベースのKWSバックエンドと共同で最適化される。 実験結果から,学習したフィルタバンクと手作り音声の特徴との間には,KWSの精度において統計的に有意な差はないことが明らかとなった。 したがって、現代のKWSバックエンドを使用する際には、後者が依然として賢明な選択であると結論づける一方で、情報冗長性の症状である可能性も仮説を立て、小規模なKWS分野における新たな研究可能性を開く。

Despite their great performance over the years, handcrafted speech features are not necessarily optimal for any particular speech application. Consequently, with greater or lesser success, optimal filterbank learning has been studied for different speech processing tasks. In this paper, we fill in a gap by exploring filterbank learning for keyword spotting (KWS). Two approaches are examined: filterbank matrix learning in the power spectral domain and parameter learning of a psychoacoustically-motivated gammachirp filterbank. Filterbank parameters are optimized jointly with a modern deep residual neural network-based KWS back-end. Our experimental results reveal that, in general, there are no statistically significant differences, in terms of KWS accuracy, between using a learned filterbank and handcrafted speech features. Thus, while we conclude that the latter are still a wise choice when using modern KWS back-ends, we also hypothesize that this could be a symptom of information redundancy, which opens up new research possibilities in the field of small-footprint KWS.
翻訳日:2022-11-26 18:17:01 公開日:2020-05-30
# 超BPD:高速画像分割のための超境界-画素方向

Super-BPD: Super Boundary-to-Pixel Direction for Fast Image Segmentation ( http://arxiv.org/abs/2006.00303v1 )

ライセンス: Link先を確認
Jianqiang Wan, Yang Liu, Donglai Wei, Xiang Bai, Yongchao Xu(参考訳) イメージセグメンテーションは基本的なビジョンタスクであり、多くのアプリケーションにとって重要なステップです。 本稿では,新しいスーパーバウンダリ・ツー・ピクセル方向(スーパーBPD)に基づく高速画像分割法と,スーパーBPDを用いたカスタマイズセグメンテーションアルゴリズムを提案する。 正確には、各画素上のBPDを、最も近い境界からピクセルへの2次元単位ベクトルとして定義する。 bpdでは、異なる領域の近傍画素は互いに反対方向を向いており、同じ領域の隣接画素は互いに方向を向けている(すなわち、中間点付近)。 このような特性を用いて,高速グループ化のためのロバストな方向類似性を持つ新しい情報超画素である超bpdに画像分割を行う。 BSDS500とPascal Contextの大規模な実験結果から,セグメント画像における超BPDの精度と有効性を示す。 実際には、提案されたスーパーBPDは、約25fps対0.07fpsで実行しながら、MCGで同等または優れた性能を達成する。 スーパーBPDはまた、目に見えないシーンへの注目すべき転送可能性を示している。 コードはhttps://github.com/JianqiangWan/Super-BPDで公開されている。

Image segmentation is a fundamental vision task and a crucial step for many applications. In this paper, we propose a fast image segmentation method based on a novel super boundary-to-pixel direction (super-BPD) and a customized segmentation algorithm with super-BPD. Precisely, we define BPD on each pixel as a two-dimensional unit vector pointing from its nearest boundary to the pixel. In the BPD, nearby pixels from different regions have opposite directions departing from each other, and adjacent pixels in the same region have directions pointing to the other or each other (i.e., around medial points). We make use of such property to partition an image into super-BPDs, which are novel informative superpixels with robust direction similarity for fast grouping into segmentation regions. Extensive experimental results on BSDS500 and Pascal Context demonstrate the accuracy and efficency of the proposed super-BPD in segmenting images. In practice, the proposed super-BPD achieves comparable or superior performance with MCG while running at ~25fps vs. 0.07fps. Super-BPD also exhibits a noteworthy transferability to unseen scenes. The code is publicly available at https://github.com/JianqiangWan/Super-BPD.
翻訳日:2022-11-26 18:10:08 公開日:2020-05-30
# スマートフォンセンサを用いた人間行動認識のためのエントロピー決定融合

Entropy Decision Fusion for Smartphone Sensor based Human Activity Recognition ( http://arxiv.org/abs/2006.00367v1 )

ライセンス: Link先を確認
Olasimbo Ayodeji Arigbabu(参考訳) 人間の活動認識は、視覚的監視、患者のリハビリテーション、ゲーム、さらには個人が集中するスマートホームにデプロイ可能な、継続的な行動監視システムを構築する上で重要な役割を果たす。 本稿では,スマートフォンセンサを用いたヒューマンアクティビティデータに基づく複数の学習アルゴリズムから予測スコアを統合するための協調的意思決定融合機構の開発に向けた取り組みについて述べる。 本稿では,各分類器の相対重み付けスコアをtsallisエントロピーに基づいて計算・融合することにより,畳み込みニューラルネットワーク,再帰畳み込みネットワーク,サポートベクターマシンを融合し,人間の活動認識性能を向上させる手法を提案する。 このアプローチの適合性を評価するために、uci-harとwisdmの2つのベンチマークデータセットで実験を行う。 提案手法により得られた認識結果は既存の手法に匹敵する。

Human activity recognition serves an important part in building continuous behavioral monitoring systems, which are deployable for visual surveillance, patient rehabilitation, gaming, and even personally inclined smart homes. This paper demonstrates our efforts to develop a collaborative decision fusion mechanism for integrating the predicted scores from multiple learning algorithms trained on smartphone sensor based human activity data. We present an approach for fusing convolutional neural network, recurrent convolutional network, and support vector machine by computing and fusing the relative weighted scores from each classifier based on Tsallis entropy to improve human activity recognition performance. To assess the suitability of this approach, experiments are conducted on two benchmark datasets, UCI-HAR and WISDM. The recognition results attained using the proposed approach are comparable to existing methods.
翻訳日:2022-11-26 18:09:21 公開日:2020-05-30
# RDFグラフからSPARQLクエリを生成する新しいアプローチ

A Novel Approach for Generating SPARQL Queries from RDF Graphs ( http://arxiv.org/abs/2006.02862v1 )

ライセンス: Link先を確認
Emna Jabri(参考訳) この作業は研究マスターの論文プロジェクトの一環として行われます。 目標は、RDFグラフをクエリするために、ユーザが提供するキーワードに基づいてSPARQLクエリを生成することだ。 そこで我々はまず,入力オントロジーを,オントロジーで表される意味を反映したRDFグラフに変換する。 その後、このRDFグラフをNeo4jグラフィカルデータベースに保存し、RDFデータの効率的かつ永続的な管理を保証する。 取調べの際には,当初ユーザによってなされた要求に対する,異なる可能な解釈と望ましい解釈について検討した。 また、neo4jに特有の2つのクエリ言語であるsparqlとcypherの変換も提案しました。 これにより、システムの他のコンポーネントを変更することなく、クエリ言語を提供するさまざまなBD-RDFに対して、システムのアーキテクチャを実装することができます。 最後に、異なるテストベースを使用してツールをテストし、評価しました。

This work is done as part of a research master's thesis project. The goal is to generate SPARQL queries based on user-supplied keywords to query RDF graphs. To do this, we first transformed the input ontology into an RDF graph that reflects the semantics represented in the ontology. Subsequently, we stored this RDF graph in the Neo4j graphical database to ensure efficient and persistent management of RDF data. At the time of the interrogation, we studied the different possible and desired interpretations of the request originally made by the user. We have also proposed to carry out a sort of transformation between the two query languages SPARQL and Cypher, which is specific to Neo4j. This allows us to implement the architecture of our system over a wide variety of BD-RDFs providing their query languages, without changing any of the other components of the system. Finally, we tested and evaluated our tool using different test bases, and it turned out that our tool is comprehensive, effective, and powerful enough.
翻訳日:2022-11-26 18:09:06 公開日:2020-05-30
# スペクトル再構成のための解析式

An Analytical Formula for Spectrum Reconstruction ( http://arxiv.org/abs/2006.00152v1 )

ライセンス: Link先を確認
Zhibo Dai, Heinrich Matzinger, Ionel Popescu(参考訳) スペクトル再構成技術について検討する。 一般に、固有値は多くの研究分野において重要な役割を担い、PCA(Principal Component Analysis)のような実用技術の基礎となっている。 関連するアルゴリズムは、より正確なスペクトル推定でより良く機能するべきだと考えています。 近似式が提案されたが、彼らは何も証明しなかった。 私たちの研究では、式がなぜ機能するのかを示します。 そして、空間の個数と次元の両方が無限大となると、空間の次元と特徴の個数の比の定数$c$と関連する近似公式の誤差の順序を求める。

We study the spectrum reconstruction technique. As is known to all, eigenvalues play an important role in many research fields and are foundation to many practical techniques such like PCA(Principal Component Analysis). We believe that related algorithms should perform better with more accurate spectrum estimation. There was an approximation formula proposed, however, they didn't give any proof. In our research, we show why the formula works. And when both number of features and dimension of space go to infinity, we find the order of error for the approximation formula, which is related to a constant $c$-the ratio of dimension of space and number of features.
翻訳日:2022-11-26 18:08:52 公開日:2020-05-30
# ジェネレーティブ・ディバイサル・ネットワークを用いた高度な単一画像解像度向上

Advanced Single Image Resolution Upsurging Using a Generative Adversarial Network ( http://arxiv.org/abs/2006.00186v1 )

ライセンス: Link先を確認
Md. Moshiur Rahman, Samrat Kumar Dey, and Kabid Hassan Shibly(参考訳) 画像の解像度は、画像の品質を評価するための非常に重要な基準である。 ファジィ品質のため、解像度の低い画像が適さないため、画像の高解像度が常に好ましい。 画像の高解像度化は、医用画像などの様々な分野において重要である。 近年,低解像度画像から高解像度画像を生成するための様々な研究が行われている。 本稿では,ディープネットワークを用いた残差密度ブロックネットワークアーキテクチャの残差を用いて,高分解能画像を生成する手法を提案する。 また,提案手法を他の手法と比較し,視覚的品質の高い画像を提供することを示す。

The resolution of an image is a very important criterion for evaluating the quality of the image. A higher resolution of an image is always preferable as images of lower resolution are unsuitable due to fuzzy quality. A higher resolution of an image is important for various fields such as medical imaging; astronomy works and so on as images of lower resolution becomes unclear and indistinct when their sizes are enlarged. In recent times, various research works are performed to generate a higher resolution of an image from its lower resolution. In this paper, we have proposed a technique of generating higher resolution images form lower resolution using Residual in Residual Dense Block network architecture with a deep network. We have also compared our method with other methods to prove that our method provides better visual quality images.
翻訳日:2022-11-26 18:08:16 公開日:2020-05-30
# 大域的空間スペクトル全変動正規化非凸局所低ランクテンソル近似による超スペクトル画像の分極

Hyperspectral Image Denoising via Global Spatial-Spectral Total Variation Regularized Nonconvex Local Low-Rank Tensor Approximation ( http://arxiv.org/abs/2006.00235v1 )

ライセンス: Link先を確認
Haijin Zeng, Xiaozhen Xie, Jifeng Ning(参考訳) hyperspectral image (hsi) ノイズ汚染画像からクリーンなhsiを復元することを目的としている。 ノイズ汚染は、しばしばデータ取得と変換の間に起こる。 本稿では,HSIの混合雑音を除去するために,新しい空間スペクトル全変動(SSTV)正規化非凸局所低ランクテンソル近似法を提案する。 クリーンなHSIデータは、外周音や非ガウス雑音のため、実際のHSIデータは全世界的に低ランクではないとしても、基礎となるローカルLRテンソル特性を有する。 この事実により、我々は局所LRを定式化するための新しいテンソル$L_{\gamma}$-normを提案する。 別の側面から、HSIは、大域空間領域とスペクトル領域において断片的に滑らかであると仮定される。 従来の帯域ごとの総変動の代わりに、sstv正規化を用いて、隣接するバンドのグローバル空間構造とスペクトル相関を同時に考慮する。 シミュレーションおよび実HSIデータセットの結果は、ローカルLRテンソルペナルティとグローバルSSTVの使用により、HSIの局所的詳細と全体構造情報の保存が促進されることを示している。

Hyperspectral image (HSI) denoising aims to restore clean HSI from the noise-contaminated one. Noise contamination can often be caused during data acquisition and conversion. In this paper, we propose a novel spatial-spectral total variation (SSTV) regularized nonconvex local low-rank (LR) tensor approximation method to remove mixed noise in HSIs. From one aspect, the clean HSI data have its underlying local LR tensor property, even though the real HSI data may not be globally low-rank due to out-liers and non-Gaussian noise. According to this fact, we propose a novel tensor $L_{\gamma}$-norm to formulate the local LR prior. From another aspect, HSIs are assumed to be piecewisely smooth in the global spatial and spectral domains. Instead of traditional bandwise total variation, we use the SSTV regularization to simultaneously consider global spatial structure and spectral correlation of neighboring bands. Results on simulated and real HSI datasets indicate that the use of local LR tensor penalty and global SSTV can boost the preserving of local details and overall structural information in HSIs.
翻訳日:2022-11-26 18:07:33 公開日:2020-05-30
# ユーザレビューのトピック検出と要約

Topic Detection and Summarization of User Reviews ( http://arxiv.org/abs/2006.00148v1 )

ライセンス: Link先を確認
Pengyuan Li, Lei Huang, Guang-jie Ren(参考訳) さまざまなプラットフォームから毎日大量のレビューが生成される。 たくさんのレビューを読んだり、有用な情報を得たりすることは不可能です。 このように、顧客レビューの自動要約は、ユーザがデータの要点を取得するのに役立つ重要な情報を識別し抽出する上で重要である。 しかし、一般的に顧客レビューは短く、非公式で多面的であるため、トピック別に要約を作成することは極めて困難であり、この問題を解決しようとする研究はいくつか存在するが、顧客レビューのみを活用したヒューリスティックな手法である。 既存の方法とは違って,レビューと要約の両方を解析し,レビューと要約を個別の感情に分割する,効果的な新しい要約手法を提案する。 感情は通常短いので、同じ側面について話している感情をひとつのドキュメントにまとめ、トピックモデリング手法を適用して、顧客のレビューや要約の中で隠されたトピックを識別します。 感度分析は、検出されたトピックごとに正と負の意見を区別するために用いられる。 また、要約の書き込みパターンと顧客レビューの書き込みパターンを区別するために分類器も導入される。 最後に、そのトピック関連性、感情分析スコアおよび筆記パターンに基づいて、要約を生成するために感情を選択する。 本手法をテストするために,amazon と cnet から 1028 製品に関する製品レビューと要約を含む新しいデータセットを収集した。 実験の結果,本手法は他の手法と比較して有効性を示した。

A massive amount of reviews are generated daily from various platforms. It is impossible for people to read through tons of reviews and to obtain useful information. Automatic summarizing customer reviews thus is important for identifying and extracting the essential information to help users to obtain the gist of the data. However, as customer reviews are typically short, informal, and multifaceted, it is extremely challenging to generate topic-wise summarization.While there are several studies aims to solve this issue, they are heuristic methods that are developed only utilizing customer reviews. Unlike existing method, we propose an effective new summarization method by analyzing both reviews and summaries.To do that, we first segment reviews and summaries into individual sentiments. As the sentiments are typically short, we combine sentiments talking about the same aspect into a single document and apply topic modeling method to identify hidden topics among customer reviews and summaries. Sentiment analysis is employed to distinguish positive and negative opinions among each detected topic. A classifier is also introduced to distinguish the writing pattern of summaries and that of customer reviews. Finally, sentiments are selected to generate the summarization based on their topic relevance, sentiment analysis score and the writing pattern. To test our method, a new dataset comprising product reviews and summaries about 1028 products are collected from Amazon and CNET. Experimental results show the effectiveness of our method compared with other methods.
翻訳日:2022-11-26 18:01:21 公開日:2020-05-30
# 会話レコメンデーションのためのユーザメモリ推論

User Memory Reasoning for Conversational Recommendation ( http://arxiv.org/abs/2006.00184v1 )

ライセンス: Link先を確認
Hu Xu, Seungwhan Moon, Honglei Liu, Bing Liu, Pararth Shah, Bing Liu, Philip S. Yu(参考訳) 本研究では,ユーザの過去(オフライン)選好と現在の(オンライン)要求を構造化された累積ユーザ記憶知識グラフを通して動的に管理し,自然なインタラクションと正確なレコメンデーションを可能にする会話レコメンデーションモデルについて検討する。 本研究では,実際のユーザシナリオからブートストラップした大規模ユーザメモリをベースとした,新たなメモリグラフ (MG) <-> Conversational Recommendation parallel corpus MGConvRex with 7K+ human-to- human role-playing dialogsを作成する。 MGConvRexはユーザメモリ上の人間レベルの推論をキャプチャし、推奨のためにゼロショット(コールドスタート)推論のためにユーザのトレーニング/テストセットを分離する。 本稿ではMGの構築と更新のためのシンプルな拡張可能な定式化と、制約のないグラフ空間における最適なダイアログポリシーと推奨項目を予測する推論モデルを提案する。 提案したモデルの予測はグラフ構造を継承し,モデルの推奨を説明する自然な方法を提供する。 オフラインメトリクスとオンラインシミュレーションの両方で実験が行われ、競争結果が示されている。

We study a conversational recommendation model which dynamically manages users' past (offline) preferences and current (online) requests through a structured and cumulative user memory knowledge graph, to allow for natural interactions and accurate recommendations. For this study, we create a new Memory Graph (MG) <--> Conversational Recommendation parallel corpus called MGConvRex with 7K+ human-to-human role-playing dialogs, grounded on a large-scale user memory bootstrapped from real-world user scenarios. MGConvRex captures human-level reasoning over user memory and has disjoint training/testing sets of users for zero-shot (cold-start) reasoning for recommendation. We propose a simple yet expandable formulation for constructing and updating the MG, and a reasoning model that predicts optimal dialog policies and recommendation items in unconstrained graph space. The prediction of our proposed model inherits the graph structure, providing a natural way to explain the model's recommendation. Experiments are conducted for both offline metrics and online simulation, showing competitive results.
翻訳日:2022-11-26 18:00:58 公開日:2020-05-30
# コードミキシングタミル英語テキストの感性分析のためのコーパス作成

Corpus Creation for Sentiment Analysis in Code-Mixed Tamil-English Text ( http://arxiv.org/abs/2006.00206v1 )

ライセンス: Link先を確認
Bharathi Raja Chakravarthi, Vigneshwaran Muralidaran, Ruba Priyadharshini, John P. McCrae(参考訳) ビデオや画像からコメントの感情を理解することは、多くのアプリケーションにおいて必須のタスクである。 テキストの感性分析は、様々な意思決定プロセスに有用である。 そのような応用の1つは、視聴者のコメントに基づいてソーシャルメディア上のビデオの人気感情を分析することである。 しかし、ソーシャルメディアのコメントは文法の厳格な規則に従わず、複数の言語が混ざり合っていて、しばしば非ネイティブのスクリプトで書かれている。 Tamilのような低リソース言語向けのアノテーション付きコードミックスデータの非可用性もまた、この問題に困難をもたらしている。 これを克服するために、youtubeのコメント投稿15,744本を含む、金の標準のタミル英語コード切り換え、感情注釈付きコーパスを作成しました。 本稿では,コーパスの作成と極性を割り当てるプロセスについて述べる。 本稿では,このコーパスでトレーニングした感情分析の結果をベンチマークとして示す。

Understanding the sentiment of a comment from a video or an image is an essential task in many applications. Sentiment analysis of a text can be useful for various decision-making processes. One such application is to analyse the popular sentiments of videos on social media based on viewer comments. However, comments from social media do not follow strict rules of grammar, and they contain mixing of more than one language, often written in non-native scripts. Non-availability of annotated code-mixed data for a low-resourced language like Tamil also adds difficulty to this problem. To overcome this, we created a gold standard Tamil-English code-switched, sentiment-annotated corpus containing 15,744 comment posts from YouTube. In this paper, we describe the process of creating the corpus and assigning polarities. We present inter-annotator agreement and show the results of sentiment analysis trained on this corpus as a benchmark.
翻訳日:2022-11-26 18:00:36 公開日:2020-05-30
# コード混合マラヤラム英語の感情分析データセット

A Sentiment Analysis Dataset for Code-Mixed Malayalam-English ( http://arxiv.org/abs/2006.00210v1 )

ライセンス: Link先を確認
Bharathi Raja Chakravarthi, Navya Jose, Shardul Suryawanshi, Elizabeth Sherly, John P. McCrae(参考訳) 主にコードミキシングされたソーシャルメディアからのテキストの感情分析に対する需要が高まっている。 単言語データでトレーニングされたシステムは、テキストの異なるレベルにおける混合の複雑さのため、コード混合データでは失敗する。 しかし、このデータに特有のモデルを作成するためのコードミックスデータのためのリソースはほとんどない。 多言語・言語間感情分析に関する多くの研究は半教師ありまたは教師なしの手法を使っているが、教師なしの方法の方が優れている。 英語・スペイン語・英語・ヒンディー語・英語・中国語などのポピュラー言語のデータセットはごくわずかである。 マラヤラム英語のコードミキシングデータにはリソースがない。 本稿では,マラヤラム英語のコード混合テキストの感情分析のための金標準コーパスを提案する。 このゴールド標準コーパスはデータセットの0.8以上のkrippendorffのアルファを得た。 我々はこのコーパスを用いて、マラヤラム英語のコードミックステキストの感情分析のベンチマークを提供する。

There is an increasing demand for sentiment analysis of text from social media which are mostly code-mixed. Systems trained on monolingual data fail for code-mixed data due to the complexity of mixing at different levels of the text. However, very few resources are available for code-mixed data to create models specific for this data. Although much research in multilingual and cross-lingual sentiment analysis has used semi-supervised or unsupervised methods, supervised methods still performs better. Only a few datasets for popular languages such as English-Spanish, English-Hindi, and English-Chinese are available. There are no resources available for Malayalam-English code-mixed data. This paper presents a new gold standard corpus for sentiment analysis of code-mixed text in Malayalam-English annotated by voluntary annotators. This gold standard corpus obtained a Krippendorff's alpha above 0.8 for the dataset. We use this new corpus to provide the benchmark for sentiment analysis in Malayalam-English code-mixed texts.
翻訳日:2022-11-26 18:00:23 公開日:2020-05-30
# チャレンジレポート:野生のデータチャレンジにおける家族認識

Challenge report: Recognizing Families In the Wild Data Challenge ( http://arxiv.org/abs/2006.00154v1 )

ライセンス: Link先を確認
Zhipeng Luo, Zhiguang Zhang, Zhenyu Xu, Lixuan Che(参考訳) 本稿は、FG 2020フォーラムと共同で第4版(Recognizing Families In the Wild Data Challenge)を提出した短い報告である。 自動親和性認識は完全な応用のために多くの研究者の注意を引き付けてきたが、顔が血縁者かどうかを判断できる限られた情報のために、依然として非常に難しい課題である。 本稿では,これまでの手法を考察し,提案手法を提案する。 ディープメトリック学習(deep metric learning-based)のような多くの手法を試し、各画像の深い埋め込み特徴を抽出し、ユークリッド距離やクラスに基づく方法によってそれらが血縁であるかどうかを判断する。 最後に、よりネガティブなサンプルのサンプリングや、パフォーマンス向上に役立つ高解像度化といったトリックを見つけます。 さらに,全てのタスクにおいて最高のスコアを得るために,二項分類に基づく対称ネットワークを提案する。

This paper is a brief report to our submission to the Recognizing Families In the Wild Data Challenge (4th Edition), in conjunction with FG 2020 Forum. Automatic kinship recognition has attracted many researchers' attention for its full application, but it is still a very challenging task because of the limited information that can be used to determine whether a pair of faces are blood relatives or not. In this paper, we studied previous methods and proposed our method. We try many methods, like deep metric learning-based, to extract deep embedding feature for every image, then determine if they are blood relatives by Euclidean distance or method based on classes. Finally, we find some tricks like sampling more negative samples and high resolution that can help get better performance. Moreover, we proposed a symmetric network with a binary classification based method to get our best score in all tasks.
翻訳日:2022-11-26 17:59:21 公開日:2020-05-30
# 人物検索における共同目的と反発

Joint Person Objectness and Repulsion for Person Search ( http://arxiv.org/abs/2006.00155v1 )

ライセンス: Link先を確認
Hantao Yao, Changsheng Xu(参考訳) 人物探索対象は、人物検出と人物マッチングの組み合わせとして扱うことができる、制約のないシーン画像からプローブの人物を探索する。 しかし,検出・マッチングフレームワークに基づく既存の手法では,人物の客観性と反発(OR)は無視されている。 本稿では,オブジェクト指向と反発情報を協調的に考慮したOR類似性を提案する。 伝統的な視覚的類似性用語の他に、その類似性は対象性項と反発性項も含む。 対象用語は、人物を含まない散逸画像の類似性を低減し、ポジティブサンプルのランキングを改善することにより、人物検索の性能を高めることができる。 プローブの人物は、emph{neighbors}と異なる人物idを持つので、プローブのemph{neighbors of probe}と高い類似度を持つギャラリー画像は、プローブの人物とより低い類似性を持つべきである。 この反発制約に基づき、この反発項は、プローブの人物とあまり似ていない散乱像の類似度を低減するために提案される。 Faster R-CNNを人検知器として扱い、6つの記述モデルによる検出・マッチングフレームワークを用いてPRWおよびCUHK-SYSUデータセット上でOR類似性を評価する。 大規模な実験により、提案されたOR類似性は、散逸サンプルの類似性を効果的に低減し、例えば、CUHK-SYSYデータセットでは92.32%から93.23%に改善し、PRWデータセットでは50.91%から52.30%に改善した。

Person search targets to search the probe person from the unconstrainted scene images, which can be treated as the combination of person detection and person matching. However, the existing methods based on the Detection-Matching framework ignore the person objectness and repulsion (OR) which are both beneficial to reduce the effect of distractor images. In this paper, we propose an OR similarity by jointly considering the objectness and repulsion information. Besides the traditional visual similarity term, the OR similarity also contains an objectness term and a repulsion term. The objectness term can reduce the similarity of distractor images that not contain a person and boost the performance of person search by improving the ranking of positive samples. Because the probe person has a different person ID with its \emph{neighbors}, the gallery images having a higher similarity with the \emph{neighbors of probe} should have a lower similarity with the probe person. Based on this repulsion constraint, the repulsion term is proposed to reduce the similarity of distractor images that are not most similar to the probe person. Treating the Faster R-CNN as the person detector, the OR similarity is evaluated on PRW and CUHK-SYSU datasets by the Detection-Matching framework with six description models. The extensive experiments demonstrate that the proposed OR similarity can effectively reduce the similarity of distractor samples and further boost the performance of person search, e.g., improve the mAP from 92.32% to 93.23% for CUHK-SYSY dataset, and from 50.91% to 52.30% for PRW datasets.
翻訳日:2022-11-26 17:59:04 公開日:2020-05-30
# ridge regularizaton: データサイエンスにおける必須概念

Ridge Regularizaton: an Essential Concept in Data Science ( http://arxiv.org/abs/2006.00371v1 )

ライセンス: Link先を確認
Trevor Hastie(参考訳) リッジまたは正式に$\ell_2$正規化は、統計学と機械学習の多くの分野に現れる。 優れたデータサイエンティストが自分の技術のためにマスターする必要がある重要なデバイスのひとつです。 この短いリッジフェストで、私は過去40年間にわたる応用統計で同僚と遭遇したリッジの魔法と美しさをいくつか集めました。

Ridge or more formally $\ell_2$ regularization shows up in many areas of statistics and machine learning. It is one of those essential devices that any good data scientist needs to master for their craft. In this brief ridge fest I have collected together some of the magic and beauty of ridge that my colleagues and I have encountered over the past 40 years in applied statistics.
翻訳日:2022-11-26 17:52:25 公開日:2020-05-30
# マウス運動の効率的な表現を学習してユーザの注意を喚起する

Learning Efficient Representations of Mouse Movements to Predict User Attention ( http://arxiv.org/abs/2006.01644v1 )

ライセンス: Link先を確認
Ioannis Arapakis and Luis A. Leiva(参考訳) マウスカーソルの動きを追跡することで、SERPのような異種ページレイアウトでユーザの注意を予測できる。 これまでの作業は手作りの機能に大きく依存しており、ドメインの専門知識を必要とする場合が多い。 時系列や熱マップ,トラジェクトリに基づく画像など,マウスカーソルの動きの異なる表現について検討し,SERP広告などの直接表示へのユーザの注意を予測できる再帰型ニューラルネットワークと畳み込み型ニューラルネットワークの構築と対比を行う。 我々のモデルは生のマウスカーソルデータに基づいて訓練され、競争力を発揮する。 ニューラルネットワークモデルは、マウスのカーソルの動きを含む下流タスクに採用されるべきであると結論付けている。

Tracking mouse cursor movements can be used to predict user attention on heterogeneous page layouts like SERPs. So far, previous work has relied heavily on handcrafted features, which is a time-consuming approach that often requires domain expertise. We investigate different representations of mouse cursor movements, including time series, heatmaps, and trajectory-based images, to build and contrast both recurrent and convolutional neural networks that can predict user attention to direct displays, such as SERP advertisements. Our models are trained over raw mouse cursor data and achieve competitive performance. We conclude that neural network models should be adopted for downstream tasks involving mouse cursor movements, since they can provide an invaluable implicit feedback signal for re-ranking and evaluation.
翻訳日:2022-11-26 17:52:18 公開日:2020-05-30
# ピアアセスメントにおける問題文の検出

Detecting Problem Statements in Peer Assessments ( http://arxiv.org/abs/2006.04532v1 )

ライセンス: Link先を確認
Yunkai Xiao, Gabriel Zingle, Qinjin Jia, Harsh R. Shah, Yi Zhang, Tianyi Li, Mohsin Karovaliya, Weixiang Zhao, Yang Song, Jie Ji, Ashwin Balasubramaniam, Harshit Patel, Priyankha Bhalasubbramanian, Vikram Patel, and Edward F. Gehringer(参考訳) 効果的なピアアセスメントは、学生が評価する仕事の欠陥に注意する必要がある。 したがって、彼らのレビューは問題を特定するべきである。 しかし、それをチェックするための方法は何か? レビューコメントが問題を検出するかどうかを判断するプロセスを自動化する。 私たちは18,000以上のレビューコメントを使用し、レビュー担当者が問題を検出するか、あるいは検出しないかをラベル付けしました。 従来の機械学習モデルやGloVeとBERTの埋め込みを使ったニューラルネットワークモデルも展開しています。 もっとも優れたパフォーマーは階層的注意ネットワーク分類器であり、次に、93.1%と90.5%のスコアを持つ双方向ゲーテッド・リカレント・ユニット(GRU)とカプセルモデルである。 最高の非神経ネットワークモデルは89.71%の支持ベクトルマシンであった。 これに続いて確率的勾配降下モデルと89.70%と88.98%のロジスティック回帰モデルがある。

Effective peer assessment requires students to be attentive to the deficiencies in the work they rate. Thus, their reviews should identify problems. But what ways are there to check that they do? We attempt to automate the process of deciding whether a review comment detects a problem. We use over 18,000 review comments that were labeled by the reviewees as either detecting or not detecting a problem with the work. We deploy several traditional machine-learning models, as well as neural-network models using GloVe and BERT embeddings. We find that the best performer is the Hierarchical Attention Network classifier, followed by the Bidirectional Gated Recurrent Units (GRU) Attention and Capsule model with scores of 93.1% and 90.5% respectively. The best non-neural network model was the support vector machine with a score of 89.71%. This is followed by the Stochastic Gradient Descent model and the Logistic Regression model with 89.70% and 88.98%.
翻訳日:2022-11-26 17:52:05 公開日:2020-05-30
# fmcg小売店舗におけるプロモーションの効率評価のためのパフォーマンス指標値予測における勾配強化の適用

Gradient Boosting Application in Forecasting of Performance Indicators Values for Measuring the Efficiency of Promotions in FMCG Retail ( http://arxiv.org/abs/2006.04945v1 )

ライセンス: Link先を確認
Joanna Henzel and Marek Sikora(参考訳) 本稿では,促進効率の予測に関する課題を提起する。 筆者らは, この課題に勾配ブースティング法を応用した新しい手法を提案する。 プロモーション効果を捉えるために、6つのパフォーマンス指標が導入される。 それぞれの製品について、事前定義されたグループ内では、モデルがトレーニングされた。 これらのモデルを用いたプロモーション効率の予測と最適化について述べる。 データ準備およびハイパーパラメータチューニングプロセスについても述べる。 実験は、大型食料品会社の3つのグループの製品に対して行われた。

In the paper, a problem of forecasting promotion efficiency is raised. The authors propose a new approach, using the gradient boosting method for this task. Six performance indicators are introduced to capture the promotion effect. For each of them, within predefined groups of products, a model was trained. A description of using these models for forecasting and optimising promotion efficiency is provided. Data preparation and hyperparameters tuning processes are also described. The experiments were performed for three groups of products from a large grocery company.
翻訳日:2022-11-26 17:51:50 公開日:2020-05-30
# 糖尿病網膜症重症度予測のためのブレンドマルチモーダルディープコンベネット特徴

Blended Multi-Modal Deep ConvNet Features for Diabetic Retinopathy Severity Prediction ( http://arxiv.org/abs/2006.00197v1 )

ライセンス: Link先を確認
J.D. Bodapati, N. Veeranjaneyulu, S.N. Shareef, S. Hakak, M. Bilal, P.K.R. Maddikunta, O. Jo(参考訳) 糖尿病網膜症(DR)は、世界中の視覚障害と視覚障害の主要な原因の1つである。 通常、長期間糖尿病患者にみられる。 この研究の主な焦点は、dr認識モデルの性能をさらに向上させる網膜画像の最適な表現を導出することである。 最適表現を抽出するために,複数の事前学習したConvNetモデルから抽出した特徴を多モード融合モジュールを用いてブレンドする。 これらの最終表現は、DR識別と重度レベルの予測に使用されるディープニューラルネットワーク(DNN)のトレーニングに使用される。 ConvNetはそれぞれ異なる特徴を抽出するが、1Dプーリングとクロスプーリングを使ってそれらを融合させることで、単一のConvNetから抽出した機能よりも表現性が向上する。 ベンチマークKaggle APTOS 2019コンテストデータセットの実験研究により、提案されたブレンドされた特徴表現に基づいてトレーニングされたモデルが既存の方法よりも優れていることが明らかになった。 さらに,Xception と VGG16 の機能の相互平均プールによる融合が,DR 認識に最も適していることに気付いた。 提案モデルの精度は97.41%であり、DR識別では94.82、重度予測では81.7%、カッパ統計では71.1%である。 もうひとつの興味深い観察は、単モードの深い特徴を用いてトレーニングされたのと同じモデルと比較して、混合機能を使用してトレーニングされた場合、入力層でのドロップアウトを伴うDNNがより早く収束することです。

Diabetic Retinopathy (DR) is one of the major causes of visual impairment and blindness across the world. It is usually found in patients who suffer from diabetes for a long period. The major focus of this work is to derive optimal representation of retinal images that further helps to improve the performance of DR recognition models. To extract optimal representation, features extracted from multiple pre-trained ConvNet models are blended using proposed multi-modal fusion module. These final representations are used to train a Deep Neural Network (DNN) used for DR identification and severity level prediction. As each ConvNet extracts different features, fusing them using 1D pooling and cross pooling leads to better representation than using features extracted from a single ConvNet. Experimental studies on benchmark Kaggle APTOS 2019 contest dataset reveals that the model trained on proposed blended feature representations is superior to the existing methods. In addition, we notice that cross average pooling based fusion of features from Xception and VGG16 is the most appropriate for DR recognition. With the proposed model, we achieve an accuracy of 97.41%, and a kappa statistic of 94.82 for DR identification and an accuracy of 81.7% and a kappa statistic of 71.1% for severity level prediction. Another interesting observation is that DNN with dropout at input layer converges more quickly when trained using blended features, compared to the same model trained using uni-modal deep features.
翻訳日:2022-11-26 17:51:45 公開日:2020-05-30
# 深層学習によるアンサンプ光音響顕微鏡画像の再構成

Reconstructing undersampled photoacoustic microscopy images using deep learning ( http://arxiv.org/abs/2006.00251v1 )

ライセンス: Link先を確認
Anthony DiSpirito III, Daiwei Li, Tri Vu, Maomao Chen, Dong Zhang, Jianwen Luo, Roarke Horstmeyer, and Junjie Yao(参考訳) 光音響顕微鏡(PAM)の主な技術的課題は、空間分解能と撮像速度の妥協である。 本研究では,pam画像の再構成と空間分解能と画像速度のトレードオフを超越する深層学習原理の新たな応用を提案する。 様々な畳み込みニューラルネットワーク(cnn)アーキテクチャを比較し、最も優れた結果を生み出す完全密集型u-net(fd u-net)モデルを選択した。 種々のアンダーサンプリング条件を再現するために,マウス脳血管の完全サンプリングされたPAM画像を異なる比率で人工的にダウンサンプリングした。 これにより、基底的真実を確定的に確立するだけでなく、さまざまな撮像条件下でディープラーニングモデルをトレーニングし、テストすることが可能になる。 結果と数値解析により,PAM画像の再現性能は元のピクセルの2%に留まり,画像品質を著しく損なうことなく撮影時間を効果的に短縮できることを示した。

One primary technical challenge in photoacoustic microscopy (PAM) is the necessary compromise between spatial resolution and imaging speed. In this study, we propose a novel application of deep learning principles to reconstruct undersampled PAM images and transcend the trade-off between spatial resolution and imaging speed. We compared various convolutional neural network (CNN) architectures, and selected a fully dense U-net (FD U-net) model that produced the best results. To mimic various undersampling conditions in practice, we artificially downsampled fully-sampled PAM images of mouse brain vasculature at different ratios. This allowed us to not only definitively establish the ground truth, but also train and test our deep learning model at various imaging conditions. Our results and numerical analysis have collectively demonstrated the robust performance of our model to reconstruct PAM images with as few as 2% of the original pixels, which may effectively shorten the imaging time without substantially sacrificing the image quality.
翻訳日:2022-11-26 17:51:17 公開日:2020-05-30
# 勾配ベクトル配向型非線形拡散フィルタ(gvof)を用いたポジトロン放射トモグラフィ(pet)による放射能濃度の高精度定量化

Positron Emission Tomography (PET) image enhancement using a gradient vector orientation based nonlinear diffusion filter (GVOF) for accurate quantitation of radioactivity concentration ( http://arxiv.org/abs/2006.00273v1 )

ライセンス: Link先を確認
Mahbubunnabi Tamal(参考訳) PET(Positron Emission Tomography)を用いた生体内放射線吸収の正確な定量化は、PETカメラの信号対雑音比(SNR)が低く、空間分解能が悪いことによる課題である。 さらに、SNRとコントラストの病変間変化と病変の大きさの変動により、定量化がさらに困難になる。 量子化を改善する方法の1つは、ガウスフィルタ(GF)を用いたポスト再構成フィルタである。 エッジ保存バイラテラルフィルタ (BF) と非線形拡散フィルタ (NDF) は、画像解像度を劣化させることなくSNRを改善するGFの代替品である。 しかし,これらのエッジ保存手法の性能は,高音量・低音の場合にのみ最適である。 本稿では, 統計的ゆらぎ(snr, コントラスト, サイズなど)に影響を受けない新しいパラメータ自由勾配ベクトル配向型非線形拡散フィルタ(gvof)を提案する。 NEMAファントムで収集したPET画像にGVOF法を適用したところ、GVOF法は、原画像や他のフィルタ画像と比較して、最高のSNR、CNR(コントラスト・ツー・ノイズ比)、解像度を提供することが明らかとなった。 GVOF法では, 部分体積効果 (PVE) が無視できる直径2cmの球に対して, SUVmax (Maximum Standardized Uptake Value) を示す最大活性を推定する際のパーセンテージバイアスが最も低い。 GVOF法は最大強度再現性も向上する。 GVOFのサイズ,コントラストレベル,SNRの変化に対するロバスト性は,正確な診断と応答評価の両方に適している。 さらに、SNRに関係なく正確な定量測定を行う能力は、放射能線量削減にも有効である。

To accurately quantify in vivo radiotracer uptake using Positron Emission Tomography (PET) is a challenging task due to low signal-to-noise ratio (SNR) and poor spatial resolution of PET camera along with the finite image sampling constraint. Furthermore, inter lesion variations of the SNR and contrast along with the variations in size of the lesion make the quantitation even more difficult. One of the ways to improve the quantitation is via post reconstruction filtering with Gaussian Filter (GF). Edge preserving Bilateral Filter (BF) and Nonlinear Diffusion Filter (NDF) are the alternatives to GF that can improve the SNR without degrading the image resolution. However, the performance of these edge preserving methods are only optimum for high count and low noise cases. A novel parameter free gradient vector orientation based nonlinear diffusion filter (GVOF) is proposed in this paper that is insensitive to statistical fluctuations (e. g., SNR, contrast, size etc.). GVOF method applied on the PET images collected with the NEMA phantom with varying levels of contrast and noise reveals that the GVOF method provides the highest SNR, CNR (contrast-to-noise ratio) and resolution compared to the original and other filtered images. The percentage bias in estimating the maximum activity representing SUVmax (Maximum Standardized Uptake Value) for the spheres with diameter > 2cm where the partial volume effects (PVE) is negligible is the lowest for the GVOF method. The GVOF method also improves the maximum intensity reproducibility. Robustness of the GVOF against variation in sizes, contrast levels and SNR makes it a suitable post filtering method for both accurate diagnosis and response assessment. Furthermore, its capability to provide accurate quantitative measurements irrespective of the SNR, it can also be effective in reduction of radioactivity dose.
翻訳日:2022-11-26 17:51:00 公開日:2020-05-30
# StressGAN:2次元応力分布予測のための生成的深層学習モデル

StressGAN: A Generative Deep Learning Model for 2D Stress Distribution Prediction ( http://arxiv.org/abs/2006.11376v1 )

ライセンス: Link先を確認
Haoliang Jiang, Zhenguo Nie, Roselyn Yeo, Amir Barati Farimani, Levent Burak Kara(参考訳) 機械的応力分布の解析にディープラーニングを用いることで,高速応力解析手法の需要が高まっている。 深層学習アプローチは、応力計算を高速化し、基礎となる方程式の事前知識なしで物理学を学ぶ際に、優れた成果を上げた。 しかし、ほとんどの研究は幾何学や境界条件の変動を制限しており、これらの方法が見えない構成に一般化することは困難である。 固体構造における2D von Mises応力分布を予測するための条件生成逆ネットワーク(cGAN)モデルを提案する。 cganは、事前知識のない2つのニューラルネットワーク間の2人のプレイヤーによるミニマックスゲームを通じて、ジオメトリ、負荷、境界条件によって条件付けられた応力分布を生成する。 複数の指標に基づいて2つの応力分布データセット上の生成ネットワークを評価することにより,我々のモデルは,幾何,負荷,境界条件の様々な複雑なケースを考慮し,ベースライン畳み込みニューラルネットワークモデルよりも高精度な高分解能応力分布を予測できることを実証する。

Using deep learning to analyze mechanical stress distributions has been gaining interest with the demand for fast stress analysis methods. Deep learning approaches have achieved excellent outcomes when utilized to speed up stress computation and learn the physics without prior knowledge of underlying equations. However, most studies restrict the variation of geometry or boundary conditions, making these methods difficult to be generalized to unseen configurations. We propose a conditional generative adversarial network (cGAN) model for predicting 2D von Mises stress distributions in solid structures. The cGAN learns to generate stress distributions conditioned by geometries, load, and boundary conditions through a two-player minimax game between two neural networks with no prior knowledge. By evaluating the generative network on two stress distribution datasets under multiple metrics, we demonstrate that our model can predict more accurate high-resolution stress distributions than a baseline convolutional neural network model, given various and complex cases of geometry, load and boundary conditions.
翻訳日:2022-11-26 17:49:58 公開日:2020-05-30
# RelEx: モデルに依存しない関係モデル記述器

RelEx: A Model-Agnostic Relational Model Explainer ( http://arxiv.org/abs/2006.00305v1 )

ライセンス: Link先を確認
Yue Zhang, David Defazio, Arti Ramesh(参考訳) 近年,機械学習モデルの解釈可能性向上に大きく進展している。 数百万のパラメータを持つ複雑なディープラーニングモデルが技術結果の状態を生成しているため、これは必須だが、それらの予測を説明することはほぼ不可能である。 様々な説明可能性技術が印象的な結果を得たが、ほとんどすべてのデータインスタンスが独立で同一の分散(iid)であると仮定している。 これは、統計関係学習(srl)や最近普及したグラフニューラルネットワーク(gnns)といった関係モデルを排除し、それらを説明するための選択肢はほとんどない。 GNN、GNN-Explainerの説明には1つの研究があるが、非微分可能リレーショナルモデルと実用性にまたがる適用性に制限のある説明を学習するためにモデルの勾配にアクセスできると仮定している。 本研究では,ブラックボックスの出力にのみアクセス可能なブラックボックス関係モデルを記述するモデルに依存しない関係説明器RelExを開発した。 RelExはSRLモデルやGNNを含むあらゆるリレーショナルモデルを説明することができる。 我々は、relexと最先端のリレーショナル説明器、gnn-explainer、およびiid説明モデルのリレーショナル拡張を比較し、モデルに依存しないまま、relexが同等またはより優れたパフォーマンスを達成することを示す。

In recent years, considerable progress has been made on improving the interpretability of machine learning models. This is essential, as complex deep learning models with millions of parameters produce state of the art results, but it can be nearly impossible to explain their predictions. While various explainability techniques have achieved impressive results, nearly all of them assume each data instance to be independent and identically distributed (iid). This excludes relational models, such as Statistical Relational Learning (SRL), and the recently popular Graph Neural Networks (GNNs), resulting in few options to explain them. While there does exist one work on explaining GNNs, GNN-Explainer, they assume access to the gradients of the model to learn explanations, which is restrictive in terms of its applicability across non-differentiable relational models and practicality. In this work, we develop RelEx, a model-agnostic relational explainer to explain black-box relational models with only access to the outputs of the black-box. RelEx is able to explain any relational model, including SRL models and GNNs. We compare RelEx to the state-of-the-art relational explainer, GNN-Explainer, and relational extensions of iid explanation models and show that RelEx achieves comparable or better performance, while remaining model-agnostic.
翻訳日:2022-11-26 17:43:17 公開日:2020-05-30
# アダプティブネットワークによるモデルロバスト性の検討と敵意トレーニングの改善

Exploring Model Robustness with Adaptive Networks and Improved Adversarial Training ( http://arxiv.org/abs/2006.00387v1 )

ライセンス: Link先を確認
Zheng Xu, Ali Shafahi, Tom Goldstein(参考訳) 敵の訓練は敵の例に対するネットワーク強化に有効であることが証明されている。 しかし、得られた堅牢性は、ネットワーク容量とトレーニングサンプルの数によって制限される。 したがって、より堅牢なモデルを構築するためには、より多くのパラメータを持つ広いネットワークでトレーニングすることが一般的である。 頑健性を高めるために,入力サンプルに条件付けされたネットワークに適応する条件正規化モジュールを提案する。 我々の適応的ネットワークは、一度逆さまに訓練されると、きれいな検証精度と堅牢性の両方において、適応的でないネットワークよりも優れている。 本手法は客観的非依存であり,従来の対人訓練目標とTRADES目標の両方を一貫して改善する。 我々の適応ネットワークは、1.5倍のパラメータを持つ拡張された非適応アーキテクチャよりも優れています。 さらに, 対人訓練における「トリック」を実践的に導入し, 堅牢性を向上し, 効率を実証的に検証する。

Adversarial training has proven to be effective in hardening networks against adversarial examples. However, the gained robustness is limited by network capacity and number of training samples. Consequently, to build more robust models, it is common practice to train on widened networks with more parameters. To boost robustness, we propose a conditional normalization module to adapt networks when conditioned on input samples. Our adaptive networks, once adversarially trained, can outperform their non-adaptive counterparts on both clean validation accuracy and robustness. Our method is objective agnostic and consistently improves both the conventional adversarial training objective and the TRADES objective. Our adaptive networks also outperform larger widened non-adaptive architectures that have 1.5 times more parameters. We further introduce several practical ``tricks'' in adversarial training to improve robustness and empirically verify their efficiency.
翻訳日:2022-11-26 17:42:34 公開日:2020-05-30
# siameseニューラルネットワークを用いた家族構成員の検索

Retrieval of Family Members Using Siamese Neural Network ( http://arxiv.org/abs/2006.00174v1 )

ライセンス: Link先を確認
Jun Yu, Guochen Xie, Mengyan Li and Xinlong Hao(参考訳) 対象者の家族の検索は, 対象者の家族をデータセットで検索することを目的としており, 行方不明児の発見と親族関係の分析に有用である。 しかし、年齢、性別、ポーズ、そして収集したデータの照明の多様性のため、この課題は常に困難である。 この問題を解決するために,我々はディープ・シームズニューラルネットワークによる解を提案する。 我々の解は類似性計算とランク付けの2つの部分に分けられる。 トレーニング手順では、シャムゼネットワークはまず2つの候補画像を入力として、2つの特徴ベクトルを生成する。 そして、2つのベクトル間の類似性は、いくつかの完全連結層で計算される。 推論処理中、従う複数の完全連結層を落とし、2つの特徴ベクトルのコサイン類似性を直接計算することで、別の類似性計算手法を試す。 類似度計算の後、このランキングアルゴリズムを用いて類似度スコアを同一のIDとマージし、類似度に応じて順序リストを出力する。 さらなる改善を得るために、バックボーン、トレーニングメソッド、類似性コンピューティングメソッドの異なる組み合わせを試す。 最後に、最良の組み合わせをソリューションとして提出し、我々のチーム(ustc-nelslip)は、第1次準決勝でrfiw2020チャレンジのトラック3で有利な結果を得ました。 私たちのコードは、https://github.com/gniknoil/FG2020-kinshipで利用可能です。

Retrieval of family members in the wild aims at finding family members of the given subject in the dataset, which is useful in finding the lost children and analyzing the kinship. However, due to the diversity in age, gender, pose and illumination of the collected data, this task is always challenging. To solve this problem, we propose our solution with deep Siamese neural network. Our solution can be divided into two parts: similarity computation and ranking. In training procedure, the Siamese network firstly takes two candidate images as input and produces two feature vectors. And then, the similarity between the two vectors is computed with several fully connected layers. While in inference procedure, we try another similarity computing method by dropping the followed several fully connected layers and directly computing the cosine similarity of the two feature vectors. After similarity computation, we use the ranking algorithm to merge the similarity scores with the same identity and output the ordered list according to their similarities. To gain further improvement, we try different combinations of backbones, training methods and similarity computing methods. Finally, we submit the best combination as our solution and our team(ustc-nelslip) obtains favorable result in the track3 of the RFIW2020 challenge with the first runner-up, which verifies the effectiveness of our method. Our code is available at: https://github.com/gniknoil/FG2020-kinship
翻訳日:2022-11-26 17:42:19 公開日:2020-05-30
# リモートセンシングアプリケーションにおけるディープラーニングモデルの半教師あり微調整

Semi-Supervised Fine-Tuning for Deep Learning Models in Remote Sensing Applications ( http://arxiv.org/abs/2006.00345v1 )

ライセンス: Link先を確認
Eftychios Protopapadakis, Anastasios Doulamis, Nikolaos Doulamis and Evangelos Maltezos(参考訳) 土地被覆同定問題に取り組むために,深層学習と半教師付き学習という2つのよく知られた分野の組合せ的アプローチを提案する。 提案手法は、SSLアプローチをトレーニング中のパフォーマンス関数として使用する場合、ディープラーニングモデルの性能に与える影響を実証する。 正像上のピクセルレベルのセグメンテーションタスクで得られた結果は、SSL拡張損失関数がモデルの性能に有益であることを示唆している。

A combinatory approach of two well-known fields: deep learning and semi supervised learning is presented, to tackle the land cover identification problem. The proposed methodology demonstrates the impact on the performance of deep learning models, when SSL approaches are used as performance functions during training. Obtained results, at pixel level segmentation tasks over orthoimages, suggest that SSL enhanced loss functions can be beneficial in models' performance.
翻訳日:2022-11-26 17:41:28 公開日:2020-05-30
# 生存安全のためのai研究(arches)

AI Research Considerations for Human Existential Safety (ARCHES) ( http://arxiv.org/abs/2006.04948v1 )

ライセンス: Link先を確認
Andrew Critch, David Krueger(参考訳) 肯定的な観点から見れば、この報告は、技術的AI研究が、人類が種として生き残るための長期的な展望に対してより注意を払っている方法で、どのように操られるかを考察する。 負の言葉で言えば、人類が今後1世紀にAI開発から直面する現実的なリスクは何か、そして現代の技術研究がこれらのリスクに対処するためにどのような原則が向けられるのかを問う。 仮説的AI技術のキーとなる性質である「emph{prepotence}」は、AIパラダイムがシフトするとしても、人工知能から潜在的に存在するさまざまなリスクを記述するのに有用である。 現代の研究の方向性の集合は、存在の安全性に対する潜在的な利益のために検討される。 各研究の方向性は、シナリオ駆動のモチベーションと、構築する既存の作業例で説明されます。 研究の方向性は、様々な影響の規模で起こりうる社会に独自のリスクと利益を提示し、特に、主要な開発が適切な予見や監視なしに展開される場合、生存安全性の恩恵は保証されない。 そのため、各方向は潜在的な負の副作用を考慮に入れられる。

Framed in positive terms, this report examines how technical AI research might be steered in a manner that is more attentive to humanity's long-term prospects for survival as a species. In negative terms, we ask what existential risks humanity might face from AI development in the next century, and by what principles contemporary technical research might be directed to address those risks. A key property of hypothetical AI technologies is introduced, called \emph{prepotence}, which is useful for delineating a variety of potential existential risks from artificial intelligence, even as AI paradigms might shift. A set of \auxref{dirtot} contemporary research \directions are then examined for their potential benefit to existential safety. Each research direction is explained with a scenario-driven motivation, and examples of existing work from which to build. The research directions present their own risks and benefits to society that could occur at various scales of impact, and in particular are not guaranteed to benefit existential safety if major developments in them are deployed without adequate forethought and oversight. As such, each direction is accompanied by a consideration of potentially negative side effects.
翻訳日:2022-11-26 17:41:20 公開日:2020-05-30
# 非侵入的負荷モニタリングのための双方向拡張残差ネットワークに基づく点学習

Sequence to Point Learning Based on Bidirectional Dilated Residual Network for Non Intrusive Load Monitoring ( http://arxiv.org/abs/2006.00250v1 )

ライセンス: Link先を確認
Ziyue Jia, Linfeng Yang, Zhenrong Zhang, Hui Liu, Fannie Kong(参考訳) 非侵入負荷モニタリング(NILM)またはエネルギー分散(ED)は、家全体の総合電力読取から対応する家電機器の電力読取を分解することで省エネルギーを図る。 単一チャネルブラインドソース分離問題(SCBSS)であり、識別できないため予測が難しい。 近年,深層学習がNILM問題で人気が高まっている。 ニューラルネットワークが負荷特徴を抽出する能力はその深さと密接に関連している。 しかし、深層ニューラルネットワークは勾配の爆発、勾配の消滅、ネットワーク劣化のために訓練が難しい。 これらの問題を解決するために,nilmの双方向(非領域)拡張畳み込みに基づくシーケンスト・ポイント学習フレームワークを提案する。 より説得力のあるものにするために、本手法と最先端のseq2point (zhang) を直接比較し、2つの同一のデータセットとメトリクスを用いて間接的に既存のアルゴリズムと比較する。 REDDおよびUK-DALEデータセットに基づく実験により,提案手法は全家電の既存手法よりもはるかに優れていることが示された。

Non Intrusive Load Monitoring (NILM) or Energy Disaggregation (ED), seeks to save energy by decomposing corresponding appliances power reading from an aggregate power reading of the whole house. It is a single channel blind source separation problem (SCBSS) and difficult prediction problem because it is unidentifiable. Recent research shows that deep learning has become a growing popularity for NILM problem. The ability of neural networks to extract load features is closely related to its depth. However, deep neural network is difficult to train because of exploding gradient, vanishing gradient and network degradation. To solve these problems, we propose a sequence to point learning framework based on bidirectional (non-casual) dilated convolution for NILM. To be more convincing, we compare our method with the state of art method, Seq2point (Zhang) directly and compare with existing algorithms indirectly via two same datasets and metrics. Experiments based on REDD and UK-DALE data sets show that our proposed approach is far superior to existing approaches in all appliances.
翻訳日:2022-11-26 17:41:00 公開日:2020-05-30
# MM-KTD:強化学習のための複数モデルカルマン時間差

MM-KTD: Multiple Model Kalman Temporal Differences for Reinforcement Learning ( http://arxiv.org/abs/2006.00195v1 )

ライセンス: Link先を確認
Parvin Malekzadeh, Mohammad Salimibeni, Arash Mohammadi, Akbar Assa, and Konstantinos N. Plataniotis(参考訳) 知的アプローチとしての高度強化学習(RL)システムの開発への関心が高まっており、スマートエージェントと環境との相互作用から直接最適な制御ポリシーを学習している。 目的: 連続状態空間を持つモデルフリーなRL法では、通常、状態の値関数を近似する必要がある。 この点において、Deep Neural Networks (DNN) はサンプル遷移を用いて値関数を近似する魅力的なモデリングメカニズムを提供する。 しかし、DNNベースのソリューションは、高い感度とパラメータ選択に悩まされ、過剰適合する傾向があり、あまりサンプル効率が良くない。 一方、カルマンに基づく方法論は効率的な代替手段として利用することができる。 しかし、このようなアプローチでは、通常、システムに関する情報(ノイズ統計など)を効率的に実行する必要がある。 本論文の主な目的は,この問題に対処することである。 方法: 上記の問題に対する対策として, 観測された状態と報酬を用いてフィルタのパラメータを適応する, 革新的なマルチモデルカルマン時間差分(MM-KTD)フレームワークを提案する。 さらに,システムのサンプリング効率を高めるために,能動的学習法を提案する。 より具体的には、評価された値関数の不確実性を利用して振る舞いポリシーを構築し、より少ない値の訪問につながるため、全体的な学習サンプル効率が向上する。 その結果,提案するmm-ktdフレームワークは,dnnベースに比べてサンプル数を大幅に削減した最適方針を学習することができる。 結果:提案するMM-KTDフレームワークの性能を評価するため,3つのRLベンチマークに基づく総合的な実験を行った。 実験の結果, MM-KTDフレームワークは最先端のフレームワークに比べて優れていた。

There has been an increasing surge of interest on development of advanced Reinforcement Learning (RL) systems as intelligent approaches to learn optimal control policies directly from smart agents' interactions with the environment. Objectives: In a model-free RL method with continuous state-space, typically, the value function of the states needs to be approximated. In this regard, Deep Neural Networks (DNNs) provide an attractive modeling mechanism to approximate the value function using sample transitions. DNN-based solutions, however, suffer from high sensitivity to parameter selection, are prone to overfitting, and are not very sample efficient. A Kalman-based methodology, on the other hand, could be used as an efficient alternative. Such an approach, however, commonly requires a-priori information about the system (such as noise statistics) to perform efficiently. The main objective of this paper is to address this issue. Methods: As a remedy to the aforementioned problems, this paper proposes an innovative Multiple Model Kalman Temporal Difference (MM-KTD) framework, which adapts the parameters of the filter using the observed states and rewards. Moreover, an active learning method is proposed to enhance the sampling efficiency of the system. More specifically, the estimated uncertainty of the value functions are exploited to form the behaviour policy leading to more visits to less certain values, therefore, improving the overall learning sample efficiency. As a result, the proposed MM-KTD framework can learn the optimal policy with significantly reduced number of samples as compared to its DNN-based counterparts. Results: To evaluate performance of the proposed MM-KTD framework, we have performed a comprehensive set of experiments based on three RL benchmarks. Experimental results show superiority of the MM-KTD framework in comparison to its state-of-the-art counterparts.
翻訳日:2022-11-26 17:34:20 公開日:2020-05-30
# エキスパートイテレーションにおける自己プレイ学習における経験分布の操作

Manipulating the Distributions of Experience used for Self-Play Learning in Expert Iteration ( http://arxiv.org/abs/2006.00283v1 )

ライセンス: Link先を確認
Dennis J. N. J. Soemers, \'Eric Piette, Matthew Stephenson, Cameron Browne(参考訳) ExIt(Expert Iteration)は、セルフプレイからゲームプレイングポリシーを学ぶための効果的なフレームワークである。 ExItは、モンテカルロ木探索のような木探索アルゴリズムの探索動作を模倣するポリシーを訓練し、訓練されたポリシーを使用してそれをガイドする。 ポリシーとツリーサーチは、ガイド付きツリーサーチアルゴリズムのインスタンス間で自己再生された経験を通じて、相互に反復的に改善することができる。 本稿では,自己再生から収集したデータ分布を操作するための3つのアプローチと,収集したデータから更新を学習するためのバッチをサンプリングする手順について概説する。 第一に、バッチ内のサンプルは、元々経験したエピソードの継続時間に基づいて重み付けされる。 第2に,ExItフレームワーク内での優先的体験再生を適用して,貴重なトレーニング信号を得ることを期待するサンプリング経験を優先する。 第三に、自己プレイで経験した軌道を多様化するために訓練された探索政策が用いられる。 本稿では,14種類のボードゲームにおいて,これらの操作がトレーニング性能に及ぼす影響を要約する。 いくつかのゲームでは、早期トレーニングのパフォーマンスが大幅に改善され、14ゲームで小さな改善が平均された。

Expert Iteration (ExIt) is an effective framework for learning game-playing policies from self-play. ExIt involves training a policy to mimic the search behaviour of a tree search algorithm - such as Monte-Carlo tree search - and using the trained policy to guide it. The policy and the tree search can then iteratively improve each other, through experience gathered in self-play between instances of the guided tree search algorithm. This paper outlines three different approaches for manipulating the distribution of data collected from self-play, and the procedure that samples batches for learning updates from the collected data. Firstly, samples in batches are weighted based on the durations of the episodes in which they were originally experienced. Secondly, Prioritized Experience Replay is applied within the ExIt framework, to prioritise sampling experience from which we expect to obtain valuable training signals. Thirdly, a trained exploratory policy is used to diversify the trajectories experienced in self-play. This paper summarises the effects of these manipulations on training performance evaluated in fourteen different board games. We find major improvements in early training performance in some games, and minor improvements averaged over fourteen games.
翻訳日:2022-11-26 17:33:55 公開日:2020-05-30
# 空間的・時間的概念の認識による複雑なシーケンス理解

Complex Sequential Understanding through the Awareness of Spatial and Temporal Concepts ( http://arxiv.org/abs/2006.00212v1 )

ライセンス: Link先を確認
Bo Pang, Kaiwen Zha, Hanwen Cao, Jiajun Tang, Minghui Yu, Cewu Lu(参考訳) シーケンシャル情報を理解することは人工知能の基本的な課題である。 現在のニューラルネットワークは、空間的および時間的情報を総合的に学習し、長距離シーケンス上の大規模空間表現を表現する能力を制限する。 本稿では,複雑な空間概念と時間概念を分離する深層ニューラルネットワークからなる半結合構造(scs)と呼ばれる新しいモデリング戦略を提案する。 半結合構造は、入力情報をそれぞれ独立した部分に暗黙的に分離し、これらの部分を処理することができる。 実験により、半結合構造は画像中のオブジェクトの輪郭を逐次的にアノテートし、ビデオアクション認識を行うことができることを示した。 シーケンス対シーケンス問題に対して、セミカップリング構造は、観測された画像に基づいて将来の気象レーダーエコー画像を予測することができる。 その結果, 半結合構造は, 大規模逐次タスクにおけるLSTMのようなモデルの性能を向上させる能力を有することを示した。

Understanding sequential information is a fundamental task for artificial intelligence. Current neural networks attempt to learn spatial and temporal information as a whole, limited their abilities to represent large scale spatial representations over long-range sequences. Here, we introduce a new modeling strategy called Semi-Coupled Structure (SCS), which consists of deep neural networks that decouple the complex spatial and temporal concepts learning. Semi-Coupled Structure can learn to implicitly separate input information into independent parts and process these parts respectively. Experiments demonstrate that a Semi-Coupled Structure can successfully annotate the outline of an object in images sequentially and perform video action recognition. For sequence-to-sequence problems, a Semi-Coupled Structure can predict future meteorological radar echo images based on observed images. Taken together, our results demonstrate that a Semi-Coupled Structure has the capacity to improve the performance of LSTM-like models on large scale sequential tasks.
翻訳日:2022-11-26 17:33:24 公開日:2020-05-30
# 可読性評価のための言語特徴

Linguistic Features for Readability Assessment ( http://arxiv.org/abs/2006.00377v1 )

ライセンス: Link先を確認
Tovly Deutsch, Masoud Jasbi, Stuart Shieber(参考訳) 可読性評価は、学習者に適したレベルで自動的にテキストを分類することを目的としている。 このタスクに対する従来のアプローチでは、シンプルな機械学習モデルと組み合わせた言語的動機づけのあるさまざまな機能を利用する。 近年の手法では,これらの特徴を捨て,深層学習モデルを活用することで性能が向上している。 しかし、言語的に動機づけられた特徴を持つディープラーニングモデルの拡張がパフォーマンスをさらに向上するかどうかは不明である。 本稿では,これら2つのアプローチと,モデル全体のパフォーマンス向上を目標とし,この問題に対処する。 2つの大きな可読性コーパスを評価することで、十分なトレーニングデータから、言語的に動機付けられた特徴を持つディープラーニングモデルを増強しても、最先端の性能は向上しないことがわかった。 本研究は,最先端のディープラーニングモデルが可読性に関連するテキストの言語的特徴を表すという仮説の予備的証拠を提供する。 これらのモデルで形成される表現の性質に関する将来の研究は、伝統的なアプローチで仮定された言語的動機づけのある表現に対する学習された特徴とそれらの関係に光を当てることができる。

Readability assessment aims to automatically classify text by the level appropriate for learning readers. Traditional approaches to this task utilize a variety of linguistically motivated features paired with simple machine learning models. More recent methods have improved performance by discarding these features and utilizing deep learning models. However, it is unknown whether augmenting deep learning models with linguistically motivated features would improve performance further. This paper combines these two approaches with the goal of improving overall model performance and addressing this question. Evaluating on two large readability corpora, we find that, given sufficient training data, augmenting deep learning models with linguistically motivated features does not improve state-of-the-art performance. Our results provide preliminary evidence for the hypothesis that the state-of-the-art deep learning models represent linguistic features of the text related to readability. Future research on the nature of representations formed in these models can shed light on the learned features and their relations to linguistically motivated ones hypothesized in traditional approaches.
翻訳日:2022-11-26 17:32:50 公開日:2020-05-30
# 文脈的重要性と実用性によるブラックボックスモデル予測の解説

Explanations of Black-Box Model Predictions by Contextual Importance and Utility ( http://arxiv.org/abs/2006.00199v1 )

ライセンス: Link先を確認
Sule Anjomshoae, Kary Fr\"amling and Amro Najjar(参考訳) 自律システムの大幅な進歩と、非常に広いアプリケーションドメインは、信頼できるインテリジェントシステムの必要性を高めた。 説明可能な人工知能はこの要件に対処するために研究者や開発者の間で注目を集めている。 解釈可能で透明な機械学習アルゴリズムに関する研究が増えているが、それらは主に技術ユーザを対象としている。 エンドユーザの説明は多くの実用的かつ実用的なアプリケーションでは無視されている。 本稿では,専門家や初心者が容易に理解できる説明文を抽出するために,文脈的重要性(ci)と文脈的有用性(cu)の概念を提案する。 本手法は,モデルを解釈可能なモデルに変換することなく予測結果を説明する。 本稿では,線形モデルと非線形モデルの一般化可能性を示す一例を示す。 CIとCUは、アクションを正当化し、個々のインスタンス、状況、コンテキストの推論を説明するために、視覚と自然言語形式でユーザに表現できる数値である。 カーセレクションの例とアイリスの花分類における説明の有用性を,完全(個人の予測の原因)と対照的な説明(興味のある事例と対照的な例)を提示することで示す。 実験の結果,提案手法の有効性と妥当性が示された。

The significant advances in autonomous systems together with an immensely wider application domain have increased the need for trustable intelligent systems. Explainable artificial intelligence is gaining considerable attention among researchers and developers to address this requirement. Although there is an increasing number of works on interpretable and transparent machine learning algorithms, they are mostly intended for the technical users. Explanations for the end-user have been neglected in many usable and practical applications. In this work, we present the Contextual Importance (CI) and Contextual Utility (CU) concepts to extract explanations that are easily understandable by experts as well as novice users. This method explains the prediction results without transforming the model into an interpretable one. We present an example of providing explanations for linear and non-linear models to demonstrate the generalizability of the method. CI and CU are numerical values that can be represented to the user in visuals and natural language form to justify actions and explain reasoning for individual instances, situations, and contexts. We show the utility of explanations in car selection example and Iris flower classification by presenting complete (i.e. the causes of an individual prediction) and contrastive explanation (i.e. contrasting instance against the instance of interest). The experimental results show the feasibility and validity of the provided explanation methods.
翻訳日:2022-11-26 17:32:37 公開日:2020-05-30
# Twin Multi-class Support Vector Machine の解パスアルゴリズム

Solution Path Algorithm for Twin Multi-class Support Vector Machine ( http://arxiv.org/abs/2006.00276v1 )

ライセンス: Link先を確認
Liuyuan Chen, Kanglei Zhou, Junchang Jing, Haiju Fan, Juntao Li(参考訳) ツインサポートベクトルマシンとその拡張はバイナリ分類問題に対処する上で大きな成果を上げているが、モデル選択や複数分類問題の早期解決といった困難に直面している。 本稿では,双対多クラスサポートベクトルマシンの高速正規化パラメータチューニングアルゴリズムについて述べる。 新しいサンプルデータセット分割法を採用し, 線形方程式とブロック行列理論を組み合わせることにより, ラグランジアン乗算器を正規化パラメータに対して一回りに線形であることが証明された。 開始イベントを探すために8種類のイベントが定義され、解経路アルゴリズムが設計され、計算コストが大幅に削減される。 さらに、初期化を完遂する点はわずかであり、正規化パラメータが無限大になる傾向があるため、ラグランジュ乗数は 1 であることが証明される。 uciデータセットに基づくシミュレーションの結果, グリッド探索法の計算コストを指数関数レベルから定数レベルに下げることで, 優れた分類性能が得られることがわかった。

The twin support vector machine and its extensions have made great achievements in dealing with binary classification problems, however, which is faced with some difficulties such as model selection and solving multi-classification problems quickly. This paper is devoted to the fast regularization parameter tuning algorithm for the twin multi-class support vector machine. A new sample dataset division method is adopted and the Lagrangian multipliers are proved to be piecewise linear with respect to the regularization parameters by combining the linear equations and block matrix theory. Eight kinds of events are defined to seek for the starting event and then the solution path algorithm is designed, which greatly reduces the computational cost. In addition, only few points are combined to complete the initialization and Lagrangian multipliers are proved to be 1 as the regularization parameter tends to infinity. Simulation results based on UCI datasets show that the proposed method can achieve good classification performance with reducing the computational cost of grid search method from exponential level to the constant level.
翻訳日:2022-11-26 17:31:55 公開日:2020-05-30