このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200306となっている論文です。

PDF登録状況(公開日: 20200306)

TitleAuthorsAbstract論文公表日・翻訳日
# COMPLEX-IT:社会調査のためのケースベースモデリングとシナリオシミュレーションプラットフォーム

COMPLEX-IT: A Case-Based Modeling and Scenario Simulation Platform for Social Inquiry ( http://arxiv.org/abs/2003.03099v1 )

ライセンス: Link先を確認
Corey Schimpf and Brian Castellani(参考訳) COMPLEX-ITは、複雑なデータ/システムに対する社会調査のためのケースベースの混合メソッドプラットフォームであり、計算社会科学(クラスタ分析、人工知能、データ可視化、データ予測、シナリオシミュレーション)のツールへの非専門家アクセスを増やすために設計された。 特に、complex-itは、研究中の複雑なデータ/システムについて学ぶことを重視しながら、社会調査を支援する。 a) メジャー及びマイナーなクラスタ/トレンダの識別及び予測 b) 複雑な因果関係を可視化すること (c) 潜在的な介入のシナリオをシミュレートする。 COMPLEX-ITはWebからアクセス可能か、ローカルで実行可能で、RとShinyのWebフレームワークで動く。

COMPLEX-IT is a case-based, mixed-methods platform for social inquiry into complex data/systems, designed to increase non-expert access to the tools of computational social science (i.e., cluster analysis, artificial intelligence, data visualization, data forecasting, and scenario simulation). In particular, COMPLEX-IT aids social inquiry though a heavy emphasis on learning about the complex data/system under study, which it does by (a) identifying and forecasting major and minor clusters/trends; (b) visualizing their complex causality; and (c) simulating scenarios for potential interventions. COMPLEX-IT is accessible through the web or can be run locally and is powered by R and the Shiny web framework.
翻訳日:2023-05-30 09:10:26 公開日:2020-03-06
# ホロノミック計算のための高退化フォトニック導波路構造

Highly-Degenerate Photonic Waveguide Structures for Holonomic Computation ( http://arxiv.org/abs/2003.03090v1 )

ライセンス: Link先を確認
Julien Pinske, Lucas Teuber, Stefan Scheel(参考訳) 我々は、その大きな退化固有空間上の非アベリア幾何位相を生成できるオールアウト光学装置について検討する。 この提案はM-podシステムの形態を持ち、フォトニック導波路構造を統合的に実装することができる。 光セットアップにより多くの光子を注入することで、固有空間の縮退が急速に拡大することを示す。 一般の場合のシステムのスペクトル特性を調べた結果,光子を2つ満たした光三脚の暗い部分空間上で任意の u(4) 変換が生成できることを示した。 さらに、系の明るい部分空間の縮退は、いかなる原子アナログにも欠落しており、普遍的な単一ビットの操作を生成することができる。 最後に,ホロノミック計算の複雑性問題に対処する。 特に, 導波路の空間モード構造から自然多成分構造を継承するフォトニック三脚において, 2量子および3量子状態がどのように実装できるかを示す。

We investigate an all-out optical setup allowing for generation of non-Abelian geometric phases on its large degenerate eigenspaces. The proposal has the form of an M -pod system and can be implemented in terms of integrated photonic waveguide structures. We show that by injecting a larger number of photons into the optical setup, the degeneracy of eigenspaces scales rapidly. After studying the spectral properties of our system for the general case, we show how arbitrary U(4) transformations can be generated on the dark subspace of an optical tripod filled with two photons. Moreover, a degeneracy in the bright subspaces of the system, absent in any atomic analogue, allows for the generation of universal single-qubit manipulations. Finally, we address the complexity issue of holonomic computation. Particularly, we show how two-qubit and three-qubit states can be implemented on a photonic tripod, where a natural multi-partite structure is inherited from the spatial mode structure of the waveguides.
翻訳日:2023-05-30 09:10:02 公開日:2020-03-06
# 量子断熱定理の再検討

Quantum Adiabatic Theorem Revisited ( http://arxiv.org/abs/2003.03063v1 )

ライセンス: Link先を確認
Runyao Duan(参考訳) 2004年、アンビニとレゲヴはある種の量子断熱定理を定式化し、特にコンピュータ科学者がアクセス可能な初等証明を提供した。 これらの結果は、全断熱進化を量子系に作用するユニタリ変換列に離散化することで達成される。 ここでは、改善された境界を持つ別の初等的かつ短い証明を提供することにより、この研究線を継続する。 我々の重要な発見は、ターゲットと実際の状態の差の簡潔な積分表現であり、近似誤差を正確に推定する。 この証明は、アンバニスとレゲヴによる作品の「継続的な」バージョンと見なすことができる。 アプリケーションとして、初期状態から任意の量子ビット状態を作成する方法を示す。

In 2004 Ambainis and Regev formulated a certain form of quantum adiabatic theorem and provided an elementary proof which is especially accessible to computer scientists. Their result is achieved by discretizing the total adiabatic evolution into a sequence of unitary transformations acting on the quantum system. Here we continue this line of study by providing another elementary and shorter proof with improved bounds. Our key finding is a succinct integral representation of the difference between the target and the actual states, which yields an accurate estimation of the approximation error. Our proof can be regarded as a "continuous" version of the work by Ambainis and Regev. As applications, we show how to adiabatically prepare an arbitrary qubit state from an initial state.
翻訳日:2023-05-30 09:09:15 公開日:2020-03-06
# 冗長アンシラエンコーディングとフラグ量子ビットを用いた超低オーバーヘッド耐故障魔法状準備

Very low overhead fault-tolerant magic state preparation using redundant ancilla encoding and flag qubits ( http://arxiv.org/abs/2003.03049v1 )

ライセンス: Link先を確認
Christopher Chamberland and Kyungjoo Noh(参考訳) 大規模量子アルゴリズムにおける普遍的フォールトトレラント量子計算のオーバーヘッドコストは非常に高い。 いくつかの代替スキームの試みにもかかわらず、マジックステート蒸留は、フォールトトレラントな方法で非クリフォードゲートをシミュレートする最も効率的なスキームの1つである。 しかし、マジック状態蒸留回路はフォールトトレラントではないため、すべてのクリフォード演算は、マジック状態の蒸留と同等の故障率を持つために、広範囲のコードで符号化されなければならない。 本研究では,冗長アンシラ符号化と呼ばれる新しい概念を導入する。 後者とフラグキュービットを組み合わせることで、回路はいくつかのコードの安定化器ジェネレータを計測できるだけでなく、グローバル演算子をフォールトトレラントに生成し、全員が近接する隣り合う相互作用を使ってマジック状態を作成することができる。 特に、このようなスキームを三角形のカラーコードファミリの平面アーキテクチャに適用する。 提案手法は,実験的な実装に適合するだけでなく,回路レベルのノイズモデルの下では,最も競争力のあるマジック状態蒸留方式に比べて,桁違いに少ない量子ビットと時空のオーバヘッドを用いて,物理誤差率を10〜4ドル付近で生成可能であることを示す。 さらに、回路の耐障害性を利用して、注入されるマジック状態に匹敵するノイズ率を持つ符号化クリフォードゲートを用いて、非常に低い論理故障率でマジック状態を生成することができる。 したがって、安定化器の操作は、非常に大きな距離コードで符号化される必要はない。 その結果,本手法は,現在開発中のハードウェアによるフォールトトレラントな普遍量子計算の実装に適していると考えている。

The overhead cost of performing universal fault-tolerant quantum computation for large scale quantum algorithms is very high. Despite several attempts at alternative schemes, magic state distillation remains one of the most efficient schemes for simulating non-Clifford gates in a fault-tolerant way. However, since magic state distillation circuits are not fault-tolerant, all Clifford operations must be encoded in a large distance code in order to have comparable failure rates with the magic states being distilled. In this work, we introduce a new concept which we call redundant ancilla encoding. The latter combined with flag qubits allows for circuits to both measure stabilizer generators of some code, while also being able to measure global operators to fault-tolerantly prepare magic states, all using nearest neighbor interactions. In particular, we apply such schemes to a planar architecture of the triangular color code family. In addition to our scheme being suitable for experimental implementations, we show that for physical error rates near $10^{-4}$ and under a full circuit-level noise model, our scheme can produce magic states using an order of magnitude fewer qubits and space-time overhead compared to the most competitive magic state distillation schemes. Further, we can take advantage of the fault-tolerance of our circuits to produce magic states with very low logical failure rates using encoded Clifford gates with noise rates comparable to the magic states being injected. Thus, stabilizer operations are not required to be encoded in a very large distance code. Consequently, we believe our scheme to be suitable for implementing fault-tolerant universal quantum computation with hardware currently under development.
翻訳日:2023-05-30 09:09:02 公開日:2020-03-06
# 臨界非エルミート皮膚効果

Critical non-Hermitian Skin Effect ( http://arxiv.org/abs/2003.03039v1 )

ライセンス: Link先を確認
Linhu Li, Ching Hua Lee, Sen Mu, and Jiangbin Gong(参考訳) この研究は、非エルミート格子系の固有エネルギーと固有状態が熱力学的極限の臨界点を不連続に跳躍する新しい臨界性クラスを明らかにする。 このような致命的な行動は「クリティカル・スキン・エフェクト」と呼ばれ、異種非エルミート皮膚局在長のサブシステムが結合されるたびに起こるが、弱い。 この臨界性が存在するため、熱力学的極限とゼロカップリング極限は交換できないため、有限サイズの系に適用すると、有名な一般化ブリルアンゾーン(gbz)アプローチに挑戦できる。 有限サイズ系における臨界皮膚効果の顕在化として,スペクトル,相関関数,絡み合いエントロピー,スケールフリー波動関数について,パワーローよりも指数関数的に減衰する異常なスケーリング挙動を有する刺激例を示す。 さらに驚くべきことに、トポロジカルなインギャップモードはシステムサイズを変えることでも引き起こせる。

This work uncovers a new class of criticality where eigenenergies and eigenstates of non-Hermitian lattice systems jump discontinuously across a critical point in the thermodynamic limit, unlike established Hermitian and non-Hermitian critical scenarios where spectrum remains continuous across a transition. Such critical behavior, dubbed the "critical skin effect", is rather generic, occuring whenever subsystems with dissimilar non-Hermitian skin localization lengths are coupled, however weakly. Due to the existence of this criticality, the thermodynamic limit and the zero-coupling limit cannot be exchanged, thus challenging the celebrated generalized Brillouin zone (GBZ) approach when applied to finite-size systems. As manifestations of the critical skin effect in finite-size systems, we present stimulating examples with anomalous scaling behavior regarding spectrum, correlation functions, entanglement entropy, and scale-free wavefunctions that decay exponentially rather than power-law. More spectacularly, topological in-gap modes can even be induced by changing the system size.
翻訳日:2023-05-30 09:08:29 公開日:2020-03-06
# 量子ウォークを用いた都市間高速道路交通における自然出口選択のモデル化

Modeling Spontaneous Exit Choices in Intercity Expressway Traffic with Quantum Walk ( http://arxiv.org/abs/2003.03032v1 )

ライセンス: Link先を確認
Zhaoyuan Yu, Xinxin Zhou, Xu Hu, Wen Luo, Linwang Yuan, and A-Xing Zhu(参考訳) 都市間高速道路交通において、運転者は、時間、場所、交通状況に応じて運転行動を調整する決定を下すことが多い。 ドライバーによる自発的な出口選択は観察が難しいため、都市間高速道路交通を十分にモデル化することが課題である。 本稿では,自発出口選択による確率的トラフィック変動と,量子ウォークと自己回帰移動平均モデル(ARMA)による残留規則性変動をモデル化したSQTM(Spontaneous Quantum Traffic Model)を開発した。 SQTMは、ドライバーの自発的な出口選択を、時間、位置、交通条件に応じて動的確率関数を持つ量子確率過程とみなす。 量子ウォークを適用して確率関数を更新する。これは運転者が自発的な出口選択の影響でトラフィックを離れるタイミングと場所をシミュレートする。 我々は,東中国の南京-昌州高速道路からの7つの出口からの時間交通データを用いて,本モデルを検証した。 7出口ではSQTMの判定係数は0.5から0.85の範囲であった。 従来のランダムウォークやARMAモデルと比較して、決定係数は21.28%から104.98%に増加し、相対平均二乗誤差は11.61%から32.92%に減少した。 我々は、SQTMは、観測不能な自発運転者の意思決定を考慮した交通力学のモデリングに新たな可能性をもたらすと結論付けた。

In intercity expressway traffic, a driver frequently makes decisions to adjust driving behavior according to time, location and traffic conditions, which further affects when and where the driver will leave away from the expressway traffic. Spontaneous exit choices by drivers are hard to observe and thus it is a challenge to model intercity expressway traffic sufficiently. In this paper, we developed a Spontaneous Quantum Traffic Model (SQTM), which models the stochastic traffic fluctuation caused by spontaneous exit choices and the residual regularity fluctuation with Quantum Walk and Autoregressive Moving Average model (ARMA), respectively. SQTM considers the spontaneous exit choice of a driver as a quantum stochastic process with a dynamical probability function varies according to time, location and traffic conditions. A quantum walk is applied to update the probability function, which simulates when and where a driver will leave the traffic affected by spontaneous exit choices. We validate our model with hourly traffic data from 7 exits from the Nanjing-Changzhou expressway in Eastern China. For the 7 exits, the coefficients of determination of SQTM ranged from 0.5 to 0.85. Compared with classical random walk and ARMA model, the coefficients of determination were increased by 21.28% to 104.98%, and relative mean square error decreased by 11.61% to 32.92%. We conclude that SQTM provides new potential for modeling traffic dynamics with consideration of unobservable spontaneous driver's decision-making.
翻訳日:2023-05-30 09:08:11 公開日:2020-03-06
# 相関量子チャネルにおける量子フィッシャー情報保護

Protecting quantum Fisher information in correlated quantum channels ( http://arxiv.org/abs/2003.03015v1 )

ライセンス: Link先を確認
Ming-Liang Hu, Hui-Fang Wang(参考訳) 量子フィッシャー情報(QFI)は量子力学のタスクに潜在的な応用がある。 量子チャネルが量子ビット列上で連続する動作が部分的古典的相関を持つ場合のqfiについて検討する。 その結果, 脱コヒーレンス効果はQFIに対して有害であるが, 古典的相関がQFIに与える影響はチャネル依存性であることがわかった。 ベル型プローブ状態では、分極チャネルと位相フリップチャネルの連続的な動作に関する古典的相関を利用してQFIを改善することができるが、ビットフリップとビット位相フリップチャネルの古典的相関はQFIをわずかに減少させる。 プローブ状態のより一般的なパラメータ化形式では、QFIを改善するための初期相関系を用いることの利点は、相関量子チャネルの広い状態に留まることができる。

Quantum Fisher information (QFI) has potential applications in quantum metrology tasks. We investigate QFI when the consecutive actions of a quantum channel on the sequence of qubits have partial classical correlations. Our results showed that while the decoherence effect is detrimental to QFI, effects of such classical correlations on QFI are channel-dependent. For the Bell-type probe states, the classical correlations on consecutive actions of the depolarizing and phase flip channels can be harnessed to improve QFI, while the classical correlations in the bit flip and bit-phase flip channels induce a slight decrease of QFI. For a more general parameterization form of the probe states, the advantage of using initial correlated system on improving QFI can also be remained in a wide regime of the correlated quantum channels.
翻訳日:2023-05-30 09:07:44 公開日:2020-03-06
# スピン鎖における量子相転移の記号としてのステアード量子コヒーレンス

Steered quantum coherence as a signature of quantum phase transitions in spin chains ( http://arxiv.org/abs/2003.02991v1 )

ライセンス: Link先を確認
Ming-Liang Hu, Yun-Yue Gao, Heng Fan(参考訳) 本稿では,量子位相遷移(QPT)のシグネチャとしてステアリング量子コヒーレンス(SQC)を提案する。 3スピン相互作用を持つ横フィールドイジングモデル, \textit{XY}モデル, および \textit{XX}モデルなど, スピンチェーンモデルを考えることにより, SQCとその一階導関数がQPTの異なる臨界点のシグナル伝達に成功することを示した。 特に、SQC法は鎖から選択された任意のスピン対に対して有効であり、SQCの強度は絡み合いや量子不協和とは対照的に、試験されたスピンの距離(非常に短い)に敏感であり、チェーン内の2つのスピンを慎重に選択する必要がなくなるため、実用上有用である。

We propose to use the steered quantum coherence (SQC) as a signature of quantum phase transitions (QPTs). By considering various spin chain models, including the transverse-field Ising model, \textit{XY} model, and \textit{XX} model with three-spin interaction, we showed that the SQC and its first-order derivative succeed in signaling different critical points of QPTs. In particular, the SQC method is effective for any spin pair chosen from the chain, and the strength of SQC, in contrast to entanglement and quantum discord, is insensitive to the distance (provided it is not very short) of the tested spins, which makes it convenient for practical use as there is no need for careful choice of two spins in the chain.
翻訳日:2023-05-30 09:07:11 公開日:2020-03-06
# ねじれ光モードによる原子多極遷移の一般化励起

Generalized excitation of atomic multipole transitions by twisted light modes ( http://arxiv.org/abs/2003.03360v1 )

ライセンス: Link先を確認
S. A.-L. Schulz, A. A. Peshkov, R. A. M\"uller, R. Lange, N. Huntemann, Chr. Tamm, E. Peik, and A. Surzhykov(参考訳) ツイスト光モードの中心に局在する単一原子の励起について理論的研究を行った。 ここでは,光の偏光,軌道角運動量投影,原子量化軸に対する伝播軸の配向など,臨界パラメータに対する励起速度の明示的な依存性を示す。 原子の空間的拡散の影響も詳細に検討されている。 本研究で得られた遷移速度の式は任意の電子配置の任意の原子に使用できる。 確定性については、$^{171}$Yb$^{+}$ ion における ^{2}S_{1/2} (F=0) \rightarrow\; ^{2}F_{7/2} (F=3, M=0)$ electric octupole (E3) の特定の場合に適用する。 光原子時計におけるツイスト光モードによる電子双極子-forbidden遷移の励起に関する将来の実験の解析と計画に,解析的および数値的結果が適している。

A theoretical study is performed for the excitation of a single atom localized in the center of twisted light modes. Here we present the explicit dependence of excitation rates on critical parameters, such as the polarization of light, its orbital angular momentum projection, and the orientation of its propagation axis with respect to the atomic quantization axis. The effect of a spatial spread of the atom is also considered in detail. The expressions for transition rates obtained in this work can be used for any atom of arbitrary electronic configuration. For definiteness we apply them to the specific case of $^{2}S_{1/2} (F=0) \rightarrow\; ^{2}F_{7/2} (F=3, M=0)$ electric octupole (E3) transition in $^{171}$Yb$^{+}$ ion. Our analytical and numerical results are suitable for the analysis and planning of future experiments on the excitation of electric-dipole-forbidden transitions by twisted light modes in optical atomic clocks.
翻訳日:2023-05-30 08:59:30 公開日:2020-03-06
# ボソニックパラメトリック駆動によるハイゼンベルク制限スピンスキー

Heisenberg-limited spin-squeezing via bosonic parametric driving ( http://arxiv.org/abs/2003.03345v1 )

ライセンス: Link先を確認
Peter Groszkowski, Hoi-Kwan Lau, C. Leroux, L. C. G. Govia, A. A. Clerk(参考訳) デチューンキャビティによって生じるスピンスピン-スピン相互作用は、非常に絡み合ったスピン圧縮状態を生成する標準的なメカニズムである。 ここでは、キャビティに弱い変形パラメトリック(2光子)ドライブを導入することが、誘導相互作用の形式を制御する強力な手段となることを示す。 駆動がなければ、誘導された相互作用はハイゼンベルク制限スピンスクイージングを生成することはできないが、弱い最適化された駆動は理想的な2軸ツイスト相互作用とハイゼンベルク制限スクイージングをもたらす。 パラメトリック駆動は散逸によって制限されたレジームでも有利であり、最適に絞られたディッキンのような状態を準備できる代替の断熱スキームを可能にする。 この方式は、スピンアンサンブルを超伝導量子回路やメカニカルモードに結合する固体システムなど、多くのプラットフォームと互換性がある。

Spin-spin interactions generated by a detuned cavity are a standard mechanism for generating highly entangled spin squeezed states. We show here how introducing a weak detuned parametric (two-photon) drive on the cavity provides a powerful means for controlling the form of the induced interactions. Without a drive, the induced interactions cannot generate Heisenberg-limited spin squeezing, but a weak optimized drive gives rise to an ideal two-axis twist interaction and Heisenberg-limited squeezing. Parametric driving is also advantageous in regimes limited by dissipation, and enables an alternate adiabatic scheme which can prepare optimally squeezed, Dicke-like states. Our scheme is compatible with a number of platforms, including solid-state systems where spin ensembles are coupled to superconducting quantum circuits or mechanical modes.
翻訳日:2023-05-30 08:59:12 公開日:2020-03-06
# youtubeによる共謀ビデオのプロモーションに関する縦断分析

A Longitudinal Analysis of YouTube's Promotion of Conspiracy Videos ( http://arxiv.org/abs/2003.03318v1 )

ライセンス: Link先を確認
Marc Faddoul, Guillaume Chaslot and Hany Farid(参考訳) ソーシャルメディア上では陰謀説が盛んになり、そのようなコンテンツが偽情報の拡散を加速させ、過激派イデオロギーを支持し、時には暴力につながるという懸念が高まっている。 議員や一般大衆からの監視と圧力が高まる中、YouTubeはレコメンデーションアルゴリズムを変更して、最も厳格な陰謀ビデオが削除され、悪用されるようにした。 この主張を検証するために、ビデオが陰謀的かどうかを自動的に判定する分類器を開発した(例えば、月面着陸が偽造されたり、ギザのピラミッドがエイリアンによって作られたり、世界の予言が終わるなど)。 我々はこの分類器と、千以上の人気情報チャンネルでyoutubeのwatch-nextアルゴリズムのエミュレーションを組み合わせることで、youtubeが積極的に宣伝しているビデオの1年間の写真を得た。 また,共謀理論に対するフィルタバブル効果の傾向についても考察した。

Conspiracy theories have flourished on social media, raising concerns that such content is fueling the spread of disinformation, supporting extremist ideologies, and in some cases, leading to violence. Under increased scrutiny and pressure from legislators and the public, YouTube announced efforts to change their recommendation algorithms so that the most egregious conspiracy videos are demoted and demonetized. To verify this claim, we have developed a classifier for automatically determining if a video is conspiratorial (e.g., the moon landing was faked, the pyramids of Giza were built by aliens, end of the world prophecies, etc.). We coupled this classifier with an emulation of YouTube's watch-next algorithm on more than a thousand popular informational channels to obtain a year-long picture of the videos actively promoted by YouTube. We also obtained trends of the so-called filter-bubble effect for conspiracy theories.
翻訳日:2023-05-30 08:57:59 公開日:2020-03-06
# サイト依存gテンソルを持つ二重量子ドットにおけるgテンソル共鳴

g-tensor resonance in double quantum dots with site-dependent g-tensors ( http://arxiv.org/abs/2003.03102v1 )

ライセンス: Link先を確認
Philipp Mutter, Guido Burkard(参考訳) pauli spin block (psb) は二重量子ドット (dqd) システムにおいてスピン読み出しのための重要なツールであり、インタードットトンネル (interdot tunnel) は$t$である。 本稿では、2つのドットがサイト依存のg-テンソルである $g_l$ と $g_r$ によって異なる磁場を左右のドットに対して経験し、スピン・フリップトンネルによるスピン軌道相互作用 (soi) と、ホスト核スピンとの電子スピンの超微細相互作用 (hfi) による漏洩電流よりもこの効果が顕著であることを示す。 特殊パラメータ法で得られた解析結果を用いて,磁気輸送曲線の特性から点の面外因子と面内g因子の両方に関する情報を推定できることを示した。 対称DQDの場合、特性外界磁場$B^* = t/ \mu_B \sqrt{g_z^L g_z^R}$におけるリーク電流の顕著な最大値を予測する。 さらに、強いSOIの効果を含むように結果を拡張し、このより一般的な場合、リーク電流はシステムのgテンソル成分とSOIに関する情報を伝達すると主張している。

Pauli spin blockade (PSB) has long been an important tool for spin read-out in double quantum dot (DQD) systems with interdot tunneling $t$. In this paper we show that the blockade is lifted if the two dots experience distinct effective magnetic fields caused by site-dependent g-tensors $g_L$ and $g_R$ for the left and right dot, and that this effect can be more pronounced than the leakage current due to the spin-orbit interaction (SOI) via spin-flip tunneling and the hyperfine interaction (HFI) of the electron spin with the host nuclear spins. Using analytical results obtained in special parameter regimes, we show that information about both the out-of-plane and in-plane g-factors of the dots can be inferred from characteristic features of the magneto-transport curve. For a symmetric DQD, we predict a pronounced maximum in the leakage current at the characteristic out-of-plane magnetic field $B^* = t/ \mu_B \sqrt{g_z^L g_z^R}$ which we term the g-tensor resonance of the system. Moreover, we extend the results to contain the effects of strong SOI and argue that in this more general case the leakage current carries information about the g-tensor components and SOI of the system.
翻訳日:2023-05-30 08:56:23 公開日:2020-03-06
# ケモタキシーとQuorum Sensingによるソーシャルネットワーキング支援デバイスインタラクション

Chemotaxis and Quorum Sensing inspired Device Interaction supporting Social Networking ( http://arxiv.org/abs/2003.07671v1 )

ライセンス: Link先を確認
Sasitharan Balasubramaniam, Dmitri Botvich, Tao Gu, William Donnelly(参考訳) 会議や社会イベントは、人々が様々な個人グループと正式な接触をし、発展する機会を提供する。 本稿では,カンファレンスや万博会場内の適切な場所のユーザに対して,類似した関心のある個人と出会い,対話するためのレコメンデーションを提供する,広汎なコンピューティング環境における効率的なインタラクションメカニズムを提案する。 提案手法は, ユーザの関心を推定するコンテキスト情報の評価と, ユーザを適切な場所に誘導するバイオインスパイアされた自己組織化機構に基づいて, 提案手法の有効性を実証した。

Conference and social events provides an opportunity for people to interact and develop formal contacts with various groups of individuals. In this paper, we propose an efficient interaction mechanism in a pervasive computing environment that provide recommendation to users of suitable locations within a conference or expo hall to meet and interact with individuals of similar interests. The proposed solution is based on evaluation of context information to deduce each user's interests as well as bioinspired self-organisation mechanism to direct users towards appropriate locations.Simulation results have also been provided to validate our proposed solution.
翻訳日:2023-05-30 08:50:29 公開日:2020-03-06
# カラザ・クライン理論における線形ポテンシャルを持つ宇宙弦時空の背景における一般化Klein-Gordon発振器

The generalized Klein-Gordon oscillator in the background of cosmic string space-time with a linear potential in the Kaluza-Klein theory ( http://arxiv.org/abs/2003.04148v1 )

ライセンス: Link先を確認
Faizuddin Ahmed(参考訳) 本研究では、Klein-Gordon 振動子をカラザ・クライン理論の曲面背景上の相互作用で研究する。 宇宙弦空間における一般化Klein-Gordon発振器を線形スカラーポテンシャルで解き、エネルギー固有値と対応する固有関数を得る。 エネルギースペクトルは、空間時間と収束ポテンシャルパラメータを特徴付ける大域的パラメータに依存することを示す。 また、Klein-Gordon発振器を、線型スカラーポテンシャルを持つカルザ・クライン理論の磁気的弦背景における一般化し、境界状態に対するアハロノフ・ボーム効果と類似効果を解析する。

In this work, we study the generalized Klein-Gordon oscillator with interactions on a curved background within the Kaluza-Klein theory. We solve the generalized Klein-Gordon oscillator in the cosmic string space-time with a linear scalar potential and obtain the energy eigenvalue and corresponding eigenfunction. We show that the energy spectrum depends on the global parameters characterizing the space-time and the confining potential parameter. We also solve the generalized Klein-Gordon oscillator in a magnetic cosmic string background in the Kaluza-Klein theory with a linear scalar potential and analyze the analogue effect to the Aharonov-Bohm effect for bound states.
翻訳日:2023-05-30 08:50:17 公開日:2020-03-06
# 材料科学応用のための短期量子加速器の命令セットアーキテクチャの強化

Enhancing a Near-Term Quantum Accelerator's Instruction Set Architecture for Materials Science Applications ( http://arxiv.org/abs/2003.03460v1 )

ライセンス: Link先を確認
Xiang Zou, Shavindra P. Premaratne, M. Adriaan Rol, Sonika Johri, Viacheslav Ostroukh, David J. Michalak, Roman Caudillo, James S. Clarke, Leonardo Dicarlo, A. Y. Matsuura(参考訳) 数十から数百個のノイズ量子ビットを持つ量子コンピュータが現在開発中である。 現実の応用に役立てるために、これらの短期システムは、将来のフォールトトレラントな大規模量子コンピュータの非エラー訂正バージョンを単純にスケールダウンすることはできないと信じている。 これらの短期システムは、その潜在能力を実現するために、特定のアーキテクチャと設計属性を必要とする。 アルゴリズムを効率的に実行するには、量子コプロセッサは量子ビット数に対してスケールし、量子ビットのデコヒーレンス境界内で有用な計算を最大化するように設計されている。 本研究では,アプリケーション・システム・キュービット協調設計手法を用いて,短期量子コプロセッサを設計する。 物質系の量子力学をシミュレーションする実世界の応用領域からのアルゴリズムを支援するために, 任意の1量子ビット回転命令と2量子エンタングリング制御Z命令を設計する。 命令を実装するために動的ゲートセットとページング機構を導入する。 これら2つの命令の機能と性能を評価するため,障害誘発金属絶縁体遷移を解析し,60個のランダムなインスタンスを実行するアルゴリズムの2量子バージョンを実装し,それぞれが障害構成を実現し,40個の2量子命令(ゲート)と104個の単一量子命令を含む。 このシステムの時間進化の期待量子力学を観察する。

Quantum computers with tens to hundreds of noisy qubits are being developed today. To be useful for real-world applications, we believe that these near-term systems cannot simply be scaled-down non-error-corrected versions of future fault-tolerant large-scale quantum computers. These near-term systems require specific architecture and design attributes to realize their full potential. To efficiently execute an algorithm, the quantum coprocessor must be designed to scale with respect to qubit number and to maximize useful computation within the qubits' decoherence bounds. In this work, we employ an application-system-qubit co-design methodology to architect a near-term quantum coprocessor. To support algorithms from the real-world application area of simulating the quantum dynamics of a material system, we design a (parameterized) arbitrary single-qubit rotation instruction and a two-qubit entangling controlled-Z instruction. We introduce dynamic gate set and paging mechanisms to implement the instructions. To evaluate the functionality and performance of these two instructions, we implement a two-qubit version of an algorithm to study a disorder-induced metal-insulator transition and run 60 random instances of it, each of which realizes one disorder configuration and contains 40 two-qubit instructions (or gates) and 104 single-qubit instructions. We observe the expected quantum dynamics of the time-evolution of this system.
翻訳日:2023-05-30 08:50:04 公開日:2020-03-06
# c*-代数状態空間上のバーズ幾何学

Bures Geometry on C*-algebraic State Spaces ( http://arxiv.org/abs/2003.03436v1 )

ライセンス: Link先を確認
Peter M. Alberti(参考訳) 単位 C*-代数の状態空間上のバーズ距離関数によって誘導される内部幾何学は、その部分において詳細に考慮される。 鍵となる結果として、状態引数がこの状態を通過する特定のパラメータ化された曲線に沿って変動する状態において局所的拡張関数が計算される。 パラメータ化された曲線は、問題のある状態の近傍におけるある単位 *-表現に対するベクトル状態として微分可能な局所的な実装を持つものである。 この曲線の圏に対応する与えられた状態におけるすべての接形式の空間は、特徴的な方法で状態に依存する二次ノルムを持つノルム線型空間として定義される。 局所拡張関数の構造を分析する際、線要素がフィンスラー型で測地凸部分集合であるような制限において、状態空間のそのような部分を記述することに特別に重点が置かれる。 得られたすべての結果は例で示され、得られた意味は有限次元の場合のuulmannらの研究で知られているものと比較される。

The inner geometry induced by the Bures distance function on the state space of a unital C*-algebra, or on parts of it, is considered in detail. As a key result the local dilation function is calculated at a state when the state argument is bound to vary along certain parameterized curves passing through this state. The parameterized curves considered are those possessing differentiable local implementations as vector states relative to some unital *-representation in the vicinity of the state in question. The space of all tangent forms at a given state correspondent to this category of curves is specified as normed linear space with a quadratic norm which is depending from the state in a characteristic manner. In analyzing the structure of the local dilation function special emphasis is laid on describing such parts of the state space, in restriction to which the line element would be of Finslerian type, and which were geodesically convex subsets. All results obtained are illustrated by examples, and the implications obtained are compared to those known from the investigations of Uhlmann et al in the finite dimensional case.
翻訳日:2023-05-30 08:49:35 公開日:2020-03-06
# ダイヤモンド窒素空孔中心の単一量子スピン遷移の音響駆動

Acoustically driving the single quantum spin transition of diamond nitrogen-vacancy centers ( http://arxiv.org/abs/2003.03418v1 )

ライセンス: Link先を確認
H. Y. Chen, S. A. Bhave, and G. D. Fuchs(参考訳) 高品質の3GHzバルク音波共振器を用いて,ダイヤモンドNV中心に対する音響駆動単一量子スピン遷移(\left|m_{s}=0\right>\leftrightarrow\left|\pm1\right>$)を実証し,対応する応力感受性を特徴付ける。 キーとなる課題は、デバイス内の意図的な応力駆動からデバイス電流によって生じる意図しない磁場を巻き戻すことである。 ラビ分光法を用いてこれらの運動場を独立に定量化し、より複雑な場合において、どちらも単一の量子スピン遷移と共鳴する。 装置の電流と力学的ダイナミクスを記述する等価回路モデルを構築することで、実験を定量的にモデル化し、相対的な貢献を確立し、結果と比較する。 NV中心スピン単一量子遷移の応力感受性は、二重量子遷移(\left|+1\right>\leftrightarrow\left|-1\right>$)の約$\sqrt{2}(0.5\pm0.2)$倍である。 ダブル量子ベースでの音響駆動は量子エンハンスセンシング応用に有用であるが、ダブル量子駆動は、$\left|m_{s}=0\right>$初期化状態からnv中心スピンを操作する能力に欠ける。 以上の結果から,NV中心における高能率全音響量子制御が可能であり,特に音響機器のコンパクトなフットプリントと位置選択性から恩恵を受けることができる。

Using a high quality factor 3 GHz bulk acoustic wave resonator device, we demonstrate the acoustically driven single quantum spin transition ($\left|m_{s}=0\right>\leftrightarrow\left|\pm1\right>$) for diamond NV centers and characterize the corresponding stress susceptibility. A key challenge is to disentangle the unintentional magnetic driving field generated by device current from the intentional stress driving within the device. We quantify these driving fields independently using Rabi spectroscopy before studying the more complicated case in which both are resonant with the single quantum spin transition. By building an equivalent circuit model to describe the device's current and mechanical dynamics, we quantitatively model the experiment to establish their relative contributions and compare with our results. We find that the stress susceptibility of the NV center spin single quantum transition is around $\sqrt{2}(0.5\pm0.2)$ times that for double quantum transition ($\left|+1\right>\leftrightarrow\left|-1\right>$). Although acoustic driving in the double quantum basis is valuable for quantum-enhanced sensing applications, double quantum driving lacks the ability to manipulate NV center spins out of the $\left|m_{s}=0\right>$ initialization state. Our results demonstrate that efficient all-acoustic quantum control over NV centers is possible, and is especially promising for sensing applications that benefit from the compact footprint and location selectivity of acoustic devices.
翻訳日:2023-05-30 08:49:18 公開日:2020-03-06
# 三重量子ドットにおける交換と超交換の相互作用

Interplay of exchange and superexchange in triple quantum dots ( http://arxiv.org/abs/2003.03416v1 )

ライセンス: Link先を確認
Kuangyin Deng, Edwin Barnes(参考訳) 半導体量子ドットに関する最近の実験では、大きな量子ドットを用いて超交換相互作用を媒介し、遠方スピン間の絡み合いを生成する能力が実証されている。 これにより、より大きな量子ドットのネットワークにおいて、リモートスピンのペアを選択的に結合するメカニズムが開ける。 この機会を利用するには、これらのシステムにおけるスーパー交換インタラクションの制御方法を深く理解する必要がある。 本稿では,線形および三角ジオメトリに配置された三重ドット系を考える。 中間点の位置, 変形, 電子数の変化として, 超交換および近接交換相互作用の相互作用を解析するために, 構成相互作用計算を用いる。 ドットが線形な構成に近づくにつれて、超交換プロセスはネットスピン交換の範囲を強く強化し、増大させることを示す。 さらに, 交換相互作用の強度は, メディエータ内の電子数に敏感に依存することを示した。 この結果は、より大きな2次元量子ドットアレイへのスケールアップに向けたさらなる実験的な取り組みを支援するためのガイドとして利用することができる。

Recent experiments on semiconductor quantum dots have demonstrated the ability to utilize a large quantum dot to mediate superexchange interactions and generate entanglement between distant spins. This opens up a possible mechanism for selectively coupling pairs of remote spins in a larger network of quantum dots. Taking advantage of this opportunity requires a deeper understanding of how to control superexchange interactions in these systems. Here, we consider a triple-dot system arranged in linear and triangular geometries. We use configuration interaction calculations to investigate the interplay of superexchange and nearest-neighbor exchange interactions as the location, detuning, and electron number of the mediating dot are varied. We show that superexchange processes strongly enhance and increase the range of the net spin-spin exchange as the dots approach a linear configuration. Furthermore, we show that the strength of the exchange interaction depends sensitively on the number of electrons in the mediator. Our results can be used as a guide to assist further experimental efforts towards scaling up to larger, two-dimensional quantum dot arrays.
翻訳日:2023-05-30 08:48:51 公開日:2020-03-06
# ベルの定理を再構成する:真に局所的な量子論の探索

Reformulating Bell's Theorem: The Search for a Truly Local Quantum Theory ( http://arxiv.org/abs/2003.03395v1 )

ライセンス: Link先を確認
Mordecai Waegell and Kelvin J. McQueen(参考訳) 量子論の明らかな非局所性は永続的な関心事である。 アインシュタインなど。 al. (1935) と bell (1964) は、絡み合いの相関から生じる明らかな非局所性を強調した。 一部の解釈はこの非局所性を受け入れるが、エヴァレットに触発された多くの世界の現代的な解釈はそれを回避しようとする。 本稿ではベルの「ノーゴー」定理を概観し、3つの公理、局所因果関係、超決定論、一つの世界について説明する。 ベルはしばしば、局所因果関係が実験的に共役な絡み合いの相関によって排除されることを示したが、これらの相関によって排除される3つの公理の結合であることは明らかである。 次に、局所因果性と超決定論を仮定することで、多くの世界の直接的な証明を与えることができることを示す。 論文の残りは、多くの世界の一貫した局所的な定式化を探索する。 波動関数によってオントロジーが与えられる著明な定式化は局所因果性に反し,文献の主張を逆に批判的に評価する。 最終的に、波動関数を分離可能なローレンツ不変波動場に置き換える局所多世界解釈を同定する。 我々は、ボルン規則や他の量子力学の解釈について議論した。

The apparent nonlocality of quantum theory has been a persistent concern. Einstein et. al. (1935) and Bell (1964) emphasized the apparent nonlocality arising from entanglement correlations. While some interpretations embrace this nonlocality, modern variations of the Everett-inspired many worlds interpretation try to circumvent it. In this paper, we review Bell's "no-go" theorem and explain how it rests on three axioms, local causality, no superdeterminism, and one world. Although Bell is often taken to have shown that local causality is ruled out by the experimentally confirrmed entanglement correlations, we make clear that it is the conjunction of the three axioms that is ruled out by these correlations. We then show that by assuming local causality and no superdeterminism, we can give a direct proof of many worlds. The remainder of the paper searches for a consistent, local, formulation of many worlds. We show that prominent formulations whose ontology is given by the wave function violate local causality, and we critically evaluate claims in the literature to the contrary. We ultimately identify a local many worlds interpretation that replaces the wave function with a separable Lorentz-invariant wave-field. We conclude with discussions of the Born rule, and other interpretations of quantum mechanics.
翻訳日:2023-05-30 08:47:49 公開日:2020-03-06
# 2量子状態の内在的コヒーレンス度と2粒子量子相関の測度

Intrinsic degree of coherence of two-qubit states and measures of two-particle quantum correlations ( http://arxiv.org/abs/2003.03372v1 )

ライセンス: Link先を確認
Nilakantha Meher, Abu Saleh Musa Patoary, Girish Kulkarni, Anand K. Jha(参考訳) 近年、古典的および単粒子量子状態 [josa b {\bf 36}, 2765 (2019)] に対して、コヒーレンスの固有次数として知られるコヒーレンスの基底不変測度が確立されている。 本稿では、同じ数学的構成を用いて、2量子ビット状態の固有コヒーレンス度を定義し、2粒子量子相関と絡み合いの定量化にその有用性を示す。 この文脈において、第一に、2量子状態の内在的なコヒーレンス度は、状態によって達成できるベルの不等式に上限を与え、その内在的なコヒーレンス度が1/\sqrt{3}$に満たない2量子状態がベルの不等式に違反できないことを示す。 次に、あるタスクに対して2量子状態で利用可能な量子相関の量を定量化する2量子状態の量子不一致が、状態の本質的なコヒーレンス度によって上から有界であることを示す。 次に、2つの粒子の絡み合いの文脈において、2つの量子ビット状態の共起が得る値の範囲は、2つの量子ビット状態と個々の量子ビットの状態との本質的なコヒーレンス度によって決定されることを示す。 最後に,ポンプ光子のパラメトリックダウン変換によって生じる偏光2量子ビット状態に対して,2量子状態の固有コヒーレンス度を測定するための実験手法を提案する。 また, ポンプ光子の内在的コヒーレンス度が生成した2量子状態の内在的コヒーレンス度を最大化することを示す理論的検討を行った。

Recently, a basis-invariant measure of coherence known as the intrinsic degree of coherence has been established for classical and single-particle quantum states [JOSA B {\bf 36}, 2765 (2019)]. Using the same mathematical construction, in this article, we define the intrinsic degree of coherence of two-qubit states and demonstrate its usefulness in quantifying two-particle quantum correlations and entanglement. In this context, first of all, we show that the intrinsic degree of coherence of a two-qubit state puts an upper bound on the violations of Bell inequalities that can be achieved with the state and that a two-qubit state with intrinsic degree of coherence less than $1/\sqrt{3}$ cannot violate Bell inequalities. We then show that the quantum discord of a two-qubit state, which quantifies the amount of quantum correlations available in the two-qubit state for certain tasks, is bounded from above by the intrinsic degree of coherence of the state. Next, in the context of two-particle entanglement, we show that the range of values that the concurrence of a two-qubit state can take is decided by the intrinsic degree of coherence of the two-qubit state together with that of the individual qubits. Finally, for the polarization two-qubit states generated by parametric down-conversion of a pump photon, we propose an experimental scheme for measuring the intrinsic degree of coherence of two-qubit states. We also present our theoretical study showing how the intrinsic degree of coherence of a pump photon dictates the maximum intrinsic degree of coherence of the generated two-qubit state.
翻訳日:2023-05-30 08:47:29 公開日:2020-03-06
# \AE THEL:オランダ語の自動抽出型導出

\AE THEL: Automatically Extracted Typelogical Derivations for Dutch ( http://arxiv.org/abs/1912.12635v2 )

ライセンス: Link先を確認
Konstantinos Kogkalidis and Michael Moortgat and Richard Moot(参考訳) オランダ語で書かれた意味的合成性データセットである {\ae}thel を提案する。 {\AE}THELは2つの部分からなる。 まず、コンテキストで約900万ワードのスーパータグのレキシコンを含む。 スーパータグは、単純な型付けされた線形ラムダ計算の型に対応し、関数型構造に補足する文法的役割をキャプチャする依存性装飾が強化された。 これらのタイプに基づいて、 {\ae}thel は、さらに 72 192 の検証された導出を提供し、自然推論とシークエント型証明、線形論理証明ネット、関連するプログラム(ラムダ項)の4つの形式で表される。 オランダの金標準コーパスであるLASSY Smallの構文解析に応用した抽出アルゴリズムを用いて, {\AE}THELの型と導出値を求める。 抽出アルゴリズムについて議論し,非有界依存および協調現象のLASSYアノテーションの'仮想要素'が高次型をもたらすことを示す。 構文意味論インタフェースで型駆動アプローチの利点を強調するユースケースをいくつか提案する。 単語と型間の語彙マッピング、セマンティクス解析7924からなるデータセットのサブセット、抽出アルゴリズムを実装するpythonコードである。

We present {\AE}THEL, a semantic compositionality dataset for written Dutch. {\AE}THEL consists of two parts. First, it contains a lexicon of supertags for about 900 000 words in context. The supertags correspond to types of the simply typed linear lambda-calculus, enhanced with dependency decorations that capture grammatical roles supplementary to function-argument structures. On the basis of these types, {\AE}THEL further provides 72 192 validated derivations, presented in four formats: natural-deduction and sequent-style proofs, linear logic proofnets and the associated programs (lambda terms) for meaning composition. {\AE}THEL's types and derivations are obtained by means of an extraction algorithm applied to the syntactic analyses of LASSY Small, the gold standard corpus of written Dutch. We discuss the extraction algorithm and show how `virtual elements' in the original LASSY annotation of unbounded dependencies and coordination phenomena give rise to higher-order types. We suggest some example usecases highlighting the benefits of a type-driven approach at the syntax semantics interface. The following resources are open-sourced with {\AE}THEL: the lexical mappings between words and types, a subset of the dataset consisting of 7 924 semantic parses, and the Python code that implements the extraction algorithm.
翻訳日:2023-01-17 07:46:22 公開日:2020-03-06
# ナノ多孔質材料のゲスト吸着予測を支援するトポロジカルディスクリプタ

Topological Descriptors Help Predict Guest Adsorption in Nanoporous Materials ( http://arxiv.org/abs/2001.05972v3 )

ライセンス: Link先を確認
Aditi S. Krishnapriyan, Maciej Haranczyk, Dmitriy Morozov(参考訳) 機械学習は、材料特性を予測する実験やシミュレーションの魅力的な代替品として登場した。 それぞれの学習ターゲットは、専門家が特定のタスクにとって重要であると認識する機能の慎重に選択する必要があります。 このアプローチの大きな欠点は、今のところいくつかの構造的特徴の計算しか実装されておらず、特定のアプリケーションにとってどの機能が重要なのかを事前に知ることは困難である。 後者の問題は、ナノポーラス材料におけるゲストの取り込み予測者に対して実証的に観察され、局所的および大域的ポーロシティの特徴がそれぞれ低圧および高圧力下で支配的記述子となる。 トポロジカルデータ解析ツールを用いた材料の特徴表現について検討する。 具体的には、持続的ホモロジーを用いて様々なスケールのナノ多孔質材料の幾何学を記述する。 トポロジカルディスクリプタを従来の構造特徴と組み合わせて,予測タスクに対するそれぞれの相対的重要性について検討する。 1-200バールの範囲の圧力に対して,ゼオライト中のメタンの吸着を予測して,この特徴表現の応用を実証する。 以上の結果から, トポロジカルな特徴が構造的特徴と相補的な情報を捉えていることが示唆された。これは低圧での吸着には特に重要であり, 従来の特徴には特に難しい課題である。 さらに, 吸着モデルにおける個々のトポロジ的特徴の重要さを調べた結果, 異なる圧力下での吸着に最も相関する細孔の位置を特定でき, 構造・物性関係の原子レベルでの理解に寄与することがわかった。

Machine learning has emerged as an attractive alternative to experiments and simulations for predicting material properties. Usually, such an approach relies on specific domain knowledge for feature design: each learning target requires careful selection of features that an expert recognizes as important for the specific task. The major drawback of this approach is that computation of only a few structural features has been implemented so far, and it is difficult to tell a priori which features are important for a particular application. The latter problem has been empirically observed for predictors of guest uptake in nanoporous materials: local and global porosity features become dominant descriptors at low and high pressures, respectively. We investigate a feature representation of materials using tools from topological data analysis. Specifically, we use persistent homology to describe the geometry of nanoporous materials at various scales. We combine our topological descriptor with traditional structural features and investigate the relative importance of each to the prediction tasks. We demonstrate an application of this feature representation by predicting methane adsorption in zeolites, for pressures in the range of 1-200 bar. Our results not only show a considerable improvement compared to the baseline, but they also highlight that topological features capture information complementary to the structural features: this is especially important for the adsorption at low pressure, a task particularly difficult for the traditional features. Furthermore, by investigation of the importance of individual topological features in the adsorption model, we are able to pinpoint the location of the pores that correlate best to adsorption at different pressure, contributing to our atom-level understanding of structure-property relationships.
翻訳日:2023-01-11 01:05:16 公開日:2020-03-06
# ターゲットガイド型オープンドメイン会話のための動的知識ルーティングネットワーク

Dynamic Knowledge Routing Network For Target-Guided Open-Domain Conversation ( http://arxiv.org/abs/2002.01196v2 )

ライセンス: Link先を確認
Jinghui Qin, Zheng Ye, Jianheng Tang, Xiaodan Liang(参考訳) ターゲットガイドによるオープンドメイン会話は、対話エージェントや人間を積極的に自然に誘導し、オープンな会話中に特定の目標、トピック、キーワードを達成することを目的としている。 既存の手法は主に、候補トピック/キーワード間の意味的・事実的知識関係を考慮せずに、シングルターンデータ駆動学習と単純な目標指示戦略に依存する。 その結果、移行のスムーズさが低下し、成功率が低下する。 本研究では,粗いキーワードを導入してシステム応答の意図した内容を制御する構造的アプローチを採用し,ターンレベルの教師付き学習と候補キーワード間の知識関係を通じてスムーズな会話遷移を実現し,談話レベルの指導戦略で特定のターゲットに向かって会話を行う。 具体的には,次の話題を正確に予測するための候補キーワード間の意味的知識関係を考慮した動的知識ルーティングネットワーク(DKRN)を提案する。 より正確なキーワード予測の助けを借りて、キーワード提示応答検索モジュールは、検索性能とより有意義な会話を実現することができる。 さらに,対話を誘導し,高い成功率でスムーズに目標を達成するための,対話レベルの目標誘導戦略を提案する。 さらに,ターゲットガイド付きオープンドメイン会話の研究境界を現実のシナリオに合致させるため,sina weiboからクロールされた,中国のターゲットガイド型オープンドメイン会話データセット(900万以上の会話)を新たに導入する。 定量的および人的評価から,本手法は有意義で効果的な目標誘導型会話を生成でき,成功率20%以上,平均滑らか度スコア0.6以上で,他の最先端手法よりも有意に改善されている。

Target-guided open-domain conversation aims to proactively and naturally guide a dialogue agent or human to achieve specific goals, topics or keywords during open-ended conversations. Existing methods mainly rely on single-turn datadriven learning and simple target-guided strategy without considering semantic or factual knowledge relations among candidate topics/keywords. This results in poor transition smoothness and low success rate. In this work, we adopt a structured approach that controls the intended content of system responses by introducing coarse-grained keywords, attains smooth conversation transition through turn-level supervised learning and knowledge relations between candidate keywords, and drives an conversation towards an specified target with discourse-level guiding strategy. Specially, we propose a novel dynamic knowledge routing network (DKRN) which considers semantic knowledge relations among candidate keywords for accurate next topic prediction of next discourse. With the help of more accurate keyword prediction, our keyword-augmented response retrieval module can achieve better retrieval performance and more meaningful conversations. Besides, we also propose a novel dual discourse-level target-guided strategy to guide conversations to reach their goals smoothly with higher success rate. Furthermore, to push the research boundary of target-guided open-domain conversation to match real-world scenarios better, we introduce a new large-scale Chinese target-guided open-domain conversation dataset (more than 900K conversations) crawled from Sina Weibo. Quantitative and human evaluations show our method can produce meaningful and effective target-guided conversations, significantly improving over other state-of-the-art methods by more than 20% in success rate and more than 0.6 in average smoothness score.
翻訳日:2023-01-04 03:09:57 公開日:2020-03-06
# 深層オートエンコーダによる現場下水系モニタリングデータの異常検出

Anomaly Detection using Deep Autoencoders for in-situ Wastewater Systems Monitoring Data ( http://arxiv.org/abs/2002.03843v3 )

ライセンス: Link先を確認
Stefania Russo, Andy Disch, Frank Blumensaat, Kris Villez(参考訳) 排水系におけるその場センサからのデータ量の増加に伴い,異常行動の自動検出と高データ品質の確保が求められている。 本稿では, 現場下水系監視データのための深層オートエンコーダに基づく異常検出手法を提案する。 オートエンコーダアーキテクチャは、1次元畳み込みニューラルネットワーク(CNN)レイヤに基づいており、データの時間軸を越えて入力上で畳み込みが行われる。 そして、復号段の再構成誤差に基づいて異常検出を行う。 このアプローチは下水道プロセス監視データから多変量時系列で検証される。 複雑な時系列における異常のラベル付けの結果と課題について論じる。 我々は,提案手法がドメインの専門家の異常同定を支援することを提案する。

Due to the growing amount of data from in-situ sensors in wastewater systems, it becomes necessary to automatically identify abnormal behaviours and ensure high data quality. This paper proposes an anomaly detection method based on a deep autoencoder for in-situ wastewater systems monitoring data. The autoencoder architecture is based on 1D Convolutional Neural Network (CNN) layers where the convolutions are performed over the inputs across the temporal axis of the data. Anomaly detection is then performed based on the reconstruction error of the decoding stage. The approach is validated on multivariate time series from in-sewer process monitoring data. We discuss the results and the challenge of labelling anomalies in complex time series. We suggest that our proposed approach can support the domain experts in the identification of anomalies.
翻訳日:2023-01-03 04:35:53 公開日:2020-03-06
# 両世界のベスト: cnnとそのハードウェアアクセラレータのautomlコード署名

Best of Both Worlds: AutoML Codesign of a CNN and its Hardware Accelerator ( http://arxiv.org/abs/2002.05022v2 )

ライセンス: Link先を確認
Mohamed S. Abdelfattah, {\L}ukasz Dudziak, Thomas Chau, Royson Lee, Hyeji Kim, Nicholas D. Lane(参考訳) ニューラルアーキテクチャサーチ(NAS)は,人間の設計した畳み込みニューラルネットワーク(CNN)の精度,ハードウェア情報が存在する場合のレイテンシを向上することに成功した。 しかしながら、NASが設計したCNNは一般に複雑なトポロジを持つため、そのようなCNN用にカスタムハードウェア(HW)アクセラレータを設計することは困難である。 我々は、CNNモデルとHWアクセラレータの両方のパラメータを含むNASを用いてHW-CNN符号を自動生成し、精度と効率を高める最高のモデル・アクセラレータペアを共同で探索する。 これを Codesign-NAS と呼ぶ。 本稿では,Codesign-NAS多目的最適化問題の定義,その有効性を示すこと,およびCodesignの検索空間をナビゲートする方法の探索に焦点をあてる。 CIFAR-10画像分類では、40億近いモデル加速器ペアを列挙し、その大きな探索空間内でパレートフロンティアを見つける。 これにより、3つの異なる強化学習に基づく検索戦略を評価することができる。 最後に、hw設計領域から最も最適なhwアクセラレータのresnetと比較し、cifar-100の分類精度を1.3%向上するとともに、codesign-nasを実行する1000gpu時間あたりのパフォーマンス/面積を41%向上させた。

Neural architecture search (NAS) has been very successful at outperforming human-designed convolutional neural networks (CNN) in accuracy, and when hardware information is present, latency as well. However, NAS-designed CNNs typically have a complicated topology, therefore, it may be difficult to design a custom hardware (HW) accelerator for such CNNs. We automate HW-CNN codesign using NAS by including parameters from both the CNN model and the HW accelerator, and we jointly search for the best model-accelerator pair that boosts accuracy and efficiency. We call this Codesign-NAS. In this paper we focus on defining the Codesign-NAS multiobjective optimization problem, demonstrating its effectiveness, and exploring different ways of navigating the codesign search space. For CIFAR-10 image classification, we enumerate close to 4 billion model-accelerator pairs, and find the Pareto frontier within that large search space. This allows us to evaluate three different reinforcement-learning-based search strategies. Finally, compared to ResNet on its most optimal HW accelerator from within our HW design space, we improve on CIFAR-100 classification accuracy by 1.3% while simultaneously increasing performance/area by 41% in just~1000 GPU-hours of running Codesign-NAS.
翻訳日:2023-01-02 02:48:53 公開日:2020-03-06
# クラウドベースのインテリジェントトラフィック信号制御におけるネットワーク遅延の影響のAIによる軽減

Using AI for Mitigating the Impact of Network Delay in Cloud-based Intelligent Traffic Signal Control ( http://arxiv.org/abs/2002.08303v2 )

ライセンス: Link先を確認
Rusheng Zhang, Xinze Zhou, Ozan K. Tonguz(参考訳) クラウドサービス、IoT(Internet of Things)、セルラーネットワークの最近の進歩により、クラウドコンピューティングはインテリジェントなトラフィック信号制御(ITSC)の魅力的な選択肢となった。 このような方法は、ケーブルのコスト、設置、使用する機器の数、メンテナンスを大幅に削減する。 クラウドコンピューティングに基づくITSシステムは、ITSCシステムのコストを低減し、既存の強力なクラウドプラットフォームを利用することでシステムをスケール可能にする。 このようなシステムには大きな可能性があるが、対処すべき重要な問題の1つはネットワーク遅延である。 メッセージ伝達のネットワーク遅延は防ぐのが難しく、それによってシステムの性能が低下したり、交差点での車両の安全性の問題が発生する可能性があることが知られている。 本稿では,強化学習に基づく新しいトラヒック信号制御アルゴリズムを提案する。 本稿では,ネットワーク遅延が重要となるリモート・コンピューティング・リソースを用いたエージェント・ベース・システムに有用なフレームワークを提案する。 異なるシナリオで得られた広範囲なシミュレーション結果は、ネットワーク遅延に対処する設計アルゴリズムの生存可能性を示している。

The recent advancements in cloud services, Internet of Things (IoT) and Cellular networks have made cloud computing an attractive option for intelligent traffic signal control (ITSC). Such a method significantly reduces the cost of cables, installation, number of devices used, and maintenance. ITSC systems based on cloud computing lower the cost of the ITSC systems and make it possible to scale the system by utilizing the existing powerful cloud platforms. While such systems have significant potential, one of the critical problems that should be addressed is the network delay. It is well known that network delay in message propagation is hard to prevent, which could potentially degrade the performance of the system or even create safety issues for vehicles at intersections. In this paper, we introduce a new traffic signal control algorithm based on reinforcement learning, which performs well even under severe network delay. The framework introduced in this paper can be helpful for all agent-based systems using remote computing resources where network delay could be a critical concern. Extensive simulation results obtained for different scenarios show the viability of the designed algorithm to cope with network delay.
翻訳日:2022-12-30 14:21:04 公開日:2020-03-06
# 大規模顔表情認識における不確かさの抑制

Suppressing Uncertainties for Large-Scale Facial Expression Recognition ( http://arxiv.org/abs/2002.10392v2 )

ライセンス: Link先を確認
Kai Wang, Xiaojiang Peng, Jianfei Yang, Shijian Lu, Yu Qiao(参考訳) 定性的な大規模表情データセットの注釈付けは,あいまいな表情,低品質な顔画像,注釈者の主観性などの不確実性から,極めて困難である。 これらの不確実性は、ディープラーニング時代における大規模な表情認識(FER)の重要な課題に繋がる。 そこで本研究では,不確かさを効果的に抑制し,深層ネットワークによる不確かさな顔画像の過剰フィッティングを防止する,簡便で効率的な自己キュアネットワーク(scn)を提案する。 具体的には、SCNは2つの異なる側面から不確実性を抑制する。 1)ランキング正則化による各トレーニングサンプルの重み付けのためのミニバッチに対する自己注意機構 2) これらのサンプルのラベルを最も低いランクのグループで変更するための注意深いリラベリング機構。 合成FERデータセットと収集したWebEmotionデータセットの実験により,本手法の有効性が検証された。 公開ベンチマークの結果、我々のSCNは現在の最先端メソッドよりも、RAF-DBでは \textbf{88.14}\%、AffectNetでは \textbf{60.23}\%、FERPlusでは \textbf{89.35}\% に優れていた。 コードは \href{https://github.com/kaiwang960112/Self-Cure-Network}{https://github.com/kaiwang960112/Self-Cure-Network} で入手できる。

Annotating a qualitative large-scale facial expression dataset is extremely difficult due to the uncertainties caused by ambiguous facial expressions, low-quality facial images, and the subjectiveness of annotators. These uncertainties lead to a key challenge of large-scale Facial Expression Recognition (FER) in deep learning era. To address this problem, this paper proposes a simple yet efficient Self-Cure Network (SCN) which suppresses the uncertainties efficiently and prevents deep networks from over-fitting uncertain facial images. Specifically, SCN suppresses the uncertainty from two different aspects: 1) a self-attention mechanism over mini-batch to weight each training sample with a ranking regularization, and 2) a careful relabeling mechanism to modify the labels of these samples in the lowest-ranked group. Experiments on synthetic FER datasets and our collected WebEmotion dataset validate the effectiveness of our method. Results on public benchmarks demonstrate that our SCN outperforms current state-of-the-art methods with \textbf{88.14}\% on RAF-DB, \textbf{60.23}\% on AffectNet, and \textbf{89.35}\% on FERPlus. The code will be available at \href{https://github.com/kaiwang960112/Self-Cure-Network}{https://github.com/kaiwang960112/Self-Cure-Network}.
翻訳日:2022-12-29 04:14:30 公開日:2020-03-06
# GANと3D Multi-Level DenseNetによるMRI超解像 : より小さく、より速く、より良く

MRI Super-Resolution with GAN and 3D Multi-Level DenseNet: Smaller, Faster, and Better ( http://arxiv.org/abs/2003.01217v2 )

ライセンス: Link先を確認
Yuhua Chen, Anthony G. Christodoulou, Zhengwei Zhou, Feng Shi, Yibin Xie, Debiao Li(参考訳) 高分解能(HR)磁気共鳴画像(MRI)は、臨床応用において診断に重要な詳細な解剖学的情報を提供する。 しかし、HR MRIは通常、長いスキャン時間、小さな空間範囲、低信号対雑音比(SNR)のコストがかかる。 近年の研究では、深層畳み込みニューラルネットワーク(cnn)を用いて、単一の画像スーパーレゾリューション(sisr)アプローチによる低解像度(lr)入力からhrジェネリックイメージを復元できることが示されている。 さらに,3次元CNNは学習画像の先行画像を用いて,高品質なSRMRIを生成できることを示した。 しかし、深い構造を持つ3D CNNは、多くのパラメータを持ち、計算コストが高い。 本稿では,新しい3次元cnnアーキテクチャ,すなわち,軽量,高速,高精度なマルチレベル高密度超解像ネットワーク(mdcsrn)を提案する。 また、GAN(Generative Adversarial Network)誘導トレーニングにより、mDCSRN-GANは、参照したHR画像に匹敵する、豊かなテクスチャの詳細を持つシャープなSR画像を提供する。 1,113人の被験者による大規模な公開データセットによる実験の結果、この新しいアーキテクチャは4倍解像度の画質と速度の低下画像の復元において、他の一般的なディープラーニング手法よりも優れていた。

High-resolution (HR) magnetic resonance imaging (MRI) provides detailed anatomical information that is critical for diagnosis in the clinical application. However, HR MRI typically comes at the cost of long scan time, small spatial coverage, and low signal-to-noise ratio (SNR). Recent studies showed that with a deep convolutional neural network (CNN), HR generic images could be recovered from low-resolution (LR) inputs via single image super-resolution (SISR) approaches. Additionally, previous works have shown that a deep 3D CNN can generate high-quality SR MRIs by using learned image priors. However, 3D CNN with deep structures, have a large number of parameters and are computationally expensive. In this paper, we propose a novel 3D CNN architecture, namely a multi-level densely connected super-resolution network (mDCSRN), which is light-weight, fast and accurate. We also show that with the generative adversarial network (GAN)-guided training, the mDCSRN-GAN provides appealing sharp SR images with rich texture details that are highly comparable with the referenced HR images. Our results from experiments on a large public dataset with 1,113 subjects showed that this new architecture outperformed other popular deep learning methods in recovering 4x resolution-downgraded images in both quality and speed.
翻訳日:2022-12-27 05:41:05 公開日:2020-03-06
# MVC-Net: アプリケーションによるマニフォールド値画像のための畳み込みニューラルネットワークアーキテクチャ

MVC-Net: A Convolutional Neural Network Architecture for Manifold-Valued Images With Applications ( http://arxiv.org/abs/2003.01234v2 )

ライセンス: Link先を確認
Jose J. Bouza, Chun-Hao Yang, David Vaillancourt, Baba C. Vemuri(参考訳) 幾何学的ディープラーニングは近年,従来のニューラルネットワークアーキテクチャに適さないエキゾチックなデータタイプが利用可能であることから,大きな注目を集めている。 本稿では,畳み込みニューラルネットワーク(cnn)を,医用画像やコンピュータビジョンアプリケーションで一般的に見られる多様体値画像ケースに一般化することを目的とする。 明示的に、ネットワークへの入力データは、各ピクセル値がリーマン多様体からのサンプルである画像である。 この目的を達成するためには、従来のCNNアーキテクチャの基本構成ブロック、すなわち重み付けされた組み合わせ操作を一般化する必要がある。 この目的のために、我々は多様体値畳み込み(mvc)と呼ばれる多様体値画像の畳み込み演算を定義するために使われる接空間結合演算を開発する。 我々は,MVC演算の理論的性質を証明し,多様体によって認められた等尺群の作用に等しく,MVC層の組成が単一層に崩壊した場合に特徴付ける。 我々は、MVC-netと呼ばれる多様体値の画像で動く完全な多層ニューラルネットワークを構築するために、MVC層をどのように利用するかについて、詳細な説明を行う。 さらに、医用画像およびコンピュータビジョンタスクにおけるMVC-netの優れた性能を実証的に示す。

Geometric deep learning has attracted significant attention in recent years, in part due to the availability of exotic data types for which traditional neural network architectures are not well suited. Our goal in this paper is to generalize convolutional neural networks (CNN) to the manifold-valued image case which arises commonly in medical imaging and computer vision applications. Explicitly, the input data to the network is an image where each pixel value is a sample from a Riemannian manifold. To achieve this goal, we must generalize the basic building block of traditional CNN architectures, namely, the weighted combinations operation. To this end, we develop a tangent space combination operation which is used to define a convolution operation on manifold-valued images that we call, the Manifold-Valued Convolution (MVC). We prove theoretical properties of the MVC operation, including equivariance to the action of the isometry group admitted by the manifold and characterizing when compositions of MVC layers collapse to a single layer. We present a detailed description of how to use MVC layers to build full, multi-layer neural networks that operate on manifold-valued images, which we call the MVC-net. Further, we empirically demonstrate superior performance of the MVC-nets in medical imaging and computer vision tasks.
翻訳日:2022-12-27 05:32:40 公開日:2020-03-06
# 対話領域適応のためのハイブリッド生成・再生トランス

Hybrid Generative-Retrieval Transformers for Dialogue Domain Adaptation ( http://arxiv.org/abs/2003.01680v2 )

ライセンス: Link先を確認
Igor Shalyminov, Alessandro Sordoni, Adam Atkinson, Hannes Schulz(参考訳) ドメイン適応は近年,対話システム研究において重要な問題となっている。 ディープラーニングは、そのようなシステムのモデリングに好まれるテクニックであると同時に、膨大なトレーニングデータを最善に活用する。 しかし、現実世界のシナリオでは、新しいドメイン毎にそのようなリソースが利用できないため、いくつかの対話例でトレーニングする能力は不可欠であると考えられる。 大規模データソースの事前トレーニングとターゲットデータへの適応は、ディープラーニングフレームワークにおける数少ない問題に対する標準的な方法となっている。 本稿では,マルチドメインメタルウォズデータセットに微調整されたgpt-2に基づくハイブリッド生成・再帰モデルdstc8の高速ドメイン適応タスクにおける入賞条件について述べる。 応答生成のロバストで多種多様なモデルでは,MetaLWOz上のSoTAが人間の評価(第2位システムよりも4%改善)であり,未知のMultiWOZデータセットに適応した競合一般化性能が得られる。

Domain adaptation has recently become a key problem in dialogue systems research. Deep learning, while being the preferred technique for modeling such systems, works best given massive training data. However, in the real-world scenario, such resources aren't available for every new domain, so the ability to train with a few dialogue examples can be considered essential. Pre-training on large data sources and adapting to the target data has become the standard method for few-shot problems within the deep learning framework. In this paper, we present the winning entry at the fast domain adaptation task of DSTC8, a hybrid generative-retrieval model based on GPT-2 fine-tuned to the multi-domain MetaLWOz dataset. Robust and diverse in response generation, our model uses retrieval logic as a fallback, being SoTA on MetaLWOz in human evaluation (>4% improvement over the 2nd place system) and attaining competitive generalization performance in adaptation to the unseen MultiWOZ dataset.
翻訳日:2022-12-26 22:42:50 公開日:2020-03-06
# 物理形生成逆ネットワークを用いた乱流富化

Turbulence Enrichment using Physics-informed Generative Adversarial Networks ( http://arxiv.org/abs/2003.01907v2 )

ライセンス: Link先を確認
Akshay Subramaniam, Man Long Wong, Raunak D Borker, Sravya Nimmagadda, Sanjiva K Lele(参考訳) GAN(Generative Adversarial Networks)は、フォトリアリスティック画像の生成に広く利用されている。 超高解像度GAN(SRGAN)と呼ばれるGANの変種は、解像度の低い画像を4ドル(約4,500円)の高解像度画像にアップサンプリングできる超高解像度画像にすでに成功している。 しかし、そのような生成モデルが物理過程を記述するデータに使用される場合、支配方程式や境界条件を含むモデルが満たさなければならない追加の既知の制約が存在する。 一般に、これらの制約は生成されたデータに従わない。 本研究では,乱流生成のための物理法の開発を行う。 本研究では,生成データに対する制御方程式の残差を最小限に抑えるために,損失関数の修正による物理化学習手法を取り入れる。 我々は,畳み込みニューラルネットワーク(CNN)に基づく教師付きモデルと,SRGANに基づく生成モデル,TEGAN(Turbulence Enrichment GAN)の2つの訓練された物理インフォームモデルを解析し,どちらも乱流エンリッチメントにおいて単純なバイキュビック補間よりも優れていることを示す。 また,物理に変形した学習を用いることで,物理制御方程式を満たすデータ生成におけるモデルの能力を大幅に向上できることを示した。 最後に, TEGANから得られた高密度なデータを比較し, エネルギー指標を含む流れ場の統計的指標と, スケール間エネルギー力学および流れ形態学を再現可能であることを示す。

Generative Adversarial Networks (GANs) have been widely used for generating photo-realistic images. A variant of GANs called super-resolution GAN (SRGAN) has already been used successfully for image super-resolution where low resolution images can be upsampled to a $4\times$ larger image that is perceptually more realistic. However, when such generative models are used for data describing physical processes, there are additional known constraints that models must satisfy including governing equations and boundary conditions. In general, these constraints may not be obeyed by the generated data. In this work, we develop physics-based methods for generative enrichment of turbulence. We incorporate a physics-informed learning approach by a modification to the loss function to minimize the residuals of the governing equations for the generated data. We have analyzed two trained physics-informed models: a supervised model based on convolutional neural networks (CNN) and a generative model based on SRGAN: Turbulence Enrichment GAN (TEGAN), and show that they both outperform simple bicubic interpolation in turbulence enrichment. We have also shown that using the physics-informed learning can also significantly improve the model's ability in generating data that satisfies the physical governing equations. Finally, we compare the enriched data from TEGAN to show that it is able to recover statistical metrics of the flow field including energy metrics and well as inter-scale energy dynamics and flow morphology.
翻訳日:2022-12-26 13:54:37 公開日:2020-03-06
# バックトランスレーションによる中国語とベトナム語の低リソース機械翻訳の評価

Evaluating Low-Resource Machine Translation between Chinese and Vietnamese with Back-Translation ( http://arxiv.org/abs/2003.02197v2 )

ライセンス: Link先を確認
Hongzheng Li and Heyan Huang(参考訳) バックトランスフォーメーション(BT)は、ニューラルネットワークトランスフォーメーション(NMT)におけるデータ拡張の標準技術のひとつであり、特に低リソースシナリオにおいて、効率的な翻訳性能向上に役立つことが証明されている。 BTに関連する作品の多くは主にヨーロッパの言語に焦点を当てているが、世界中の他の地域で言語を学ぶものはほとんどない。 本稿では,BTが極低資源中国語とベトナム語間のアジア言語翻訳に与える影響について検討する。 ベトナム語、ベトナム語、中国語のNMTモデルと統計的機械翻訳(SMT)モデルの両方に対して、文字ベースおよび単語ベースの設定で合成データの異なるサイズの影響を評価し比較する。 過去の研究から得られた結論の一部は部分的に確認されており、BTのさらなる理解に有益である興味深い発見や結論もいくつか出ている。

Back translation (BT) has been widely used and become one of standard techniques for data augmentation in Neural Machine Translation (NMT), BT has proven to be helpful for improving the performance of translation effectively, especially for low-resource scenarios. While most works related to BT mainly focus on European languages, few of them study languages in other areas around the world. In this paper, we investigate the impacts of BT on Asia language translations between the extremely low-resource Chinese and Vietnamese language pair. We evaluate and compare the effects of different sizes of synthetic data on both NMT and Statistical Machine Translation (SMT) models for Chinese to Vietnamese and Vietnamese to Chinese, with character-based and word-based settings. Some conclusions from previous works are partially confirmed and we also draw some other interesting findings and conclusions, which are beneficial to understand BT further.
翻訳日:2022-12-26 13:09:04 公開日:2020-03-06
# Kleister: 複雑なレイアウトを持つ長いドキュメントを含む情報抽出のための新しいタスク

Kleister: A novel task for Information Extraction involving Long Documents with Complex Layout ( http://arxiv.org/abs/2003.02356v2 )

ライセンス: Link先を確認
Filip Grali\'nski, Tomasz Stanis{\l}awek, Anna Wr\'oblewska, Dawid Lipi\'nski, Agnieszka Kaliska, Paulina Rosalska, Bartosz Topolski, Przemys{\l}aw Biecek(参考訳) 自然言語処理(NLP)の最先端ソリューションは、文レベルのコンテキストや短いドキュメントのドキュメントレベルのコンテキストなど、幅広いコンテキストをキャプチャすることができる。 しかし、テーブル、フォーム、ヘッダー、開口部、フッタなどのページ要素、複雑なページレイアウトや複数のページの存在といった、ドキュメントの空間構造にエンコードされた情報を持つ、より長い現実世界のドキュメントに関しては、これらのソリューションはまだ苦戦している。 より深く、より複雑な情報抽出(ie)の進展を促すために、2つの新しいデータセットを持つ新しいタスク(kleister)を紹介します。 テキストレイアウトと構造レイアウトの両方を利用して、NLPシステムは、長い形式文書において、様々な種類のエンティティに関する最も重要な情報を見つける必要がある。 本研究では,異なる名前付きエンティティ認識アーキテクチャ (Flair, BERT, RoBERTa) を持つテキストのみのベースラインとしてパイプライン法を提案する。 さらに,テキスト抽出のための最も一般的なpdf処理ツール (pdf2djvu, tesseract, textract) を確認し,これらのツールによるエラー発生時のieシステムの挙動解析を行った。

State-of-the-art solutions for Natural Language Processing (NLP) are able to capture a broad range of contexts, like the sentence-level context or document-level context for short documents. But these solutions are still struggling when it comes to longer, real-world documents with the information encoded in the spatial structure of the document, such as page elements like tables, forms, headers, openings or footers; complex page layout or presence of multiple pages. To encourage progress on deeper and more complex Information Extraction (IE) we introduce a new task (named Kleister) with two new datasets. Utilizing both textual and structural layout features, an NLP system must find the most important information, about various types of entities, in long formal documents. We propose Pipeline method as a text-only baseline with different Named Entity Recognition architectures (Flair, BERT, RoBERTa). Moreover, we checked the most popular PDF processing tools for text extraction (pdf2djvu, Tesseract and Textract) in order to analyze behavior of IE system in presence of errors introduced by these tools.
翻訳日:2022-12-26 13:08:12 公開日:2020-03-06
# 仮想ウェアラブルセンサを用いた複雑な人間行動認識のための深層学習法

A Deep Learning Method for Complex Human Activity Recognition Using Virtual Wearable Sensors ( http://arxiv.org/abs/2003.01874v2 )

ライセンス: Link先を確認
Fanyi Xiao, Ling Pei, Lei Chu, Danping Zou, Wenxian Yu, Yifan Zhu, Tao Li(参考訳) センサに基づくヒューマンアクティビティ認識(HAR)は、現在、複数のアプリケーション領域で研究ホットスポットとなっている。 慣性測定ユニット(IMU)を備えたスマートウェアラブルデバイスが台頭し、研究者はIMUデータをHARに利用し始めた。 機械学習アルゴリズムを用いることで、初期のIMUベースのHARの研究は、従来のHARデータセットの正確な分類結果が得られる。 しかし、これらのデータセットはリアルタイムで豊富な情報を表示することは滅多にない。 本稿では,実シーンにおける複雑なHARの深層学習に基づく新しい手法を提案する。 特に、オフライントレーニング段階では、豊富な人間のポーズと仮想IMUデータを含むAMASSデータセットが、多様性と多様性を高めるために革新的に採用されている。 さらに,教師なしペナルティを伴う深層畳み込みニューラルネットワークを提案し,amassの特徴を自動的に抽出し,ロバスト性を改善する。 オンラインテスト段階では、転送学習の利点を利用して、実際のIMUデータを用いて部分的ニューラルネットワーク(全接続層におけるパラメータの最適化)を微調整して最終的な結果を得る。 実験の結果,提案手法は数回の反復で驚くほど収束し,実際のIMUデータセット上で91.15%の精度を実現し,提案手法の有効性と有効性を示した。

Sensor-based human activity recognition (HAR) is now a research hotspot in multiple application areas. With the rise of smart wearable devices equipped with inertial measurement units (IMUs), researchers begin to utilize IMU data for HAR. By employing machine learning algorithms, early IMU-based research for HAR can achieve accurate classification results on traditional classical HAR datasets, containing only simple and repetitive daily activities. However, these datasets rarely display a rich diversity of information in real-scene. In this paper, we propose a novel method based on deep learning for complex HAR in the real-scene. Specially, in the off-line training stage, the AMASS dataset, containing abundant human poses and virtual IMU data, is innovatively adopted for enhancing the variety and diversity. Moreover, a deep convolutional neural network with an unsupervised penalty is proposed to automatically extract the features of AMASS and improve the robustness. In the on-line testing stage, by leveraging advantages of the transfer learning, we obtain the final result by fine-tuning the partial neural network (optimizing the parameters in the fully-connected layers) using the real IMU data. The experimental results show that the proposed method can surprisingly converge in a few iterations and achieve an accuracy of 91.15% on a real IMU dataset, demonstrating the efficiency and effectiveness of the proposed method.
翻訳日:2022-12-26 13:07:50 公開日:2020-03-06
# TIME: 動的物理プロセスのための透明で解釈可能なモデル適応型、説明可能なニューラルネットワーク

TIME: A Transparent, Interpretable, Model-Adaptive and Explainable Neural Network for Dynamic Physical Processes ( http://arxiv.org/abs/2003.02426v2 )

ライセンス: Link先を確認
Gurpreet Singh, Soumyajit Gupta, Matt Lease, Clint N. Dawson(参考訳) 偏微分方程式は物理過程の無限次元エンコード表現である。 しかし、複数の観測データを結合表現に含めることは大きな課題である。 我々は、可観測系を再構築するために、領域の不変構造をキャプチャする完全畳み込み構造を提案する。 提案アーキテクチャは,このような問題に対して他のネットワークに比べてかなり低重量である。 我々の意図は、モデル適応性のために孤立したプロセスを表現した真のカーネルからの逸脱として解釈される結合した動的プロセスを学ぶことである。 実験により,我々のアーキテクチャはプロセスカーネルやシステム異常の捕捉において堅牢で透明であることが示された。 また,重み表現は冗長であるだけでなく,ネットワークの解釈性にも影響を及ぼすことを示した。 私たちの設計はドメイン知識によって導かれ、独立したプロセス表現が検証の基盤となる。 これにより、冗長なカーネルとそのアクティベーションマップでの表現を識別し、従来のディープネットとは異なり解釈可能かつ説明可能な優れた設計を導くことができます。

Partial Differential Equations are infinite dimensional encoded representations of physical processes. However, imbibing multiple observation data towards a coupled representation presents significant challenges. We present a fully convolutional architecture that captures the invariant structure of the domain to reconstruct the observable system. The proposed architecture is significantly low-weight compared to other networks for such problems. Our intent is to learn coupled dynamic processes interpreted as deviations from true kernels representing isolated processes for model-adaptivity. Experimental analysis shows that our architecture is robust and transparent in capturing process kernels and system anomalies. We also show that high weights representation is not only redundant but also impacts network interpretability. Our design is guided by domain knowledge, with isolated process representations serving as ground truths for verification. These allow us to identify redundant kernels and their manifestations in activation maps to guide better designs that are both interpretable and explainable unlike traditional deep-nets.
翻訳日:2022-12-26 06:24:10 公開日:2020-03-06
# ハイブリッドベイズネットワークにおけるモデル信頼度向上と臨床意思決定支援のための推論の漸進的説明

An Incremental Explanation of Inference in Hybrid Bayesian Networks for Increasing Model Trustworthiness and Supporting Clinical Decision Making ( http://arxiv.org/abs/2003.02599v2 )

ライセンス: Link先を確認
Evangelia Kyrimi, Somayyeh Mossadegh, Nigel Tai, William Marsh(参考訳) 様々なAIモデルは、臨床意思決定支援ツールの一部として、ますます検討されている。 しかし、そのようなモデルの信頼性はまれである。 臨床医は、予測を理解し信頼できれば、モデルを使う可能性が高い。 これの鍵は、その根底にある推論を説明できるかどうかである。 ベイズネットワーク(BN)モデルはブラックボックスではないという利点があり、その理由を説明することができる。 本稿では,離散ノードと連続ノードの両方を含むハイブリッドBNに適用可能な推論の漸進的な説明を提案する。 私たちが答える重要な質問は、(1)重要な証拠が予測を支持したり、矛盾したりするか、(2)中間変数が情報フローを行うか、である。 この説明は実際の臨床ケーススタディで示される。 小規模な評価研究も行われている。

Various AI models are increasingly being considered as part of clinical decision-support tools. However, the trustworthiness of such models is rarely considered. Clinicians are more likely to use a model if they can understand and trust its predictions. Key to this is if its underlying reasoning can be explained. A Bayesian network (BN) model has the advantage that it is not a black-box and its reasoning can be explained. In this paper, we propose an incremental explanation of inference that can be applied to hybrid BNs, i.e. those that contain both discrete and continuous nodes. The key questions that we answer are: (1) which important evidence supports or contradicts the prediction, and (2) through which intermediate variables does the information flow. The explanation is illustrated using a real clinical case study. A small evaluation study is also conducted.
翻訳日:2022-12-26 06:13:52 公開日:2020-03-06
# アドホックネットワークにおける分散学習 : マルチプレイヤーマルチアームバンディットフレームワーク

Distributed Learning in Ad-Hoc Networks: A Multi-player Multi-armed Bandit Framework ( http://arxiv.org/abs/2004.00367v1 )

ライセンス: Link先を確認
Sumit J. Darak and Manjesh K.Hanawal(参考訳) 次世代ネットワークは超高密度で、ピークレートは非常に高いが、ユーザ当たりのトラフィックは比較的低いと期待されている。 このようなシナリオでは、既存の中央制御系リソース割り当ては、サービス品質(例えば、ドロップコール)、エネルギー効率、スペクトル効率に悪影響を及ぼす、実質的なシグナリング(制御通信)を引き起こす可能性がある。 この問題を解決するために、他のネットワークとスペクトルを共有する認知アドホックネットワーク(CAHN)が構想されている。 これにより、一部のユーザーは「フリースロット」で識別および通信することができ、信号の負荷を減らし、基地局あたりのユーザ数を増やすことができる。 このようなネットワークは、リソース識別、コーディネーション、動的およびコンテキスト対応など、マシンラーニングと人工知能フレームワークが新たなソリューションを提供する多くの興味深い課題を提起する。 本稿では,ユーザが環境に適応して他のプレーヤ/ユーザと協調できる,最先端のマルチアームマルチプレーヤバンディットベースの分散学習アルゴリズムについて述べる。 エネルギー収穫,モノのインターネット,スマートグリッドなど他の領域におけるCAHNの実現可能な実現に向けた様々なオープンな研究課題についても論じる。

Next-generation networks are expected to be ultra-dense with a very high peak rate but relatively lower expected traffic per user. For such scenario, existing central controller based resource allocation may incur substantial signaling (control communications) leading to a negative effect on the quality of service (e.g. drop calls), energy and spectrum efficiency. To overcome this problem, cognitive ad-hoc networks (CAHN) that share spectrum with other networks are being envisioned. They allow some users to identify and communicate in `free slots' thereby reducing signaling load and allowing the higher number of users per base stations (dense networks). Such networks open up many interesting challenges such as resource identification, coordination, dynamic and context-aware adaptation for which Machine Learning and Artificial Intelligence framework offers novel solutions. In this paper, we discuss state-of-the-art multi-armed multi-player bandit based distributed learning algorithms that allow users to adapt to the environment and coordinate with other players/users. We also discuss various open research problems for feasible realization of CAHN and interesting applications in other domains such as energy harvesting, Internet of Things, and Smart grids.
翻訳日:2022-12-26 01:59:50 公開日:2020-03-06
# 関係の認識:行動トレースを用いてオンラインゲームにおける社会的相互作用の質を予測する

Recognizing Affiliation: Using Behavioural Traces to Predict the Quality of Social Interactions in Online Games ( http://arxiv.org/abs/2003.03438v1 )

ライセンス: Link先を確認
Julian Frommel, Valentin Sagl, Ansgar E. Depping, Colby Johanson, Matthew K. Miller, Regan L. Mandryk(参考訳) マルチプレイヤーゲームにおけるオンラインソーシャルインタラクションは、サポート的で、ポジティブ、有害、有害であるが、ゲームにおける対人インタラクションの品質を容易に評価できる方法はほとんどない。 我々は、オンラインゲーム環境でのソーシャルな交流を通じて、ディヤドの見知らぬ人の関係を予測するために行動トレースを使用する。 23dyadから音声,ビデオ,ゲーム内,自己報告データを収集し,75の機能抽出,ランダムフォレストおよびサポートベクターマシンモデルの訓練を行い,その性能予測(高/低)とパートナーへの継続的な親和性を評価した。 これらのモデルは、最大79.1%の精度(F1)と20.1%の説明されたばらつき(R2)でバイナリと連続のアフィリエイトを予測できる。 本研究は,マルチプレイヤーゲームやゲームコミュニティの設計に影響を与え,オンラインゲームにおける有害な行動の防止とマッチングシステムの開発を指導する。

Online social interactions in multiplayer games can be supportive and positive or toxic and harmful; however, few methods can easily assess interpersonal interaction quality in games. We use behavioural traces to predict affiliation between dyadic strangers, facilitated through their social interactions in an online gaming setting. We collected audio, video, in-game, and self-report data from 23 dyads, extracted 75 features, trained Random Forest and Support Vector Machine models, and evaluated their performance predicting binary (high/low) as well as continuous affiliation toward a partner. The models can predict both binary and continuous affiliation with up to 79.1% accuracy (F1) and 20.1% explained variance (R2) on unseen data, with features based on verbal communication demonstrating the highest potential. Our findings can inform the design of multiplayer games and game communities, and guide the development of systems for matchmaking and mitigating toxic behaviour in online games.
翻訳日:2022-12-26 01:57:53 公開日:2020-03-06
# 機械学習による量子状態推定

Machine learning assisted quantum state estimation ( http://arxiv.org/abs/2003.03441v1 )

ライセンス: Link先を確認
Sanjaya Lohani, Brian T. Kirby, Michael Brodsky, Onur Danaci, and Ryan T. Glasser(参考訳) 我々は、機械学習技術を用いて、所定の一致測定セットから量子状態を再構成する一般的な量子状態トモグラフィーフレームワークを構築した。 本手法が従来の手法と機能的に等価な再構成状態を生成することをシミュレーションにより示し,高額な計算がシステムにフロントロードされているという利点を付加した。 さらに, シミュレーション音源を含む測定結果を用いて, 従来の再建法と比較して, 平均忠実度を著しく向上させることができる。 これらの拡張は、いくつかの測定値が欠落している部分トモグラフィーデータからの状態再構成を考えると、持続することを示す。 計算機知能と量子状態推定の分野を組み合わせることにより, トモグラフィに基づく量子実験の大幅な改善と高速化が期待できる。

We build a general quantum state tomography framework that makes use of machine learning techniques to reconstruct quantum states from a given set of coincidence measurements. For a wide range of pure and mixed input states we demonstrate via simulations that our method produces functionally equivalent reconstructed states to that of traditional methods with the added benefit that expensive computations are front-loaded with our system. Further, by training our system with measurement results that include simulated noise sources we are able to demonstrate a significantly enhanced average fidelity when compared to typical reconstruction methods. These enhancements in average fidelity are also shown to persist when we consider state reconstruction from partial tomography data where several measurements are missing. We anticipate that the present results combining the fields of machine intelligence and quantum state estimation will greatly improve and speed up tomography-based quantum experiments.
翻訳日:2022-12-26 01:57:31 公開日:2020-03-06
# 支持ベクトルマシンの地震波解析・微分への応用

Application of Support Vector Machines for Seismogram Analysis and Differentiation ( http://arxiv.org/abs/2003.04219v1 )

ライセンス: Link先を確認
Rohit Kumar Shrivastava(参考訳) Support Vector Machines (SVM) は、科学の様々な分野でkクラスの分類能力を持つ分類器として使われてきた計算技術である。 火山の地震計は、しばしば正しい解釈のために有害なノイズを含む。 イタリアのパナレア島北部に位置するPCAB局は、近くに設置されたポンプからの地震信号を記録しており、ストロンボリ火山からの有用な信号を破損させている。 グリッドサーチによる最適化後のk=2分類技術を用いたSVMは、ポンプから来る地震信号の識別と分類に役立てられ、99.7149%のパターンがクラス(クロスバリデーションによって決定される)の実際のメンバシップと一致する。 予測されたsvmのラベルはポンプの活動継続時間を推定するために使われ、対応する地震計の冗長性(処理や解釈には適さない)が宣言される。 しかし、2003年4月4日に同じPCAB局で記録されたPinoらによる2011年の地震図がポンプの信号を含むか否かを判定するために、同じ訓練されたSVMを使用した場合、SVMはポンプの信号が100%欠如していることを示し、後者の研究作業が認証された。

Support Vector Machines (SVM) is a computational technique which has been used in various fields of sciences as a classifier with k-class classification capability, k being 2,3,4, etc. Seismograms of volcanic tremors often contain noises which can prove harmful for correct interpretation. The PCAB station (located in the northern region of Panarea island, Italy) has been recording seismic signals from a pump installed nearby, corrupting the useful signals from Strombolli volcano. SVM with k=2 classification technique after optimization through grid search has been instrumental in identification and classification of the seismic signals coming from pump, reaching a score of 99.7149% of patterns which match the actual membership of class (determined through cross-validation). The predicted labels of SVM has been used to estimate the pump's duration of activity leading to the declaration of corresponding seismograms redundant (not fit for processing and interpretation). However, when the same trained SVM was used to determine whether the seismogram used by Pino et al., 2011 recorded at the same PCAB station on 4th April, 2003 contained pump's signals or not, SVM showed 100% absence of pump's signals thereby authenticating the research work done in the latter.
翻訳日:2022-12-26 01:57:17 公開日:2020-03-06
# StereoNeuroBayesSLAM: 直接スパース法に基づく神経生物学的にインスパイアされたステレオ視覚SLAMシステム

StereoNeuroBayesSLAM: A Neurobiologically Inspired Stereo Visual SLAM System Based on Direct Sparse Method ( http://arxiv.org/abs/2003.03091v1 )

ライセンス: Link先を確認
Taiping Zeng, Xiaoli Li, and Bailu Si(参考訳) 移動ステレオカメラから大規模環境のリアルタイムビルド認知マップへの方向スパース法に基づく神経生物学的にインスパイアされた視覚的同時局在マッピング(SLAM)システムを提案する。 本発明のコアSLAMシステムは、主に海馬の頭方向(HD)細胞と中角皮質(MEC)の格子細胞の神経応答を利用して、環境におけるロボットの頭方向と位置をそれぞれ表わすベイズ誘引ネットワークを含む。 ステレオカメラから速度情報を正確かつロバストに推定するために直接スパース法を用いる。 入力回転速度と変換速度は、それぞれhdセルとグリッドセルネットワークによって統合される。 キティオドメトリーベンチマークデータセット上で,神経生物学に触発された立体視覚スラムシステムを実演した。 提案するSLAMシステムは,ステレオカメラからコヒーレントなセミメトリックトポロジマップをリアルタイムに構築する。 認知地図の質的評価により,提案する神経生物学的刺激を受けたステレオ視覚スラムシステムは,これまでの脳に触発されたアルゴリズムや神経生物学に触発された単眼視覚スラムシステムよりも,従来の最先端システムに近いトラッキング精度とロバスト性の両方において優れていることが示された。

We propose a neurobiologically inspired visual simultaneous localization and mapping (SLAM) system based on direction sparse method to real-time build cognitive maps of large-scale environments from a moving stereo camera. The core SLAM system mainly comprises a Bayesian attractor network, which utilizes neural responses of head direction (HD) cells in the hippocampus and grid cells in the medial entorhinal cortex (MEC) to represent the head direction and the position of the robot in the environment, respectively. Direct sparse method is employed to accurately and robustly estimate velocity information from a stereo camera. Input rotational and translational velocities are integrated by the HD cell and grid cell networks, respectively. We demonstrated our neurobiologically inspired stereo visual SLAM system on the KITTI odometry benchmark datasets. Our proposed SLAM system is robust to real-time build a coherent semi-metric topological map from a stereo camera. Qualitative evaluation on cognitive maps shows that our proposed neurobiologically inspired stereo visual SLAM system outperforms our previous brain-inspired algorithms and the neurobiologically inspired monocular visual SLAM system both in terms of tracking accuracy and robustness, which is closer to the traditional state-of-the-art one.
翻訳日:2022-12-26 01:56:54 公開日:2020-03-06
# LSF-Join: 分散オールペアのための局所性感性フィルタ

LSF-Join: Locality Sensitive Filtering for Distributed All-Pairs Set Similarity Under Skew ( http://arxiv.org/abs/2003.02972v1 )

ライセンス: Link先を確認
Cyrus Rashtchian, Aneesh Sharma, David P. Woodruff(参考訳) all-pairs set similarityは、大規模かつ高次元のデータセットでも広く使われているデータマイニングタスクである。 伝統的に類似性探索は、様々な効率的なアルゴリズムが知られている非常に類似したペアを見つけることに集中してきた。 しかし、最近の研究は、比較的小さな交叉サイズを持つ集合のペアを見つけることの重要性を強調している。 例えば、レコメンダシステムでは、2人のユーザーは、関心がわずかな割合でしかオーバーラップしていないのに似ています。 このようなシステムでは、しばしば非常に人気があるため、いくつかの次元は高度に歪められている。 これら2つの特性は、大きな入力サイズに対して以前のアプローチでは不可能である。 この問題に対処するために,全ペア集合の類似性を近似する新しい分散アルゴリズム lsf-join を提案する。 アルゴリズムのコアは局所性に敏感なフィルタリングに基づくランダムな選択手順である。 提案手法は,局所性に敏感なハッシュ法に基づく近似アルゴリズムから逸脱する。 理論的には、LSF-Joinは、小さな類似度閾値や歪んだ入力セットであっても、最も近いペアを効率的に見つける。 我々は,LSF-Joinの通信,作業,最大負荷の保証を証明し,その精度を複数のグラフ上で実験的に実証する。

All-pairs set similarity is a widely used data mining task, even for large and high-dimensional datasets. Traditionally, similarity search has focused on discovering very similar pairs, for which a variety of efficient algorithms are known. However, recent work highlights the importance of finding pairs of sets with relatively small intersection sizes. For example, in a recommender system, two users may be alike even though their interests only overlap on a small percentage of items. In such systems, some dimensions are often highly skewed because they are very popular. Together these two properties render previous approaches infeasible for large input sizes. To address this problem, we present a new distributed algorithm, LSF-Join, for approximate all-pairs set similarity. The core of our algorithm is a randomized selection procedure based on Locality Sensitive Filtering. Our method deviates from prior approximate algorithms, which are based on Locality Sensitive Hashing. Theoretically, we show that LSF-Join efficiently finds most close pairs, even for small similarity thresholds and for skewed input sets. We prove guarantees on the communication, work, and maximum load of LSF-Join, and we also experimentally demonstrate its accuracy on multiple graphs.
翻訳日:2022-12-26 01:56:31 公開日:2020-03-06
# ニューラル・スワーム:学習相互作用を用いた分散型近接確率マルチロータ制御

Neural-Swarm: Decentralized Close-Proximity Multirotor Control Using Learned Interactions ( http://arxiv.org/abs/2003.02992v1 )

ライセンス: Link先を確認
Guanya Shi, Wolfgang H\"onig, Yisong Yue, Soon-Jo Chung(参考訳) 本稿では,マルチロータ群を近接飛行する非線形分散安定制御系であるNeural-Swarmを提案する。 近近距離制御は、高い車から低い車への降雨のようなマルチローター間の複雑な空気力学的相互作用の影響により困難である。 従来の方法では、これらの相互作用効果を適切に捉えられず、結果として、車両間の大きな安全距離を維持できなければならず、従って近距離飛行はできない。 本手法は,高次多車間相互作用を正確に学習する固有ダイナミクスモデルと正規化置換不変深層ニューラルネットワーク(dnn)を組み合わせたものである。 学習モデルを用いて安定な非線形トラッキングコントローラを設計する。 実験の結果,提案コントローラは,最大4倍の最悪ケース高さ追従誤差を持つベースライン非線形追従コントローラを有意に上回ることがわかった。 また、学習したモデルがより大きなSwarmサイズに一般化できることを実証的に示す。

In this paper, we present Neural-Swarm, a nonlinear decentralized stable controller for close-proximity flight of multirotor swarms. Close-proximity control is challenging due to the complex aerodynamic interaction effects between multirotors, such as downwash from higher vehicles to lower ones. Conventional methods often fail to properly capture these interaction effects, resulting in controllers that must maintain large safety distances between vehicles, and thus are not capable of close-proximity flight. Our approach combines a nominal dynamics model with a regularized permutation-invariant Deep Neural Network (DNN) that accurately learns the high-order multi-vehicle interactions. We design a stable nonlinear tracking controller using the learned model. Experimental results demonstrate that the proposed controller significantly outperforms a baseline nonlinear tracking controller with up to four times smaller worst-case height tracking errors. We also empirically demonstrate the ability of our learned model to generalize to larger swarm sizes.
翻訳日:2022-12-26 01:55:52 公開日:2020-03-06
# ASVのスプーフィング対策に対する敵の攻撃に対する防御

Defense against adversarial attacks on spoofing countermeasures of ASV ( http://arxiv.org/abs/2003.03065v1 )

ライセンス: Link先を確認
Haibin Wu, Songxiang Liu, Helen Meng, Hung-yi Lee(参考訳) ASVspoof 2019 チャレンジでは,自動話者検証 (ASV) のための様々な前向き対策手法が提案されている。 しかし,従来の研究では,自然データと区別できない敵の事例に対して,対策モデルが脆弱であることが示されている。 適切な対応モデルは、合成、変換、再生されたオーディオを含むスプーフィングオーディオに対して堅牢であるだけでなく、悪意のある敵によって故意に生成された例に対抗するべきである。 そこで本研究では,攻撃事例に対するasvスプーフィング対策モデルの脆弱性を軽減するため,パッシブ防御法,空間平滑化法,プロアクティブ防御法であるadversarial trainingを提案する。 本稿では,敵攻撃時のASVスプーフィング対策モデルの堅牢性向上に防衛手法を用いた最初の事例である。 実験の結果,これら2つの防御手法は,対向例に対するスプーフィング対策モデル(spoofing countermeasure model)の正の助けとなることがわかった。

Various forefront countermeasure methods for automatic speaker verification (ASV) with considerable performance in anti-spoofing are proposed in the ASVspoof 2019 challenge. However, previous work has shown that countermeasure models are vulnerable to adversarial examples indistinguishable from natural data. A good countermeasure model should not only be robust against spoofing audio, including synthetic, converted, and replayed audios; but counteract deliberately generated examples by malicious adversaries. In this work, we introduce a passive defense method, spatial smoothing, and a proactive defense method, adversarial training, to mitigate the vulnerability of ASV spoofing countermeasure models against adversarial examples. This paper is among the first to use defense methods to improve the robustness of ASV spoofing countermeasure models under adversarial attacks. The experimental results show that these two defense methods positively help spoofing countermeasure models counter adversarial examples.
翻訳日:2022-12-26 01:55:37 公開日:2020-03-06
# 多言語コード切り換え音声のための半教師付きasrシステムの開発

Semi-supervised Development of ASR Systems for Multilingual Code-switched Speech in Under-resourced Languages ( http://arxiv.org/abs/2003.03135v1 )

ライセンス: Link先を確認
Astik Biswas, Emre Y{\i}lmaz, Febe de Wet, Ewald van der Westhuizen, Thomas Niesler(参考訳) 本稿では,南アフリカ語5言語における音声・言語モデルの半教師付き開発について報告する。 2つのアプローチが考えられる。 1つ目は、話者が頻繁に切り替える4つの異なる言語対に対応する4つの別々のバイリンガル自動音声認識器(ASR)を構成する。 2つ目は、すべての言語(英語、isiZulu、isiXhosa、Seswana、Sesotho)を表す単一の5言語ASRシステムである。 極めて疎いトレーニングセットに追加データを追加する際に,これら2つのアプローチの有効性を評価した。 その結果,バッチ的半教師付きトレーニングは非バッチ的アプローチよりも優れた結果が得られることがわかった。 さらに,両言語系は統一システムよりも認識性能が優れていたが,両言語系が生成するシステムよりも,五言語系が生成する擬似ラベルの恩恵を受けていた。

This paper reports on the semi-supervised development of acoustic and language models for under-resourced, code-switched speech in five South African languages. Two approaches are considered. The first constructs four separate bilingual automatic speech recognisers (ASRs) corresponding to four different language pairs between which speakers switch frequently. The second uses a single, unified, five-lingual ASR system that represents all the languages (English, isiZulu, isiXhosa, Setswana and Sesotho). We evaluate the effectiveness of these two approaches when used to add additional data to our extremely sparse training sets. Results indicate that batch-wise semi-supervised training yields better results than a non-batch-wise approach. Furthermore, while the separate bilingual systems achieved better recognition performance than the unified system, they benefited more from pseudo-labels generated by the five-lingual system than from those generated by the bilingual systems.
翻訳日:2022-12-26 01:55:20 公開日:2020-03-06
# 干渉位相復元のための複素領域上の学習畳み込みスパース符号化

Learning Convolutional Sparse Coding on Complex Domain for Interferometric Phase Restoration ( http://arxiv.org/abs/2003.03440v1 )

ライセンス: Link先を確認
Jian Kang, Danfeng Hong, Jialin Liu, Gerald Baier, Naoto Yokoya, Beg\"um Demir(参考訳) 干渉型位相復元は数十年にわたって研究され、最先端の手法のほとんどはinsar相修復に有望な性能を達成している。 これらの方法は一般に、階段効果を回避し、位相変化の詳細を保存することを目的とした非局所フィルタリング処理チェーンに従う。 本稿では、複雑な畳み込みスパース符号化(ComCSC)とその勾配正規化バージョンであるInSAR位相復元の代替手法を提案する。 我々の知る限りでは、インサール相の復元問題をデコンボリューション方式で解くのはこれが初めてである。 提案手法は, 干渉位相ノイズを抑制するだけでなく, 階段効果を回避し, 詳細を保存できる。 さらに、これらは干渉位相の基本的な位相成分の洞察を与える。 TerraSAR-X StripMap と Sentinel-1 インターフェロメトリ・ワイド・スワス・モードによる高分解能・高分解能・高分解能データセットの実験結果は,非局所的なInSARフィルタ,特に最先端のInSAR-BM3D に基づく従来の最先端手法よりも優れていることを示す。 この論文のソースコードは、コミュニティ内で再現可能な研究のために公開されます。

Interferometric phase restoration has been investigated for decades and most of the state-of-the-art methods have achieved promising performances for InSAR phase restoration. These methods generally follow the nonlocal filtering processing chain aiming at circumventing the staircase effect and preserving the details of phase variations. In this paper, we propose an alternative approach for InSAR phase restoration, i.e. Complex Convolutional Sparse Coding (ComCSC) and its gradient regularized version. To our best knowledge, this is the first time that we solve the InSAR phase restoration problem in a deconvolutional fashion. The proposed methods can not only suppress interferometric phase noise, but also avoid the staircase effect and preserve the details. Furthermore, they provide an insight of the elementary phase components for the interferometric phases. The experimental results on synthetic and realistic high- and medium-resolution datasets from TerraSAR-X StripMap and Sentinel-1 interferometric wide swath mode, respectively, show that our method outperforms those previous state-of-the-art methods based on nonlocal InSAR filters, particularly the state-of-the-art method: InSAR-BM3D. The source code of this paper will be made publicly available for reproducible research inside the community.
翻訳日:2022-12-26 01:55:03 公開日:2020-03-06
# 生成モデルを用いた自動き裂分割のための圧縮画像の復元

Recovering compressed images for automatic crack segmentation using generative models ( http://arxiv.org/abs/2003.03028v1 )

ライセンス: Link先を確認
Yong Huang, Haoyu Zhang, Hui Li, Stephen Wu(参考訳) 構造物表面の亀裂をデジタルカメラで監視する構造的健康モニタリング(SHM)システムにおいて、信頼性と効率的なデータ圧縮技術は、無線機器、例えば高解像度カメラを設置したドローンやロボットにおいて安定したエネルギー効率の高い亀裂画像の伝送を保証するために不可欠である。 圧縮センシング(CS)は、ナイキストサンプリング定理の限界よりもはるかに小さいサンプリングレートからの信号の正確な回復を可能にする信号処理技術である。 従来のCS法は、正規化された最適化により、ある領域における元の信号の空間特性を利用して正確な再構成を高い確率で行うという原理に基づいている。 しかし、信号が可逆空間で非常にスパースであるという強い仮定は、実際のクラック画像では比較的難しい。 本稿では,対象画像の低次元表現を効果的に捉えることができる生成モデルを用いて,スパーシティ正規化を置き換えたcsの新しい手法を提案する。 本稿では,この新しいcs法に基づく圧縮き裂画像の自動分割のための復元フレームワークを開発し,生成した画像の背景が十分に再構成されていない場合でも,生成モデルの強力な機能を利用してき裂分割タスクに必要な特徴をキャプチャする手法の顕著な性能を示す。 回復フレームワークの優れた性能は,既存の3つのCSアルゴリズムとの比較によって示される。 さらに, 動作のぼやけや閉塞による欠陥回復など, 自動き裂セグメンテーションにおける他の一般的な問題にも拡張可能であることを示す。

In a structural health monitoring (SHM) system that uses digital cameras to monitor cracks of structural surfaces, techniques for reliable and effective data compression are essential to ensure a stable and energy efficient crack images transmission in wireless devices, e.g., drones and robots with high definition cameras installed. Compressive sensing (CS) is a signal processing technique that allows accurate recovery of a signal from a sampling rate much smaller than the limitation of the Nyquist sampling theorem. The conventional CS method is based on the principle that, through a regularized optimization, the sparsity property of the original signals in some domain can be exploited to get the exact reconstruction with a high probability. However, the strong assumption of the signals being highly sparse in an invertible space is relatively hard for real crack images. In this paper, we present a new approach of CS that replaces the sparsity regularization with a generative model that is able to effectively capture a low dimension representation of targeted images. We develop a recovery framework for automatic crack segmentation of compressed crack images based on this new CS method and demonstrate the remarkable performance of the method taking advantage of the strong capability of generative models to capture the necessary features required in the crack segmentation task even the backgrounds of the generated images are not well reconstructed. The superior performance of our recovery framework is illustrated by comparing with three existing CS algorithms. Furthermore, we show that our framework is extensible to other common problems in automatic crack segmentation, such as defect recovery from motion blurring and occlusion.
翻訳日:2022-12-26 01:47:29 公開日:2020-03-06
# リンク結合のための新しいエッジと密度メトリクス

Novel Edge and Density Metrics for Link Cohesion ( http://arxiv.org/abs/2003.02999v1 )

ライセンス: Link先を確認
Cetin Savkli, Catherine Schwartz, Amanda Galante, and Jonathan Cohen(参考訳) 複雑で高連結なグラフにおけるエッジの強度を測定するためのリンク凝集の新しい指標を提案する。 リンク結合は、局所的な小さなホップ接続と関連するノード次数を占め、エッジスコアリングとグラフの単純化をサポートするために使用できる。 また,ノード間の平均凝集度を推定する新しいグラフ密度尺度を提案する。 グラフ密度の最大化によるグラフスペーシフィケーションによるコミュニティ検出を,リンク凝集と密度測定を用いて実証する。 リンク凝集は、エッジ間の中心性と緩やかに相関している。

We present a new metric of link cohesion for measuring the strength of edges in complex, highly connected graphs. Link cohesion accounts for local small hop connections and associated node degrees and can be used to support edge scoring and graph simplification. We also present a novel graph density measure to estimate the average cohesion across nodes. Link cohesion and the density measure are employed to demonstrate community detection through graph sparsification by maximizing graph density. Link cohesion is also shown to be loosely correlated with edge betweenness centrality.
翻訳日:2022-12-26 01:47:03 公開日:2020-03-06
# 単眼魚眼カメラにおける移動物体幾何制約の球形定式化

Spherical formulation of moving object geometric constraints for monocular fisheye cameras ( http://arxiv.org/abs/2003.03262v1 )

ライセンス: Link先を確認
Letizia Mariotti and Ciaran Hughes(参考訳) 本稿では,自律走行に使用される魚眼カメラの移動物体検出アルゴリズムを提案する。 キャリブレーションが知られると、特定のカメラ構成に不変な球面座標に対して、直交画像(極性、正の深さ、正の高さの制約)における3つの一般的な制約を再構成する。 自動運転における最も困難なユースケースの1つは、運動パララックスの曖昧さに苦しむ平行移動物体を検出することである。 これを緩和するために、我々は反平行制約と呼ばれる追加の第4の制約を定式化し、これはエゴ・ビークルをミラーする運動を伴う物体の検出を支援する。 提案アルゴリズムを異なるシナリオで解析し,魚眼画像上で直接操作できることを実証する。

In this paper, we introduce a moving object detection algorithm for fisheye cameras used in autonomous driving. We reformulate the three commonly used constraints in rectilinear images (epipolar, positive depth and positive height constraints) to spherical coordinates which is invariant to specific camera configuration once the calibration is known. One of the main challenging use case in autonomous driving is to detect parallel moving objects which suffer from motion-parallax ambiguity. To alleviate this, we formulate an additional fourth constraint, called the anti-parallel constraint, which aids the detection of objects with motion that mirrors the ego-vehicle possible. We analyze the proposed algorithm in different scenarios and demonstrate that it works effectively operating directly on fisheye images.
翻訳日:2022-12-26 01:39:10 公開日:2020-03-06
# ドメイン適応検索のための確率重み付きコンパクト機能

Probability Weighted Compact Feature for Domain Adaptive Retrieval ( http://arxiv.org/abs/2003.03293v1 )

ライセンス: Link先を確認
Fuxiang Huang, Lei Zhang, Yang Yang, Xichuan Zhou(参考訳) ドメイン適応画像検索は、単一ドメイン検索とクロスドメイン検索を含む。 既存の画像検索手法のほとんどは、検索データベースとクエリの分布が類似していると仮定して、単一ドメイン検索のみに焦点を当てている。 しかし, 実用上, 理想的な照明・ポーズ・バックグランド・カメラ条件における検索データベースと非制御条件における検索クエリとの差異は極めて大きい。 本稿では,実践的な応用を考慮し,クロスドメイン検索の課題に焦点をあてる。 そこで本研究では,ドメイン間相関ガイダンスによってドメイン間検索の精度を向上し,検索速度を向上させるために,一連のコンパクトバイナリコードを学習するPWCF(Probability Weighted Compact Feature Learning)を提案する。 まず,ベイジアン・パースペクティブ (BP) による焦点-ストリップレットの損失, BP誘発の量子化損失, BP誘発の分類損失による損失関数を導出する。 次に、ドメイン間のポテンシャル相関を探索するために、ドメイン間の共通多様体構造を提案する。 元の特徴表現はドメイン間の不一致のために偏りがあるため、多様体構造の構築は困難である。 そこで本研究では,HFON(Histogram Feature of Neighbors)という特徴をサンプル統計の観点から提案する。 各種ベンチマークデータベースにおける広範囲な実験により,本手法は領域適応画像検索の最先端画像検索法よりも優れていることを確認した。 ソースコードはhttps://github.com/fuxianghuang1/PWCFで入手できる。

Domain adaptive image retrieval includes single-domain retrieval and cross-domain retrieval. Most of the existing image retrieval methods only focus on single-domain retrieval, which assumes that the distributions of retrieval databases and queries are similar. However, in practical application, the discrepancies between retrieval databases often taken in ideal illumination/pose/background/camera conditions and queries usually obtained in uncontrolled conditions are very large. In this paper, considering the practical application, we focus on challenging cross-domain retrieval. To address the problem, we propose an effective method named Probability Weighted Compact Feature Learning (PWCF), which provides inter-domain correlation guidance to promote cross-domain retrieval accuracy and learns a series of compact binary codes to improve the retrieval speed. First, we derive our loss function through the Maximum A Posteriori Estimation (MAP): Bayesian Perspective (BP) induced focal-triplet loss, BP induced quantization loss and BP induced classification loss. Second, we propose a common manifold structure between domains to explore the potential correlation across domains. Considering the original feature representation is biased due to the inter-domain discrepancy, the manifold structure is difficult to be constructed. Therefore, we propose a new feature named Histogram Feature of Neighbors (HFON) from the sample statistics perspective. Extensive experiments on various benchmark databases validate that our method outperforms many state-of-the-art image retrieval methods for domain adaptive image retrieval. The source code is available at https://github.com/fuxianghuang1/PWCF
翻訳日:2022-12-26 01:38:41 公開日:2020-03-06
# オンライン語彙拡張による新しいオブジェクトによるキャプション画像

Captioning Images with Novel Objects via Online Vocabulary Expansion ( http://arxiv.org/abs/2003.03305v1 )

ライセンス: Link先を確認
Mikihiro Tanaka, Tatsuya Harada(参考訳) 本研究では,新しいオブジェクトを含む画像から記述を生成するための低コストな手法を提案する。 一般的に,新しいオブジェクトで画像を説明するモデルの構築には,(1) カテゴリごとに大量のデータを収集し,(2) システム全体をリトレーニングする,というコストがかかる。 人間が少数の新しい物体を見た場合、その特性を既知の物体と関連付けることで推定することができる。 そこで本稿では,オブジェクトの少ない画像特徴のみから推定されるオブジェクトの単語埋め込みを用いて,新たなオブジェクトで画像を説明する手法を提案する。 この手法は一般的な画像キャプションモデルと統合することができる。 実験の結果,本手法の有効性が示された。

In this study, we introduce a low cost method for generating descriptions from images containing novel objects. Generally, constructing a model, which can explain images with novel objects, is costly because of the following: (1) collecting a large amount of data for each category, and (2) retraining the entire system. If humans see a small number of novel objects, they are able to estimate their properties by associating their appearance with known objects. Accordingly, we propose a method that can explain images with novel objects without retraining using the word embeddings of the objects estimated from only a small number of image features of the objects. The method can be integrated with general image-captioning models. The experimental results show the effectiveness of our approach.
翻訳日:2022-12-26 01:38:12 公開日:2020-03-06
# 音声アシスタントによる探索探索支援の課題

Challenges in Supporting Exploratory Search through Voice Assistants ( http://arxiv.org/abs/2003.02986v1 )

ライセンス: Link先を確認
Xiao Ma, Ariel Liu(参考訳) 音声アシスタントは、天気の確認やアラームの設定など、シンプルで日常的なタスクにうまく採用されている。 しかし、人々が音声アシスタントに慣れるにつれて、探索的な探索のようなより複雑なタスクへの期待が高まる可能性がある。 単発の回答で答えられる「エッフェル塔の高さ」のような単純な検索タスクと比較すると、探索的な検索に対する反応は、特に音声ベースのアシスタントによって、より微妙なものである。 本稿では,探索探索を支援する音声アシスタント設計における4つの課題について概説する。状況に起因した障害に対処すること,複合モーダルなインタラクションに取り組むこと,多様な集団を設計すること,ユーザの期待に応えて信頼を得ること。 これらの課題に対処することは、よりインテリジェントな音声ベースのパーソナルアシスタントを開発する上で重要である。

Voice assistants have been successfully adopted for simple, routine tasks, such as asking for the weather or setting an alarm. However, as people get more familiar with voice assistants, they may increase their expectations for more complex tasks, such as exploratory search-- e.g., "What should I do when I visit Paris with kids? Oh, and ideally not too expensive." Compared to simple search tasks such as "How tall is the Eiffel Tower?", which can be answered with a single-shot answer, the response to exploratory search is more nuanced, especially through voice-based assistants. In this paper, we outline four challenges in designing voice assistants that can better support exploratory search: addressing situationally induced impairments; working with mixed-modal interactions; designing for diverse populations; and meeting users' expectations and gaining their trust. Addressing these challenges is important for developing more "intelligent" voice-based personal assistants.
翻訳日:2022-12-26 01:38:01 公開日:2020-03-06
# オントロジーに基づく知的環境の文脈モデル

An Ontology-based Context Model in Intelligent Environments ( http://arxiv.org/abs/2003.05055v1 )

ライセンス: Link先を確認
Tao Gu, Xiao Hang Wang, Hung Keng Pung, Da Qing Zhang(参考訳) これらの変化は、アプリケーションやサービスが高度にダイナミックな環境で変化するコンテキストを認識し、適応しなければならないことを意味します。 今日、コンテキスト認識システムの構築は、インテリジェントな環境で適切なインフラストラクチャサポートが欠如しているため、複雑なタスクである。 コンテキスト対応インフラストラクチャは、コンテキスト情報を表現、操作、アクセスするために適切なコンテキストモデルを必要とする。 本稿では,意味的文脈表現や文脈推論,知識共有,文脈分類,文脈依存性,文脈の品質といった問題に,OWLを用いたオントロジーに基づく形式的文脈モデルを提案する。 このモデルの主な利点は、様々なコンテキストを推論する能力である。 コンテキストモデルに基づいて、コンテキスト対応サービスを構築するためのサービス指向コンテキストアウェアミドルウェア(socam)アーキテクチャも提示します。

Computing becomes increasingly mobile and pervasive today; these changes imply that applications and services must be aware of and adapt to their changing contexts in highly dynamic environments. Today, building context-aware systems is a complex task due to lack of an appropriate infrastructure support in intelligent environments. A context-aware infrastructure requires an appropriate context model to represent, manipulate and access context information. In this paper, we propose a formal context model based on ontology using OWL to address issues including semantic context representation, context reasoning and knowledge sharing, context classification, context dependency and quality of context. The main benefit of this model is the ability to reason about various contexts. Based on our context model, we also present a Service-Oriented Context-Aware Middleware (SOCAM) architecture for building of context-aware services.
翻訳日:2022-12-26 01:37:46 公開日:2020-03-06
# 因果相互作用木:観測データのための木に基づくサブグループ同定

Causal Interaction Trees: Tree-Based Subgroup Identification for Observational Data ( http://arxiv.org/abs/2003.03042v1 )

ライセンス: Link先を確認
Jiabei Yang, Issa J. Dahabreh and Jon A. Steingrimsson(参考訳) 観察データを用いて治療効果を増強した被験者のサブグループを同定するための因果相互作用木を提案する。 本研究では,サブグループ別処理効果推定器に基づくグループ間処理効果の不均一性の最大化に着目した分割基準を用いて,分類と回帰木アルゴリズムを拡張した。 我々は, 逆確率重み付け, g-形式, 二重頑健性推定器の3つの部分群特異的処理効果推定器の特性を導出した。 提案アルゴリズムの性能をシミュレーションを用いて検討し,重症心疾患患者に対する右心カテーテルの有用性を観察的に評価する手法を実装した。

We propose Causal Interaction Trees for identifying subgroups of participants that have enhanced treatment effects using observational data. We extend the Classification and Regression Tree algorithm by using splitting criteria that focus on maximizing between-group treatment effect heterogeneity based on subgroup-specific treatment effect estimators to dictate decision-making in the algorithm. We derive properties of three subgroup-specific treatment effect estimators that account for the observational nature of the data -- inverse probability weighting, g-formula and doubly robust estimators. We study the performance of the proposed algorithms using simulations and implement the algorithms in an observational study that evaluates the effectiveness of right heart catheterization on critically ill patients.
翻訳日:2022-12-26 01:37:33 公開日:2020-03-06
# 可変サイズ設計空間問題のベイズ最適化

Bayesian optimization of variable-size design space problems ( http://arxiv.org/abs/2003.03300v1 )

ライセンス: Link先を確認
Julien Pelamatti, Loic Brevault, Mathieu Balesdent, El-Ghazali Talbi, Yannick Guerin(参考訳) 複雑なシステム設計の枠組みの中で、目的関数と制約関数が連続変数と離散変数を同時に依存できる混合変数最適化問題を解くことがしばしば必要となる。 さらに、複雑なシステム設計問題は時折可変サイズの設計空間を示す。 これにより、特定の離散決定変数の値の関数として、最適化プロセスに沿って探索空間が動的に変化する(変数の数と型の両方に関して)最適化問題が発生する。 同様に、制約の数や種類も様々である。 本稿では,この種の最適化問題を解決するために,ベイズ最適化に基づく手法を2つ提案する。 1つ目は、最も有望な設計サブスペースに計算予算を集中させる予算配分戦略である。 第二のアプローチは、部分的に異なる変数の集合によって特徴づけられるサンプル間の共分散を計算することができるカーネル関数の定義に基づいている。 解析および工学関連のテストケースで得られた結果は、標準手法に関して、提案手法のより高速でより一貫した収束を示す。

Within the framework of complex system design, it is often necessary to solve mixed variable optimization problems, in which the objective and constraint functions can depend simultaneously on continuous and discrete variables. Additionally, complex system design problems occasionally present a variable-size design space. This results in an optimization problem for which the search space varies dynamically (with respect to both number and type of variables) along the optimization process as a function of the values of specific discrete decision variables. Similarly, the number and type of constraints can vary as well. In this paper, two alternative Bayesian Optimization-based approaches are proposed in order to solve this type of optimization problems. The first one consists in a budget allocation strategy allowing to focus the computational budget on the most promising design sub-spaces. The second approach, instead, is based on the definition of a kernel function allowing to compute the covariance between samples characterized by partially different sets of variables. The results obtained on analytical and engineering related test-cases show a faster and more consistent convergence of both proposed methods with respect to the standard approaches.
翻訳日:2022-12-26 01:37:12 公開日:2020-03-06
# S-APIR:ニュースベースのビジネス感指数

S-APIR: News-based Business Sentiment Index ( http://arxiv.org/abs/2003.02973v1 )

ライセンス: Link先を確認
Kazuhiro Seki and Yusuke Ikuta(参考訳) 本稿では,日刊新聞記事を用いた新たなビジネス感情指標の開発について述べる。 我々は、与えられたテキストのビジネス感情を予測するために、Gated Recurrent Unitsを備えたリカレントニューラルネットワーク(RNN)を採用する。 RNNは最初、Economic Watchers Surveyで訓練され、その後、ドメイン適応のためのニューステキストで微調整される。 また、一級サポートベクターマシンを使用して、ビジネス感情と無関係と考えられるテキストをフィルタリングする。 さらに,特定の要因が予測されたビジネス感情に与える影響を時間的・時間的に分析する手法を提案する。 提案手法の有効性と有用性は,2013年から2018年にかけて発行された日経新聞記事の一連の実験を通じて実証的に実証された。

This paper describes our work on developing a new business sentiment index using daily newspaper articles. We adopt a recurrent neural network (RNN) with Gated Recurrent Units to predict the business sentiment of a given text. An RNN is initially trained on Economy Watchers Survey and then fine-tuned on news texts for domain adaptation. Also, a one-class support vector machine is applied to filter out texts deemed irrelevant to business sentiment. Moreover, we propose a simple approach to temporally analyzing how much and when any given factor influences the predicted business sentiment. The validity and utility of the proposed approaches are empirically demonstrated through a series of experiments on Nikkei Newspaper articles published from 2013 to 2018.
翻訳日:2022-12-26 01:37:00 公開日:2020-03-06
# 一般ゲームにおける実験研究:経験報告

Experimental Studies in General Game Playing: An Experience Report ( http://arxiv.org/abs/2003.03410v1 )

ライセンス: Link先を確認
Jakub Kowalski, Marek Szyku{\l}a(参考訳) 汎用ゲームプレイング実験の歴史の15年近くを、様々なGGPエージェントと異なるフォーマリズムによって記述されたゲームをプレイするように設計されたシステムの比較の再現性と公正性の文脈で記述する。 われわれの調査は、何ら改善の余地がなかった場合にカオス的な方法が許されたか、興味深い視点を提供するかもしれない。 最後に,我々は経験に基づく視点から,このような特定の研究分野を今後どのように適切に扱うべきかを提言する。 本研究の目的は,地域における実験研究における共通的な困難と問題点を指摘することである。 われわれのリコメンデーションが将来の作業でそれらを避け、より公平で再現可能な比較を可能にすることを願っている。

We describe nearly fifteen years of General Game Playing experimental research history in the context of reproducibility and fairness of comparisons between various GGP agents and systems designed to play games described by different formalisms. We think our survey may provide an interesting perspective of how chaotic methods were allowed when nothing better was possible. Finally, from our experience-based view, we would like to propose a few recommendations of how such specific heterogeneous branch of research should be handled appropriately in the future. The goal of this note is to point out common difficulties and problems in the experimental research in the area. We hope that our recommendations will help in avoiding them in future works and allow more fair and reproducible comparisons.
翻訳日:2022-12-26 01:30:59 公開日:2020-03-06
# GeoConv: 顔行動単位認識のための測地ガイド付き畳み込み

GeoConv: Geodesic Guided Convolution for Facial Action Unit Recognition ( http://arxiv.org/abs/2003.03055v1 )

ライセンス: Link先を確認
Yuedong Chen, Guoxian Song, Zhiwen Shao, Jianfei Cai, Tat-Jen Cham, Jianming Zheng(参考訳) AU(Automatic Face Action Unit)の認識は注目されているが、局所的な顔面筋の微妙な変化が完全に捉えにくいため、依然として困難な課題である。 既存のau認識手法の多くは、3d多様体情報を無視するか、高い計算コストに苦しむ2dまたは3d方法で幾何学情報を活用する。 本稿では,3次元多様体情報を2次元畳み込みに埋め込み,AU認識のための新しい測地案内畳み込み(GeoConv)を提案する。 特に、geoconvの核は、粗く再構成された3d顔モデル上の測地線距離と負の相関を持つ、導入された測地線重みによって重み付けされる。 さらに,GeoConvに基づいて,AU認識のためのGeoCNNというエンドツーエンドのトレーニング可能なフレームワークをさらに開発する。 BP4D と DISFA のベンチマークによる大規模な実験により,我々の手法は最先端の AU 認識法よりも優れていた。

Automatic facial action unit (AU) recognition has attracted great attention but still remains a challenging task, as subtle changes of local facial muscles are difficult to thoroughly capture. Most existing AU recognition approaches leverage geometry information in a straightforward 2D or 3D manner, which either ignore 3D manifold information or suffer from high computational costs. In this paper, we propose a novel geodesic guided convolution (GeoConv) for AU recognition by embedding 3D manifold information into 2D convolutions. Specifically, the kernel of GeoConv is weighted by our introduced geodesic weights, which are negatively correlated to geodesic distances on a coarsely reconstructed 3D face model. Moreover, based on GeoConv, we further develop an end-to-end trainable framework named GeoCNN for AU recognition. Extensive experiments on BP4D and DISFA benchmarks show that our approach significantly outperforms the state-of-the-art AU recognition methods.
翻訳日:2022-12-26 01:30:23 公開日:2020-03-06
# show, edit and tell: 画像キャプションを編集するためのフレームワーク

Show, Edit and Tell: A Framework for Editing Image Captions ( http://arxiv.org/abs/2003.03107v1 )

ライセンス: Link先を確認
Fawaz Sammani, Luke Melas-Kyriazi(参考訳) ほとんどの画像キャプションフレームワークは画像から直接キャプションを生成し、視覚的特徴から自然言語へのマッピングを学ぶ。 しかし、既存のキャプションの編集はスクラッチから新しいキャプションを生成するよりも容易である。 直感的には、キャプションを編集する際には、キャプションにすでに存在する情報(文構造など)を学習する必要がなく、詳細の修正(繰り返し単語の置き換えなど)に集中することができる。 本稿では,既存のキャプションの反復的適応改良に基づく画像キャプション手法を提案する。 具体的には,(1)適応型コピー機構(copy-LSTM)と選択型コピーメモリアテンション機構(SCMA)を備えた言語モジュールであるEditNetと,(2)LSTMに基づくデノナイズ自動エンコーダであるDCNetの2つのサブモジュールからなるキャプション編集モデルについて述べる。 これらのコンポーネントにより、既存のキャプションを直接コピーして修正することができます。 実験により,MS COCOデータセット上で,シーケンスレベルのトレーニングを必要とせず,最先端のパフォーマンスを実現することができた。

Most image captioning frameworks generate captions directly from images, learning a mapping from visual features to natural language. However, editing existing captions can be easier than generating new ones from scratch. Intuitively, when editing captions, a model is not required to learn information that is already present in the caption (i.e. sentence structure), enabling it to focus on fixing details (e.g. replacing repetitive words). This paper proposes a novel approach to image captioning based on iterative adaptive refinement of an existing caption. Specifically, our caption-editing model consisting of two sub-modules: (1) EditNet, a language module with an adaptive copy mechanism (Copy-LSTM) and a Selective Copy Memory Attention mechanism (SCMA), and (2) DCNet, an LSTM-based denoising auto-encoder. These components enable our model to directly copy from and modify existing captions. Experiments demonstrate that our new approach achieves state-of-art performance on the MS COCO dataset both with and without sequence-level training.
翻訳日:2022-12-26 01:29:54 公開日:2020-03-06
# D3Feat:Dense Detectionと3次元局所特徴記述の共同学習

D3Feat: Joint Learning of Dense Detection and Description of 3D Local Features ( http://arxiv.org/abs/2003.03164v1 )

ライセンス: Link先を確認
Xuyang Bai, Zixin Luo, Lei Zhou, Hongbo Fu, Long Quan, Chiew-Lan Tai(参考訳) 成功したポイントクラウドの登録は、しばしば差別的な3Dローカル特徴を通してスパースマッチの堅牢な確立の上に置かれる。 学習に基づく3d特徴記述器の急速な進化にもかかわらず、3d特徴検出器の学習にはほとんど注意が払われていない。 本稿では,3次元点雲に3次元完全畳み込みネットワークを活用し,各3次元点に対する検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。 特に,3次元点雲の固有密度変動を克服するキーポイント選択戦略を提案し,また,トレーニング中の特徴マッチングによって誘導される自己監視型検出器損失を提案する。 最後に、3dmatchおよびkittiデータセットで評価し、屋内および屋外のシナリオで最先端の結果を得るとともに、ethデータセット上での強力な一般化能力を示す。 実用化に向けて,信頼性の高い特徴検出器を採用することで,少ない数の機能をサンプリングすることで,正確かつ高速な点クラウドアライメントを実現することができることを示す。 [コードリリース](https://github.com/xuyangbai/d3feat)

A successful point cloud registration often lies on robust establishment of sparse matches through discriminative 3D local features. Despite the fast evolution of learning-based 3D feature descriptors, little attention has been drawn to the learning of 3D feature detectors, even less for a joint learning of the two tasks. In this paper, we leverage a 3D fully convolutional network for 3D point clouds, and propose a novel and practical learning mechanism that densely predicts both a detection score and a description feature for each 3D point. In particular, we propose a keypoint selection strategy that overcomes the inherent density variations of 3D point clouds, and further propose a self-supervised detector loss guided by the on-the-fly feature matching results during training. Finally, our method achieves state-of-the-art results in both indoor and outdoor scenarios, evaluated on 3DMatch and KITTI datasets, and shows its strong generalization ability on the ETH dataset. Towards practical use, we show that by adopting a reliable feature detector, sampling a smaller number of features is sufficient to achieve accurate and fast point cloud alignment.[code release](https://github.com/XuyangBai/D3Feat)
翻訳日:2022-12-26 01:29:22 公開日:2020-03-06
# 深層ニューラルネットワーク通信の動向と進歩

Trends and Advancements in Deep Neural Network Communication ( http://arxiv.org/abs/2003.03320v1 )

ライセンス: Link先を確認
Felix Sattler, Thomas Wiegand, Wojciech Samek(参考訳) 優れたパフォーマンスとスケーラビリティのため、ニューラルネットワークは多くのアプリケーションのユビキタスなビルディングブロックになっている。 モバイルとIoTの台頭に伴い、これらのモデルは分散設定にもますます適用され、データ所有者は限られた通信チャネルとプライバシ制約によって分離される。 これらの分散環境の課題に対処するために、ニューラルネットワークのパラメトリゼーションの通信を必要とする幅広いトレーニングと評価スキームが開発された。 データにインテリジェントをもたらすこれらの新しいアプローチは、プライバシ保護、セキュリティとデバイスの自律性の向上、通信効率、高いトレーニング速度といった従来のクラウドソリューションよりも多くの利点を持っています。 本稿では,機械学習とコミュニケーションの交差点における新しい研究分野における最近の進歩と課題について概説する。

Due to their great performance and scalability properties neural networks have become ubiquitous building blocks of many applications. With the rise of mobile and IoT, these models now are also being increasingly applied in distributed settings, where the owners of the data are separated by limited communication channels and privacy constraints. To address the challenges of these distributed environments, a wide range of training and evaluation schemes have been developed, which require the communication of neural network parametrizations. These novel approaches, which bring the "intelligence to the data" have many advantages over traditional cloud solutions such as privacy-preservation, increased security and device autonomy, communication efficiency and high training speed. This paper gives an overview over the recent advancements and challenges in this new field of research at the intersection of machine learning and communications.
翻訳日:2022-12-26 01:21:31 公開日:2020-03-06
# オーバー・ザ・エア計算による分散SGD

Decentralized SGD with Over-the-Air Computation ( http://arxiv.org/abs/2003.04216v1 )

ライセンス: Link先を確認
Emre Ozfatura, Stefano Rini, Deniz Gunduz(参考訳) 本研究では,無線ネットワークにおける分散確率勾配降下(DSGD)の性能について検討する。 誤りのない直交通信リンクを介してノードが通信する従来の設定とは異なり、伝送は付加ノイズや干渉の影響を受けやすいと仮定し、まずはoac-p2pスキームと呼ばれるポイントツーポイント(p2p)伝送戦略を検討し、ノードペアを直交的にスケジュールすることで干渉を最小限に抑える。 DSGDフレームワークでは,各ノードはコンセンサスステップで隣接モデルの線形結合を必要とするため,無線媒体の信号重畳特性を利用したOAC-MACスキームを提案し,オーバー・ザ・エア計算(OAC)を実現する。 どちらのスキームもスケジューリング問題をグラフカラー化問題としてキャストした。 様々なネットワーク条件下でのmnist画像分類タスクにおける2つのスキームの性能を数値的に評価した。 OAC-MAC方式はより少ない通信ラウンドでコンバージェンス性能が向上することを示す。

We study the performance of decentralized stochastic gradient descent (DSGD) in a wireless network, where the nodes collaboratively optimize an objective function using their local datasets. Unlike the conventional setting, where the nodes communicate over error-free orthogonal communication links, we assume that transmissions are prone to additive noise and interference.We first consider a point-to-point (P2P) transmission strategy, termed the OAC-P2P scheme, in which the node pairs are scheduled in an orthogonal fashion to minimize interference. Since in the DSGD framework, each node requires a linear combination of the neighboring models at the consensus step, we then propose the OAC-MAC scheme, which utilizes the signal superposition property of the wireless medium to achieve over-the-air computation (OAC). For both schemes, we cast the scheduling problem as a graph coloring problem. We numerically evaluate the performance of these two schemes for the MNIST image classification task under various network conditions. We show that the OAC-MAC scheme attains better convergence performance with a fewer communication rounds.
翻訳日:2022-12-26 01:21:19 公開日:2020-03-06
# Morfessor EM+Prune:期待最大化とプルーニングによる単語分割の改善

Morfessor EM+Prune: Improved Subword Segmentation with Expectation Maximization and Pruning ( http://arxiv.org/abs/2003.03131v1 )

ライセンス: Link先を確認
Stig-Arne Gr\"onroos, Sami Virpioja, Mikko Kurimo(参考訳) データによる単語のサブワード単位へのセグメンテーションは、音声認識や統計機械翻訳など、さまざまな自然言語処理アプリケーションで20年近く使われてきた。 近年、ディープニューラルネットワークに基づくモデルは、形態学的に単純な言語であっても、サブワード単位の恩恵を受けるようになった。 本稿では,期待最大化アルゴリズムとレキシコンプルーニングに基づいて,ユニグラムサブワードモデルの学習アルゴリズムを考察・比較する。 英語,フィンランド語,北サーミ語,トルコ語のデータセットを用いて,Morfessor Baselineモデルが定義した最適化問題に対する,元の再帰学習アルゴリズムよりも優れた解を求めることができることを示す。 改良された最適化により、言語的ゴールド標準と比較して、形態的セグメンテーションの精度が向上する。 我々は,新しいアルゴリズムの実装を広く使用されているMorfessorソフトウェアパッケージに公開する。

Data-driven segmentation of words into subword units has been used in various natural language processing applications such as automatic speech recognition and statistical machine translation for almost 20 years. Recently it has became more widely adopted, as models based on deep neural networks often benefit from subword units even for morphologically simpler languages. In this paper, we discuss and compare training algorithms for a unigram subword model, based on the Expectation Maximization algorithm and lexicon pruning. Using English, Finnish, North Sami, and Turkish data sets, we show that this approach is able to find better solutions to the optimization problem defined by the Morfessor Baseline model than its original recursive training algorithm. The improved optimization also leads to higher morphological segmentation accuracy when compared to a linguistic gold standard. We publish implementations of the new algorithms in the widely-used Morfessor software package.
翻訳日:2022-12-26 01:20:25 公開日:2020-03-06
# 質問応答データセットの実用的アノテーション戦略

Practical Annotation Strategies for Question Answering Datasets ( http://arxiv.org/abs/2003.03235v1 )

ライセンス: Link先を確認
Bernhard Kratzwald, Xiang Yue, Huan Sun, Stefan Feuerriegel(参考訳) 質問応答(QA)タスクにデータセットをアノテートするのは、集中的な手作業とドメイン固有の知識を必要とするため、非常にコストがかかる。 しかし、QAデータセットをコスト効率よくアノテートする戦略は乏しい。 課題のサブセットに注釈を付けるためのヒューリスティックなルールを開発することを目的としており、ドメイン内とドメイン外の両方のパフォーマンスを維持しつつアノテーションコストを削減できる。 そこで我々は,実践的なレコメンデーションを導き出すため,大規模な分析を行う。 まず、より多くのトレーニングサンプルがドメイン内テストセットのパフォーマンスの向上に寄与することがしばしばあるが、見当たらないデータセットへの一般化には役に立たないことを示す。 次に、モデル誘導型アノテーション戦略を開発し、どのサブセットに注釈を付けるべきかを推奨する。 臨床現場におけるQAのドメインカスタマイズに基づくケーススタディにおいて,その効果が示された。 驚くべきことに、最初のトレーニングセットのわずか1.2%で階層化されたサブセットにアノテートすることで、完全なデータセットがアノテートされたかのようにパフォーマンスの97.7%が達成される。 したがって、ラベリング労力を大幅に削減することができる。 また、予算のラベル付けが限定され、QAデータセットのアノテートがよりコスト効率良く必要となる場合、当社の作業は実践的な需要を満たす。

Annotating datasets for question answering (QA) tasks is very costly, as it requires intensive manual labor and often domain-specific knowledge. Yet strategies for annotating QA datasets in a cost-effective manner are scarce. To provide a remedy for practitioners, our objective is to develop heuristic rules for annotating a subset of questions, so that the annotation cost is reduced while maintaining both in- and out-of-domain performance. For this, we conduct a large-scale analysis in order to derive practical recommendations. First, we demonstrate experimentally that more training samples contribute often only to a higher in-domain test-set performance, but do not help the model in generalizing to unseen datasets. Second, we develop a model-guided annotation strategy: it makes a recommendation with regard to which subset of samples should be annotated. Its effectiveness is demonstrated in a case study based on domain customization of QA to a clinical setting. Here, remarkably, annotating a stratified subset with only 1.2% of the original training set achieves 97.7% of the performance as if the complete dataset was annotated. Hence, the labeling effort can be reduced immensely. Altogether, our work fulfills a demand in practice when labeling budgets are limited and where thus recommendations are needed for annotating QA datasets more cost-effectively.
翻訳日:2022-12-26 01:20:09 公開日:2020-03-06
# BasisVAE:変分オートエンコーダを用いた翻訳不変な特徴レベルクラスタリング

BasisVAE: Translation-invariant feature-level clustering with Variational Autoencoders ( http://arxiv.org/abs/2003.03462v1 )

ライセンス: Link先を確認
Kaspar M\"artens and Christopher Yau(参考訳) 変分オートエンコーダ(VAE)は、非線形次元削減のための柔軟でスケーラブルなフレームワークを提供する。 しかし、データセットが通常表形式で高次元であるゲノミクスのようなアプリケーション領域では、次元減少に対するブラックボックスアプローチは十分な洞察を与えていない。 一般的なデータ分析ワークフローは、クラスタリング技術を使って類似した機能のグループを識別する。 これは通常2段階のプロセスにつながるが、同時次元の削減と特徴のクラスタリングのための共同モデリングフレームワークを構築することが望ましい。 本稿では,VAEと確率的クラスタリングを組み合わせたBasisVAEを用いて,デコーダネットワークの一部として1ホット基底関数表現を学習する手法を提案する。 さらに、全ての機能が整列していないシナリオに対して、翻訳不変基底関数を扱う拡張を開発する。 崩壊した変異型推論がBasisVAEのスケーラブルで効率的な推論にどのように寄与するかを示し、様々なおもちゃの例や単細胞遺伝子発現データで実証した。

Variational Autoencoders (VAEs) provide a flexible and scalable framework for non-linear dimensionality reduction. However, in application domains such as genomics where data sets are typically tabular and high-dimensional, a black-box approach to dimensionality reduction does not provide sufficient insights. Common data analysis workflows additionally use clustering techniques to identify groups of similar features. This usually leads to a two-stage process, however, it would be desirable to construct a joint modelling framework for simultaneous dimensionality reduction and clustering of features. In this paper, we propose to achieve this through the BasisVAE: a combination of the VAE and a probabilistic clustering prior, which lets us learn a one-hot basis function representation as part of the decoder network. Furthermore, for scenarios where not all features are aligned, we develop an extension to handle translation-invariant basis functions. We show how a collapsed variational inference scheme leads to scalable and efficient inference for BasisVAE, demonstrated on various toy examples as well as on single-cell gene expression data.
翻訳日:2022-12-26 01:12:59 公開日:2020-03-06
# 人口健康コスト予測のための深層学習

Deep learning for prediction of population health costs ( http://arxiv.org/abs/2003.03466v1 )

ライセンス: Link先を確認
Philipp Drewe-Boss, Dirk Enders, Jochen Walker, Uwe Ohler(参考訳) 医療費の正確な予測は、医療費の最適管理に重要である。 しかし、健康保険請求書や電子健康記録などのデータから医療豊かさを活用する方法が欠落している。 そこで我々は,健康保険請求記録から将来のコストを予測するディープニューラルネットワークを開発した。 深層ネットワークと隆起回帰モデルを用いて,ドイツの保険業者14万人を対象に,1年間の医療費の予測を行った。 どちらの手法も様々な性能指標を持つmorbi-rsaモデルと比較され、コスト変化のある患者を予測し、関連するコードを特定するためにも用いられた。 ニューラルネットワークは、コスト予測のためのすべてのmorbi-rsaモデルと同様にリッジ回帰よりも優れていた。 さらに、ニューラルネットワークは、コスト変化のある患者を予測し、より具体的なコードを特定する際に、リッジ回帰よりも優れていた。 まとめると、私たちのディープニューラルネットワークは患者の記録の複雑さを最大限に活用し、標準的なアプローチより優れています。 より優れた性能は、モデルに複雑な相互作用を組み込む能力と、モデルが他の健康表現型を予測するためにも使われることに起因することを示唆する。

Accurate prediction of healthcare costs is important for optimally managing health costs. However, methods leveraging the medical richness from data such as health insurance claims or electronic health records are missing. Here, we developed a deep neural network to predict future cost from health insurance claims records. We applied the deep network and a ridge regression model to a sample of 1.4 million German insurants to predict total one-year health care costs. Both methods were compared to Morbi-RSA models with various performance measures and were also used to predict patients with a change in costs and to identify relevant codes for this prediction. We showed that the neural network outperformed the ridge regression as well as all Morbi-RSA models for cost prediction. Further, the neural network was superior to ridge regression in predicting patients with cost change and identified more specific codes. In summary, we showed that our deep neural network can leverage the full complexity of the patient records and outperforms standard approaches. We suggest that the better performance is due to the ability to incorporate complex interactions in the model and that the model might also be used for predicting other health phenotypes.
翻訳日:2022-12-26 01:12:43 公開日:2020-03-06
# リカレントニューラルネットワークを用いたカオスシステムの長期予測

Long-term prediction of chaotic systems with recurrent neural networks ( http://arxiv.org/abs/2004.01258v1 )

ライセンス: Link先を確認
Huawei Fan, Junjie Jiang, Chun Zhang, Xingang Wang, and Ying-Cheng Lai(参考訳) リカレントニューラルネットワークのクラスであるリザーバコンピューティングシステムは、様々なカオス力学系の状態進化をモデルフリーでデータベースで予測するために最近利用されている。 予測の地平線はおよそ半ダースのライプノフ時間であった。 これまで達成した以上の予測時間を大幅に延長することは可能ですか? 我々は,時間依存型だがスパースなデータ入力を貯水池コンピューティングに組み込んで,実際の状態のこのような稀な「更新」によって,様々なカオスシステムに対する任意の長期予測の地平線が実現できることを実証する。 時間同期理論に基づく物理的理解が開発されている。

Reservoir computing systems, a class of recurrent neural networks, have recently been exploited for model-free, data-based prediction of the state evolution of a variety of chaotic dynamical systems. The prediction horizon demonstrated has been about half dozen Lyapunov time. Is it possible to significantly extend the prediction time beyond what has been achieved so far? We articulate a scheme incorporating time-dependent but sparse data inputs into reservoir computing and demonstrate that such rare "updates" of the actual state practically enable an arbitrarily long prediction horizon for a variety of chaotic systems. A physical understanding based on the theory of temporal synchronization is developed.
翻訳日:2022-12-26 01:12:26 公開日:2020-03-06
# ウェーブレット特徴を用いたマンモグラフィ診断のためのニューラルネットワークアプローチ

Neural networks approach for mammography diagnosis using wavelets features ( http://arxiv.org/abs/2003.03000v1 )

ライセンス: Link先を確認
Essam A. Rashed and and Mohamed G. Awad(参考訳) デジタルマンモグラムの教師付き診断システムを開発した。 画像のデータをウェーブレットのマルチレベル分解を用いて特徴ベクトルに変換することで診断処理を行う。 このベクトルは、異なるマンモグラムクラスを分離するための特徴として使われる。 提案モデルは、腫瘍の種類やリスクレベルに応じてマンモグラムを分類するために設計された人工ニューラルネットワークである。 結果は,1段階の分解ではなく,多段階分解を用いて特徴ベクトルを抽出することにより,従来の研究から強化された。 診断システムの評価には放射線医標識画像を用いた。 結果は非常に有望であり、将来の仕事のガイドを示します。

A supervised diagnosis system for digital mammogram is developed. The diagnosis processes are done by transforming the data of the images into a feature vector using wavelets multilevel decomposition. This vector is used as the feature tailored toward separating different mammogram classes. The suggested model consists of artificial neural networks designed for classifying mammograms according to tumor type and risk level. Results are enhanced from our previous study by extracting feature vectors using multilevel decompositions instead of one level of decomposition. Radiologist-labeled images were used to evaluate the diagnosis system. Results are very promising and show possible guide for future work.
翻訳日:2022-12-26 01:12:15 公開日:2020-03-06
# Meta-SVDD:癌組織像の1クラス分類のための確率的メタラーニング

Meta-SVDD: Probabilistic Meta-Learning for One-Class Classification in Cancer Histology Images ( http://arxiv.org/abs/2003.03109v1 )

ライセンス: Link先を確認
Jevgenij Gamper, Brandon Chan, Yee Wah Tsang, David Snead, Nasir Rajpoot(参考訳) 堅牢なディープラーニングモデルをトレーニングするには、通常、トレーニングデータにバランスのとれたカテゴリセットが必要です。 しかし、医療分野で取得されたデータは、健康な患者が多数いるのに対して、少数の陽性、異常なケースが多数含まれていることが多い。 さらに、陽性サンプルのアノテーションは、医療分野の専門家からの入力に時間を要する。 このシナリオは、一クラスの分類型アプローチの可能性を示唆している。 本研究では,複数のヒストロジーデータセット上で同時にメタトレーニングを行い,高価な再トレーニングをすることなく新たなタスクに適用可能な,ヒストロジーのための汎用1クラス分類モデルを提案する。 このモデルは、病理領域の専門家によって容易に利用でき、スクリーニングの目的で使用することができる。

To train a robust deep learning model, one usually needs a balanced set of categories in the training data. The data acquired in a medical domain, however, frequently contains an abundance of healthy patients, versus a small variety of positive, abnormal cases. Moreover, the annotation of a positive sample requires time consuming input from medical domain experts. This scenario would suggest a promise for one-class classification type approaches. In this work we propose a general one-class classification model for histology, that is meta-trained on multiple histology datasets simultaneously, and can be applied to new tasks without expensive re-training. This model could be easily used by pathology domain experts, and potentially be used for screening purposes.
翻訳日:2022-12-26 01:11:21 公開日:2020-03-06
# ディープラーニングを用いた交通標識検出・認識システム

Traffic Signs Detection and Recognition System using Deep Learning ( http://arxiv.org/abs/2003.03256v1 )

ライセンス: Link先を確認
Pavly Salah Zaki, Marco Magdy William, Bolis Karam Soliman, Kerolos Gamal Alexsan, Keroles Khalil, and Magdy El-Moursy(参考訳) 技術の急速な発展により、自動車は日々の生活において不可欠な資産になっている。 最も重要な研究の1つは交通信号認識(TSR)システムである。 本稿では,移動学習による様々な天候,照明,視認性の課題を考慮し,交通標識をリアルタイムで効率的に検出・認識する手法について述べる。 本稿では,f-rcnn(fastly recurrent convolutional neural networks)やssd(single shot multibox detector)といったマルチオブジェクト検出システムの最先端技術とmobilenet v1やinception v2といった様々な特徴抽出器とtiny-yolov2を組み合わせたトラヒックサイン検出問題に対処する。 しかし,本論文の焦点は,F-RCNN インセプション v2 と Tiny YOLO v2 である。 上記のモデルは、ドイツのtraffic signs detection benchmark (gtsdb)データセットで微調整された。 これらのモデルはホストPCとRaspberry Pi 3 Model B+およびTASS PreScanシミュレーションでテストされた。 結論のセクションでは、すべてのモデルの結果について論じる。

With the rapid development of technology, automobiles have become an essential asset in our day-to-day lives. One of the more important researches is Traffic Signs Recognition (TSR) systems. This paper describes an approach for efficiently detecting and recognizing traffic signs in real-time, taking into account the various weather, illumination and visibility challenges through the means of transfer learning. We tackle the traffic sign detection problem using the state-of-the-art of multi-object detection systems such as Faster Recurrent Convolutional Neural Networks (F-RCNN) and Single Shot Multi- Box Detector (SSD) combined with various feature extractors such as MobileNet v1 and Inception v2, and also Tiny-YOLOv2. However, the focus of this paper is going to be F-RCNN Inception v2 and Tiny YOLO v2 as they achieved the best results. The aforementioned models were fine-tuned on the German Traffic Signs Detection Benchmark (GTSDB) dataset. These models were tested on the host PC as well as Raspberry Pi 3 Model B+ and the TASS PreScan simulation. We will discuss the results of all the models in the conclusion section.
翻訳日:2022-12-26 01:10:26 公開日:2020-03-06
# 頻回入院患者に着目した集中治療ノートの高文脈医療状況検出コーパス

A Corpus for Detecting High-Context Medical Conditions in Intensive Care Patient Notes Focusing on Frequently Readmitted Patients ( http://arxiv.org/abs/2003.03044v1 )

ライセンス: Link先を確認
Edward T. Moseley, Joy T. Wu, Jonathan Welt, John Foote, Patrick D. Tyler, David W. Grant, Eric T. Carlson, Sebastian Gehrmann, Franck Dernoncourt and Leo Anthony Celi(参考訳) 電子健康記録の二次分析における重要なステップは、調査中の患者のコホートを特定することである。 EHRには、患者が持つ可能性のある条件や治療を表現するための医療請求コードが含まれているが、その情報の多くは、患者ノートにのみ存在する。 したがって, 患者の症状や治療を手書きのノートから推測する堅牢なアルゴリズムを開発することが重要である。 本稿では,患者が患者ノートに基づいて所定の医療状態(臨床適応または表現型とも呼ばれる)を持っているかどうかを識別するための課題である,患者表現型分類のためのデータセットを提案する。 大3次病院集中治療室の看護進歩ノートと退院サマリーを手動で注釈し, 治療と再入院リスクに関連するいくつかの高文脈表現型の存在について検討した。 このデータセットには1102の退院サマリーと1000の看護進捗ノートが含まれている。 退院要旨と経過記は、少なくとも2名の専門家(臨床研究者1名、居住医1名)が注釈を付けている。 注釈付き表現型には、非アジェレンス治療、慢性痛、進行/転移性癌、および他の10種類の表現型が含まれる。 このデータセットは、医学および計算機科学、特に医学自然言語処理の分野での学術的および産業的な研究に利用できる。

A crucial step within secondary analysis of electronic health records (EHRs) is to identify the patient cohort under investigation. While EHRs contain medical billing codes that aim to represent the conditions and treatments patients may have, much of the information is only present in the patient notes. Therefore, it is critical to develop robust algorithms to infer patients' conditions and treatments from their written notes. In this paper, we introduce a dataset for patient phenotyping, a task that is defined as the identification of whether a patient has a given medical condition (also referred to as clinical indication or phenotype) based on their patient note. Nursing Progress Notes and Discharge Summaries from the Intensive Care Unit of a large tertiary care hospital were manually annotated for the presence of several high-context phenotypes relevant to treatment and risk of re-hospitalization. This dataset contains 1102 Discharge Summaries and 1000 Nursing Progress Notes. Each Discharge Summary and Progress Note has been annotated by at least two expert human annotators (one clinical researcher and one resident physician). Annotated phenotypes include treatment non-adherence, chronic pain, advanced/metastatic cancer, as well as 10 other phenotypes. This dataset can be utilized for academic and industrial research in medicine and computer science, particularly within the field of medical natural language processing.
翻訳日:2022-12-26 01:04:27 公開日:2020-03-06
# 感性分析課題における単語埋め込みの品質

Quality of Word Embeddings on Sentiment Analysis Tasks ( http://arxiv.org/abs/2003.03264v1 )

ライセンス: Link先を確認
Erion \c{C}ano and Maurizio Morisio(参考訳) 単語の埋め込みや単語の分散表現は、機械翻訳、感情分析、トピック識別などの様々なアプリケーションで使われている。 単語埋め込みの品質とアプリケーションの性能は、トレーニング方法、コーパスサイズ、関連性など、いくつかの要素に依存する。 本研究では,歌詞感情分析と映画レビューの極性タスクにおいて,事前学習した単語埋め込みモデルの性能を比較した。 われわれの結果によると、Twitterのツイートは歌詞の感情分析でベスト、Google NewsとCommon Crawlは映画極性分析のトップパフォーマーだ。 グラブが訓練したモデルは、Skipgramで訓練したモデルよりわずかに上回った。 また、トピックの関連性やコーパスのサイズといった要因がモデルの品質に大きく影響します。 中規模または大規模のテキストセットが利用可能であれば、同じトレーニングデータセットから単語埋め込みを得るのが最善の選択です。

Word embeddings or distributed representations of words are being used in various applications like machine translation, sentiment analysis, topic identification etc. Quality of word embeddings and performance of their applications depends on several factors like training method, corpus size and relevance etc. In this study we compare performance of a dozen of pretrained word embedding models on lyrics sentiment analysis and movie review polarity tasks. According to our results, Twitter Tweets is the best on lyrics sentiment analysis, whereas Google News and Common Crawl are the top performers on movie polarity analysis. Glove trained models slightly outrun those trained with Skipgram. Also, factors like topic relevance and size of corpus significantly impact the quality of the models. When medium or large-sized text sets are available, obtaining word embeddings from same training dataset is usually the best choice.
翻訳日:2022-12-26 01:03:49 公開日:2020-03-06
# 政策に基づく強化学習とポスト最適化を用いたレーンマージング

Lane-Merging Using Policy-based Reinforcement Learning and Post-Optimization ( http://arxiv.org/abs/2003.03168v1 )

ライセンス: Link先を確認
Patrick Hart, Leonard Rychly, Alois Knol(参考訳) 多くの現在の行動生成手法は、複雑さにうまく対応できないため、現実の交通状況を扱うのに苦労している。 しかし、振る舞いはデータ駆動アプローチを使ってオフラインで学べる。 特に強化学習は,収集した経験の活用法を暗黙的に学習する上で有望である。 本研究では,ポリシーに基づく強化学習と局所最適化を組み合わせることで,この2つの手法のベストを育み,統合する。 ポリシーに基づく強化学習アルゴリズムは、最適化後の初期解と参照を導く。 したがって、オプティマイザは単一のホモトピークラス(例えば、他の車両の後方または前方)を計算しなければならない。 強化学習中に状態履歴を格納することで、制約チェックに使用でき、オプティマイザがインタラクションを考慮できる。 後最適化は安全層として機能し、新しい手法は安全クリティカルな応用に適用できる。 車両数の異なる車線変更シナリオを用いて提案手法の評価を行った。

Many current behavior generation methods struggle to handle real-world traffic situations as they do not scale well with complexity. However, behaviors can be learned off-line using data-driven approaches. Especially, reinforcement learning is promising as it implicitly learns how to behave utilizing collected experiences. In this work, we combine policy-based reinforcement learning with local optimization to foster and synthesize the best of the two methodologies. The policy-based reinforcement learning algorithm provides an initial solution and guiding reference for the post-optimization. Therefore, the optimizer only has to compute a single homotopy class, e.g.\ drive behind or in front of the other vehicle. By storing the state-history during reinforcement learning, it can be used for constraint checking and the optimizer can account for interactions. The post-optimization additionally acts as a safety-layer and the novel method, thus, can be applied in safety-critical applications. We evaluate the proposed method using lane-change scenarios with a varying number of vehicles.
翻訳日:2022-12-26 01:02:49 公開日:2020-03-06
# 再合成のためのベイズアルゴリズム

A Bayesian algorithm for retrosynthesis ( http://arxiv.org/abs/2003.03190v1 )

ライセンス: Link先を確認
Zhongliang Guo and Stephen Wu and Mitsuru Ohno and Ryo Yoshida(参考訳) 望ましい生成物で終わる合成経路の同定は本質的に時間を要するプロセスであり、反応空間全体の限られた割合に関する専門家の知識に大きく依存している。 現在、新しい機械学習技術は、再合成計画のプロセスを覆している。 本研究の目的は、所望の分子から市販化合物への合成経路を後方に発見することである。 この問題は、全ての可購入性反応剤の組合せのコンビナトリアルな複雑さによる解空間との組合せ最適化タスクに還元される。 我々はベイズ推論と計算の枠組みの中でこの問題に対処する。 このワークフローは2つのステップから構成される: ディープニューラルネットワークは、与えられた反応体の積を高いレベルの精度で前方に予測するように訓練され、その後、ベイズの条件付き確率の法則を介して、このフォワードモデルを後方に反転させる。 後方モデルを用いて, モンテカルロ探索アルゴリズムを用いて, 任意の合成対象で終わる高確率反応列の多種多様な集合を徹底的に探索する。 ベイズ逆合成アルゴリズムは、top-10の精度で、既知の合成経路の80.3%と50.0%を再発見し、全体の精度で最先端のアルゴリズムを上回った。 興味深いことに、モンテカルロ法は多種多様な経路の存在を念頭に設計されており、同じ合成目標に対する数百の反応経路のリストがしばしば示された。 本研究は, 有機化学の専門知識に基づいて, 多様な候補の応用可能性について検討した。

The identification of synthetic routes that end with a desired product has been an inherently time-consuming process that is largely dependent on expert knowledge regarding a limited fraction of the entire reaction space. At present, emerging machine-learning technologies are overturning the process of retrosynthetic planning. The objective of this study is to discover synthetic routes backwardly from a given desired molecule to commercially available compounds. The problem is reduced to a combinatorial optimization task with the solution space subject to the combinatorial complexity of all possible pairs of purchasable reactants. We address this issue within the framework of Bayesian inference and computation. The workflow consists of two steps: a deep neural network is trained that forwardly predicts a product of the given reactants with a high level of accuracy, following which this forward model is inverted into the backward one via Bayes' law of conditional probability. Using the backward model, a diverse set of highly probable reaction sequences ending with a given synthetic target is exhaustively explored using a Monte Carlo search algorithm. The Bayesian retrosynthesis algorithm could successfully rediscover 80.3% and 50.0% of known synthetic routes of single-step and two-step reactions within top-10 accuracy, respectively, thereby outperforming state-of-the-art algorithms in terms of the overall accuracy. Remarkably, the Monte Carlo method, which was specifically designed for the presence of diverse multiple routes, often revealed a ranked list of hundreds of reaction routes to the same synthetic target. We investigated the potential applicability of such diverse candidates based on expert knowledge from synthetic organic chemistry.
翻訳日:2022-12-26 01:01:41 公開日:2020-03-06
# 音声信号からの感情認識のためのマルチ時間畳み込み

Multi-Time-Scale Convolution for Emotion Recognition from Speech Audio Signals ( http://arxiv.org/abs/2003.03375v1 )

ライセンス: Link先を確認
Eric Guizzo, Tillman Weyde, Jack Barnett Leveson(参考訳) 時間変化に対するロバスト性は、話者や文脈に応じて時間軸に著しい局所的拡張や圧縮を示す複雑なスペクトルパターンによって感情が押し出されるため、音声からの感情認識において重要である。 そこで本研究では,音声データの時間-周波数表現を分析する際に,時間変化に対する柔軟性を実現するマルチタイムスケール(mts)手法を提案する。 MTSは、時間軸に沿って拡張および再サンプリングされる畳み込みカーネルによる畳み込みニューラルネットワークを拡張し、標準畳み込み層と比較してトレーニング可能なパラメータの数を増やすことなく、時間的柔軟性を高める。 MTSと標準畳み込み層を,異なる大きさの4つのデータセットを用いて,音声からの感情認識のための異なるアーキテクチャで評価した。 その結果,mts層の利用は,従来の畳み込みに比べて容量と深さの異なるネットワークの一般化を一貫して改善することがわかった。

Robustness against temporal variations is important for emotion recognition from speech audio, since emotion is ex-pressed through complex spectral patterns that can exhibit significant local dilation and compression on the time axis depending on speaker and context. To address this and potentially other tasks, we introduce the multi-time-scale (MTS) method to create flexibility towards temporal variations when analyzing time-frequency representations of audio data. MTS extends convolutional neural networks with convolution kernels that are scaled and re-sampled along the time axis, to increase temporal flexibility without increasing the number of trainable parameters compared to standard convolutional layers. We evaluate MTS and standard convolutional layers in different architectures for emotion recognition from speech audio, using 4 datasets of different sizes. The results show that the use of MTS layers consistently improves the generalization of networks of different capacity and depth, compared to standard convolution, especially on smaller datasets
翻訳日:2022-12-26 01:01:15 公開日:2020-03-06
# dropout: 明示的なフォームとキャパシティコントロール

Dropout: Explicit Forms and Capacity Control ( http://arxiv.org/abs/2003.03397v1 )

ライセンス: Link先を確認
Raman Arora, Peter Bartlett, Poorya Mianjy, Nathan Srebro(参考訳) 各種機械学習問題におけるドロップアウトによるキャパシティ制御について検討する。 まず, 行列完全化のためのドロップアウトについて検討し, 期待値において因子の積の重み付きトレースノルムと等しいデータ依存正規化子を誘導する。 ディープラーニングでは、ドロップアウトによるデータ依存型正規化器が、基礎となる深層ニューラルネットワークのRademacher複雑性を直接制御していることを示す。 これらの開発により、行列補完および深層ニューラルネットワークのトレーニングにおいて、ドロップアウトアルゴリズムの具体的な一般化誤差境界を与えることができる。 MovieLens, MNIST, Fashion-MNISTなどの実世界のデータセットに関する理論的知見を評価する。

We investigate the capacity control provided by dropout in various machine learning problems. First, we study dropout for matrix completion, where it induces a data-dependent regularizer that, in expectation, equals the weighted trace-norm of the product of the factors. In deep learning, we show that the data-dependent regularizer due to dropout directly controls the Rademacher complexity of the underlying class of deep neural networks. These developments enable us to give concrete generalization error bounds for the dropout algorithm in both matrix completion as well as training deep neural networks. We evaluate our theoretical findings on real-world datasets, including MovieLens, MNIST, and Fashion-MNIST.
翻訳日:2022-12-26 00:54:40 公開日:2020-03-06
# 学術的ビッグデータから得られる自動機械学習

Automatic Machine Learning Derived from Scholarly Big Data ( http://arxiv.org/abs/2003.03470v1 )

ライセンス: Link先を確認
Asnat Greenstein-Messica, Roman Vainshtein, Gilad Katz, Bracha Shapira, Lior Rokach(参考訳) 機械学習を適用する上で難しい側面のひとつは、与えられたデータセットに最適なアルゴリズムを特定する必要があることだ。 このプロセスは難しく、時間がかかり、多くの場合、多くのドメイン知識を必要とします。 本研究では,機械学習アルゴリズムを推奨するエキスパートシステムであるsommelierを提案する。 sommelierは、多くの学術出版物のコーパスから抽出されたドメイン知識の単語埋め込み表現に基づいている。 新しいデータセットとその問題記述を提示すると、sommelierは単語埋め込み表現でトレーニングされた推奨モデルを利用して、データセットで使用される最も関連するアルゴリズムのランク付けリストを提供する。 121の公開データセットと53の分類アルゴリズムについて広範な評価を行い,sommelierの有効性を実証した。 ソムリエが推奨する各データセットの上位アルゴリズムは、調査された全てのアルゴリズムの最適精度の97.7%で達成できた。

One of the challenging aspects of applying machine learning is the need to identify the algorithms that will perform best for a given dataset. This process can be difficult, time consuming and often requires a great deal of domain knowledge. We present Sommelier, an expert system for recommending the machine learning algorithms that should be applied on a previously unseen dataset. Sommelier is based on word embedding representations of the domain knowledge extracted from a large corpus of academic publications. When presented with a new dataset and its problem description, Sommelier leverages a recommendation model trained on the word embedding representation to provide a ranked list of the most relevant algorithms to be used on the dataset. We demonstrate Sommelier's effectiveness by conducting an extensive evaluation on 121 publicly available datasets and 53 classification algorithms. The top algorithms recommended for each dataset by Sommelier were able to achieve on average 97.7% of the optimal accuracy of all surveyed algorithms.
翻訳日:2022-12-26 00:53:40 公開日:2020-03-06
# 逆行訓練のための実践的ロテリ・チケット仮説に向けて

Towards Practical Lottery Ticket Hypothesis for Adversarial Training ( http://arxiv.org/abs/2003.05733v1 )

ライセンス: Link先を確認
Bai Li, Shiqi Wang, Yunhan Jia, Yantao Lu, Zhenyu Zhong, Lawrence Carin, Suman Jana(参考訳) 近年の研究では、宝くじチケット仮説が提案されており、ディープニューラルネットワークでは、訓練可能なサブネットワークが元のモデルよりも等しく優れた性能を発揮することが示唆されている。 この発見は洞察に富んでいるが、適切なサブネットワークを見つけるには反復的なトレーニングとプルーニングが必要である。 高いコストがかかると、抽選券仮説の適用が制限される。 トレーニングプロセス中にかなり早く収束し,コスト問題を軽減できる,前述のサブネットワークのサブセットが存在することを示す。 このようなサブネットワークは、ハイパーパラメータの制限的な設定(例えば、慎重に選択された学習率、プルーニング比、モデルキャパシティ)のために、様々なモデル構造に一貫して存在することを示す広範な実験を行う。 本研究の実践的応用として,CIFAR-10上での強靭性向上のための標準的なアプローチである,対人訓練の総時間を最大49倍に削減し,最先端の強靭性を実現する上で,このようなサブネットワークが有効であることを示す。

Recent research has proposed the lottery ticket hypothesis, suggesting that for a deep neural network, there exist trainable sub-networks performing equally or better than the original model with commensurate training steps. While this discovery is insightful, finding proper sub-networks requires iterative training and pruning. The high cost incurred limits the applications of the lottery ticket hypothesis. We show there exists a subset of the aforementioned sub-networks that converge significantly faster during the training process and thus can mitigate the cost issue. We conduct extensive experiments to show such sub-networks consistently exist across various model structures for a restrictive setting of hyperparameters ($e.g.$, carefully selected learning rate, pruning ratio, and model capacity). As a practical application of our findings, we demonstrate that such sub-networks can help in cutting down the total time of adversarial training, a standard approach to improve robustness, by up to 49\% on CIFAR-10 to achieve the state-of-the-art robustness.
翻訳日:2022-12-26 00:53:24 公開日:2020-03-06
# 機能的変分推論を用いたコンピュータビジョンのスケーラブル不確かさ

Scalable Uncertainty for Computer Vision with Functional Variational Inference ( http://arxiv.org/abs/2003.03396v1 )

ライセンス: Link先を確認
Eduardo D C Carvalho, Ronald Clark, Andrea Nicastro, Paul H J Kelly(参考訳) ディープラーニングはコンピュータビジョンに成功し続けており、あらゆる形の不確実性を定量化する能力は、現実世界における安全性と信頼性の確保にとって最重要要件である。 本研究では,関数空間における変分推論の定式化を活用し,ガウス過程(gps)をベイジアンcnnプライオリエントと変分族の両方に関連付ける。 GPは平均と共分散関数によって完全に決定されるので、選択されたCNNアーキテクチャや教師付き学習タスクを経由する単一前方通過のコストで予測的不確実性推定を得ることができる。 帰納的共分散行列の構造を利用して,深度推定やセマンティックセグメンテーションといった高次元タスクの文脈で高速な学習を可能にする数値的アルゴリズムを提案する。 さらに,確率的不確かさの定量化に適合する回帰損失関数を構築するための十分な条件を提供する。

As Deep Learning continues to yield successful applications in Computer Vision, the ability to quantify all forms of uncertainty is a paramount requirement for its safe and reliable deployment in the real-world. In this work, we leverage the formulation of variational inference in function space, where we associate Gaussian Processes (GPs) to both Bayesian CNN priors and variational family. Since GPs are fully determined by their mean and covariance functions, we are able to obtain predictive uncertainty estimates at the cost of a single forward pass through any chosen CNN architecture and for any supervised learning task. By leveraging the structure of the induced covariance matrices, we propose numerically efficient algorithms which enable fast training in the context of high-dimensional tasks such as depth estimation and semantic segmentation. Additionally, we provide sufficient conditions for constructing regression loss functions whose probabilistic counterparts are compatible with aleatoric uncertainty quantification.
翻訳日:2022-12-26 00:52:42 公開日:2020-03-06
# ニューラルネットワークのプルーニング状態とは何か?

What is the State of Neural Network Pruning? ( http://arxiv.org/abs/2003.03033v1 )

ライセンス: Link先を確認
Davis Blalock, Jose Javier Gonzalez Ortiz, Jonathan Frankle, John Guttag(参考訳) ニューラルネットワークのプルーニング - パラメータを除去することでネットワークのサイズを小さくするタスク- は、近年多くの作業の対象となっている。 文献のメタ分析を行い, 刈り取りへのアプローチの概要と文献における一貫した発見について概説する。 81の論文に結果を集計し、制御された環境で数百のモデルを掘り下げた結果、コミュニティが標準ベンチマークやメトリクスの欠如に苦しんでいることが明らかになりました。 この不足は十分に深刻であり、刈り取りのテクニックを互いに比較したり、この分野が過去30年間にどれほど進歩したかを決定することは困難である。 このような状況に対処するため,現状の課題を特定し,具体的な対策を提案し,プルーニング手法の標準化評価を容易にするオープンソースフレームワークであるchreshbenchを導入する。 我々はShrinkBenchを用いて様々な刈り込み技術を比較し、その総合的な評価が刈り込み手法の比較において共通の落とし穴を防ぐことを示す。

Neural network pruning---the task of reducing the size of a network by removing parameters---has been the subject of a great deal of work in recent years. We provide a meta-analysis of the literature, including an overview of approaches to pruning and consistent findings in the literature. After aggregating results across 81 papers and pruning hundreds of models in controlled conditions, our clearest finding is that the community suffers from a lack of standardized benchmarks and metrics. This deficiency is substantial enough that it is hard to compare pruning techniques to one another or determine how much progress the field has made over the past three decades. To address this situation, we identify issues with current practices, suggest concrete remedies, and introduce ShrinkBench, an open-source framework to facilitate standardized evaluations of pruning methods. We use ShrinkBench to compare various pruning techniques and show that its comprehensive evaluation can prevent common pitfalls when comparing pruning methods.
翻訳日:2022-12-26 00:46:02 公開日:2020-03-06
# 深層強化学習によるコスト感性ポートフォリオ選択

Cost-Sensitive Portfolio Selection via Deep Reinforcement Learning ( http://arxiv.org/abs/2003.03051v1 )

ライセンス: Link先を確認
Yifan Zhang, Peilin Zhao, Qingyao Wu, Bin Li, Junzhou Huang, and Mingkui Tan(参考訳) Portfolio Selectionは現実世界の重要な財務課題であり、人工知能コミュニティで広く注目を集めている。 しかし、この課題には2つの大きな困難がある。 (i)非定常価格級数及び複雑な資産相関は、特徴表現の学習を非常に困難にする。 二 金融市場における実用原則は、取引とリスクコストの両方を統制する必要がある。 既存の手法の多くは手工芸機能を採用しており、またコストに対する制約も考慮していないため、それらは不満足に動作し、実際に両方のコストを制御できない可能性がある。 本稿では,深層強化学習を用いたコスト依存型ポートフォリオ選択手法を提案する。 具体的には,価格系列パターンと資産相関を両立する新たな2ストリームポートフォリオ・ポリシー・ネットワークを考案し,累積リターンを最大化し,強化学習により両者のコストを制約する新たなコストセンシティブ報酬関数を開発した。 提案した報酬のほぼ最適性を理論的に分析し、この報酬関数に関する政策の成長率が理論的最適に近づくことを示す。 また,提案手法を実世界のデータセット上で実証的に評価した。 提案手法の有効性と優位性を,収益性,コスト感受性,表現能力の観点から検証した。

Portfolio Selection is an important real-world financial task and has attracted extensive attention in artificial intelligence communities. This task, however, has two main difficulties: (i) the non-stationary price series and complex asset correlations make the learning of feature representation very hard; (ii) the practicality principle in financial markets requires controlling both transaction and risk costs. Most existing methods adopt handcraft features and/or consider no constraints for the costs, which may make them perform unsatisfactorily and fail to control both costs in practice. In this paper, we propose a cost-sensitive portfolio selection method with deep reinforcement learning. Specifically, a novel two-stream portfolio policy network is devised to extract both price series patterns and asset correlations, while a new cost-sensitive reward function is developed to maximize the accumulated return and constrain both costs via reinforcement learning. We theoretically analyze the near-optimality of the proposed reward, which shows that the growth rate of the policy regarding this reward function can approach the theoretical optimum. We also empirically evaluate the proposed method on real-world datasets. Promising results demonstrate the effectiveness and superiority of the proposed method in terms of profitability, cost-sensitivity and representation abilities.
翻訳日:2022-12-26 00:45:46 公開日:2020-03-06
# 三重記憶ネットワーク : 脳にインスパイアされた連続学習法

Triple Memory Networks: a Brain-Inspired Method for Continual Learning ( http://arxiv.org/abs/2003.03143v1 )

ライセンス: Link先を確認
Liyuan Wang, Bo Lei, Qian Li, Hang Su, Jun Zhu, Yi Zhong(参考訳) 事前学習された知識、すなわち連続学習を干渉せずに新しい経験を連続的に獲得することは、ニューラルネットワークにとって重要であるが、破滅的な忘れによって制限される。 ニューラルネットワークは、新しいタスクを学習する際にパラメータを調整しますが、古いタスクをうまく実行できません。 対照的に、脳は破滅的な干渉なしに新しい経験を継続的に学習する能力を持っている。 基礎となる神経機構は、前頭前皮質を介する海馬依存記憶系と新皮質依存記憶系の相互作用に起因する可能性がある。 具体的には、2つのメモリシステムは、情報をそれぞれより特定の形式とより一般化された形式として統合し、インタープレイにおける2つの情報の形式を補完する特殊なメカニズムを開発する。 このような脳戦略に触発されて、連続学習のための三重記憶ネットワーク(TMN)という新しいアプローチを提案する。 tmnsは、海馬、前頭前皮質、感覚皮質(新皮質領域)の相互作用を、生成的敵ネットワーク(gan)のトリプルネットワークアーキテクチャとしてモデル化する。 入力情報は、ジェネレータ内のデータ分布の特定の表現、または判別器及び分類器におけるタスクの一般化知識として符号化され、各モジュールにおける破滅的な忘れを緩和する適切な脳インスパイアされたアルゴリズムが実装される。 特に、ジェネレータは、学習したタスクの生成されたデータを判別器と分類器に再生し、どちらも、生成過程で失われた情報を補完する重み統合正規化器で実装する。 TMNは、MNIST、SVHN、CIFAR-10、ImageNet-50の様々なクラスインクリメンタル学習ベンチマーク上で、強力なベースライン手法と比較して、新しい最先端のパフォーマンスを実現する。

Continual acquisition of novel experience without interfering previously learned knowledge, i.e. continual learning, is critical for artificial neural networks, but limited by catastrophic forgetting. A neural network adjusts its parameters when learning a new task, but then fails to conduct the old tasks well. By contrast, the brain has a powerful ability to continually learn new experience without catastrophic interference. The underlying neural mechanisms possibly attribute to the interplay of hippocampus-dependent memory system and neocortex-dependent memory system, mediated by prefrontal cortex. Specifically, the two memory systems develop specialized mechanisms to consolidate information as more specific forms and more generalized forms, respectively, and complement the two forms of information in the interplay. Inspired by such brain strategy, we propose a novel approach named triple memory networks (TMNs) for continual learning. TMNs model the interplay of hippocampus, prefrontal cortex and sensory cortex (a neocortex region) as a triple-network architecture of generative adversarial networks (GAN). The input information is encoded as specific representation of the data distributions in a generator, or generalized knowledge of solving tasks in a discriminator and a classifier, with implementing appropriate brain-inspired algorithms to alleviate catastrophic forgetting in each module. Particularly, the generator replays generated data of the learned tasks to the discriminator and the classifier, both of which are implemented with a weight consolidation regularizer to complement the lost information in generation process. TMNs achieve new state-of-the-art performance on a variety of class-incremental learning benchmarks on MNIST, SVHN, CIFAR-10 and ImageNet-50, comparing with strong baseline methods.
翻訳日:2022-12-26 00:44:54 公開日:2020-03-06
# SimLoss:クロスエントロピーにおけるクラス類似性

SimLoss: Class Similarities in Cross Entropy ( http://arxiv.org/abs/2003.03182v1 )

ライセンス: Link先を確認
Konstantin Kobs, Michael Steininger, Albin Zehe, Florian Lautenschlager, Andreas Hotho(参考訳) ニューラルネットワーク分類タスクにおける一般的な損失関数の1つはCCE(Categorical Cross Entropy)である。 しかし、クラスは固有の構造を持つことが多い。 例えば、バラのイメージを "violet" として分類することは、"truck" よりも優れている。 タスク固有の知識からそのような行列を構成する2つの手法とともにクラス類似性を取り入れたCCEのドロップイン置換であるSimLossを紹介する。 年齢推定と画像分類のSimLossを検証したところ、いくつかの指標でCCEよりも大幅に改善されていることがわかった。 従ってSimLossは、ニューラルネットワークアーキテクチャを同じに保ちながら、損失関数を単に交換することで、バックグラウンド知識の明示的なモデリングを可能にする。 コードと追加のリソースはhttps://github.com/konstantinkobs/SimLossにある。

One common loss function in neural network classification tasks is Categorical Cross Entropy (CCE), which punishes all misclassifications equally. However, classes often have an inherent structure. For instance, classifying an image of a rose as "violet" is better than as "truck". We introduce SimLoss, a drop-in replacement for CCE that incorporates class similarities along with two techniques to construct such matrices from task-specific knowledge. We test SimLoss on Age Estimation and Image Classification and find that it brings significant improvements over CCE on several metrics. SimLoss therefore allows for explicit modeling of background knowledge by simply exchanging the loss function, while keeping the neural network architecture the same. Code and additional resources can be found at https://github.com/konstantinkobs/SimLoss.
翻訳日:2022-12-26 00:44:06 公開日:2020-03-06
# 深部畳み込みニューラルネットワークによる付加製造プロセスの品質監視システムの実現に向けて

Toward Enabling a Reliable Quality Monitoring System for Additive Manufacturing Process using Deep Convolutional Neural Networks ( http://arxiv.org/abs/2003.08749v1 )

ライセンス: Link先を確認
Yaser Banadaki, Nariman Razaviarab, Hadi Fekrmandi, and Safura Sharifi(参考訳) 添加性製造(AM)はスマート産業の重要な構成要素である。 本稿では,深層畳み込みニューラルネットワーク(CNN)モデルを用いたAMプロセスの自動品質評価システムを提案する。 CNNモデルは,材料層間堆積における内部および表面欠陥の画像を用いてオフラインで訓練し,異なる押出機速度と温度でAMプロセスの故障を検出し,分類する性能について検討した。 このモデルは、94%の精度と96%の特異性を示し、またfscore、感度、精度の3つの分類器で75%以上の精度を示し、印刷プロセスの質を5段階のリアルタイムに分類する。 提案するオンラインモデルでは,AMプロセスに自動で一貫した非接触品質制御信号が追加され,完全構築後の部品の手動検査が不要になる。 品質監視信号は、リアルタイムでパラメータを調整することで、リメディアルアクションを提案するためにマシンによっても使用できる。 提案した品質予測モデルは, 時間と材料の両方の無駄を抑えつつ, 信頼性の高い部品を製造するための, あらゆる種類のAMマシンのコンセプト実証として機能する。

Additive Manufacturing (AM) is a crucial component of the smart industry. In this paper, we propose an automated quality grading system for the AM process using a deep convolutional neural network (CNN) model. The CNN model is trained offline using the images of the internal and surface defects in the layer-by-layer deposition of materials and tested online by studying the performance of detecting and classifying the failure in AM process at different extruder speeds and temperatures. The model demonstrates the accuracy of 94% and specificity of 96%, as well as above 75% in three classifier measures of the Fscore, the sensitivity, and precision for classifying the quality of the printing process in five grades in real-time. The proposed online model adds an automated, consistent, and non-contact quality control signal to the AM process that eliminates the manual inspection of parts after they are entirely built. The quality monitoring signal can also be used by the machine to suggest remedial actions by adjusting the parameters in real-time. The proposed quality predictive model serves as a proof-of-concept for any type of AM machines to produce reliable parts with fewer quality hiccups while limiting the waste of both time and materials.
翻訳日:2022-12-26 00:37:05 公開日:2020-03-06
# タイのソーシャルデータを解析する: タイのnlpの新しい挑戦

Parsing Thai Social Data: A New Challenge for Thai NLP ( http://arxiv.org/abs/2003.03069v1 )

ライセンス: Link先を確認
Sattaya Singkul, Borirat Khampingyot, Nattasit Maharattamalai, Supawat Taerungruang and Tawunrat Chalothorn(参考訳) 依存構文解析(英: Dependency parsing、DP)は、構文構造と単語間の関係を解析するタスクである。 DPは英語などの多くの言語における自然言語処理(NLP)アプリケーションの改善に広く利用されている。 DPに関する以前の研究は一般に公式な言語に適用される。 しかし、ソーシャルネットワークで使われるような非公式な言語には適用されない。 そのため、このようなソーシャルネットワークデータを用いてDPを研究・調査する必要がある。 本稿では,タイのソーシャルネットワークデータに適したDPモデルを探索し,同定する。 その後、適切な言語単位を入力として識別する。 その結果、移行ベースモデルであるElkared依存性パーサは、UASが81.42%で他よりも優れていた。

Dependency parsing (DP) is a task that analyzes text for syntactic structure and relationship between words. DP is widely used to improve natural language processing (NLP) applications in many languages such as English. Previous works on DP are generally applicable to formally written languages. However, they do not apply to informal languages such as the ones used in social networks. Therefore, DP has to be researched and explored with such social network data. In this paper, we explore and identify a DP model that is suitable for Thai social network data. After that, we will identify the appropriate linguistic unit as an input. The result showed that, the transition based model called, improve Elkared dependency parser outperform the others at UAS of 81.42%.
翻訳日:2022-12-26 00:36:43 公開日:2020-03-06
# 分布意味モデリング:オントロジー関連アプローチを適用した項/単語ベクトル空間モデルを訓練するための改訂手法

Distributional semantic modeling: a revised technique to train term/word vector space models applying the ontology-related approach ( http://arxiv.org/abs/2003.03350v1 )

ライセンス: Link先を確認
Oleksandr Palagin, Vitalii Velychko, Kyrylo Malakhov and Oleksandr Shchurov(参考訳) We design a new technique for the distributional semantic modeling with a neural network-based approach to learn distributed term representations (or term embeddings) - term vector space models as a result, inspired by the recent ontology-related approach (using different types of contextual knowledge such as syntactic knowledge, terminological knowledge, semantic knowledge, etc.) to the identification of terms (term extraction) and relations between them (relation extraction) called semantic pre-processing technology - SPT. 本手法は,自然言語テキストからの自動用語抽出と,基本的実体が用語である問題指向あるいはアプリケーション指向(あるいは深い注釈付き)テキストコーパスの形成に依存している(非構成的・構成的用語を含む)。 これにより、分散語表現(または単語埋め込み)から分散語表現(または用語埋め込み)に切り換える機会が得られます。 この移行によって、異なる主題ドメインのより正確なセマンティックマップ(入力用語間の関係も)を生成することができる。 セマンティックマップは,動的かつインタラクティブなグラフとして,単語の埋め込み(この場合の用語の埋め込み)を視覚化するPythonライブラリであるVec2graphを使ってグラフとして表現することができる。 Vec2graphライブラリと項埋め込みを組み合わせることで、標準NLPタスクの精度が向上するだけでなく、従来の自動オントロジー開発の概念も更新される。 私たちの研究の主な実践的な成果は、開発キット(webサービスapiとwebアプリケーションとして表現されるツールキットの集合)で、ウクライナの自然言語テキストの基本的な言語前処理と意味的前処理に必要な全てのルーチンを、項ベクトル空間モデルのトレーニングのために提供します。

We design a new technique for the distributional semantic modeling with a neural network-based approach to learn distributed term representations (or term embeddings) - term vector space models as a result, inspired by the recent ontology-related approach (using different types of contextual knowledge such as syntactic knowledge, terminological knowledge, semantic knowledge, etc.) to the identification of terms (term extraction) and relations between them (relation extraction) called semantic pre-processing technology - SPT. Our method relies on automatic term extraction from the natural language texts and subsequent formation of the problem-oriented or application-oriented (also deeply annotated) text corpora where the fundamental entity is the term (includes non-compositional and compositional terms). This gives us an opportunity to changeover from distributed word representations (or word embeddings) to distributed term representations (or term embeddings). This transition will allow to generate more accurate semantic maps of different subject domains (also, of relations between input terms - it is useful to explore clusters and oppositions, or to test your hypotheses about them). The semantic map can be represented as a graph using Vec2graph - a Python library for visualizing word embeddings (term embeddings in our case) as dynamic and interactive graphs. The Vec2graph library coupled with term embeddings will not only improve accuracy in solving standard NLP tasks, but also update the conventional concept of automated ontology development. The main practical result of our work is the development kit (set of toolkits represented as web service APIs and web application), which provides all necessary routines for the basic linguistic pre-processing and the semantic pre-processing of the natural language texts in Ukrainian for future training of term vector space models.
翻訳日:2022-12-26 00:36:11 公開日:2020-03-06
# ガゼッタによるニューラルネームエンティティ認識の改善

Improving Neural Named Entity Recognition with Gazetteers ( http://arxiv.org/abs/2003.03072v1 )

ライセンス: Link先を確認
Chan Hee Song, Dawn Lawrie, Tim Finin, James Mayfield(参考訳) この研究の目的は、単語がガゼッタに含まれる名前の一部であることを示す入力特徴を追加することで、ニューラルネットワークによるエンティティ認識システムの性能を向上させることである。 本稿では,Wikidataナレッジグラフからガゼッタを生成する方法と,その情報をニューラルNERシステムに統合する方法について述べる。 実験の結果、この手法は2つの異なる言語で性能向上をもたらすことが判明した: 高リソースの単語ベース言語、英語、高リソースの文字ベース言語、中国語。 4つのコアタイプと12の拡張タイプがタグ付けされた、新たに注釈付けされたロシアのNERコーパス上で、低リソース言語でも実験が行われた。 この記事はベースラインスコアを報告します。 第33回FLAIRS(Song et al. 2020)において、より長いバージョンの論文である。

The goal of this work is to improve the performance of a neural named entity recognition system by adding input features that indicate a word is part of a name included in a gazetteer. This article describes how to generate gazetteers from the Wikidata knowledge graph as well as how to integrate the information into a neural NER system. Experiments reveal that the approach yields performance gains in two distinct languages: a high-resource, word-based language, English and a high-resource, character-based language, Chinese. Experiments were also performed in a low-resource language, Russian on a newly annotated Russian NER corpus from Reddit tagged with four core types and twelve extended types. This article reports a baseline score. It is a longer version of a paper in the 33rd FLAIRS conference (Song et al. 2020).
翻訳日:2022-12-26 00:35:41 公開日:2020-03-06
# 知識グラフに基づくレコードリンケージの手法

Knowledge graph based methods for record linkage ( http://arxiv.org/abs/2003.03136v1 )

ライセンス: Link先を確認
B. Gautam and O. Ramos Terrades and J. M. Pujades and M. Valls(参考訳) 今日では、人口動態、家族移動、移動などを理解するための主要なライフコースアプローチの結果として、個人レベルのデータを使用することが歴史的デモグラフィーにおいて一般的である。 ボリュームとデータの複雑さを解析できるため、これらの分野において、レコードリンクの進歩が鍵となる。 しかし、現在の手法は、同じ種類のソースから来るデータをリンクするように制約されている。 知識グラフはフレキシブルな意味表現であり、データバリアビリティとセマンティックリレーションを構造化された方法でエンコードすることができる。 本稿では,レコードリンクタスクに取り組むための知識グラフを提案する。 提案手法である {\bf werl} は,主知識グラフの特性を活用し,埋め込みベクトルを学習してセンサス情報を符号化する。 これらの埋め込みは、記録リンク性能を最大化するために適切に重み付けされる。 我々は,この手法をベンチマークデータセット上で評価し,刺激的および満足な結果の関連手法と比較した。

Nowadays, it is common in Historical Demography the use of individual-level data as a consequence of a predominant life-course approach for the understanding of the demographic behaviour, family transition, mobility, etc. Record linkage advance is key in these disciplines since it allows to increase the volume and the data complexity to be analyzed. However, current methods are constrained to link data coming from the same kind of sources. Knowledge graph are flexible semantic representations, which allow to encode data variability and semantic relations in a structured manner. In this paper we propose the knowledge graph use to tackle record linkage task. The proposed method, named {\bf WERL}, takes advantage of the main knowledge graph properties and learns embedding vectors to encode census information. These embeddings are properly weighted to maximize the record linkage performance. We have evaluated this method on benchmark data sets and we have compared it to related methods with stimulating and satisfactory results.
翻訳日:2022-12-26 00:35:06 公開日:2020-03-06
# MLは難しい組合せ問題に対する解の値を予測することができるか?

Can ML predict the solution value for a difficult combinatorial problem? ( http://arxiv.org/abs/2003.03181v1 )

ライセンス: Link先を確認
Constantine Goulimis, Gast\'on Simone(参考訳) 機械学習が入力から難しい組合せ最適化問題の最終的な目的関数値を予測できるかどうかを検討する。 当社のコンテキストは,カットストック問題において,産業的に重要ではあるが困難な側面である,パターン削減問題です。 機械学習は、平均絶対パーセンテージ誤差(MAPE)を12.0%から8.7%に削減し、na\"iveモデルよりも高い予測精度を持つ。

We look at whether machine learning can predict the final objective function value of a difficult combinatorial optimisation problem from the input. Our context is the pattern reduction problem, one industrially important but difficult aspect of the cutting stock problem. Machine learning appears to have higher prediction accuracy than a na\"ive model, reducing mean absolute percentage error (MAPE) from 12.0% to 8.7%.
翻訳日:2022-12-26 00:34:51 公開日:2020-03-06
# 自律ロボットナビゲーションのための深い能動推論

Deep Active Inference for Autonomous Robot Navigation ( http://arxiv.org/abs/2003.03220v1 )

ライセンス: Link先を確認
Ozan \c{C}atal, Samuel Wauthier, Tim Verbelen, Cedric De Boom, Bart Dhoedt(参考訳) アクティブ推論(active inference)は、生物学的エージェントが現実の世界において知覚し行動する方法を基礎とする理論である。 活動的推論は脳がほぼベイズ推論エンジンであるという原理に基づいており、エージェントを最小限の驚きへと導く内部生成モデルを構築している。 この理論は認知神経科学の基盤として興味深い結果を示しているが、その応用は小さな、予め定義されたセンサーと状態空間のシミュレーションに限られている。 本稿では、ディープラーニングの最近の進歩を活用し、事前定義された状態空間なしで動作可能なより複雑な生成モデルを構築する。 状態表現は、カメラフレームのような現実世界の高次元の感覚データからエンドツーエンドで学習される。 また、これらの生成モデルがアクティブな推論に利用できることも示しています。 我々の知る限りでは、これは現実世界のロボットナビゲーションタスクに対する深層能動推論の最初の応用である。

Active inference is a theory that underpins the way biological agent's perceive and act in the real world. At its core, active inference is based on the principle that the brain is an approximate Bayesian inference engine, building an internal generative model to drive agents towards minimal surprise. Although this theory has shown interesting results with grounding in cognitive neuroscience, its application remains limited to simulations with small, predefined sensor and state spaces. In this paper, we leverage recent advances in deep learning to build more complex generative models that can work without a predefined states space. State representations are learned end-to-end from real-world, high-dimensional sensory data such as camera frames. We also show that these generative models can be used to engage in active inference. To the best of our knowledge this is the first application of deep active inference for a real-world robot navigation task.
翻訳日:2022-12-26 00:34:43 公開日:2020-03-06
# 記憶の学習によるオンラインニューラルアップデートルールの探索

Finding online neural update rules by learning to remember ( http://arxiv.org/abs/2003.03124v1 )

ライセンス: Link先を確認
Karol Gregor(参考訳) 神経活性化(ボディー)と重み(サイナプス)のオンラインローカル更新ルールをスクラッチから学習する。 我々は,各重みと活性化状態を小ベクトルで表現し,その更新を(メタ)ニューラルネットワークを用いてパラメータ化する。 異なるニューロンタイプは、異なる埋め込みベクターによって表現され、同じ2つの機能を全てのニューロンで使用できる。 同じシステムで一般的に行われているように、進化や長期のバックプロパゲーションを使って目的のために直接トレーニングする代わりに、私たちは異なる目的、すなわち過去の経験の断片を思い出すという動機付けと研究を行います。 この目的が標準のバックプロパゲーショントレーニングや他の学習にどのように関係しているかを説明する。 短期的なバックプロパゲーションを用いてこの目的を訓練し、異なるネットワークタイプと問題の難しさの両方の関数として性能を解析する。 この分析は、学習ルールを構成するものに関する興味深い洞察を与える。 また,このようなシステムが,エピソード記憶やメタラーニング,補助的目的といったトピックに対処するための自然な基盤を形成する方法についても論じる。

We investigate learning of the online local update rules for neural activations (bodies) and weights (synapses) from scratch. We represent the states of each weight and activation by small vectors, and parameterize their updates using (meta-) neural networks. Different neuron types are represented by different embedding vectors which allows the same two functions to be used for all neurons. Instead of training directly for the objective using evolution or long term back-propagation, as is commonly done in similar systems, we motivate and study a different objective: That of remembering past snippets of experience. We explain how this objective relates to standard back-propagation training and other forms of learning. We train for this objective using short term back-propagation and analyze the performance as a function of both the different network types and the difficulty of the problem. We find that this analysis gives interesting insights onto what constitutes a learning rule. We also discuss how such system could form a natural substrate for addressing topics such as episodic memories, meta-learning and auxiliary objectives.
翻訳日:2022-12-26 00:27:58 公開日:2020-03-06
# 外部知識を用いた推論を用いた自然言語QAアプローチ

Natural Language QA Approaches using Reasoning with External Knowledge ( http://arxiv.org/abs/2003.03446v1 )

ライセンス: Link先を確認
Chitta Baral, Pratyay Banerjee, Kuntal Kumar Pal, Arindam Mitra(参考訳) 自然言語(NL)における質問応答(QA)は、AIの初期から重要な側面であった。 ウィノグラードの1972年の論文『Councilmen』と1976年のマッカーシーの『Mr. Hug』の例は、NL理解における外部知識の役割を強調している。 機械学習は、NL処理やNL質問応答(NLQA)において過去30年にわたって中心的なアプローチであったが、最近は、外部知識が重要な役割を果たすNLQAにおいて、ますます強調されているスレッドがある。 ウィノグラードの評議員の例にインスパイアされた課題と、Rebooting AIの書籍、様々なNLQAデータセット、NLQAコンテキストにおける知識獲得の研究、そして様々なNLQAモデルにおけるそれらの使用といった最近の発展は、外部の知識と'reasoning'を使ってNLQAの問題を表面化させた。 本稿では,最近の研究成果について概説する。 私たちの調査は、aiの複数の分野、特にその間の橋渡しに役立ちます。 (a)知識表現及び推論の伝統的な分野 b) NL 理解と NLQA の分野。

Question answering (QA) in natural language (NL) has been an important aspect of AI from its early days. Winograd's ``councilmen'' example in his 1972 paper and McCarthy's Mr. Hug example of 1976 highlights the role of external knowledge in NL understanding. While Machine Learning has been the go-to approach in NL processing as well as NL question answering (NLQA) for the last 30 years, recently there has been an increasingly emphasized thread on NLQA where external knowledge plays an important role. The challenges inspired by Winograd's councilmen example, and recent developments such as the Rebooting AI book, various NLQA datasets, research on knowledge acquisition in the NLQA context, and their use in various NLQA models have brought the issue of NLQA using ``reasoning'' with external knowledge to the forefront. In this paper, we present a survey of the recent work on them. We believe our survey will help establish a bridge between multiple fields of AI, especially between (a) the traditional fields of knowledge representation and reasoning and (b) the field of NL understanding and NLQA.
翻訳日:2022-12-26 00:27:20 公開日:2020-03-06
# BLSTMネットワークを用いたブラジルの歌詞に基づく音楽ジャンル分類

Brazilian Lyrics-Based Music Genre Classification Using a BLSTM Network ( http://arxiv.org/abs/2003.05377v1 )

ライセンス: Link先を確認
Raul de Ara\'ujo Lima, R\^omulo C\'esar Costa de Sousa, Simone Diniz Junqueira Barbosa, H\'elio Cort\^es Vieira Lopes(参考訳) 楽曲、アルバム、アーティストを共通の類似性を持つグループで整理することは、ジャンルレーベルの助けを借りて行うことができる。 本稿では,ブラジルの音楽ジャンルの自動分類に,歌詞のみを用いた新しいアプローチを提案する。 この種の分類は、自然言語処理の分野で依然として課題である。 14ジャンルのブラジルの歌詞138,368のデータセットを構築した。 本稿では,SVM,ランダムフォレスト,双方向長短期記憶(BLSTM)ネットワークと単語埋め込み技術を組み合わせて,この分類課題に対処する。 実験の結果, BLSTM法はF1スコア平均0.48$で他のモデルよりも優れていた。 F1スコアの0.89、0.70、0.69をそれぞれ獲得した「ゴスペル」や「ファンク・カリオカ」や「セルタネホ」といったジャンルは、ブラジルの音楽ジャンルの文脈において最も区別され易いものとして定義することができる。

Organize songs, albums, and artists in groups with shared similarity could be done with the help of genre labels. In this paper, we present a novel approach for automatic classifying musical genre in Brazilian music using only the song lyrics. This kind of classification remains a challenge in the field of Natural Language Processing. We construct a dataset of 138,368 Brazilian song lyrics distributed in 14 genres. We apply SVM, Random Forest and a Bidirectional Long Short-Term Memory (BLSTM) network combined with different word embeddings techniques to address this classification task. Our experiments show that the BLSTM method outperforms the other models with an F1-score average of $0.48$. Some genres like "gospel", "funk-carioca" and "sertanejo", which obtained 0.89, 0.70 and 0.69 of F1-score, respectively, can be defined as the most distinct and easy to classify in the Brazilian musical genres context.
翻訳日:2022-12-26 00:26:58 公開日:2020-03-06
# 腕への別れ:諦めオプションで予算を最大化する連続的な報酬

A Farewell to Arms: Sequential Reward Maximization on a Budget with a Giving Up Option ( http://arxiv.org/abs/2003.03456v1 )

ライセンス: Link先を確認
P Sharoff, Nishant A. Mehta, Ravi Ganti(参考訳) エージェントが一度に1つのアクションを取ることができ、各アクションが確率的時間的範囲を持つ、すなわち、前のアクションが完了するまで新しいアクションを取ることができない、というシーケンシャルな意思決定問題を考える。 完了すると、選択されたアクションは確率的な報酬を与える。 エージェントは、その累積報酬を有限の時間予算に対して最大化することを目指しており、他のアクションを選択するために、現在のアクションを「諦める」という選択肢がある。 我々は、資源の確率的消費を伴う確率的マルチアームバンディット問題の変種としてこの問題を挙げた。 この問題に対して,まず,エージェントがアームを引っ張ることで報奨を受ける前に,アームの期待報酬と期待待ち時間との比率を最大化するのが最適アームであることを示す。 この比に縛られる新しい上層信頼度を用いて、従来の研究に比べて問題パラメータへの依存性が向上した対数的、問題依存的後悔境界を確立する、上層信頼に基づくアルゴリズムWAIT-UCBを導入する。 WAIT-UCBと最先端アルゴリズムを比較した様々な問題構成のシミュレーションも紹介する。

We consider a sequential decision-making problem where an agent can take one action at a time and each action has a stochastic temporal extent, i.e., a new action cannot be taken until the previous one is finished. Upon completion, the chosen action yields a stochastic reward. The agent seeks to maximize its cumulative reward over a finite time budget, with the option of "giving up" on a current action -- hence forfeiting any reward -- in order to choose another action. We cast this problem as a variant of the stochastic multi-armed bandits problem with stochastic consumption of resource. For this problem, we first establish that the optimal arm is the one that maximizes the ratio of the expected reward of the arm to the expected waiting time before the agent sees the reward due to pulling that arm. Using a novel upper confidence bound on this ratio, we then introduce an upper confidence based-algorithm, WAIT-UCB, for which we establish logarithmic, problem-dependent regret bound which has an improved dependence on problem parameters compared to previous works. Simulations on various problem configurations comparing WAIT-UCB against the state-of-the-art algorithms are also presented.
翻訳日:2022-12-26 00:26:36 公開日:2020-03-06
# ニューラルネットワークに対するアウェイアタックの解説

Explaining Away Attacks Against Neural Networks ( http://arxiv.org/abs/2003.05748v1 )

ライセンス: Link先を確認
Sean Saito, Jin Wang(参考訳) 画像ベースニューラルネットワークにおける敵攻撃の特定問題について検討する。 そこで本研究では, クリーンデータと逆データに対するモデル予測における説明の相違について検討した。 この直感を利用して、モデルから与えられた説明に基づいて、与えられた入力が逆方向かどうかを識別できるフレームワークを提案する。 実験のコードは、https://github.com/seansaito/explaining-away-attacks-against-neural-networks。

We investigate the problem of identifying adversarial attacks on image-based neural networks. We present intriguing experimental results showing significant discrepancies between the explanations generated for the predictions of a model on clean and adversarial data. Utilizing this intuition, we propose a framework which can identify whether a given input is adversarial based on the explanations given by the model. Code for our experiments can be found here: https://github.com/seansaito/Explaining-Away-Attacks-Against-Neural-Networks.
翻訳日:2022-12-26 00:25:44 公開日:2020-03-06
# 進化を駆動するデザイナーの選好を学ぶ

Learning the Designer's Preferences to Drive Evolution ( http://arxiv.org/abs/2003.03268v1 )

ライセンス: Link先を確認
Alberto Alvarez and Jose Font(参考訳) 本稿では,qd mi-cc(quality-diversity mixed-initiative co-creativity)ツールを用いて,ユーザ生成データから学習を追求するデータ駆動ソリューションであるdesigner preference modelを提案する。 提案手法では, ユーザ間相互刺激ループの停止や, 定期的な提案ハンドピッキングによるユーザの疲労をなくすことなく, 生成したコンテンツに対するユーザエージェンシーの増大を目指す。 この新たなソリューションの詳細とMI-CCツールであるEvolutionary Dungeon Designerの実装について述べる。 機械学習によるMI-CCと手続き的コンテンツ生成を統合したこの研究ラインのオープンな課題について,本研究の成果を提示し,考察する。

This paper presents the Designer Preference Model, a data-driven solution that pursues to learn from user generated data in a Quality-Diversity Mixed-Initiative Co-Creativity (QD MI-CC) tool, with the aims of modelling the user's design style to better assess the tool's procedurally generated content with respect to that user's preferences. Through this approach, we aim for increasing the user's agency over the generated content in a way that neither stalls the user-tool reciprocal stimuli loop nor fatigues the user with periodical suggestion handpicking. We describe the details of this novel solution, as well as its implementation in the MI-CC tool the Evolutionary Dungeon Designer. We present and discuss our findings out of the initial tests carried out, spotting the open challenges for this combined line of research that integrates MI-CC with Procedural Content Generation through Machine Learning.
翻訳日:2022-12-26 00:25:37 公開日:2020-03-06