このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20191228となっている論文です。

PDF登録状況(公開日: 20191228)

TitleAuthorsAbstract論文公表日・翻訳日
# ガード付きTGDにおけるオープンおよびクローズドワールドクエリ評価の効率限界

The Limits of Efficiency for Open- and Closed-World Query Evaluation Under Guarded TGDs ( http://arxiv.org/abs/1912.12442v1 )

ライセンス: Link先を確認
Pablo Barcelo, Victor Dalmau, Cristina Feier, Carsten Lutz, Andreas Pieris(参考訳) 制約が存在する場合のオントロジーによるクエリとクエリは、タプル生成依存性(TGD)が中心的な役割を果たす2つの主要なデータベース問題である。 オントロジーを媒介とするクエリでは、tgdはオントロジーを形式化し、与えられたデータから追加の事実を導出することができる。 本研究では,上記2つの問題の文脈における効率的なクエリ評価の限界について検討し,ガード付き,フロンティアガード付きtgdと実際のクエリとしてucqsに着目した。 保護されたTGDをベースとしたオントロジー型クエリ(OMQ)のクラスをFPTで評価できることを示し,そのクラス内のOMQは,実際のクエリがツリー幅に有界なOMQと等価であることを示す。 制約の存在下でクエリを行うには、実際のクエリに一連の制約をバンドルする制約クエリ仕様(CQS)のクラスを検討する。 我々は、omqs と並行するガード付き tgd に基づく cqss の2分法結果を示し、さらに、fpt は ptime の複合複雑性と一致することを示した。 この証明は、OMQとCQS評価の新たな関係に基づいている。 また、直接的証明を用いて、TGDヘッドに原子が有界なフロンティアガードされたTGDをベースとしたCQSに対して、同様の二分法結果を示す。 CQS に関する我々の結果は、(制約なしで) CQ の抽出可能なクラスをグロエのよく知られた特徴付けの拡張と見なすことができる。 グロエの特徴づけと同様に、上記のすべての結果は関係記号のアリティが定数で有界であると仮定する。 我々はまた、関連するメタ問題、すなわち与えられたomqまたはcqsが実際のクエリが有界木幅を持つものと同値であるかどうかについても研究する。

Ontology-mediated querying and querying in the presence of constraints are two key database problems where tuple-generating dependencies (TGDs) play a central role. In ontology-mediated querying, TGDs can formalize the ontology and thus derive additional facts from the given data, while in querying in the presence of constraints, they restrict the set of admissible databases. In this work, we study the limits of efficient query evaluation in the context of the above two problems, focussing on guarded and frontier-guarded TGDs and on UCQs as the actual queries. We show that a class of ontology-mediated queries (OMQs) based on guarded TGDs can be evaluated in FPT iff the OMQs in the class are equivalent to OMQs in which the actual query has bounded treewidth, up to some reasonable assumptions. For querying in the presence of constraints, we consider classes of constraint-query specifications (CQSs) that bundle a set of constraints with an actual query. We show a dichotomy result for CQSs based on guarded TGDs that parallels the one for OMQs except that, additionally, FPT coincides with PTime combined complexity. The proof is based on a novel connection between OMQ and CQS evaluation. Using a direct proof, we also show a similar dichotomy result, again up to some reasonable assumptions, for CQSs based on frontier-guarded TGDs with a bounded number of atoms in TGD heads. Our results on CQSs can be viewed as extensions of Grohe's well-known characterization of the tractable classes of CQs (without constraints). Like Grohe's characterization, all the above results assume that the arity of relation symbols is bounded by a constant. We also study the associated meta problems, i.e., whether a given OMQ or CQS is equivalent to one in which the actual query has bounded treewidth.
翻訳日:2023-01-17 13:14:04 公開日:2019-12-28
# 逐次レコメンダシステム:挑戦,進歩,展望

Sequential Recommender Systems: Challenges, Progress and Prospects ( http://arxiv.org/abs/2001.04830v1 )

ライセンス: Link先を確認
Shoujin Wang, Liang Hu, Yan Wang, Longbing Cao, Quan Z. Sheng, Mehmet Orgun(参考訳) 近年,シーケンシャル・リコメンダ・システムの話題が注目されている。協調フィルタリングやコンテンツベースのフィルタリングなど従来のレコメンダシステムとは違って,srssでは,シーケンシャルなユーザ行動,ユーザとアイテム間のインタラクション,時間とともにユーザの嗜好やアイテム人気の変化を理解しモデル化しようとしている。 SRSs involve the above aspects for more precise characterization of user contexts, intent and goals, and item consumption trend, leading to more accurate, customized and dynamic recommendations.In this paper, we provide a systematic review on SRSs.We first present the characteristics of SRSs, and then summarize and categorize the key challenges in this research area, followed by the corresponding research progress consisting of the most recent and representative developments on this topic.Finally, we discuss the important research directions in this vibrant area.

The emerging topic of sequential recommender systems has attracted increasing attention in recent years.Different from the conventional recommender systems including collaborative filtering and content-based filtering, SRSs try to understand and model the sequential user behaviors, the interactions between users and items, and the evolution of users preferences and item popularity over time. SRSs involve the above aspects for more precise characterization of user contexts, intent and goals, and item consumption trend, leading to more accurate, customized and dynamic recommendations.In this paper, we provide a systematic review on SRSs.We first present the characteristics of SRSs, and then summarize and categorize the key challenges in this research area, followed by the corresponding research progress consisting of the most recent and representative developments on this topic.Finally, we discuss the important research directions in this vibrant area.
翻訳日:2023-01-17 13:12:23 公開日:2019-12-28
# プランクスケールからの一般相対論的ワームホール接続とER = EPR導出

General Relativistic Wormhole Connections from Planck-Scales and the ER = EPR Conjecture ( http://arxiv.org/abs/1912.12424v1 )

ライセンス: Link先を確認
Fabrizio Tamburini and Ignazio Licata(参考訳) アインシュタインの一般相対性理論(GR)は、計量のゆらぎがリーマン曲率テンソルを含む不定値関係をもたらすワームホール接続の観点で、プランク長$L_P$よりも大きい大きさの与えられた超体積内の事象間の接続を記述することができる。 低エネルギー(l \gg l_p$ の場合)では、これらの接続は仮想重力と波長 $\lambda_g=l$ の交換のように振る舞う。 プランクスケールでは、ワームホールは重力崩壊を避け、事象や時空の重なり合いは区別できない。アインシュタインの方程式のこれらの性質は、共形場理論 (cfts) と等価な時空において、サスキンドとマルダセナによって提唱された'einstein--rosen (er)=einstein-podolski--rosen (epr)' (er = epr)'(er = epr)予想として知られる量子重力の新たな図(qg)と結びつくことができる。 このシナリオでは、Einstein--Rosen(ER)ワームホールはGRの方程式の解である時空における2つ以上の遠方事象の非可逆ワームホール接続は、代わりに量子力学の言語に属する非局所アインシュタイン-ポドルスキー--Rosen(EPR)絡み合った状態と等価であると考えられている。 以上の結果から, er = epr 予想が有効であるならば, 他の異なる時空にも拡張でき, 事象間の仮想重力の交換が絡み合い接続と同等のワームホールによって結合できる場合, 重力と時空は創発的物理量となる可能性が示唆された。

Einstein's equations of general relativity (GR) can describe the connection between events within a given hypervolume of size $L$ larger than the Planck length $L_P$ in terms of wormhole connections where metric fluctuations give rise to an indetermination relationship that involves the Riemann curvature tensor. At low energies (when $L \gg L_P$), these connections behave like an exchange of a virtual graviton with wavelength $\lambda_G=L$ as if gravitation were an emergent physical property. Down to Planck scales, wormholes avoid the gravitational collapse and any superposition of events or space--times become indistinguishable. These properties of Einstein's equations can find connections with the novel picture of quantum gravity (QG) known as the ``Einstein--Rosen (ER)=Einstein--Podolski--Rosen (EPR)'' (ER = EPR) conjecture proposed by Susskind and Maldacena in Anti-de-Sitter (AdS) space--times in their equivalence with conformal field theories (CFTs). In this scenario, non-traversable wormhole connections of two or more distant events in space--time through Einstein--Rosen (ER) wormholes that are solutions of the equations of GR, are supposed to be equivalent to events connected with non-local Einstein--Podolski--Rosen (EPR) entangled states that instead belong to the language of quantum mechanics. Our findings suggest that if the ER = EPR conjecture is valid, it can be extended to other different types of space--times and that gravity and space--time could be emergent physical quantities if the exchange of a virtual graviton between events can be considered connected by ER wormholes equivalent to entanglement connections.
翻訳日:2023-01-17 13:12:09 公開日:2019-12-28
# mm波通信のためのビームフォーミング学習:理論と実験的検証

Beamforming Learning for mmWave Communication: Theory and Experimental Validation ( http://arxiv.org/abs/1912.12406v1 )

ライセンス: Link先を確認
ohaned Chraiti, Dmitry Chizhik, Jinfeng Du, Reinaldo A. Valenzuela, Ali Ghrayeb and Chadi Assi(参考訳) 信頼性と長距離ミリ波通信を確立するために、ビームフォーミングは有望な解であると考えられる。 ビームフォーミングはデジタルおよびアナログ領域で行うことができるが、どちらの手法もmmWave通信に関していくつかの制約によって妨げられる。 例えば、mWaveシステムで完全なデジタルビームフォーミングを行うには、多くの無線周波数(RF)チェーンを使用する必要がある。 これにより、大きなアンテナアレイを活用しながら、より効率的なRF鎖の使用方法を見つける必要がある。 この課題を克服する一つの方法は、位相シフト器の適切な構成を通じて(部分的にまたは完全に)アナログビームフォーミングを採用することである。 mmwaveアナログビーム設計の既存の仕事は、アレイ内のアンテナ毎のチャネル状態情報(csi)の知識に依存するか、大きな探索時間(例えば、徹底的な探索)を必要とするか、最小のビームフォーミングゲイン(例えばコードブックベースのビームフォーミング)を保証しないかのどちらかである。 本稿では,最小ビームフォーミングゲインを保証しながら,探索時間を短縮し,CSIを必要としないビーム設計手法を提案する。 鍵となるアイデアは、実生活の測定から引き出された観測に由来する。 所与の伝搬環境(例えば、mmWave BSのカバレッジ領域)では、支配的な信号の方位角は他の信号よりも高い角度で観測可能であることが観察された。 したがって、事前に収集された測定値を使って、最も可能性の高いビーム設計を再編成するビームフォーミングコードブックを構築することができる。 計測クラスタリングのためにベイズ学習を呼び出す。 提案手法の有効性を,実生活計測によるコードブックの構築と性能評価の観点から評価する。 提案手法が要求する訓練時間は,全探索の5%に過ぎなかった。 この重要な利得は、最小目標ビームフォーミング利得を達成しつつ得られる。

To establish reliable and long-range millimeter-wave (mmWave) communication, beamforming is deemed to be a promising solution. Although beamforming can be done in the digital and analog domains, both approaches are hindered by several constraints when it comes to mmWave communications. For example, performing fully digital beamforming in mmWave systems involves using many radio frequency (RF) chains, which are expensive and consume high power. This necessitates finding more efficient ways for using fewer RF chains while taking advantage of the large antenna arrays. One way to overcome this challenge is to employ (partially or fully) analog beamforming through proper configuration of phase-shifters. Existing works on mmWave analog beam design either rely on the knowledge of the channel state information (CSI) per antenna within the array, require a large search time (e.g., exhaustive search) or do not guarantee a minimum beamforming gain (e.g., codebook based beamforming). In this paper, we propose a beam design technique that reduces the search time and does not require CSI while guaranteeing a minimum beamforming gain. The key idea derives from observations drawn from real-life measurements. It was observed that for a given propagation environment (e.g., coverage area of a mmWave BS) the azimuthal angles of dominant signals could be more probable from certain angles than others. Thus, pre-collected measurements could used to build a beamforming codebook that regroups the most probable beam designs. We invoke Bayesian learning for measurements clustering. We evaluate the efficacy of the proposed scheme in terms of building the codebook and assessing its performance through real-life measurements. We demonstrate that the training time required by the proposed scheme is only 5% of that of exhaustive search. This crucial gain is obtained while achieving a minimum targeted beamforming gain.
翻訳日:2023-01-17 13:11:07 公開日:2019-12-28
# ガロア環を用いた$\mathbb{C}^{2^s}\otimes\mathbb{C}^{2^s}$における互いにバイアスのない最大絡み合う基底の構成

Construction of mutually unbiased maximally entangled bases in $\mathbb{C}^{2^s}\otimes\mathbb{C}^{2^s}$ by using Galois rings ( http://arxiv.org/abs/1912.12443v1 )

ライセンス: Link先を確認
Dengming Xu(参考訳) 相互に偏りのない基底は、量子力学と量子情報処理において中心的な役割を果たす。 相互に偏りのない基礎の重要なクラスとして、二成分系における相互に偏りのない最大絡み合い基底(mumebs)が近年注目を集めている。 この論文では、有限体が用いられる \cite{xu2} の仕事とは異なるガロア環を用いて、momebs を $\mathbb{c}^{2^s} \otimes \mathbb{c}^{2^s}$ で構成する。 応用として、$\mathbb{C}^{2^s}\otimes\mathbb{C}^{2^s}$でいくつかの新しいタイプのMUMEBを取得し、$M(2^s,2^s)\geq 3(2^s-1)$であることを証明する。

Mutually unbiased bases plays a central role in quantum mechanics and quantum information processing. As an important class of mutually unbiased bases, mutually unbiased maximally entangled bases (MUMEBs) in bipartite systems have attracted much attention in recent years. In the paper, we try to construct MUMEBs in $\mathbb{C}^{2^s} \otimes \mathbb{C}^{2^s}$ by using Galois rings, which is different from the work in \cite{xu2}, where finite fields are used. As applications, we obtain several new types of MUMEBs in $\mathbb{C}^{2^s}\otimes\mathbb{C}^{2^s}$ and prove that $M(2^s,2^s)\geq 3(2^s-1)$, which raises the lower bound of $M(2^s,2^s)$ given in \cite{xu}.
翻訳日:2023-01-17 13:10:36 公開日:2019-12-28
# 人工フィードフォワードニューラルネットワークの量子化

Quantum implementation of an artificial feed-forward neural network ( http://arxiv.org/abs/1912.12486v1 )

ライセンス: Link先を確認
Francesco Tacchino, Panagiotis Barkoutsos, Chiara Macchiavello, Ivano Tavernelli, Dario Gerace and Daniele Bajoni(参考訳) 人工知能アルゴリズムは、主に多層ニューラルネットワーク上に構築される。 複雑さとメモリ要件の増加に対処するためには、これらの強力なアルゴリズムの実行方法のパラダイム的な変更が必要だ。 量子コンピューティングは、従来のコンピュータよりもはるかに効率的にタスクを解くことを約束しており、実際の量子プロセッサは、クラウドアクセスを通じて実験や実験を研究室の外で行うことができるようになっている。 本稿では,最大7個のアクティブ量子ビットを用いた最先端超伝導量子プロセッサに実装した人工フィードフォワードニューラルネットワークを実験的に実現することを示す。 このネットワークは量子人工ニューロンで構成されており、従来のニューロンと比較して記憶能力の潜在的な利点を個別に示し、単一のノードで達成できない基本的な分類タスクを実行することができる。 我々は、このネットワークを古典的制御または完全にコヒーレントな方法で等価に操作できることを実証する。これにより、人工知能が短期的中間スケールの量子ハードウェア上で動作するための完全な量子解だけでなく、ハイブリッドへの道を開くことができる。

Artificial intelligence algorithms largely build on multi-layered neural networks. Coping with their increasing complexity and memory requirements calls for a paradigmatic change in the way these powerful algorithms are run. Quantum computing promises to solve certain tasks much more efficiently than any classical computing machine, and actual quantum processors are now becoming available through cloud access to perform experiments and testing also outside of research labs. Here we show in practice an experimental realization of an artificial feed-forward neural network implemented on a state-of-art superconducting quantum processor using up to 7 active qubits. The network is made of quantum artificial neurons, which individually display a potential advantage in storage capacity with respect to their classical counterpart, and it is able to carry out an elementary classification task which would be impossible to achieve with a single node. We demonstrate that this network can be equivalently operated either via classical control or in a completely coherent fashion, thus opening the way to hybrid as well as fully quantum solutions for artificial intelligence to be run on near-term intermediate-scale quantum hardware.
翻訳日:2023-01-17 13:03:47 公開日:2019-12-28
# SU(1,1)干渉計

Reframing SU(1,1) interferometry ( http://arxiv.org/abs/1912.12530v1 )

ライセンス: Link先を確認
Carlton M. Caves(参考訳) SU(1,1)インターフェロメトリは、1986年にYurke, McCall, and Klauder (Phys. Rev. A 33, 4033 (1986)) によって提唱された古典的な論文で提案された。 過去10年間、様々な実験で実施されてきた。 ここでは、su(1,1)干渉法を分解して、それがなぜくっつくのかを見る。 SU(1,1)インターフェロメトリは、古典的な力を受ける高調波発振器の位相空間変位を検出するための2モードのアクティブ・スケザリング・エンハンスなバックアクション回避測定として自然に発生する。 su(1,1)干渉計の切断は、2番目の2モードスクイーズを省略することで、2つのモードのスクイーズが絡み合い、両方のモードから収集された測定値から2つのモードのうちの1つに乱れを検知し特徴付けるプロトタイプを残している。

SU(1,1) interferometry, proposed in a classic 1986 paper by Yurke, McCall, and Klauder [Phys. Rev. A 33, 4033 (1986)], involves squeezing, displacing, and then unsqueezing two bosonic modes. It has, over the past decade, been implemented in a variety of experiments. Here I take SU(1,1) interferometry apart, to see how and why it ticks. SU(1,1) interferometry arises naturally as the two-mode version of active-squeezing-enhanced, back-action-evading measurements aimed at detecting the phase-space displacement of a harmonic oscillator subjected to a classical force. Truncating an SU(1,1) interferometer, by omitting the second two-mode squeezer, leaves a prototype that uses the entanglement of two-mode squeezing to detect and characterize a disturbance on one of the two modes from measurement statistics gathered from both modes.
翻訳日:2023-01-17 13:03:29 公開日:2019-12-28
# 残留高調波に基づくジョイントロバストなボッキング検出とピッチ推定

Joint Robust Voicing Detection and Pitch Estimation Based on Residual Harmonics ( http://arxiv.org/abs/2001.00459v1 )

ライセンス: Link先を確認
Thomas Drugman, Abeer Alwan(参考訳) 本稿では,騒音環境におけるピッチトラッキングの問題に着目する。 残差信号における調和情報を用いた方法を示す。 提案した基準は、ピッチ推定だけでなく、音声の発声区間を決定するためにも用いられる。 実験では,KeeleおよびCSTRデータベース上の6つの最先端ピッチトラッカーと比較した。 提案手法は, 付加音に対して特に頑健であることが示され, 悪条件の大幅な改善につながった。

This paper focuses on the problem of pitch tracking in noisy conditions. A method using harmonic information in the residual signal is presented. The proposed criterion is used both for pitch estimation, as well as for determining the voicing segments of speech. In the experiments, the method is compared to six state-of-the-art pitch trackers on the Keele and CSTR databases. The proposed technique is shown to be particularly robust to additive noise, leading to a significant improvement in adverse conditions.
翻訳日:2023-01-17 13:03:08 公開日:2019-12-28
# 音声信号からの声門閉鎖インスタントの検出 : 定量的検討

Detection of Glottal Closure Instants from Speech Signals: a Quantitative Review ( http://arxiv.org/abs/2001.00473v1 )

ライセンス: Link先を確認
Thomas Drugman, Mark Thomas, Jon Gudnason, Patrick Naylor, Thierry Dutoit(参考訳) 音声の擬似周期性は、複数の音声処理アプリケーションで利用することができる。 しかし、これはGCI(Glottal Closure Instants)の正確な位置が必要とされる。 本研究の目的は,音声波形から直接GCIを検出するための自動手法の評価である。 5つの最新のGCI検出アルゴリズムを、6つの異なるデータベースを用いて比較し、同時代の電気グロットグラフィー記録を地上の真実とし、複数の話者による発話時間を含む。 比較した5つのテクニックは、Hilbert Envelope-based Detection (HE), Zero Frequency Resonator-based method (ZFR), the Dynamic Programming Phase Slope Algorithm (DYPSA), the Speech Event Detection using the Residual Excitation And a Mean-based Signal (SEDREAMS) and the Yet Another GCI Algorithm (YAGA)である。 これらの手法の有効性は, 可読性と精度の両面から, クリーン音声で評価される。 加法雑音や残響に対する頑健性も評価される。 この論文のさらなる貢献は、音声処理の具体的応用におけるそれらの性能の評価である:音声の因果分解である。 クリーンな音声では,sedreamsとyagaが識別率と精度の両面で最高の演奏技術であることが示されている。 ZFRとSEDREAMSは付加雑音や残響に対して優れた強靭性を示す。

The pseudo-periodicity of voiced speech can be exploited in several speech processing applications. This requires however that the precise locations of the Glottal Closure Instants (GCIs) are available. The focus of this paper is the evaluation of automatic methods for the detection of GCIs directly from the speech waveform. Five state-of-the-art GCI detection algorithms are compared using six different databases with contemporaneous electroglottographic recordings as ground truth, and containing many hours of speech by multiple speakers. The five techniques compared are the Hilbert Envelope-based detection (HE), the Zero Frequency Resonator-based method (ZFR), the Dynamic Programming Phase Slope Algorithm (DYPSA), the Speech Event Detection using the Residual Excitation And a Mean-based Signal (SEDREAMS) and the Yet Another GCI Algorithm (YAGA). The efficacy of these methods is first evaluated on clean speech, both in terms of reliabililty and accuracy. Their robustness to additive noise and to reverberation is also assessed. A further contribution of the paper is the evaluation of their performance on a concrete application of speech processing: the causal-anticausal decomposition of speech. It is shown that for clean speech, SEDREAMS and YAGA are the best performing techniques, both in terms of identification rate and accuracy. ZFR and SEDREAMS also show a superior robustness to additive noise and reverberation.
翻訳日:2023-01-17 13:03:01 公開日:2019-12-28
# 声門源推定法の比較検討

A Comparative Study of Glottal Source Estimation Techniques ( http://arxiv.org/abs/2001.00840v1 )

ライセンス: Link先を確認
Thomas Drugman, Baris Bozkurt, Thierry Dutoit(参考訳) 音源抽出分解(または声門流量推定)は音声処理の基本的な問題の一つである。 このため、文献にいくつかの技法が提案されている。 しかし、異なるアプローチを比較する研究はほとんど存在しない。 さらに、合成音声または持続母音で、系統的に実験が実施されている。 本研究では, 閉相逆フィルタ, 反復型および適応型逆フィルタ, 混合相分解の3つの代表的フロー推定法を比較した。 これらの手法はまず,合成音声信号の客観的評価試験に提案される。 推定品質に影響する様々な要因に対する感度と雑音に対するロバスト性について検討した。 第2の実験では、実際の接続音声の大きなコーパス上で、音声品質(テンソル、モーダル、ソフト)をラベル付けする能力について研究した。 声質の変化は声門特徴分布の大幅な変化によって反映されることが示された。 混合位相分解法と閉相逆フィルタリング法に基づく手法は, 合成信号と実音声信号の両方において最良の結果を与えることができた。 一方,高ロバスト性のため,雑音環境下では反復的かつ適応的な逆フィルタリングが推奨される。

Source-tract decomposition (or glottal flow estimation) is one of the basic problems of speech processing. For this, several techniques have been proposed in the literature. However studies comparing different approaches are almost nonexistent. Besides, experiments have been systematically performed either on synthetic speech or on sustained vowels. In this study we compare three of the main representative state-of-the-art methods of glottal flow estimation: closed-phase inverse filtering, iterative and adaptive inverse filtering, and mixed-phase decomposition. These techniques are first submitted to an objective assessment test on synthetic speech signals. Their sensitivity to various factors affecting the estimation quality, as well as their robustness to noise are studied. In a second experiment, their ability to label voice quality (tensed, modal, soft) is studied on a large corpus of real connected speech. It is shown that changes of voice quality are reflected by significant modifications in glottal feature distributions. Techniques based on the mixed-phase decomposition and on a closed-phase inverse filtering process turn out to give the best results on both clean synthetic and real speech signals. On the other hand, iterative and adaptive inverse filtering is recommended in noisy environments for its high robustness.
翻訳日:2023-01-17 13:02:36 公開日:2019-12-28
# 音声信号からの声門閉鎖と開口瞬間検出

Glottal Closure and Opening Instant Detection from Speech Signals ( http://arxiv.org/abs/2001.00841v1 )

ライセンス: Link先を確認
Thomas Drugman, Thierry Dutoit(参考訳) 本稿では,音声波形から直接GCI(Glottal Closure and Opening Instants)を検出する手法を提案する。 手順は2つの段階に分けられる。 まず、平均に基づく信号が算出され、音声イベントが発生すると期待される間隔が抽出される。 第2に、各間隔で、線形予測残差における不連続性を特定することにより、音声イベントの正確な位置を割り当てる。 提案手法は,CMU ARCTICデータベース上のDYPSAアルゴリズムと比較する。 大幅な改善と、より優れたノイズ堅牢性が報告されている。 また,goi識別精度の結果は声門音源特性に有望である。

This paper proposes a new procedure to detect Glottal Closure and Opening Instants (GCIs and GOIs) directly from speech waveforms. The procedure is divided into two successive steps. First a mean-based signal is computed, and intervals where speech events are expected to occur are extracted from it. Secondly, at each interval a precise position of the speech event is assigned by locating a discontinuity in the Linear Prediction residual. The proposed method is compared to the DYPSA algorithm on the CMU ARCTIC database. A significant improvement as well as a better noise robustness are reported. Besides, results of GOI identification accuracy are promising for the glottal source characterization.
翻訳日:2023-01-17 13:02:18 公開日:2019-12-28
# 機械学習によるトポロジカルセクタの分類

Classifying topological sector via machine learning ( http://arxiv.org/abs/1912.12410v1 )

ライセンス: Link先を確認
Masakiyo Kitazawa, Takuya Matsumoto, Yasuhiro Kohno(参考訳) 真空中におけるSU(3)Yang-Mills理論におけるゲージ構成のトポロジカルチャージ$Q$の推定に機械学習手法を用いる。 最初の実験では、畳み込みニューラルネットワークに平滑化せずに4次元の位相電荷密度を供給し、それを訓練してq$を推定する。 トレーニングされたニューラルネットワークは, トポロジカル電荷密度から, 精度の高い小さな流速で$Q$を推定できることがわかった。 次に,前処理として入力データの次元削減を行い,ニューラルネットワークによる低次元データの解析を行う。 ニューラルネットワークの精度は、入力データの次元に統計的に重要な依存を持たないことがわかった。 この結果から、ニューラルネットワークは高次元空間における$q$の決定に寄与する特徴的特徴を見出さないと主張する。

We employ a machine learning technique for an estimate of the topological charge $Q$ of gauge configurations in SU(3) Yang-Mills theory in vacuum. As a first trial, we feed the four-dimensional topological charge density with and without smoothing into the convolutional neural network and train it to estimate the value of $Q$. We find that the trained neural network can estimate the value of $Q$ from the topological charge density at small flow time with high accuracy. Next, we perform the dimensional reduction of the input data as a preprocessing and analyze lower dimensional data by the neural network. We find that the accuracy of the neural network does not have statistically-significant dependence on the dimension of the input data. From this result we argue that the neural network does not find characteristic features responsible for the determination of $Q$ in the higher dimensional space.
翻訳日:2023-01-17 13:02:10 公開日:2019-12-28
# オンラインアテンションに基づくエンコーダデコーダモデルの多段階学習の改善

Improved Multi-Stage Training of Online Attention-based Encoder-Decoder Models ( http://arxiv.org/abs/1912.12384v1 )

ライセンス: Link先を確認
Abhinav Garg, Dhananjaya Gowda, Ankur Kumar, Kwangyoun Kim, Mehul Kumar and Chanwoo Kim(参考訳) 本稿では,オンラインアテンションベースのエンコーダデコーダ(AED)モデルの性能向上を目的としたマルチタスク学習手法を提案する。 キャラクタエンコーダ,バイトペアエンコーディング(bpe)ベースのエンコーダ,アテンションデコーダという,アーキテクチャ上の3段階の粒度に基づく3段階のトレーニングを提案する。 また,2段階の言語的粒度,文字とBPEに基づくマルチタスク学習を用いる。 双方向エンコーダからの転送学習を含むエンコーダの事前学習戦略について検討する。 オンライン・アテンションを持つエンコーダ・デコーダモデルでは,小型モデルと大型モデルでは,それぞれベースラインが35%,10%向上した。 本モデルでは,long short-term memory (lstm) ベースの外部言語モデル (lm) との融合後,より小さいモデルに対して,librispeechテストクリーンデータに対して5.4%,4.48%の単語誤り率(wer)を達成する。

In this paper, we propose a refined multi-stage multi-task training strategy to improve the performance of online attention-based encoder-decoder (AED) models. A three-stage training based on three levels of architectural granularity namely, character encoder, byte pair encoding (BPE) based encoder, and attention decoder, is proposed. Also, multi-task learning based on two-levels of linguistic granularity namely, character and BPE, is used. We explore different pre-training strategies for the encoders including transfer learning from a bidirectional encoder. Our encoder-decoder models with online attention show 35% and 10% relative improvement over their baselines for smaller and bigger models, respectively. Our models achieve a word error rate (WER) of 5.04% and 4.48% on the Librispeech test-clean data for the smaller and bigger models respectively after fusion with long short-term memory (LSTM) based external language model (LM).
翻訳日:2023-01-17 12:54:50 公開日:2019-12-28
# 臨床における知識誘導テキスト構造化

Knowledge-guided Text Structuring in Clinical Trials ( http://arxiv.org/abs/1912.12380v1 )

ライセンス: Link先を確認
Yingcheng Sun, Kenneth Loparo(参考訳) 臨床試験記録は、様々な資源や患者や疾患の分析である。 臨床治験の結果や結論の要約などの自由テキストからの情報抽出は,コンピュータによる適合性クエリの定式化と電子的患者のスクリーニングを支援する。 従来の研究は、通常は1対の医学的実体と属性を持つ資格基準から情報を抽出することに重点を置いてきたが、解析に複雑である複数の実体、属性、関係性を持つ他の種類の自由テキストを考えることはめったにない。 本稿では,学習コーパスとしての知識ベースと文脈情報としての単語依存関係を自動生成し,自由テキストを形式的,コンピュータ解釈可能な表現に変換する知識誘導型テキスト構築フレームワークを提案する。 実験により,提案手法の有効性と効率を実証し,全体的な高精度化とリコールを実現することができた。

Clinical trial records are variable resources or the analysis of patients and diseases. Information extraction from free text such as eligibility criteria and summary of results and conclusions in clinical trials would better support computer-based eligibility query formulation and electronic patient screening. Previous research has focused on extracting information from eligibility criteria, with usually a single pair of medical entity and attribute, but seldom considering other kinds of free text with multiple entities, attributes and relations that are more complex for parsing. In this paper, we propose a knowledge-guided text structuring framework with an automatically generated knowledge base as training corpus and word dependency relations as context information to transfer free text into formal, computer-interpretable representations. Experimental results show that our method can achieve overall high precision and recall, demonstrating the effectiveness and efficiency of the proposed method.
翻訳日:2023-01-17 12:54:29 公開日:2019-12-28
# MulGAN: 顔の属性編集はExemplarが担当

MulGAN: Facial Attribute Editing by Exemplar ( http://arxiv.org/abs/1912.12396v1 )

ライセンス: Link先を確認
Jingtao Guo, Zhenzhen Qian, Zuowei Zhou and Yi Liu(参考訳) 近年の顔属性編集の研究は, 深層畳み込みネットワークと生成対向ネットワークの力の増大により, 有望な成果を上げている。 これらの手法は、列車モデルに入力として反対属性を持つ一対の画像を使用することで、画像中の属性関連情報を潜在特徴空間の予め定義された領域にエンコードし、その属性関連潜在特徴領域を交換することにより、入力画像とexemplar間の顔属性転送を実現する。 しかし、3つの制約がある:(1)モデルが入力として反対の属性を持つ一対のイメージを用いて訓練されなければならない、(2)複数の属性を例によって編集する能力の弱い、(3)画像生成の質が悪い。 画像の属性情報を潜在特徴空間の予め定義された領域にエンコードさせるため、入力画像に反対属性制約を課す代わりに、本研究では、潜在特徴空間の予め定義された領域に属性ラベル制約を直接適用する。 一方、属性分類損失を用いて、画像の属性関連情報を対応する属性の予め定義された潜在特徴領域に抽出し、複数の属性を同時に転送できるようにする。 また, 画像の画質を向上しつつ, 特性伝達能力の向上を図るために, 新たなモデル構造を考案した。 celebaデータセット上の他の手法との比較により,上記の3つの制約を克服するモデルの有効性を実証した。

Recent studies on face attribute editing by exemplars have achieved promising results due to the increasing power of deep convolutional networks and generative adversarial networks. These methods encode attribute-related information in images into the predefined region of the latent feature space by employing a pair of images with opposite attributes as input to train model, the face attribute transfer between the input image and the exemplar can be achieved by exchanging their attribute-related latent feature region. However, they suffer from three limitations: (1) the model must be trained using a pair of images with opposite attributes as input; (2) weak capability of editing multiple attributes by exemplars; (3) poor quality of generating image. Instead of imposing opposite-attribute constraints on the input image in order to make the attribute information of images be encoded in the predefined region of the latent feature space, in this work we directly apply the attribute labels constraint to the predefined region of the latent feature space. Meanwhile, an attribute classification loss is employed to make the model learn to extract the attribute-related information of images into the predefined latent feature region of the corresponding attribute, which enables our method to transfer multiple attributes of the exemplar simultaneously. Besides, a novel model structure is designed to enhance attribute transfer capabilities by exemplars while improve the quality of the generated image. Experiments demonstrate the effectiveness of our model on overcoming the above three limitations by comparing with other methods on the CelebA dataset.
翻訳日:2023-01-17 12:53:33 公開日:2019-12-28
# シルエットネット:シルエットからの3次元ハンドポース推定

Silhouette-Net: 3D Hand Pose Estimation from Silhouettes ( http://arxiv.org/abs/1912.12436v1 )

ライセンス: Link先を確認
Kuo-Wei Lee, Shih-Hung Liu, Hwann-Tzong Chen, Koichi Ito(参考訳) 3Dハンドポーズ推定は広範囲のアプリケーションに対して多くの注目を集めており、ディープラーニングの開発によって大きな進歩を遂げている。 既存のアプローチは主に、モノクラーRGB、マルチビューRGB、ディープ、ポイントクラウドなどの異なる入力のモダリティや設定を考慮し、自己閉塞と視点変化による変動を解決するための十分な手がかりを提供する。 対照的に、この研究は、最小限の情報を使って3Dのポーズを推定するという、探索の少ないアイデアに対処することを目的としている。 暗黙の奥行き認識からガイダンスを自動的に学習し、エンドツーエンドのトレーニングを通じてポーズのあいまいさを解決する新しいアーキテクチャを提案する。 実験結果から, 深度マップを使わずに, 3次元手ポーズを単に手シルエットから正確に推定できることが示唆された。 unem 2017 hands in the million challenge” (him2017)ベンチマークデータセットの広範な評価は、最近の深度ベースのアプローチと同等あるいはそれ以上のパフォーマンスを達成し、シルエットからの3dハンドポーズの推定において、独自の最先端技術として役立つことをさらに証明している。

3D hand pose estimation has received a lot of attention for its wide range of applications and has made great progress owing to the development of deep learning. Existing approaches mainly consider different input modalities and settings, such as monocular RGB, multi-view RGB, depth, or point cloud, to provide sufficient cues for resolving variations caused by self occlusion and viewpoint change. In contrast, this work aims to address the less-explored idea of using minimal information to estimate 3D hand poses. We present a new architecture that automatically learns a guidance from implicit depth perception and solves the ambiguity of hand pose through end-to-end training. The experimental results show that 3D hand poses can be accurately estimated from solely {\em hand silhouettes} without using depth maps. Extensive evaluations on the {\em 2017 Hands In the Million Challenge} (HIM2017) benchmark dataset further demonstrate that our method achieves comparable or even better performance than recent depth-based approaches and serves as the state-of-the-art of its own kind on estimating 3D hand poses from silhouettes.
翻訳日:2023-01-17 12:52:38 公開日:2019-12-28
# 医療機器としての機械学習ソフトウェアへの修正の承認政策:バイオクリープに関する研究

Approval policies for modifications to Machine Learning-Based Software as a Medical Device: A study of bio-creep ( http://arxiv.org/abs/1912.12413v1 )

ライセンス: Link先を確認
Jean Feng, Scott Emerson, Noah Simon(参考訳) 医療に機械学習アルゴリズムをうまく配置するには、そのパフォーマンスと安全性を慎重に評価する必要がある。 これまでFDAは、マーケティングに先立ってロックアルゴリズムを承認し、今後のアップデートで市場前のレビューを別々に行う必要がある。 しかし、これは機械学習の重要な特徴を否定する - 成長するデータセットから学習し、時間とともに改善する能力だ。 本稿では,自動アルゴリズム変更プロトコル(aACP)をオンライン仮説テスト問題として,承認ポリシーの設計について述べる。 このプロセスは新薬の非致死性試験と明らかな類似性を持つため、反復的な試験と修正の採用が予測精度の段階的低下にどのようにつながるかを調査し、薬物開発文献で「バイオクレプ」とも呼ばれる。 我々は、単純なポリシーについて検討するが、必ずしもエラー率の保証やエラー率の制御を提供するポリシーを提供するわけではない。 後者については、Bad Approval Count (BAC)とBad Approval and Benchmark Ratios (BABR)の2つのオンラインエラー率を定義します。 AACP-BAC と aACP-BABR は,アルファ投資,グループ系列,ゲート管理の手法を組み合わせた政策である。 一方,aACP-BACおよび-BABRは,有効な修正を承認する能力に大きく影響を及ぼすことなく,バイオクリープ率を制御した。

Successful deployment of machine learning algorithms in healthcare requires careful assessments of their performance and safety. To date, the FDA approves locked algorithms prior to marketing and requires future updates to undergo separate premarket reviews. However, this negates a key feature of machine learning--the ability to learn from a growing dataset and improve over time. This paper frames the design of an approval policy, which we refer to as an automatic algorithmic change protocol (aACP), as an online hypothesis testing problem. As this process has obvious analogy with noninferiority testing of new drugs, we investigate how repeated testing and adoption of modifications might lead to gradual deterioration in prediction accuracy, also known as ``biocreep'' in the drug development literature. We consider simple policies that one might consider but do not necessarily offer any error-rate guarantees, as well as policies that do provide error-rate control. For the latter, we define two online error-rates appropriate for this context: Bad Approval Count (BAC) and Bad Approval and Benchmark Ratios (BABR). We control these rates in the simple setting of a constant population and data source using policies aACP-BAC and aACP-BABR, which combine alpha-investing, group-sequential, and gate-keeping methods. In simulation studies, bio-creep regularly occurred when using policies with no error-rate guarantees, whereas aACP-BAC and -BABR controlled the rate of bio-creep without substantially impacting our ability to approve beneficial modifications.
翻訳日:2023-01-17 12:47:28 公開日:2019-12-28
# RoadTagger: グラフニューラルネットワークによるロバストな道路属性推論

RoadTagger: Robust Road Attribute Inference with Graph Neural Networks ( http://arxiv.org/abs/1912.12408v1 )

ライセンス: Link先を確認
Songtao He, Favyen Bastani, Satvat Jagwani, Edward Park, Sofiane Abbar, Mohammad Alizadeh, Hari Balakrishnan, Sanjay Chawla, Samuel Madden, Mohammad Amin Sadeghi(参考訳) 衛星画像から車線数や道路タイプなどの道路特性を推定することは困難である。 しばしば、衛星画像の閉塞と道路属性の空間的相関により、道路上の一つの位置における道路属性は、道路の遠方のセグメントを考える場合にのみ現れる。 したがって,道路特性を頑健に推定するには,分散情報を統合し,道路に沿った特徴の空間的相関を捉える必要がある。 画像分類器に依存する既存のソリューションは、この相関を捉えることができず、結果として精度が低下する。 この失敗は、画像分類器の有効受容領域が制限された基本的な制限によって引き起こされる。 この制限を克服するため,道路属性を推測するために,畳み込みニューラルネットワーク(CNN)とグラフニューラルネットワーク(GNN)を組み合わせたエンドツーエンドアーキテクチャであるRoadTaggerを提案する。 グラフニューラルネットワークの使用により、道路ネットワークグラフ上での情報伝搬が可能となり、画像分類器の受容的フィールド制限を排除できる。 そこで我々は,20都市の688 km^2領域をカバーする大規模実世界のデータセットと,合成マイクロデータセットを用いてRoadTaggerを評価する。 評価において、RoadTaggerはCNN画像分類器に基づくアプローチよりも推論精度を向上させる。 RoadTaggerはまた、衛星画像のさまざまな破壊に対して強い堅牢性を示し、道路ネットワークに沿って散在する情報を集約する複雑な帰納規則を学習する能力を示している。

Inferring road attributes such as lane count and road type from satellite imagery is challenging. Often, due to the occlusion in satellite imagery and the spatial correlation of road attributes, a road attribute at one position on a road may only be apparent when considering far-away segments of the road. Thus, to robustly infer road attributes, the model must integrate scattered information and capture the spatial correlation of features along roads. Existing solutions that rely on image classifiers fail to capture this correlation, resulting in poor accuracy. We find this failure is caused by a fundamental limitation -- the limited effective receptive field of image classifiers. To overcome this limitation, we propose RoadTagger, an end-to-end architecture which combines both Convolutional Neural Networks (CNNs) and Graph Neural Networks (GNNs) to infer road attributes. The usage of graph neural networks allows information propagation on the road network graph and eliminates the receptive field limitation of image classifiers. We evaluate RoadTagger on both a large real-world dataset covering 688 km^2 area in 20 U.S. cities and a synthesized micro-dataset. In the evaluation, RoadTagger improves inference accuracy over the CNN image classifier based approaches. RoadTagger also demonstrates strong robustness against different disruptions in the satellite imagery and the ability to learn complicated inductive rules for aggregating scattered information along the road network.
翻訳日:2023-01-17 12:46:34 公開日:2019-12-28
# 条件付き生成対向ネットワークによるマルチスペクトル画像と夜間画像の変換

Translating multispectral imagery to nighttime imagery via conditional generative adversarial networks ( http://arxiv.org/abs/2001.05848v1 )

ライセンス: Link先を確認
Xiao Huang, Dong Xu, Zhenlong Li, Cuizhen Wang(参考訳) 夜間の衛星画像は幅広い分野に応用されている。 しかし、観測された光の強度がどのように形成され、それがシミュレートできるかの理解が限られており、さらなる応用を妨げている。 本研究では,多スペクトル画像から夜間画像への翻訳における条件付き生成逆ネットワーク(cgan)の可能性を検討する。 一般的なcGANフレームワークであるpix2pixが採用され、Landsat 8とVisible Infrared Imaging Radiometer Suite (VIIRS)から派生したグリッド化されたトレーニング画像ペアを使用して、この翻訳を容易にするために修正された。 本研究は,多スペクトルから夜間への翻訳の可能性を示し,さらにソーシャルメディアデータの追加により,生成した夜間画像が地対面画像と非常によく似ていることを示す。 本研究は,衛星観測衛星の夜間光合成のギャップを埋め,夜間の直列構成,光変性,マルチセンサキャリブレーションなどの夜間リモートセンシング分野における課題を解決するための新しいパラダイムを提供する。

Nighttime satellite imagery has been applied in a wide range of fields. However, our limited understanding of how observed light intensity is formed and whether it can be simulated greatly hinders its further application. This study explores the potential of conditional Generative Adversarial Networks (cGAN) in translating multispectral imagery to nighttime imagery. A popular cGAN framework, pix2pix, was adopted and modified to facilitate this translation using gridded training image pairs derived from Landsat 8 and Visible Infrared Imaging Radiometer Suite (VIIRS). The results of this study prove the possibility of multispectral-to-nighttime translation and further indicate that, with the additional social media data, the generated nighttime imagery can be very similar to the ground-truth imagery. This study fills the gap in understanding the composition of satellite observed nighttime light and provides new paradigms to solve the emerging problems in nighttime remote sensing fields, including nighttime series construction, light desaturation, and multi-sensor calibration.
翻訳日:2023-01-17 12:45:18 公開日:2019-12-28
# 散乱媒質を用いた一般レンズレスイメージングにおける伝達学習

Transfer Learning in General Lensless Imaging through Scattering Media ( http://arxiv.org/abs/1912.12419v1 )

ライセンス: Link先を確認
Yukuan Yang, Lei Deng, Peng Jiao, Yansong Chua, Jing Pei, Cheng Ma, Guoqi Li(参考訳) 近年,深層ニューラルネットワーク (dnn) が散乱媒質によるレンズレスイメージングの分野に導入されている。 計算画像における逆問題を解決することで、DNNは従来のレンズレスイメージングにおけるいくつかの欠点、すなわち、高コスト、低品質、複雑な制御、低反干渉を克服することができる。 しかし、トレーニングのためには、さまざまなデータセット上の多数のトレーニングサンプルを収集する必要がある。 その理由として,散乱媒質によるレンズレスイメージングは高次元回帰問題であり,解析的解を得るのが困難である。 本稿では,この問題に対処するために,転校学習を提案する。 主なアイデアは、多数のトレーニングサンプルを使用して比較的複雑なデータセットでDNNをトレーニングし、他のデータセットからのごくわずかなサンプルを使用して、最後の数層を微調整することです。 ゼロからトレーニングするために必要な何千ものサンプルの代わりに、転送学習はコストの高いデータ取得の問題を軽減する。 具体的には,データセットのサンプルサイズと類似性の違いを考慮し,2つのDNNアーキテクチャ,すなわちLISMU-FCNとLISMU-OCNを提案する。 LISMU-OCNは、パラメータがはるかに少ないため、同様のデータセットをまたいでイメージングを達成できる。 さらに、実際の実験に近い一連のシミュレーションアルゴリズムを構築し、レンズレス散乱イメージングの研究において非常に重要かつ実用的価値がある。 要約すると、この研究はDNNにおける転写学習を用いた散乱媒体によるレンズレスイメージングの新しいソリューションを提供する。

Recently deep neural networks (DNNs) have been successfully introduced to the field of lensless imaging through scattering media. By solving an inverse problem in computational imaging, DNNs can overcome several shortcomings in the conventional lensless imaging through scattering media methods, namely, high cost, poor quality, complex control, and poor anti-interference. However, for training, a large number of training samples on various datasets have to be collected, with a DNN trained on one dataset generally performing poorly for recovering images from another dataset. The underlying reason is that lensless imaging through scattering media is a high dimensional regression problem and it is difficult to obtain an analytical solution. In this work, transfer learning is proposed to address this issue. Our main idea is to train a DNN on a relatively complex dataset using a large number of training samples and fine-tune the last few layers using very few samples from other datasets. Instead of the thousands of samples required to train from scratch, transfer learning alleviates the problem of costly data acquisition. Specifically, considering the difference in sample sizes and similarity among datasets, we propose two DNN architectures, namely LISMU-FCN and LISMU-OCN, and a balance loss function designed for balancing smoothness and sharpness. LISMU-FCN, with much fewer parameters, can achieve imaging across similar datasets while LISMU-OCN can achieve imaging across significantly different datasets. What's more, we establish a set of simulation algorithms which are close to the real experiment, and it is of great significance and practical value in the research on lensless scattering imaging. In summary, this work provides a new solution for lensless imaging through scattering media using transfer learning in DNNs.
翻訳日:2023-01-17 12:45:00 公開日:2019-12-28
# エネルギーに基づくタンパク質ドッキングモデルのためのグラフ畳み込みネットワーク

Energy-based Graph Convolutional Networks for Scoring Protein Docking Models ( http://arxiv.org/abs/1912.12476v1 )

ライセンス: Link先を確認
Yue Cao and Yang Shen(参考訳) タンパク質とタンパク質の相互作用に関する構造情報は、しばしば相互作用論のスケールで欠落し、細胞の機械的理解と治療の合理的発見に重要である。 タンパク質ドッキングは、そのような情報を予測するための計算代替手段を提供する。 しかし、多くの候補の中で、しばしばスコアリング問題として知られる、ネイティブに近いドッキングモデルの高いランク付けは、依然として重要な課題である。 さらに,タンパク質ドッキングでは,モデル品質の推定や品質評価問題もほとんど解決されない。 本研究では, タンパク質ドッキングにおける2つの課題を相対的, 絶対的得点とみなし, 物理に着想を得た1つのディープラーニングフレームワークに対処する。 タンパク質の3次元構造を分子内および分子間残基接触グラフとして, 原子分解能ノードとエッジ特性で表現する。 また,エッジ機能を通じてノードの機能をプールし,グラフデータから直接汎用的な相互作用エネルギーを学習できる新しいグラフ畳み込みカーネルを提案する。 結果として得られるエネルギーベースのグラフ畳み込みネットワーク(egcn)は、分子内および分子間エネルギー、結合親和性、および遭遇錯体の品質指標(interface rmsd)を予測するために訓練される。 EGCNは、モデルランキングのための最先端のスコアリング機能と比較して、ホモロジードッキングを含むCAPRIテストセットのランキングを大幅に改善し、トレーニングデータに知られていない様々なコミュニティワイドドッキングプロトコルによって生成されるCAPRIベンチマークセットであるScore_setに匹敵する。 Score_setの品質評価では、EGCNがこれまでの取り組みに対して約27%の改善を示している。 EGCNはグラフ表現における3次元構造データから直接学習し、タンパク質ドッキングのためのグラフ畳み込みネットワークの最初の成功例を示す。

Structural information about protein-protein interactions, often missing at the interactome scale, is important for mechanistic understanding of cells and rational discovery of therapeutics. Protein docking provides a computational alternative to predict such information. However, ranking near-native docked models high among a large number of candidates, often known as the scoring problem, remains a critical challenge. Moreover, estimating model quality, also known as the quality assessment problem, is rarely addressed in protein docking. In this study the two challenging problems in protein docking are regarded as relative and absolute scoring, respectively, and addressed in one physics-inspired deep learning framework. We represent proteins' and encounter complexes' 3D structures as intra- and inter-molecular residue contact graphs with atom-resolution node and edge features. And we propose a novel graph convolutional kernel that pool interacting nodes' features through edge features so that generalized interaction energies can be learned directly from graph data. The resulting energy-based graph convolutional networks (EGCN) with multi-head attention are trained to predict intra- and inter-molecular energies, binding affinities, and quality measures (interface RMSD) for encounter complexes. Compared to a state-of-the-art scoring function for model ranking, EGCN has significantly improved ranking for a CAPRI test set involving homology docking; and is comparable for Score_set, a CAPRI benchmark set generated by diverse community-wide docking protocols not known to training data. For Score_set quality assessment, EGCN shows about 27% improvement to our previous efforts. Directly learning from 3D structure data in graph representation, EGCN represents the first successful development of graph convolutional networks for protein docking.
翻訳日:2023-01-17 12:43:52 公開日:2019-12-28
# パターン認識と埋め込みアルゴリズム評価のための幾何学空間における群分離性の測定

Measuring group-separability in geometrical space for evaluation of pattern recognition and embedding algorithms ( http://arxiv.org/abs/1912.12418v1 )

ライセンス: Link先を確認
A. Acevedo, S. Ciucci, MJ. Kuo, C. Duran and CV. Cannistraci(参考訳) 幾何学的空間におけるデータ分離の評価は、パターン認識に欠かせない。 低次元可視表示空間における幾何学的パターンの出現を明らかにするために,高次元サンプルの類似性を幾何学的距離で近似するために,次元減少(DR)アルゴリズムが開発された。 しかし、これらのDRアルゴリズムによるサンプル群分離性は、低次元幾何学空間で直接評価する統計的尺度が欠落している。 これらの分離性尺度は、アルゴリズムのパフォーマンスの比較とアルゴリズムパラメータのチューニングの両方に使用できる。 本稿では、幾何学空間におけるデータサンプルの群分離性を評価するために考案された、プロジェクション分離性(PS)理論に由来する3つの統計測度(PSI-ROC、PSI-PR、PSI-P)を提案する。 従来のクラスタ妥当性指標(CVI)はこの文脈で適用されるかもしれないが、DRに特化していないため限界を示す。我々のPS尺度は5つの非線形データセットと6つの異なるDRアルゴリズムを用いて、6つのベースラインクラスタ妥当性指標と比較される。 その結果,ps法に基づく統計的指標はcvisよりも精度が高く,パラメータ依存型drアルゴリズムのチューニング制御に有効であることが明らかとなった。

Evaluating data separation in a geometrical space is fundamental for pattern recognition. A plethora of dimensionality reduction (DR) algorithms have been developed in order to reveal the emergence of geometrical patterns in a low dimensional visible representation space, in which high-dimensional samples similarities are approximated by geometrical distances. However, statistical measures to evaluate directly in the low dimensional geometrical space the sample group separability attaiend by these DR algorithms are missing. Certainly, these separability measures could be used both to compare algorithms performance and to tune algorithms parameters. Here, we propose three statistical measures (named as PSI-ROC, PSI-PR, and PSI-P) that have origin from the Projection Separability (PS) rationale introduced in this study, which is expressly designed to assess group separability of data samples in a geometrical space. Traditional cluster validity indices (CVIs) might be applied in this context but they show limitations because they are not specifically tailored for DR. Our PS measures are compared to six baseline cluster validity indices, using five non-linear datasets and six different DR algorithms. The results provide clear evidence that statistical-based measures based on PS rationale are more accurate than CVIs and can be adopted to control the tuning of parameter-dependent DR algorithms.
翻訳日:2023-01-17 12:37:48 公開日:2019-12-28
# SLM Lab: 再現可能な深層強化学習のための総合ベンチマークとモジュール型ソフトウェアフレームワーク

SLM Lab: A Comprehensive Benchmark and Modular Software Framework for Reproducible Deep Reinforcement Learning ( http://arxiv.org/abs/1912.12482v1 )

ライセンス: Link先を確認
Keng Wah Loon, Laura Graesser, Milan Cvitkovic(参考訳) 再現性強化学習(RL)研究のためのソフトウェアフレームワークであるSLM Labを紹介する。 SLM Labは多くのRLアルゴリズムを実装し、同期および非同期並列実験の実行、ハイパーパラメータサーチ、結果解析を提供する。 SLM LabのRLアルゴリズムはモジュール方式で実装されており、アルゴリズム性能の違いは実装間ではなく、アルゴリズム間の差異に確実に対応できる。 本研究では、SLM Labの設計選択を提示し、それを総合的な単一コードベースRLアルゴリズムベンチマークを作成する。 また,slm labのモジュラー設計の結果,ソフト・アクタ・クリティック・アルゴリズム(haarnoja et al., 2018)の離散動作型とrlエージェントのハイブリッド同期/非同期学習法を紹介し評価した。

We introduce SLM Lab, a software framework for reproducible reinforcement learning (RL) research. SLM Lab implements a number of popular RL algorithms, provides synchronous and asynchronous parallel experiment execution, hyperparameter search, and result analysis. RL algorithms in SLM Lab are implemented in a modular way such that differences in algorithm performance can be confidently ascribed to differences between algorithms, not between implementations. In this work we present the design choices behind SLM Lab and use it to produce a comprehensive single-codebase RL algorithm benchmark. In addition, as a consequence of SLM Lab's modular design, we introduce and evaluate a discrete-action variant of the Soft Actor-Critic algorithm (Haarnoja et al., 2018) and a hybrid synchronous/asynchronous training method for RL agents.
翻訳日:2023-01-17 12:37:25 公開日:2019-12-28
# 模倣の自然言語処理-iii ニューラルネットを用いた診断と手順同定のための臨床ノート

Natural language processing of MIMIC-III clinical notes for identifying diagnosis and procedures with neural networks ( http://arxiv.org/abs/1912.12397v1 )

ライセンス: Link先を確認
Siddhartha Nuthakki, Sunil Neela, Judy W. Gichoya, Saptarshi Purkayastha(参考訳) 医療記録におけるコーディング診断と手続きは、正確な請求書の作成、支払者からの報酬の受け取り、標準化された患者のケア記録の作成を含む、医療産業において重要なプロセスである。 アメリカ合衆国では、ビリング・アンド・インシュアランス関連の活動は2012年に約470億ドルの費用がかかり、米国の病院支出の約25%を占めている。 本稿では,臨床記録を医用コードにマッピングし,現在の病歴の未構造化項目,入院時の症状等から最終診断を予測できる自然言語処理モデルの性能について報告する。 これまでの研究では、ディープラーニングモデルが従来の機械学習モデルと比較して、このようなマッピングのパフォーマンスが向上していることが示されている。 そこで,本研究では,トップ10およびトップ50の診断・手順コードを選択するために,1.2Mの臨床ノートを持つ救急部臨床ノートデータセットMIMIC IIIに最先端の深層学習手法UMMFiTを適用した。 我々のモデルは80.3%と80.5%の精度で上位10の診断と手順を予測できたが、上位50のICD-9符号は70.7%と63.9%の精度で予測された。 非構造化臨床ノートからの診断と処置の予測は、時間の節約、エラーの排除、コストの最小化に寄与する。 現在のモデルから有望なスコアを得ることで、これを小さな現実世界のシナリオにデプロイし、ゴールドスタンダードとして人間のコーダーと比較します。 このアプローチのさらなる研究は、臨床現場でのワークフローを楽にするための高精度な予測を生み出すことができると信じている。

Coding diagnosis and procedures in medical records is a crucial process in the healthcare industry, which includes the creation of accurate billings, receiving reimbursements from payers, and creating standardized patient care records. In the United States, Billing and Insurance related activities cost around $471 billion in 2012 which constitutes about 25% of all the U.S hospital spending. In this paper, we report the performance of a natural language processing model that can map clinical notes to medical codes, and predict final diagnosis from unstructured entries of history of present illness, symptoms at the time of admission, etc. Previous studies have demonstrated that deep learning models perform better at such mapping when compared to conventional machine learning models. Therefore, we employed state-of-the-art deep learning method, ULMFiT on the largest emergency department clinical notes dataset MIMIC III which has 1.2M clinical notes to select for the top-10 and top-50 diagnosis and procedure codes. Our models were able to predict the top-10 diagnoses and procedures with 80.3% and 80.5% accuracy, whereas the top-50 ICD-9 codes of diagnosis and procedures are predicted with 70.7% and 63.9% accuracy. Prediction of diagnosis and procedures from unstructured clinical notes benefit human coders to save time, eliminate errors and minimize costs. With promising scores from our present model, the next step would be to deploy this on a small-scale real-world scenario and compare it with human coders as the gold standard. We believe that further research of this approach can create highly accurate predictions that can ease the workflow in a clinical setting.
翻訳日:2023-01-17 12:34:53 公開日:2019-12-28
# Tha3aroon at NSURL-2019 Task 8: Semantic Question similarity in Arabic

Tha3aroon at NSURL-2019 Task 8: Semantic Question Similarity in Arabic ( http://arxiv.org/abs/1912.12514v1 )

ライセンス: Link先を確認
Ali Fadel, Ibraheem Tuffaha, Mahmoud Al-Ayyoub(参考訳) 本稿では,NSURL 2019における意味的テキスト質問類似性タスクに対するチームの取り組みについて述べる。 我々のトップパフォーマンスシステムは、トレーニングデータを拡大するために、いくつかの革新的なデータ拡張技術を利用している。 次に、ELMoの事前学習したコンテキスト埋め込みを、自己注意型のON-LSTMネットワークに入力する。 この結果、問題ペア間の関係を予測するために使われるシーケンス表現ベクトルが得られる。 1位は96.499F1スコア(F1スコアの2位)、2位は94.848F1スコア(F1スコアの1.076F1スコアの差)である。

In this paper, we describe our team's effort on the semantic text question similarity task of NSURL 2019. Our top performing system utilizes several innovative data augmentation techniques to enlarge the training data. Then, it takes ELMo pre-trained contextual embeddings of the data and feeds them into an ON-LSTM network with self-attention. This results in sequence representation vectors that are used to predict the relation between the question pairs. The model is ranked in the 1st place with 96.499 F1-score (same as the second place F1-score) and the 2nd place with 94.848 F1-score (differs by 1.076 F1-score from the first place) on the public and private leaderboards, respectively.
翻訳日:2023-01-17 12:34:24 公開日:2019-12-28