このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200505となっている論文です。

PDF登録状況(公開日: 20200505)

TitleAuthorsAbstract論文公表日・翻訳日
# Intel Quantum Simulator: 量子回路のクラウド対応高性能シミュレータ

Intel Quantum Simulator: A cloud-ready high-performance simulator of quantum circuits ( http://arxiv.org/abs/2001.10554v2 )

ライセンス: Link先を確認
Gian Giacomo Guerreschi, Justin Hogaboam, Fabio Baruffa, Nicolas P. D. Sawaya(参考訳) 量子コンピュータの古典的シミュレーションは、量子アルゴリズムの数値研究とノイズやエラーのモデル化の両方において、量子情報科学の進歩において重要な役割を果たす。 本稿では、qHiPSTERとして知られていたIntel Quantum Simulator(IQS)の最新リリースを紹介する。 ソフトウェアのハイパフォーマンスコンピューティング(hpc)機能により、ユーザはスーパーコンピュータが提供する利用可能なハードウェアリソースと、利用可能なパブリッククラウドインフラストラクチャを活用できる。 後者のプラットフォームを利用するために、各異なる量子状態の分散シミュレーションとともに、IQSは計算資源を分割して関連する回路のプールを並列にシミュレーションすることができる。 分散アルゴリズムの技術的実装と、新しいプール機能の詳細について強調する。 また、いくつかの基本的なベンチマーク(最大42キュービット)と、HPCインフラストラクチャを使用したパフォーマンス結果も含んでいます。 最後に、多くの量子デバイスが並列に動作しているシナリオを模倣するためにiqsを使用し、量子近似最適化アルゴリズムを実装し、古典的なサブルーチンとして粒子群最適化を用いる。 その結果, この古典的最適化アルゴリズムのハイパーパラメータは, 帯域幅を持つ量子回路シミュレーションの総数に依存することがわかった。 intel quantum simulatorは、パーミッシブライセンスでオープンソースとしてリリースされており、多数の量子ビットをシミュレートし、並列に動作している複数の量子デバイスをエミュレートし、デコヒーレンスやその他のハードウェアエラーが計算結果に与える影響を研究するように設計されている。

Classical simulation of quantum computers will continue to play an essential role in the progress of quantum information science, both for numerical studies of quantum algorithms and for modeling noise and errors. Here we introduce the latest release of Intel Quantum Simulator (IQS), formerly known as qHiPSTER. The high-performance computing (HPC) capability of the software allows users to leverage the available hardware resources provided by supercomputers, as well as available public cloud computing infrastructure. To take advantage of the latter platform, together with the distributed simulation of each separate quantum state, IQS allows to subdivide the computational resources to simulate a pool of related circuits in parallel. We highlight the technical implementation of the distributed algorithm and details about the new pool functionality. We also include some basic benchmarks (up to 42 qubits) and performance results obtained using HPC infrastructure. Finally, we use IQS to emulate a scenario in which many quantum devices are running in parallel to implement the quantum approximate optimization algorithm, using particle swarm optimization as the classical subroutine. The results demonstrate that the hyperparameters of this classical optimization algorithm depends on the total number of quantum circuit simulations one has the bandwidth to perform. Intel Quantum Simulator has been released open-source with permissive licensing and is designed to simulate a large number of qubits, to emulate multiple quantum devices running in parallel, and/or to study the effects of decoherence and other hardware errors on calculation results.
翻訳日:2023-06-05 08:53:13 公開日:2020-05-05
# 干渉トポロジカル周波数変換器

Interacting topological frequency converter ( http://arxiv.org/abs/2002.01424v2 )

ライセンス: Link先を確認
Simon K\"orber and Lorenzo Privitera and Jan Carl Budich and Bj\"orn Trauzettel(参考訳) 2つの円偏光駆動を受ける相互作用する2スピンモデルにより、合成次元において相関位相を実現可能であることを示す。 トポロジカル・オブザーバブルは、動的ドライブ間の量子化周波数変換によって与えられるため、相互作用するトポロジカル・周波数変換器 (ITFC) とよばれる。 ITFCは相互作用と合成次元の相互作用によって特徴づけられる。 このことは、相互作用しない状態には相反しない顕著なトポロジカル現象を引き起こす。 トポロジカル位相図を相互作用強度の関数として計算することにより、ITFCの相関トポロジカル応答の直接表現として周波数変換の増大を予測する。

We show that an interacting two-spin model subjected to two circularly polarized drives enables a feasible realization of a correlated topological phase in synthetic dimensions. The topological observable is given by a quantized frequency conversion between the dynamical drives, which is why we coin it the interacting topological frequency converter (ITFC). The ITFC is characterized by the interplay of interaction and synthetic dimension. This gives rise to striking topological phenomena that have no counterpart in the noninteracting regime. By calculating the topological phase diagrams as a function of interaction strength, we predict an enhancement of frequency conversion as a direct manifestation of the correlated topological response of the ITFC.
翻訳日:2023-06-04 18:46:51 公開日:2020-05-05
# 参照フレーム非依存測定デバイス非依存量子鍵分布のための効率的なデコイ状態

Efficient decoy-states for the reference-frame-independent measurement-device-independent quantum key distribution ( http://arxiv.org/abs/2002.03672v4 )

ライセンス: Link先を確認
Feng-Yu Lu, Zhen-Qiang Yin, Guan-Jie Fan-Yuan, Rong Wang, Hang Liu, Shuang Wang, Wei Chen, De-Yong He(参考訳) Reference-frame-independent measurement-device-independent quantum key distribution (RFI-MDI-QKD) は、検出器側への全ての攻撃と、ソース側での参照フレームアライメントの必要性を排除する新しいプロトコルである。 しかし、その性能は統計的揺らぎによって著しく低下する可能性があり、例えば、不一致の事象の収率やエラー率など多くのパラメータは、セキュリティを監視するために蓄積されなければならない。 本研究では,元のdecoy-states法が,異なる基底間の潜在的な関係を無視するため,ペシミスティックにこれらの収率を推定することを見出した。 RFI-MDI-QKDの処理性能は,確率変動を考慮した場合の秘密鍵レートと達成可能な距離で大幅に向上する。 RFI-MDI-QKDの実用化に向けての道筋をたどった。

Reference-frame-independent measurement-device-independent quantum key distribution (RFI-MDI-QKD) is a novel protocol which eliminates all possible attacks on detector side and necessity of reference-frame alignment in source sides. However, its performance may degrade notably due to statistical fluctuations, since more parameters, e.g. yields and error rates for mismatched-basis events, must be accumulated to monitor the security. In this work, we find that the original decoy-states method estimates these yields over pessimistically since it ignores the potential relations between different bases. Through processing parameters of different bases jointly, the performance of RFI-MDI-QKD is greatly improved in terms of secret key rate and achievable distance when statistical fluctuations are considered. Our results pave an avenue towards practical RFI-MDI-QKD.
翻訳日:2023-06-04 01:53:26 公開日:2020-05-05
# 量子場によるチャネルキャパシティの超高付加性

Superadditivity of channel capacity through quantum fields ( http://arxiv.org/abs/2002.04153v2 )

ライセンス: Link先を確認
Koji Yamaguchi, Aida Ahmadzadegan, Petar Simidzija, Achim Kempf and Eduardo Mart\'in-Mart\'inez(参考訳) 任意の通信が量子場を介しての通信であることを考えると、送信者aliceが量子場の情報伝達障害を引き起こすシナリオを考察する。 量子情報カプセル(QIC)を用いて,これらの乱れの空間的および時間的展開を正確に追跡する。 Aliceと受信機のBobのチャネル容量は、Bobが検出器を内蔵するだけでなく、Aliceの符号化操作の因果的未来にも及んでいることが判明した。 直感的には、この種の超付加性は、アリスの因果未来の外の場がアリスの因果未来の内部の場と絡み合っているために生じる。 したがって、アリスの因果未来以外のボブ検出器によって拾われた量子ノイズは、アリスの因果未来におけるボブ検出器のノイズと相関している。 この相関により、ボブはアリスの因果的未来にある検出器の信号対雑音比を改善することができる。 さらに,qic技術のマルチモード一般化法を開発した。 これにより、Aliceが複数の局所化および任意に絡み合ったエミッタを運用するケースまで解析を拡張することができる。 我々は、Aliceが複数のエミッタを適切に並べてプレタイムで動作させ、フィールドに量子衝撃波を発生させることにより、チャネル容量を増大させる新しい手法を適用した。

Given that any communication is communication through quantum fields, we here study the scenario where a sender, Alice, causes information-carrying disturbances in a quantum field. We track the exact spread of these disturbances in space and time by using the technique of quantum information capsules (QIC). We find that the channel capacity between Alice and a receiver, Bob, is enhanced by Bob placing detectors not only inside but in addition also outside the causal future of Alice's encoding operation. Intuitively, this type of superadditivity arises because the field outside the causal future of Alice is entangled with the field inside Alice's causal future. Hence, the quantum noise picked up by Bob's detectors outside Alice's causal future is correlated with the noise of Bob's detectors inside Alice's causal future. In effect, this correlation allows Bob to improve the signal-to-noise ratio of those of his detectors which are in the causal future of Alice. Further, we develop the multimode generalization of the QIC technique. This allows us to extend the analysis to the case where Alice operates multiple localized and optionally entangled emitters. We apply the new techniques to the case where Alice enhances the channel capacity by operating multiple emitters that are suitably lined up and pre-timed to generate a quantum shockwave in the field.
翻訳日:2023-06-03 23:46:46 公開日:2020-05-05
# キャパシティ最大化のためのケネディ受信機のプログラミングとワンショット誤差確率の最小化

Programming the Kennedy Receiver for Capacity Maximization versus Minimizing One-shot Error Probability ( http://arxiv.org/abs/2002.09275v3 )

ライセンス: Link先を確認
Rahul Bhadani, Michael Grace, Ivan B. Djordjevic, Jonathan Sprinkle, Saikat Guha(参考訳) シンボルpと前検出変位が最適化された場合、コヒーレント状態のBPSKに対してケネディ受信機が達成できる容量を求める。 最適変位は単発BPSK状態判別における誤差の最小化とは異なる。

We find the capacity attained by the Kennedy receiver for coherent-state BPSK when the symbol prior p and pre-detection displacement are optimized. The optimal displacement is different than what minimizes error probability for single-shot BPSK state discrimination.
翻訳日:2023-06-03 06:52:03 公開日:2020-05-05
# 可逆性ワームホールにおける再生ダイナミクス

Revival dynamics in a traversable wormhole ( http://arxiv.org/abs/2003.03914v2 )

ライセンス: Link先を確認
Stephan Plugge, \'Etienne Lantagne-Hurtubise, Marcel Franz(参考訳) 量子効果はワームホール溶液を一般相対性理論で安定化させ、2つの連結時空の間で情報や物質を輸送することができる。 ここでは,2つの弱結合量子カオス系間で送信される信号の回復ダイナミクスを,多数の粒子に対して,反ド・ジッター時空AdS$_2$のホログラフィックなワームホールを実現するSachdev-Ye-Kitaevモデルで表す。 この限界において、ワームホールの挙動の明確なシグネチャを見つける:ある系で生成された励起は、そのユニタリダイナミクスの下で素早くスクランブルされ、ホログラフィの予測と一致する特性時間後に他の系で再組み立てられる。 これにより、低温度でも有限温度でも時間のパワーローとして減衰する振動が再現される。 小さな$N$の場合、リバイバルも観察し、異なる非重力メカニズムから生じることを示す。

Quantum effects can stabilize wormhole solutions in general relativity, allowing information and matter to be transported between two connected spacetimes. Here we study the revival dynamics of signals sent between two weakly coupled quantum chaotic systems, represented as identical Sachdev-Ye-Kitaev models, that realize holographically a traversable wormhole in anti-de Sitter spacetime AdS$_2$ for large number $N$ of particles. In this limit we find clear signatures of wormhole behavior: an excitation created in one system is quickly scrambled under its unitary dynamics, and is reassembled in the other system after a characteristic time consistent with holography predictions. This leads to revival oscillations that at low but finite temperature decay as a power-law in time. For small $N$ we also observe revivals and show that they arise from a different, non-gravitational mechanism.
翻訳日:2023-05-30 03:23:41 公開日:2020-05-05
# 歪んだ量子状態の絡み合い

Entanglement of truncated quantum states ( http://arxiv.org/abs/2003.07129v2 )

ライセンス: Link先を確認
Giacomo Sorelli, Vyacheslav N. Shatokhin, Filippus S. Roux and Andreas Buchleitner(参考訳) 我々は, エンタングルメント保存された$n \times n$(n\geq m$)ユニタリの下での伝播後, 最初は最大エンタングルされた$m\times m$二部量子状態の絡み合いに対するヒルベルト空間の絡み合いの影響を調べた。 例えば検出器の有限断面によって物理的に強制されたトランケーションは、状態を$s \times s$-dimensional subspace$3\leq s \leq n$に投影する。 ランダムな局所的ユニタリ進化に対して、truncationにより引き起こされる絡み合い損失を$n$,$m$,$s$の関数として表現する単純な解析式を得る。

We investigate the impact of Hilbert-space truncation upon the entanglement of an initially maximally entangled $m\times m$ bipartite quantum state, after propagation under an entanglement-preserving $n \times n$ ($n\geq m$) unitary. Truncation -- physically enforced, e.g., by a detector's finite cross section -- projects the state onto an $s \times s$-dimensional subspace ($3\leq s \leq n$). For a random local unitary evolution, we obtain a simple analytical formula that expresses the truncation-induced entanglement loss as a function of $n$, $m$ and $s$.
翻訳日:2023-05-29 00:24:03 公開日:2020-05-05
# 最近傍結合を持つキュービットアレイにおける効率的なハミルトン計画法

Efficient Hamiltonian programming in qubit arrays with nearest-neighbour couplings ( http://arxiv.org/abs/2003.07815v2 )

ライセンス: Link先を確認
Takahiro Tsunoda, Gaurav Bhole, Stephen A. Jones, Jonathan A. Jones, Peter J. Leek(参考訳) 局所ノットゲートの列を用いて、常に対角的な相互作用を持つ実用量子プロセッサにおけるカップリングを選択的に制御する問題を考える。 この手法はnmrの実装でよく知られているが、通常の完全連結ハミルトニアンでは、時間最適化解を見つけるのが複雑であるため、数万キュービットまでしか実用的ではない。 最先端量子プロセッサにおける量子ビット数の急激な増加を考えると、この制御方式が接続性に現実的な制約がある大規模システムに適用可能であるかを検討することが重要である。 ここでは、任意の数の量子ビットに対して局所接続を持つエンジニアリングされた量子ビットアレイに適用可能な、時間最適に近い解を見つけるための効率的なスキームを提案する。

We consider the problem of selectively controlling couplings in a practical quantum processor with always-on interactions that are diagonal in the computational basis, using sequences of local NOT gates. This methodology is well-known in NMR implementations, but previous approaches do not scale efficiently for the general fully-connected Hamiltonian, where the complexity of finding time-optimal solutions makes them only practical up to a few tens of qubits. Given the rapid growth in the number of qubits in cutting-edge quantum processors, it is of interest to investigate the applicability of this control scheme to much larger scale systems with realistic restrictions on connectivity. Here we present an efficient scheme to find near time-optimal solutions that can be applied to engineered qubit arrays with local connectivity for any number of qubits, indicating the potential for practical quantum computing in such systems.
翻訳日:2023-05-28 22:09:52 公開日:2020-05-05
# 一般化不確実性原理と$d$次元量子力学

Generalized uncertainty principle and $D$-dimensional quantum mechanics ( http://arxiv.org/abs/2003.13856v2 )

ライセンス: Link先を確認
DaeKil Park(参考訳) 一般化不確実性原理(GUP)を持つ非相対論的量子力学は、$D$次元自由粒子および調和振動子系で検討される。 これらの系に対するファインマンプロパゲータは GUP パラメータの最初の順序で正確に導出される。

The non-relativistic quantum mechanics with a generalized uncertainty principle (GUP) is examined in $D$-dimensional free particle and harmonic oscillator systems. The Feynman propagators for these systems are exactly derived within the first order of the GUP parameter.
翻訳日:2023-05-27 11:52:02 公開日:2020-05-05
# クロス共振ゲート動作の第一原理解析

First-principles analysis of cross-resonance gate operation ( http://arxiv.org/abs/2005.00133v2 )

ライセンス: Link先を確認
Moein Malekakhlagh and Easwar Magesan and David C. McKay(参考訳) 本稿では,ゲートパラメータとゲート誤差の推定を網羅するクロス共振ゲート動作に関する包括的な理論的研究と,オブザーバ量子ビットとマルチキュービット周波数衝突の解析について述べる。 我々は、Magesan et al. (arXiv:1804.04073) に続く実効的ハミルトンモデルの導出を再考することから始める。 トランモン量子ビットは通常、弱い無調波カー振動子としてモデル化される。 カー理論は、素量子ハミルトニアンの固有状態として数状態を採用する一方で、キュービット周波数再正規化のみを説明できる。 ジョセフソンの非線形性から始め、固有状態の正規化を考慮し、逆回転項により、量子ビット相互作用を改良し、行列要素を駆動する交叉共振ゲートの新しい開始モデルを導出する。 時間依存シュリーファー・ウルフ摂動理論を用いて, 同期ゲートに対する有効ハミルトニアンを導出し, 駆動振幅の4次までのゲートパラメータを推定する。 再正規化固有状態を持つ新しいモデルは、カー理論と比較して有効ゲートパラメータの10~15%の相対補正をもたらす。 ゲート操作はqubit-qubitデチューニングとアンハーモニティの比に強く依存している。 特に,5つの異なる動作領域を特徴付けるとともに,クロス共振音にエコーパルスシーケンスを付加した場合に,高ゲート速度と低コヒーレントゲート誤差を実現するための候補パラメータ選択を提案する。 さらに,本手法は,第3のオブザーバキュービットを含むように一般化し,有害なマルチキュービット周波数衝突を特徴付ける。

We present a comprehensive theoretical study of the cross-resonance gate operation covering estimates for gate parameters and gate error as well as analyzing spectator qubits and multi-qubit frequency collisions. We start by revisiting the derivation of effective Hamiltonian models following Magesan et al. (arXiv:1804.04073). Transmon qubits are commonly modeled as a weakly anharmonic Kerr oscillator. Kerr theory only accounts for qubit frequency renormalization, while adopting number states as the eigenstates of the bare qubit Hamiltonian. Starting from the Josephson nonlinearity and by accounting for the eigenstates renormalization, due to counter-rotating terms, we derive a new starting model for the cross-resonance gate with modified qubit-qubit interaction and drive matrix elements. Employing time-dependent Schrieffer-Wolff perturbation theory, we derive an effective Hamiltonian for the cross-resonance gate with estimates for the gate parameters calculated up to the fourth order in drive amplitude. The new model with renormalized eigenstates lead to 10-15 percent relative correction of the effective gate parameters compared to Kerr theory. We find that gate operation is strongly dependent on the ratio of qubit-qubit detuning and anharmonicity. In particular, we characterize five distinct regions of operation, and propose candidate parameter choices for achieving high gate speed and low coherent gate error when the cross-resonance tone is equipped with an echo pulse sequence. Furthermore, we generalize our method to include a third spectator qubit and characterize possible detrimental multi-qubit frequency collisions.
翻訳日:2023-05-21 16:56:15 公開日:2020-05-05
# ダイヤモンドの浅層窒素空洞中心の電荷状態ダイナミクスと光学的検出電子スピン共鳴コントラスト

Charge State Dynamics and Optically Detected Electron Spin Resonance Contrast of Shallow Nitrogen-Vacancy Centers in Diamond ( http://arxiv.org/abs/2005.01142v2 )

ライセンス: Link先を確認
Zhiyang Yuan, Mattias Fitzpatrick, Lila V. H. Rodgers, Sorawis Sangtawesin, Srikanth Srinivasan, and Nathalie P. de Leon(参考訳) ダイヤモンド中の窒素空孔(NV)中心は、原子分解能と感度でナノスケールのセンシングに使用できるが、ダイヤモンド表面に近づくとその性質が劣化することが観察されている。 ここでは、劣化したスピンコヒーレンスに加えて、表面のナノメートル内のNV中心も、光学的に検出された電子スピン共鳴(OD-ESR)に対する蛍光コントラストの低下を示すことができることを報告する。 このod-esrコントラストの低下はnv中心の電荷状態ダイナミクスから生じ、表面依存性が強く、ダイヤモンドのカラーセンターに基づくナノスケールセンシングアプリケーションでは表面工学が不可欠であることを示している。

Nitrogen-vacancy (NV) centers in diamond can be used for nanoscale sensing with atomic resolution and sensitivity; however, it has been observed that their properties degrade as they approach the diamond surface. Here we report that in addition to degraded spin coherence, NV centers within nanometers of the surface can also exhibit decreased fluorescence contrast for optically detected electron spin resonance (OD-ESR). We demonstrate that this decreased OD-ESR contrast arises from charge state dynamics of the NV center, and that it is strongly surface-dependent, indicating that surface engineering will be critical for nanoscale sensing applications based on color centers in diamond.
翻訳日:2023-05-21 07:16:40 公開日:2020-05-05
# グループ間差別なしで男女不平等を創出できるのか?

Can gender inequality be created without inter-group discrimination? ( http://arxiv.org/abs/2005.01980v1 )

ライセンス: Link先を確認
Sylvie Huet1, Floriana Gargiulo, and Felicia Pratto(参考訳) 人間の社会を理解するには、ユビキタスなジェンダー階層の開発方法を知る必要がある。 単純なエージェントベースの動的プロセスが性別の不平等を生み出すかどうかをテストした。 本モデルでは, 男女関係, 自己コントラスト, 認知習慣の証拠をもとに, 他者に対する評価のレベルについて, 男性的, 女性的エージェントが他人の意見にどう反応するかについて, 性別差を考察した。 我々は、ランダムに選択されたエージェントのペアで相互作用する集団をシミュレートし、自他者の評価判断に影響を及ぼす。 半分のエージェントは他のエージェントよりも相対的な地位の影響を受けている。 偏見, ステレオタイプ, 分離, 分類がなければ, 本モデルは, ガラス天井効果の安定性, 調和性, 特性を示す自己評価と状態の群間不平等を生じさせる。 結果は相対的なグループサイズに影響されない。 グループ指向が支配にもたらす意味と、個人が交換する動機について議論する。

Understanding human societies requires knowing how they develop gender hierarchies which are ubiquitous. We test whether a simple agent-based dynamic process could create gender inequality. Relying on evidence of gendered status concerns, self-construals, and cognitive habits, our model included a gender difference in how responsive male-like and female-like agents are to others' opinions about the level of esteem for someone. We simulate a population who interact in pairs of randomly selected agents to influence each other about their esteem judgments of self and others. Half the agents are more influenced by their relative status rank during the interaction than the others. Without prejudice, stereotypes, segregation, or categorization, our model produces inter-group inequality of self-esteem and status that is stable, consensual, and exhibits characteristics of glass ceiling effects. Outcomes are not affected by relative group size. We discuss implications for group orientation to dominance and individuals' motivations to exchange.
翻訳日:2023-05-21 03:09:04 公開日:2020-05-05
# 原子の電気四極子偏光性による効果の観測

Observation of effects due to an atom's electric quadrupole polarizability ( http://arxiv.org/abs/2005.01957v1 )

ライセンス: Link先を確認
Gerard Higgins, Chi Zhang, Fabian Pokorny, Harry Parke, Erik Jansson, Shalina Salim, and Markus Hennrich(参考訳) 物質に対する反応は物理科学、粒子物理学から天体物理学、化学から生物物理学までの基礎となる。 電気四極子場に対する原子の反応を二階および高階に観察し、これは原子の電気四極子分極性と過分極性から生じる。 我々は、リドベルク状態に励起され、ポールトラップの電場に閉じ込められた単一の原子イオンを探索する。 四極トラップ場は原子エネルギー準位シフトを引き起こし、スペクトル側バンドを生じさせる。 観測された効果は理論計算によってよく説明される。

The response of matter to fields underlies the physical sciences, from particle physics to astrophysics, and from chemistry to biophysics. We observe an atom's response to an electric quadrupole field to second- and higher orders; this arises from the atom's electric quadrupole polarizability and hyperpolarizabilities. We probe a single atomic ion which is excited to Rydberg states and confined in the electric fields of a Paul trap. The quadrupolar trapping fields cause atomic energy level shifts and give rise to spectral sidebands. The observed effects are described well by theory calculations.
翻訳日:2023-05-21 03:08:18 公開日:2020-05-05
# 集積フォトニック量子技術

Integrated Photonic Quantum Technologies ( http://arxiv.org/abs/2005.01948v1 )

ライセンス: Link先を確認
Jianwei Wang, Fabio Sciarrino, Anthony Laing, Mark G. Thompson(参考訳) 量子情報をエンコードし、送信し、処理するための微視的な物理システムを、大規模かつ高忠実に制御できれば、基本的に新しい情報処理能力を持つ技術が生まれるだろう。 2008年の開始から10年、集積量子フォトニクスの技術は、着実に増大するスケールと複雑さのレベルにおいて、光量子状態の生成、処理、検出を可能にした。 確立された製造技術と先進的な製造技術の両方を用いて、フィールドは数個の部品からなる固定回路のデモから、2つの光子で動作し、プログラム可能な回路で1000個の部品に接近し、多光子状態を生成する。 今後10年にわたるこのトレンドの継続は、将来の量子技術のための多彩なプラットフォームをもたらすだろう。 このレビューでは、集積フォトニック量子技術(材料、デバイス、機能)の進歩と、セキュアな量子通信、量子物理および化学系のシミュレーション、ボソンサンプリング、線形量子量子情報処理を含むオンチップの応用を要約する。

Generations of technologies with fundamentally new information processing capabilities will emerge if microscopic physical systems can be controlled to encode, transmit, and process quantum information, at scale and with high fidelity. In the decade after its 2008 inception, the technology of integrated quantum photonics enabled the generation, processing, and detection of quantum states of light, at a steadily increasing scale and level of complexity. Using both established and advanced fabrication techniques, the field progressed from the demonstrations of fixed circuits comprising few components and operating on two photons, to programmable circuitry approaching 1000 components with integrated generation of multi-photon states. A continuation in this trend over the next decade would usher in a versatile platform for future quantum technologies. This Review summarises the advances in integrated photonic quantum technologies (materials, devices, and functionality), and its demonstrated on-chip applications including secure quantum communications, simulations of quantum physical and chemical systems, Boson sampling, and linear-optic quantum information processing.
翻訳日:2023-05-21 03:08:09 公開日:2020-05-05
# 弱者関係はソーシャルメディアの怒りの伝染を強くする

Weak ties strengthen anger contagion in social media ( http://arxiv.org/abs/2005.01924v1 )

ライセンス: Link先を確認
Rui Fan, Ke Xu and Jichang Zhao(参考訳) 顔と顔のコミュニケーションと同様に、人間の感情がオンラインソーシャルメディアにも広がったという証拠が増えている。 しかし、この感情伝染のメカニズム、例えば、異なる感情がありそうもない方法で広まるか、あるいは、感情の拡散がソーシャルネットワークにどのように関係するかを調査することはめったにない。 実際、高いコストと時空間的制約のため、このトピックの探索は、従来のアンケートや制御実験を用いて困難である。 巨大な個人の自然な感情反応の収集ポイントであるため、オンラインソーシャルメディアサイトは計算社会科学の観点からこの問題に対処するための理想的なプロキシを提供する。 本稿では、Weiboにおける何百万ものツイートの分析から、怒りは喜びよりも弱い結びつきに沿って容易に移動し、他人がそのようなコンテンツを頻繁に共有するので、異なるコミュニティに侵入し、ローカルな罠から解放できることを示す。 単純な拡散モデルを用いて,伝播速度とカバレッジの指標を併用することにより,より弱い結合が怒りを加速することを明らかにした。 私たちの知る限りでは、喜びと怒りが広まるメカニズムの違いを明らかにする定量的な長期的な証拠が提示されたのはこれが初めてです。 ソーシャルメディアにおける弱い結びつきの広大化に伴い、怒りの伝染は、そのネガティブな影響をグローバル化するために大きく強化される可能性が示唆された。

Increasing evidence suggests that, similar to face-to-face communications, human emotions also spread in online social media. However, the mechanisms underlying this emotion contagion, for example, whether different feelings spread in unlikely ways or how the spread of emotions relates to the social network, is rarely investigated. Indeed, because of high costs and spatio-temporal limitations, explorations of this topic are challenging using conventional questionnaires or controlled experiments. Because they are collection points for natural affective responses of massive individuals, online social media sites offer an ideal proxy for tackling this issue from the perspective of computational social science. In this paper, based on the analysis of millions of tweets in Weibo, surprisingly, we find that anger travels easily along weaker ties than joy, meaning that it can infiltrate different communities and break free of local traps because strangers share such content more often. Through a simple diffusion model, we reveal that weaker ties speed up anger by applying both propagation velocity and coverage metrics. To the best of our knowledge, this is the first time that quantitative long-term evidence has been presented that reveals a difference in the mechanism by which joy and anger are disseminated. With the extensive proliferation of weak ties in booming social media, our results imply that the contagion of anger could be profoundly strengthened to globalize its negative impact.
翻訳日:2023-05-21 03:07:49 公開日:2020-05-05
# スキューズとパラメトリック増幅を組み合わせた量子干渉計

Quantum interferometer combining squeezing and parametric amplification ( http://arxiv.org/abs/2005.01911v1 )

ライセンス: Link先を確認
Xiaojie Zuo, Zhihui Yan, Yanni Feng, Jingxu Ma, Xiaojun Jia, Changde Xie, and Kunchi Peng(参考訳) 高精度干渉計は精密計測の構成要素であり、最終的な干渉感度は量子ノイズによって制限される。 本稿では、2つの光パラメトリック増幅器を含む小型量子干渉計と、干渉計内で発生した圧縮状態を直接位相センシング量子状態に使用することを実験的に提案する。 ショットノイズの圧縮と位相検出強度の増幅の両方により、標準量子限界を超える4.86\pm 0.24$ dbの感度向上を決定論的に実現し、同じ位相検出強度以下の全ての干渉計より小さい最小検出位相を達成する。 このインターフェロメトリシステムは、物理量の小さな分散に対する様々な測定において、大きなポテンシャルを持つ。

High precision interferometers are the building blocks of precision metrology and the ultimate interferometric sensitivity is limited by the quantum noise. Here we propose and experimentally demonstrate a compact quantum interferometer involving two optical parametric amplifiers and the squeezed states generated within the interferometer are directly used for the phase-sensing quantum state. By both squeezing shot noise and amplifying phase-sensing intensity the sensitivity improvement of $4.86\pm 0.24$ dB beyond the standard quantum limit is deterministically realized and a minimum detectable phase smaller than that of all present interferometers under the same phase-sensing intensity is achieved. This interferometric system has significantly potential applications in a variety of measurements for tiny variances of physical quantities.
翻訳日:2023-05-21 03:07:16 公開日:2020-05-05
# 量子クエンチェにおける動的雑音に対する動的トポロジーの安定性

Stability of dynamical topology against dynamical noise in quantum quenches ( http://arxiv.org/abs/2005.02345v1 )

ライセンス: Link先を確認
Lin Zhang, Long Zhang, Xiong-Jun Liu(参考訳) 平衡位相相は弱い静的障害に対して頑健であるが、強い障害体制では崩壊する可能性がある。 ここでは,クエンチ誘起動的トポロジーの動的雑音下での安定性について検討する。 我々は解析理論を開発し、弱い雑音に対して、チャーン絶縁機構に初期自明な位相を焼いて誘起される量子力学が、バンド反転曲面 (BISs) と呼ばれる特定の運動量部分空間に頑健な創発的位相を示すことを示した。 動的トポロジーは、BIS上の最小振動周波数によって保護され、動的位相のバルクギャップを模倣する。 クエンチ力学において特異性は出現し、騒音を臨界強度に高めるとBISに最小の振動周波数が消滅し、その先で発生したトポロジが崩壊する動的トポロジ遷移が現れる。 2種類の動的遷移が予測される。 興味深いことに、ノイズが3つのスピン成分すべてに同じ強度で結合すると、臨界遷移のスイートスポットが予測され、その場合、動的トポロジーは任意に強いノイズレシエーションで存続する。 本研究は, 動的騒音下での動的トポロジーの新たな特徴を明らかにした。

Equilibrium topological phases are robust against weak static disorder but may break down in the strong disorder regime. Here we explore the stability of the quench-induced emergent dynamical topology in the presence of dynamical noise. We develop an analytic theory and show that for weak noise, the quantum dynamics induced by quenching an initial trivial phase to Chern insulating regime exhibits robust emergent topology on certain momentum subspaces called band inversion surfaces (BISs). The dynamical topology is protected by the minimal oscillation frequency over the BISs, mimicking a bulk gap of the dynamical phase. Singularities emerge in the quench dynamics, with the minimal oscillation frequency vanishing on the BISs if increasing noise to critical strength, manifesting a dynamical topological transition, beyond which the emergent topology breaks down. Two types of dynamical transitions are predicted. Interestingly, we predict a sweet spot in the critical transition when noise couples to all three spin components in the same strength, in which case the dynamical topology survives at arbitrarily strong noise regime. This work unveils novel features of the dynamical topology under dynamical noise, which can be probed with control in experiment.
翻訳日:2023-05-21 03:02:45 公開日:2020-05-05
# 地下深部施設における放射能の量子回路への影響低減

Reducing the impact of radioactivity on quantum circuits in a deep-underground facility ( http://arxiv.org/abs/2005.02286v1 )

ライセンス: Link先を確認
Laura Cardani, Francesco Valenti, Nicola Casali, Gianluigi Catelani, Thibault Charpentier, Massimiliano Clemenza, Ivan Colantoni, Angelo Cruciani, Luca Gironi, Lukas Gr\"unhaupt, Daria Gusenkova, Fabio Henriques, Marc Lagoin, Maria Martinez, Giorgio Pettinari, Claudia Rusconi, Oliver Sander, Alexey V. Ustinov, Marc Weber, Wolfgang Wernsdorfer, Marco Vignati, Stefano Pirro, Ioan M. Pop(参考訳) 超伝導回路の量子コヒーレンス時間がナノ秒から数百マイクロ秒に増加するにつれ、量子情報処理の主要なプラットフォームの一つとなっている。 しかし、コヒーレンスは、現在の誤り訂正スキームのハードウェアオーバヘッドを減らすために、桁違いに改善する必要がある。 この目標を達成するには、壊れたクーパー対、いわゆる準粒子の密度を下げる必要がある。 ここでは, 環境放射能が非平衡準粒子の重要な源であることを示す。 さらに、電離放射線は、同じチップ上の共振器に時間相関準粒子バーストを導入し、量子誤差補正をさらに複雑にする。 深層鉛遮蔽クライオスタットでの動作は準粒子バースト率を50倍に減少させ、4倍までの散逸を減少させ、将来の固体量子ハードウェアにおける放射能乱れの重要性を示す。

As quantum coherence times of superconducting circuits have increased from nanoseconds to hundreds of microseconds, they are currently one of the leading platforms for quantum information processing. However, coherence needs to further improve by orders of magnitude to reduce the prohibitive hardware overhead of current error correction schemes. Reaching this goal hinges on reducing the density of broken Cooper pairs, so-called quasiparticles. Here, we show that environmental radioactivity is a significant source of nonequilibrium quasiparticles. Moreover, ionizing radiation introduces time-correlated quasiparticle bursts in resonators on the same chip, further complicating quantum error correction. Operating in a deep-underground lead-shielded cryostat decreases the quasiparticle burst rate by a factor fifty and reduces dissipation up to a factor four, showcasing the importance of radiation abatement in future solid-state quantum hardware.
翻訳日:2023-05-21 03:02:09 公開日:2020-05-05
# 低ノイズD-Wave 2000Q量子アニールでRSAのセキュリティを破る:計算時間、限界、展望

Breaking RSA Security With A Low Noise D-Wave 2000Q Quantum Annealer: Computational Times, Limitations And Prospects ( http://arxiv.org/abs/2005.02268v1 )

ライセンス: Link先を確認
Riccardo Mengoni, Daniele Ottaviani, Paolino Iorio(参考訳) RSA暗号系はShorの分解アルゴリズムを実行する大規模汎用量子コンピュータで容易に破壊できる。 このようなデバイスはまだ初期段階にあるため、整数分解に対する量子アニーリングアプローチが最近注目を集めている。 本研究では,低雑音D-Wave 2000Q計算時間,現在のハードウェアの限界,今後の発展に向けた課題について,量子アニールによるRSAハッキングの最も有望な戦略を分析した。

The RSA cryptosystem could be easily broken with large scale general purpose quantum computers running Shor's factorization algorithm. Being such devices still in their infancy, a quantum annealing approach to integer factorization has recently gained attention. In this work, we analyzed the most promising strategies for RSA hacking via quantum annealing with an extensive study of the low noise D-Wave 2000Q computational times, current hardware limitations and challenges for future developments.
翻訳日:2023-05-21 03:01:54 公開日:2020-05-05
# 中間プラットフォームのメカニズム

Mechanisms of intermediary platforms ( http://arxiv.org/abs/2005.02111v1 )

ライセンス: Link先を確認
Tobias K\"olbel and Daniel Kunz(参考訳) インターネットの現在のデジタル時代では、成長を続けるネットワークとデータ駆動型ビジネスモデル、デジタルプラットフォーム、特に市場の重要性が増している。 これらのプラットフォームは、主にデジタルビジネスに焦点を当て、消費者とプロデューサをまとめるサービスを提供する。 消費者のための付加価値により、これらのプラットフォームの利益主導のオペレーターは極めて成功し、それぞれの市場を支配してきた。 本稿の目的は、マッチメーカーとコーディネーションネットワークが市場を支配する方法を理解することである。 以下のセクションでは、ネットワークとコーディネーションの効果、および仲介プラットフォームメカニズム、およびユーザにとって不利な点について詳しく検討する。 戦略的・ビジネス的な課題を考慮し、デジタル経済における個々のプレイヤーへの依存を避けるための解決策と戦略を提案する。 我々は,分散技術に基づく公平でオープンな物事経済(eot)への協調的アプローチを提案する。

In the current digital age of the Internet, with ever-growing networks and data-driven business models, digital platforms and especially marketplaces are becoming increasingly important. These platforms focus primarily on digital businesses by offering services that bring together consumers and producers. Due to added value created for consumers, the profit-driven operators of these platforms Matchmakers are extremely successful and have come to dominate their respective markets. The aim of this article is to understand how Matchmakers and coordination networks gain market dominance. The following sections will take a closer look at network and coordination effects as well as intermediary platform mechanisms and entailing disadvantages for users. Considering strategic and business challenges, we suggest a possible solution and strategy to avoid dependencies on individual players in the digital economy. We present a cooperative approach towards a fair and open Economy of Things (EoT) based on decentralized technologies.
翻訳日:2023-05-21 03:01:43 公開日:2020-05-05
# 光子数分解検出器のベンチマーク

Benchmarking photon number resolving detectors ( http://arxiv.org/abs/2005.02093v1 )

ライセンス: Link先を確認
Jan Provazn\'ik, Luk\'a\v{s} Lachman, Radim Filip, Petr Marek(参考訳) 光子数分解検出器は量子光学の究極的な測定であり、この技術の開発が近年大きな注目を集めている理由はそこにある。 これにより、検出器の性能をどのように評価するかという問題が発生する。 本稿では,光子数検出器の性能を,実シナリオにおいてオンオフ検出器の多重化と比較することで評価可能であることを示唆する。 ここでは、準備状態の品質と準備の確率は多重状態におけるオンオフ検出器の数によって制限されるため、光子数分解検出器によって達成または超えるベンチマークを設定できる。

Photon number resolving detectors are the ultimate measurement of quantum optics, which is the reason why developing the technology is getting significant attention in recent years. With this arises the question of how to evaluate the performance of the detectors. We suggest that performance of a photon number detector can be evaluated by comparing it to a multiplex of on-off detectors in a practical scenario: conditional preparation of a photon number state. Here, both the quality of the prepared state and the probability of the preparation are limited by the number of on-off detectors in the multiplex, which allows us to set benchmarks that can be achieved or surpassed by the photon number resolving detectors.
翻訳日:2023-05-21 03:00:49 公開日:2020-05-05
# Sense-Assess-eXplain (SAX): 現実の運転シナリオにおける自律走行車における信頼の構築

Sense-Assess-eXplain (SAX): Building Trust in Autonomous Vehicles in Challenging Real-World Driving Scenarios ( http://arxiv.org/abs/2005.02031v1 )

ライセンス: Link先を確認
Matthew Gadd, Daniele De Martini, Letizia Marchegiani, Paul Newman, Lars Kunze(参考訳) 本稿では,挑戦運転シナリオにおけるモバイル自律性研究の実証研究について述べる。 本手法では,自律システムの大規模展開の保証と規制に対する重要な障壁を克服する上で,基本的な技術的課題に対処する。 そこで本研究では,(1)従来のセンサや非従来型センサを用いて環境を堅牢に認識・解釈できるロボットの構築方法,(2)自己の能力を評価すること,(3)信頼性と信頼の両面から,その解釈と評価の因果的説明を提供することを提案する。 ロボットは安全で信頼性が高いことが不可欠であるため、我々は、ロボットの現在経済的、社会的に重要な領域への展開を妨げる重要な障壁を克服するために、現実世界のアプリケーションの基本技術の設計、開発、実証を行う。 最後に、珍しい、稀で非常に価値のあるデータセットの収集における進行中の作業について述べる。

This paper discusses ongoing work in demonstrating research in mobile autonomy in challenging driving scenarios. In our approach, we address fundamental technical issues to overcome critical barriers to assurance and regulation for large-scale deployments of autonomous systems. To this end, we present how we build robots that (1) can robustly sense and interpret their environment using traditional as well as unconventional sensors; (2) can assess their own capabilities; and (3), vitally in the purpose of assurance and trust, can provide causal explanations of their interpretations and assessments. As it is essential that robots are safe and trusted, we design, develop, and demonstrate fundamental technologies in real-world applications to overcome critical barriers which impede the current deployment of robots in economically and socially important areas. Finally, we describe ongoing work in the collection of an unusual, rare, and highly valuable dataset.
翻訳日:2023-05-21 03:00:40 公開日:2020-05-05
# 光マッターハイブリッド軌道に基づく第一原理法:偏光子統計の影響

Light-matter hybrid-orbital-based first-principles methods: the influence of the polariton statistics ( http://arxiv.org/abs/2005.02011v1 )

ライセンス: Link先を確認
Florian Buchholz, Iris Theophilou, Klaas J. H. Giesbertz, Michael Ruggenthaler, Angel Rubio(参考訳) 強い物質-光子相互作用の詳細な理解には、非相対論的量子電磁力学の基本ポーリ=フィエルツ・ハミルトニアンを効率的に解くための第一原理的な方法が必要である。 確立された電子構造法をこの状況に拡張する方法は、パウリ・フィエルツ・ハミルトニアンを高次元光マッターハイブリッド構成空間に埋め込むことである。 本研究では,ポーリ・フィエルツ・ハミルトニアン(pauli-fierz hamiltonian)のキャビティ系における新しい基本粒子であるポラリトン(polaritons)のハイブリッドフェルミ・ボース統計の重要性を示す。 これらの統計の違反は、非物理的結果につながる可能性があることを示す。 本稿では,着飾られた一体還元密度行列の表現可能性条件を強制することにより,基礎となる波動関数の適切な対称性を確保する効率的な方法を提案する。 さらに、与えられた第一原理アプローチをポーラリトンに拡張する方法の一般的な処方と、ポーラリトニックなハーツリー・フォック理論の例を示す。 ポラリトン空間における単一参照法である一方、ポラリトニック・ハートリー・フォックは電子空間における多重参照法であり、電子相関を記述する。 また、偏光性QEDFTの応用の可能性についても論じる。 この理論を格子モデルに適用し、粒子の束縛状態波動関数がより非局在化されるほど、光子に反応する強度が高くなることを発見した。 主な理由は、小さなエネルギー範囲内で異なる電子配置を持つ多くの状態が強い(従ってエネルギー的に分離された)基底状態波動関数とは対照的に利用できることである。 これは、ある条件下でキャビティの量子真空と結合すると、実際に基底状態の性質が変化することを示している。

A detailed understanding of strong matter-photon interactions requires first-principle methods that can solve the fundamental Pauli-Fierz Hamiltonian of non-relativistic quantum electrodynamics efficiently. A possible way to extend well-established electronic-structure methods to this situation is to embed the Pauli-Fierz Hamiltonian in a higher-dimensional light-matter hybrid auxiliary configuration space. In this work we show the importance of the resulting hybrid Fermi-Bose statistics of the polaritons, which are the new fundamental particles of the ``photon-dressed'' Pauli-Fierz Hamiltonian for systems in cavities. We show that violations of these statistics can lead to unphysical results. We present an efficient way to ensure the proper symmetry of the underlying wave functions by enforcing representability conditions on the dressed one-body reduced density matrix. We further present a general prescription how to extend a given first-principles approach to polaritons and as an example introduce polaritonic Hartree-Fock theory. While being a single-reference method in polariton space, polaritonic Hartree-Fock is a multi-reference method in the electronic space, i.e. it describes electronic correlations. We also discuss possible applications to polaritonic QEDFT. We apply this theory to a lattice model and find that the more delocalized the bound-state wave function of the particles is, the stronger it reacts to photons. The main reason is that within a small energy range many states with different electronic configurations are available as opposed to a strongly bound (and hence energetically separated) ground-state wave function. This indicates that under certain conditions coupling to the quantum vacuum of a cavity can indeed modify ground state properties.
翻訳日:2023-05-21 03:00:20 公開日:2020-05-05
# クォークおよびレプトン混合のための情報完全文字

Informationally complete characters for quark and lepton mixings ( http://arxiv.org/abs/2005.02009v1 )

ライセンス: Link先を確認
Michel Planat, Raymond Aschheim, Marcelo M. Amaral and Klee Irwin(参考訳) クォークとレプトンの3世代の混合パターンに関する一般的な説明は、有限群 $g$ の$\kappa$ という文字を通して得られる。 ここでは、$d=cc(G)$を持つ$d$次元ヒルベルト空間、$G$の共役類の数を紹介する。 検討中のグループは2つのルールに従うべきである。 (a)文字表は、少なくとも一方が忠実かつ忠実な2次元および3次元の表現を含む (b)これらの表現の文字に対する$d$次元パウリ群の作用の下では、最小限の情報完備測度が存在する。 これらの規則を満たす小さな$d$のグループは、CKM (quark) と PNMS (lepton) の混合行列を同時に再現するために、これまで導出されてきたものとほぼ一致している。 物理的な$cp$違反につながるグループは除外される。

A popular account of the mixing patterns for the three generations of quarks and leptons is through the characters $\kappa$ of a finite group $G$. Here we introduce a $d$-dimensional Hilbert space with $d=cc(G)$, the number of conjugacy classes of $G$. Groups under consideration should follow two rules, (a) the character table contains both two- and three-dimensional representations with at least one of them faithful and (b) there are minimal informationally complete measurements under the action of a $d$-dimensional Pauli group over the characters of these representations. Groups with small $d$ that satisfy these rules coincide in a large part with viable ones derived so far for reproducing simultaneously the CKM (quark) and PNMS (lepton) mixing matrices. Groups leading to physical $CP$ violation are singled out.
翻訳日:2023-05-21 02:59:47 公開日:2020-05-05
# ナノテクノロジーにインスパイアされた情報処理システム

Nanotechnology-inspired Information Processing Systems of the Future ( http://arxiv.org/abs/2005.02434v1 )

ライセンス: Link先を確認
Randy Bryant, Mark Hill, Tom Kazior, Daniel Lee, Jie Liu, Klara Nahrstedt, Vijay Narayanan, Jan Rabaey, Hava Siegelmann, Naresh Shanbhag, Naveen Verma, and H.-S. Philip Wong(参考訳) ナノスケール半導体技術は、コンピューティング革命の鍵となった。 これは新しい材料や製造プロセスの進歩によって実現され、コンピュータシステムの基本構造である論理スイッチとメモリデバイスのサイズがナノスケールのシステムに縮小された。 ナノテクノロジーは、単位体積、エネルギー、コストあたりのコンピューティング機能を強化した。 コンピュータシステムが将来的な社会に多大な利益をもたらすためには、ナノスケールの現実に照らしてコンピューティングの概念を検討することが不可欠である。 特に、非常に構築されたブロック、つまり論理スイッチが、フォン・ノイマンアーキテクチャで要求される決定論のレベルをもはや示さないとき、その計算の意味を問う必要がある。 国家全体でのVertically Integrated Semiconductor Ecosystem(VISE)への持続的で重い投資が必要である。 VISEは、アプリケーション、システム、アルゴリズム、アーキテクチャ、回路、ナノデバイス、材料など、コンピュータスタック全体にわたって、研究と開発をシームレスに行うプログラムである。 全国規模のVISEは、アメリカの半導体におけるグローバルな優位性を保証するための明確な戦略的利点を提供する。 第一に、VISEは、ナノテクノロジーにインスパイアされたコンピューティングが繁栄するために今日必要とされている変革的アイデアを育むために、最高品質のシードコーンを提供する。 それは、新しいアプリケーションのニーズにインスパイアされ、駆動される半導体研究の領域を劇的に開放する。 第2に、VISEは、確立が極めて難しく、複製がさらに難しいため、外国の競合他社から参入するための非常に高い障壁を生み出します。

Nanoscale semiconductor technology has been a key enabler of the computing revolution. It has done so via advances in new materials and manufacturing processes that resulted in the size of the basic building block of computing systems - the logic switch and memory devices - being reduced into the nanoscale regime. Nanotechnology has provided increased computing functionality per unit volume, energy, and cost. In order for computing systems to continue to deliver substantial benefits for the foreseeable future to society at large, it is critical that the very notion of computing be examined in the light of nanoscale realities. In particular, one needs to ask what it means to compute when the very building block - the logic switch - no longer exhibits the level of determinism required by the von Neumann architecture. There needs to be a sustained and heavy investment in a nation-wide Vertically Integrated Semiconductor Ecosystem (VISE). VISE is a program in which research and development is conducted seamlessly across the entire compute stack - from applications, systems and algorithms, architectures, circuits and nanodevices, and materials. A nation-wide VISE provides clear strategic advantages in ensuring the US's global superiority in semiconductors. First, a VISE provides the highest quality seed-corn for nurturing transformative ideas that are critically needed today in order for nanotechnology-inspired computing to flourish. It does so by dramatically opening up new areas of semiconductor research that are inspired and driven by new application needs. Second, a VISE creates a very high barrier to entry from foreign competitors because it is extremely hard to establish, and even harder to duplicate.
翻訳日:2023-05-21 02:52:03 公開日:2020-05-05
# 浅量子回路における線形クロスエントロピーベンチマーク

Spoofing Linear Cross-Entropy Benchmarking in Shallow Quantum Circuits ( http://arxiv.org/abs/2005.02421v1 )

ライセンス: Link先を確認
Boaz Barak, Chi-Ning Chou, Xun Gao(参考訳) 線形クロスエントロピーベンチマーク(Linear XEB)は、量子回路をシミュレートする手順のテストとして使われている。 n$ の入力と出力を備えた量子回路 $c$ が与えられると、出力が$\{0,1\}^n$ を超える分配 $p$ に従って分配されるシミュレータが与えられると、シミュレータの線形 xeb 忠実度は$\mathcal{f}_{c}(p) = 2^n \mathbb{e}_{x \sim p} q_c(x) -1$ であり、ここで $q_c(x)$ は$x$ が分配 $c|0^n\rangle$ から出力される確率である。 自明なシミュレータ(例えば、均一分布)は$\mathcal{F}_C(p)=0$を満たすが、Googleの53量子ビット回路のノイズの多い量子シミュレーションでは$C$は2.24\pm0.21)\times10^{-3}$(Arute et. al., Nature'19)である。 この研究では、与えられた回路に対して$c$ of depth $d$ とhaar random 2-qubit gates が期待値である$\omega(\tfrac{n}{l} \cdot 15^{-d})$ が実行時に$\textsf{poly}(n,2^l)$となる古典的なランダム化アルゴリズムを与える。 ここで、$l$ は $c$ の \emph{light cone} のサイズである: 各出力ビットが依存する入力ビットの最大数。 特に、深さ$o(\sqrt{\log n})$ 2次元回路に対して$\omega(1)$の大きな忠実性を達成する多項式時間アルゴリズムを得る。 我々の知る限り、これは超定常深さの2次元回路にとって初めての結果である。 この結果は,線形XEBテストの不正化が量子回路の完全なシミュレーションよりも容易であることを示す証拠として考えられる。

The linear cross-entropy benchmark (Linear XEB) has been used as a test for procedures simulating quantum circuits. Given a quantum circuit $C$ with $n$ inputs and outputs and purported simulator whose output is distributed according to a distribution $p$ over $\{0,1\}^n$, the linear XEB fidelity of the simulator is $\mathcal{F}_{C}(p) = 2^n \mathbb{E}_{x \sim p} q_C(x) -1$ where $q_C(x)$ is the probability that $x$ is output from the distribution $C|0^n\rangle$. A trivial simulator (e.g., the uniform distribution) satisfies $\mathcal{F}_C(p)=0$, while Google's noisy quantum simulation of a 53 qubit circuit $C$ achieved a fidelity value of $(2.24\pm0.21)\times10^{-3}$ (Arute et. al., Nature'19). In this work we give a classical randomized algorithm that for a given circuit $C$ of depth $d$ with Haar random 2-qubit gates achieves in expectation a fidelity value of $\Omega(\tfrac{n}{L} \cdot 15^{-d})$ in running time $\textsf{poly}(n,2^L)$. Here $L$ is the size of the \emph{light cone} of $C$: the maximum number of input bits that each output bit depends on. In particular, we obtain a polynomial-time algorithm that achieves large fidelity of $\omega(1)$ for depth $O(\sqrt{\log n})$ two-dimensional circuits. To our knowledge, this is the first such result for two dimensional circuits of super-constant depth. Our results can be considered as an evidence that fooling the linear XEB test might be easier than achieving a full simulation of the quantum circuit.
翻訳日:2023-05-21 02:51:19 公開日:2020-05-05
# WS$_2$/WSe$_2$ヘテロ構造における長寿命層間励起子の閉じ込め

Confinement of long-lived interlayer excitons in WS$_2$/WSe$_2$ heterostructures ( http://arxiv.org/abs/2005.02416v1 )

ライセンス: Link先を確認
Alejandro R.-P. Montblanch, Dhiren M. Kara, Ioannis Paradisanos, Carola M. Purser, Matthew S. G. Feuer, Evgeny M. Alexeev, Lucio Stefan, Ying Qin, Mark Blei, Gang Wang, Alisson R. Cadore, Pawel Latawiec, Marko Lon\v{c}ar, Sefaattin Tongay, Andrea C. Ferrari, Mete Atat\"ure(参考訳) 層状物質の層間励起は、量子粒子間の長距離相互作用から生じる多体現象を研究する新しいプラットフォームである。 ポテンシャルエネルギートラップにおける個々の層間励起子をローカライズする能力は、人工格子におけるハバード物理学をシミュレートするための重要なステップである。 ここでは, ナノパターン基板上のws$_{2}$/wse$_{2}$ヘテロ構造を用いた強閉じ込めトラップアレイにおける長寿命層間励起子の空間的局在を示す。 寿命が0.2msに近づいた長寿命の層間エキシトンを検出し、その閉じ込めによりマイクロ秒帯での寿命が減少し、持続的な光選択規則による発光速度が向上することを示した。 永久双極子モーメント、空間閉じ込め、長寿命の組み合わせは、光分解可能なトラップ格子内の長距離ダイナミクスを観察するための要求の1つを満たすレジームに層間励起子を配置する。

Interlayer excitons in layered materials constitute a novel platform to study many-body phenomena arising from long-range interactions between quantum particles. The ability to localise individual interlayer excitons in potential energy traps is a key step towards simulating Hubbard physics in artificial lattices. Here, we demonstrate spatial localisation of long-lived interlayer excitons in a strongly confining trap array using a WS$_{2}$/WSe$_{2}$ heterostructure on a nanopatterned substrate. We detect long-lived interlayer excitons with lifetime approaching 0.2 ms and show that their confinement results in a reduced lifetime in the microsecond range and stronger emission rate with sustained optical selection rules. The combination of a permanent dipole moment, spatial confinement and long lifetime places interlayer excitons in a regime that satisfies one of the requirements for observing long-range dynamics in an optically resolvable trap lattice.
翻訳日:2023-05-21 02:50:37 公開日:2020-05-05
# ガウス量子温度計の非平衡準備性と精度

Non-equilibrium readiness and accuracy of Gaussian Quantum Thermometers ( http://arxiv.org/abs/2005.02404v1 )

ライセンス: Link先を確認
Luca Mancino, Marco G. Genoni, Marco Barbieri, Mauro Paternostro(参考訳) 温度計の次元は、量子温度測定スキームの設計において鍵となる。 一般に、有限次元の量子温度測定に典型的な現象論は無限次元のものには適用されない。 我々は、非平衡ガウス量子温度計の力学的および計量的特徴を分析し、一方、量子エンタングルメントが複合ガウス温度計の可読性を高めることを強調し、他方、非平衡条件が温度推定の最良の感度を保証していないことを示し、量子温度計の動作原理の再評価を示唆する。

The dimensionality of a thermometer is key in the design of quantum thermometry schemes. In general, the phenomenology that is typical of finite-dimensional quantum thermometry does not apply to infinite dimensional ones. We analyse the dynamical and metrological features of non-equilibrium Gaussian Quantum Thermometers: on one hand, we highlight how quantum entanglement can enhance the readiness of composite Gaussian thermometers; on the other hand, we show that non-equilibrium conditions do not guarantee the best sensitivities in temperature estimation, thus suggesting the reassessment of the working principles of quantum thermometry.
翻訳日:2023-05-21 02:50:04 公開日:2020-05-05
# 量子平均場ゲーム

Quantum mean field games ( http://arxiv.org/abs/2005.02350v1 )

ライセンス: Link先を確認
Vassili N. Kolokoltsov(参考訳) 量子ゲームは21世紀のゲーム理論の分岐であり、量子コンピューティングと量子技術の現代的発展と密接に結びついている。 これらの発展の主なアクセントは、静止または繰り返しのゲームでなされた。 著者の以前の論文では、真にダイナミックな量子ゲーム理論はプレイヤーがリアルタイムで選択した戦略から始まった。 直接連続観測は量子進化(いわゆる量子ゼノパラドックス)を破壊することが知られているので、量子力学ゲームに必要な新しい成分は、非間接観測の理論と対応する量子フィルタリングを表している。 ゲーム理論の他の21世紀の顕著な分野は、いわゆる平均場ゲーム(MFG)であり、目覚ましい発展を続けている。 本稿では,これら2つのゲーム理論の新分野を統合する。 nドルの量子進化粒子は個々の力学で分離されておらず、古典的なmfg理論の重要な概念では、プレイヤーの位置のディラック質量の和として定義される経験的測度は量子設定では適用されないため、mfgの量子アナログを構築するには、その基礎と方法論の完全な再構築が必要である。 予備的な結果として、新しい非線形確率シュレーディンガー方程式を、多数の相互作用する量子粒子の連続的に観測され制御される系の限界として導出し、その結果は独立な値を持つかもしれない。 次に、相互作用する粒子の制御量子系に対して、古典的相互作用する粒子の特別な系と、適切なリーマン多様体上で定義される同じ極限 MFG 系とが一致することを示す。 このシステムの解は、$N$-agent量子ゲームに対する近似的なナッシュ平衡を特定する。

Quantum games represent the really 21st century branch of game theory, tightly linked to the modern development of quantum computing and quantum technologies. The main accent in these developments so far was made on stationary or repeated games. In the previous paper of the author the truly dynamic quantum game theory was initiated with strategies chosen by players in real time. Since direct continuous observations are known to destroy quantum evolutions (so-called quantum Zeno paradox) the necessary new ingredient for quantum dynamic games represented the theory of non-direct observations and the corresponding quantum filtering. Another remarkable 21st century branch of game theory represent the so-called mean-field games (MFG), with impressive and ever growing development. In this paper we are merging these two exciting new branches of game theory. Building a quantum analog of MFGs requires the full reconstruction of its foundations and methodology, because in $N$-particle quantum evolution particles are not separated in individual dynamics and the key concept of the classical MFG theory, the empirical measure defined as the sum of Dirac masses of the positions of the players, is not applicable in quantum setting. As a preliminary result we derive the new nonlinear stochastic Schr\"odinger equation, as the limit of continuously observed and controlled system of large number of interacting quantum particles, the result that may have an independent value. We then show that to a control quantum system of interacting particles there corresponds a special system of classical interacting particles with the identical limiting MFG system, defined on an appropriate Riemanian manifold. Solutions of this system are shown to specify approximate Nash equilibria for $N$-agent quantum games.
翻訳日:2023-05-21 02:49:10 公開日:2020-05-05
# パラボゾンおよびパラフェルミオン系の分割関数と熱力学特性

Partition functions and thermodynamic properties of paraboson and parafermion systems ( http://arxiv.org/abs/2005.03704v1 )

ライセンス: Link先を確認
N.I. Stoilova and J. Van der Jeugt(参考訳) 次数 p のパラボゾン系の n 個の軌道と m 個の軌道を持つ位数 p のパラフェルミオン系に対する新しい公式が与えられる。 これらの公式は、そのような系の統計および熱力学関数の計算を可能にする。 我々は、軌道上の粒子の平均数と系内の粒子の平均数を分析し、議論する。 いくつかの特別な場合(恒等軌道エネルギー、等距離軌道エネルギー)では、大分割関数を単純化し、熱力学特性をより詳細に記述することができる。 特定の性質は熱力学的関数のプロットにも示される。

New formulas are given for the grand partition function of paraboson systems of order p with n orbitals and parafermion systems of order p with m orbitals. These formulas allow the computation of statistical and thermodynamic functions for such systems. We analyze and discuss the average number of particles on an orbital, and the average number of particles in the system. For some special cases (identical orbital energies, or equidistant orbital energies) we can simplify the grand partition functions and describe thermodynamic properties in more detail. Some specific properties are also illustrated in plots of thermodynamic functions.
翻訳日:2023-05-21 02:42:00 公開日:2020-05-05
# 原子アレイを用いた量子エミッタ間の相互作用制御

Controlling interactions between quantum emitters using atom arrays ( http://arxiv.org/abs/2005.03495v1 )

ライセンス: Link先を確認
Taylor L. Patti, Dominik S. Wild, Ephraim Shahmoon, Mikhail D. Lukin, Susanne F. Yelin(参考訳) 量子エミッタの電磁環境を変化させるプラットフォームとして,2次元アトミックアレイについて検討した。 具体的には, 放射線幅, 共振周波数シフト, 駆動磁場の局所的な拡張を制御できることを, 規則的, サブ波長の原子構成における強い双極子-双極子相互作用により証明する。 これらの効果は、原子配列内の遠方量子エミッタ間のコヒーレントな双極子-双極子相互作用を劇的に向上するために用いられる。 可能な実験的実現と潜在的な応用について論じる。

We investigate two-dimensional atomic arrays as a platform to modify the electromagnetic environment of individual quantum emitters. Specifically, we demonstrate that control over emission linewidths, resonant frequency shifts, and local enhancement of driving fields is possible due to strong dipole-dipole interactions within ordered, subwavelength atom configurations. We demonstrate that these effects can be used to dramatically enhance coherent dipole-dipole interactions between distant quantum emitters within an atom array. Possible experimental realizations and potential applications are discussed.
翻訳日:2023-05-21 02:41:49 公開日:2020-05-05
# 滑らかな障壁によるクライン・ゴードン粒子の散乱

Scattering of a Klein-Gordon particle by a smooth barrier ( http://arxiv.org/abs/2005.03005v1 )

ライセンス: Link先を確認
Eduardo L\'opez and Clara Rojas(参考訳) 滑らかな障壁による一次元クライン・ゴルドン方程式の研究について述べる。 散乱解はホイットテイカー $m_{\kappa,\mu}(x)$関数によって与えられる。 反射係数と透過係数は、ポテンシャル障壁のエネルギー、高さ、滑らかさの観点から計算される。 滑らか度パラメータの任意の値に対して、伝送共鳴を観測した。

We present the study of the one-dimensional Klein-Gordon equation by a smooth barrier. The scattering solutions are given in terms of the Whittaker $M_{\kappa,\mu}(x)$ function. The reflection and transmission coefficients are calculated in terms of the energy, the height and the smoothness of the potential barrier. For any value of the smoothness parameter we observed transmission resonances.
翻訳日:2023-05-21 02:41:39 公開日:2020-05-05
# 単一光子放出のための高分子カプセル化有機ナノ結晶

Polymer-encapsulated organic nanocrystals for single photon emission ( http://arxiv.org/abs/2005.02831v1 )

ライセンス: Link先を確認
Ross C. Schofield, Dominika P. Bogusz, Rowan A. Hoggarth, Salahuddin Nur, Kyle D. Major, and Alex S. Clark(参考訳) ジベンゾテレレンをドープしたアントラセンナノ結晶をポリメチルメタクリレート(pmma)ナノカプセルに組み込むエマルション重合法を示す。 ナノカプセルは製造後にさらなる保護を必要とせず、アントラセンよりも昇華に耐性がある。 単一ジベンゾテレレン分子からの室温放出は安定であり、低温に冷却すると、既存の成長法と比較して優れた光学特性は変化しない。 現在、ロバストなナノカプセルは表面の機能化やナノフォトニックデバイスへの統合の可能性を秘めており、そこで使用される材料はポリマーベースの設計で組み込まれている。

We demonstrate an emulsion-polymerisation technique to embed dibenzoterrylene-doped anthracene nanocrystals in polymethyl methacrylate (PMMA) nanocapsules. The nanocapsules require no further protection after fabrication and are resistant to sublimation compared to unprotected anthracene. The room temperature emission from single dibenzoterrylene molecules is stable and when cooled to cryogenic temperatures we see no change in their excellent optical properties compared to existing growth methods. These now robust nanocapsules have potential for surface functionalisation and integration into nanophotonic devices, where the materials used are compatible with incorporation in polymer-based designs.
翻訳日:2023-05-21 02:41:34 公開日:2020-05-05
# 米国での新型コロナウイルス対策のペースとパルス、google trendsのアプローチ

The Pace and Pulse of the Fight against Coronavirus across the US, A Google Trends Approach ( http://arxiv.org/abs/2005.02489v1 )

ライセンス: Link先を確認
Tichakunda Mangono (1), Peter Smittenaar (1), Yael Caplan (1), Vincent S. Huang (1), Staci Sutermaster (1), Hannah Kemp (1) and Sema K. Sgaier (1,2,3) ((1) Surgo Foundation, Washington DC, USA, (2) Department of Global Health & Population, Harvard T.H. Chan School of Public Health, Boston MA, USA, (3) Department of Global Health, University of Washington, Seattle, WA, USA)(参考訳) 新型コロナウイルス(covid-19)のパンデミックは、私たちの生活に前例のない速さと規模で影響を与えています。 google trendsは、人々が考えていること、必要なこと、計画のプロキシとして使用できる。 新型コロナウイルス(COVID-19)などのパンデミックにおける情報探索パターンの、重要な変化の洞察と、潜在的な指標の両方を提供するために、私たちはそれを使用しています。 我々は,(1)新型コロナウイルスの感染拡大と,医療希望に関連するインターネット検索,政府支援プログラム,異なるイデオロギーのメディアソース,社会活動,旅行,食事に関する計画,および新型コロナウイルス特有の行動や懸念との関係性について質問する。 ; (2) 検索語の人気は州や地域によってどのように異なるのか。 ;(3)パンデミック対応に影響を及ぼすための政策ギャップを示唆する州ごとの明確な検索パターンを見いだせるか。 (4) Google Trendsのデータは、実生活の出来事と相関し、おそらく先行しているか? 政策立案者がNPI(非医薬品介入)の精度と有効性を改善するための戦略シフトを提案し,意思決定ツールとしてのリアルタイムダッシュボードの開発を推奨する。 米国内の検索データのトレンド分析、2020年3月1日から4月15日にかけての米国全体での検索人気差の地理的解析、および州全体の検索パターンを抽出する主成分分析(pca)などに用いられる。

The coronavirus pandemic is impacting our lives at unprecedented speed and scale - including how we eat and work, what we worry about, how much we move, and our ability to earn. Google Trends can be used as a proxy for what people are thinking, needing, and planning. We use it to provide both insights into, and potential indicators of, important changes in information-seeking patterns during pandemics like COVID-19. Key questions we address are: (1) What is the relationship between the coronavirus outbreak and internet searches related to healthcare seeking, government support programs, media sources of different ideologies, planning around social activities, travel, and food, and new coronavirus-specific behaviors and concerns?; (2) How does the popularity of search terms differ across states and regions and can we explain these differences?; (3) Can we find distinct, tangible search patterns across states suggestive of policy gaps to inform pandemic response? (4) Does Google Trends data correlate with and potentially precede real-life events? We suggest strategic shifts for policy makers to improve the precision and effectiveness of non-pharmaceutical interventions (NPIs) and recommend the development of a real-time dashboard as a decision-making tool. Methods used include trend analysis of US search data; geographic analyses of the differences in search popularity across US states during March 1st to April 15th, 2020; and Principal Component Analyses (PCA) to extract search patterns across states.
翻訳日:2023-05-21 02:41:23 公開日:2020-05-05
# 80kmまでの混合qkd/wdm伝送技術動向

Technology Trends for Mixed QKD/WDM Transmission up to 80 km ( http://arxiv.org/abs/2005.02486v1 )

ライセンス: Link先を確認
Romain All\'eaume, Rapha\"el Aymeric, C\'edric Ware, Yves Jaou\"en(参考訳) 我々は,量子および古典的コミュニケーションを共有ファイバー上に展開する最近の進歩について,特に連続変数qkdを用いた結果に着目した調査を行った。

We give a survey of some of the recent progress made in deploying quantum and classical communications over a shared fiber, focusing in particular on results obtained using continuous-variable QKD.
翻訳日:2023-05-21 02:40:55 公開日:2020-05-05
# cnotを用いた離散循環型量子ウォークの一般化:シミュレーションとゲート誤差の影響

Generalization of CNOT-based Discrete Circular Quantum Walk: Simulation and Effect of Gate Errors ( http://arxiv.org/abs/2005.02447v1 )

ライセンス: Link先を確認
Iyed Ben Slimen and Amor Gueddana and Vasudevan Lakshminarayanan(参考訳) 汎用量子コンピューティングにおけるランダムウォークの対応と標準量子回路を用いた実装について検討する。 量子ウォークは、あるオラクルでグラフをトラバースするために最近よく研究されている。 我々は1次元グラフ、すなわち円をトラバースする研究に焦点をあて、普遍的なCNOTと単一終了ゲートで構築された量子回路における離散円量子ウォークの実装方法を示す。 我々は、基本量子ゲートと回路分解をレビューし、全CNOTに基づく量子離散円形歩行の一般化版を提案する。 我々はこれらの回路を5キュービットのIBM量子スーパーコンピュータLondon IBM-Qでシミュレーションした。 この量子コンピュータは超伝導量子ビットに基づく完全でないゲートを持つため、ウォーカー回路の忠実度に対する誤差の影響を分析する。

We investigate the counterparts of random walk in universal quantum computing and their implementation using standard quantum circuits. Quantum walk have been recently well investigated for traversing graphs with certain oracles. We focus our study on traversing a 1-D graph, namely a circle, and show how to implement discrete circular quantum walk in quantum circuits built with universal CNOT and single quit gates. We review elementary quantum gates and circuit decomposition and propose a a generalized version of the all CNOT based quantum discrete circular walk. We simulated these circuits on an IBM quantum supercomputer London IBM-Q with 5 qubits. This quantum computer has non perfect gates based on superconducting qubits, therefore we analyze the impact of errors on the fidelity of the Walker circuit.
翻訳日:2023-05-21 02:40:31 公開日:2020-05-05
# ブラジルとインドの選挙中にWhatsAppで共有されたFact-Checked画像のデータセット

A Dataset of Fact-Checked Images Shared on WhatsApp During the Brazilian and Indian Elections ( http://arxiv.org/abs/2005.02443v1 )

ライセンス: Link先を確認
Julio C. S. Reis, Philipe de Freitas Melo, Kiran Garimella, Jussara M. Almeida, Dean Eckles, Fabr\'icio Benevenuto(参考訳) 最近、WhatsAppのようなメッセージングアプリケーションは、特にブラジルやインドで、誤情報キャンペーンによって悪用されていると報じられている。 WhatsAppの悪用は、あらゆる種類のフェイクストーリーを含むいくつかの操作済み画像とミームに依存している。 本研究では、WhatsAppが公開しているグループやファクトチェック機関のウェブサイトから広範囲にわたるデータ収集を行った。 本稿は、2018年のブラジル大統領選挙と2019年のインド総選挙の2つの異なるシナリオについて、whatsappで共有された事実チェックされた偽画像を含む、新たなデータセットを研究コミュニティに公開します。

Recently, messaging applications, such as WhatsApp, have been reportedly abused by misinformation campaigns, especially in Brazil and India. A notable form of abuse in WhatsApp relies on several manipulated images and memes containing all kinds of fake stories. In this work, we performed an extensive data collection from a large set of WhatsApp publicly accessible groups and fact-checking agency websites. This paper opens a novel dataset to the research community containing fact-checked fake images shared through WhatsApp for two distinct scenarios known for the spread of fake news on the platform: the 2018 Brazilian elections and the 2019 Indian elections.
翻訳日:2023-05-21 02:40:18 公開日:2020-05-05
# 情報理論モデル予測q-learning

Information Theoretic Model Predictive Q-Learning ( http://arxiv.org/abs/2001.02153v2 )

ライセンス: Link先を確認
Mohak Bhardwaj, Ankur Handa, Dieter Fox, Byron Boots(参考訳) モデルフリー強化学習(rl)は、経験を安価に収集でき、モデルベースのrlは、システムダイナミクスを正確にモデル化できる場合に有効である。 しかし、両方の仮定はロボット工学のような現実世界の問題に違反する可能性があり、システムへのクエリは高価であり、現実世界のダイナミクスをモデル化するのは困難である。 RLとは対照的に、モデル予測制御(MPC)アルゴリズムは、シミュレーションを使用して簡単なポリシークラスをオンラインで最適化し、実世界のダイナミクスと効果的に競合するクローズドループコントローラを構築する。 MPCの性能はモデルバイアスや最適化の限界といった要因によって制限される。 本研究では,情報理論 MPC とエントロピー正規化 RL との新たな理論的関連性を示し,バイアスモデルを利用したQ-ラーニングアルゴリズムを開発した。 提案アルゴリズムをsim-to-sim制御タスクで検証し、スクラッチから最適制御と強化学習の改善を実証する。 本手法は,実システム上で強化学習アルゴリズムを体系的に展開する方法である。

Model-free Reinforcement Learning (RL) works well when experience can be collected cheaply and model-based RL is effective when system dynamics can be modeled accurately. However, both assumptions can be violated in real world problems such as robotics, where querying the system can be expensive and real-world dynamics can be difficult to model. In contrast to RL, Model Predictive Control (MPC) algorithms use a simulator to optimize a simple policy class online, constructing a closed-loop controller that can effectively contend with real-world dynamics. MPC performance is usually limited by factors such as model bias and the limited horizon of optimization. In this work, we present a novel theoretical connection between information theoretic MPC and entropy regularized RL and develop a Q-learning algorithm that can leverage biased models. We validate the proposed algorithm on sim-to-sim control tasks to demonstrate the improvements over optimal control and reinforcement learning from scratch. Our approach paves the way for deploying reinforcement learning algorithms on real systems in a systematic manner.
翻訳日:2023-01-16 20:44:33 公開日:2020-05-05
# 変圧器を用いた脳波連続音声認識

EEG based Continuous Speech Recognition using Transformers ( http://arxiv.org/abs/2001.00501v3 )

ライセンス: Link先を確認
Gautam Krishna, Co Tran, Mason Carnahan, Ahmed H Tewfik(参考訳) 本稿では,最近導入されたエンドツーエンドトランスフォーマベース自動音声認識(asr)モデルを用いて,脳波を用いた連続音声認識について検討する。 以上の結果から,リカレントニューラルネットワーク(RNN)を用いたシーケンス・ツー・シーケンス脳波モデルと比較すると,より高速なトレーニングが可能であり,より小さなテストセット語彙に対する推論時間における性能が向上することが示唆された。

In this paper we investigate continuous speech recognition using electroencephalography (EEG) features using recently introduced end-to-end transformer based automatic speech recognition (ASR) model. Our results demonstrate that transformer based model demonstrate faster training compared to recurrent neural network (RNN) based sequence-to-sequence EEG models and better performance during inference time for smaller test set vocabulary but as we increase the vocabulary size, the performance of the RNN based models were better than transformer based model on a limited English vocabulary.
翻訳日:2023-01-16 20:32:29 公開日:2020-05-05
# 2つまたは複数の結合点を有する原子導波路系の単一光子散乱と結合状態

Single-photon scattering and bound states in an atom-waveguide system with two or multiple coupling points ( http://arxiv.org/abs/2001.00414v2 )

ライセンス: Link先を確認
Wei Zhao and Zhihai Wang(参考訳) 本稿では、2つ以上の結合点を持つ単一の巨大原子と結合する1次元結合共振導波路における単一光子散乱と結合状態について検討する。 原子が2つの共振器を介して導波路に結合すると、単一光子反射率はブライト・ウィグナーまたはファノ線形状によって特徴づけられる。 原子が複数の共振器を介して導波路に結合すると、破壊的な干渉効果が完全な単一光子反射を引き起こすことを示す。 また, 原子-導波路結合強度が臨界値を超える場合にのみ, 上界状態が存在することを示す多共振器結合の場合の相転移現象も見出した。

In this paper, we investigate the single-photon scattering and bound states in a one-dimensional coupled-resonator waveguide which couples to a single artificial giant atom with two or more coupling points. When the atom couples to the waveguide via two resonators, the single-photon reflection rate is characterized by either Breit-Wigner or Fano line shapes. When the atom couples to the waveguide via multiple resonators, we numerically show how the destructive interference effect leads to a complete single-photon reflection. We also find a phase transition phenomena for the multi-resonator coupling case, which reveals that the upper bound state only exists when the atom-waveguide coupling strength is above a critical value.
翻訳日:2023-01-16 04:20:24 公開日:2020-05-05
# 対象を文脈で判断してはいけない: 文脈バイアスを克服する学習

Don't Judge an Object by Its Context: Learning to Overcome Contextual Bias ( http://arxiv.org/abs/2001.03152v2 )

ライセンス: Link先を確認
Krishna Kumar Singh, Dhruv Mahajan, Kristen Grauman, Yong Jae Lee, Matt Feiszli, Deepti Ghadiyaram(参考訳) 既存のモデルは、オブジェクトとそのコンテキスト間の共起を利用して認識精度を向上させることが多い。 しかしながら、モデルの一般化可能性、特に典型的な共起パターンが存在しない場合、コンテキストのリスクに強く依存する。 本研究は,学習特徴表現のロバスト性を改善するために,このような文脈バイアスに対処することに焦点を当てる。 私たちのゴールは、コンテキストと共起した場合のパフォーマンスを損なうことなく、コンテキストのないカテゴリを正確に認識することです。 私たちの重要なアイデアは、カテゴリの特徴表現を共起するコンテキストから切り離すことです。 特徴部分空間は、文脈が存在しないときに生じるカテゴリを、カテゴリーと文脈の両方を表す共同特徴部分空間に沿って明示的に表現することで、これを実現する。 私たちの非常に単純で効果的なメソッドは、オブジェクトと属性の2つのマルチラベルタスクに拡張可能です。 4つの挑戦的データセットにおいて,文脈バイアスを低減する手法の有効性を示す。

Existing models often leverage co-occurrences between objects and their context to improve recognition accuracy. However, strongly relying on context risks a model's generalizability, especially when typical co-occurrence patterns are absent. This work focuses on addressing such contextual biases to improve the robustness of the learnt feature representations. Our goal is to accurately recognize a category in the absence of its context, without compromising on performance when it co-occurs with context. Our key idea is to decorrelate feature representations of a category from its co-occurring context. We achieve this by learning a feature subspace that explicitly represents categories occurring in the absence of context along side a joint feature subspace that represents both categories and context. Our very simple yet effective method is extensible to two multi-label tasks -- object and attribute classification. On 4 challenging datasets, we demonstrate the effectiveness of our method in reducing contextual bias.
翻訳日:2023-01-13 04:29:54 公開日:2020-05-05
# MetaSelector: ユーザレベル適応モデル選択による推薦のためのメタ学習

MetaSelector: Meta-Learning for Recommendation with User-Level Adaptive Model Selection ( http://arxiv.org/abs/2001.10378v3 )

ライセンス: Link先を確認
Mi Luo, Fei Chen, Pengxiang Cheng, Zhenhua Dong, Xiuqiang He, Jiashi Feng, Zhenguo Li(参考訳) レコメンダシステムは、非常にパーソナライズされたユーザーの履歴データを含む異種データセットに直面することが多い。 このユビキタスな現象をパブリックデータセットとプライベートデータセットの両方で観察し,モデル選択問題に対処し,ユーザ毎のレコメンデーションの質を最適化する。 推薦システムにおけるユーザレベルの適応モデル選択を容易にするメタラーニングフレームワークを提案する。 このフレームワークでは、レコメンダのコレクションをすべてのユーザからのデータでトレーニングし、その上にメタラーニングを通じてモデルセレクタをトレーニングし、ユーザ固有の履歴データを持つユーザ毎に最適な単一モデルを選択する。 AUCとLogLossの2つの公開データセットと実運用データセットに関する広範な実験を行い、提案するフレームワークが単一モデルベースラインとサンプルレベルのモデルセレクタの改善を実現していることを示す。 特にこの改善は、オンラインレコメンデーションシステムにデプロイされた場合、大きな利益をもたらす可能性がある。

Recommender systems often face heterogeneous datasets containing highly personalized historical data of users, where no single model could give the best recommendation for every user. We observe this ubiquitous phenomenon on both public and private datasets and address the model selection problem in pursuit of optimizing the quality of recommendation for each user. We propose a meta-learning framework to facilitate user-level adaptive model selection in recommender systems. In this framework, a collection of recommenders is trained with data from all users, on top of which a model selector is trained via meta-learning to select the best single model for each user with the user-specific historical data. We conduct extensive experiments on two public datasets and a real-world production dataset, demonstrating that our proposed framework achieves improvements over single model baselines and sample-level model selector in terms of AUC and LogLoss. In particular, the improvements may lead to huge profit gain when deployed in online recommender systems.
翻訳日:2023-01-07 18:22:04 公開日:2020-05-05
# ソフト推論言語としてのトランスフォーマー

Transformers as Soft Reasoners over Language ( http://arxiv.org/abs/2002.05867v2 )

ライセンス: Link先を確認
Peter Clark, Oyvind Tafjord, Kyle Richardson(参考訳) McCarthy's Advice Taker (1959) から始まり、AIは明示的で一般的な知識を持つシステムを提供し、その知識にシステム理性を持たせるという目標を追求してきた。 しかし、形式的(論理的または確率的)表現で知識を表現することは、この研究の大きな障害となっている。 本稿では,事実や規則を自然言語文として提供し,形式表現をバイパスする現代的アプローチについて検討する。 合成生成データを用いて,これらの文に対して推論(あるいは推論)するようにトランスフォーマーを訓練する。 RuleTakersと呼ばれる私たちのモデルは、この種のソフト推論が学習可能であり、高い(99%)精度を実現し、トレーニング中に見るよりもはるかに深い連鎖を必要とするテストデータ(95%以上)を一般化する、最初の実証的なデモンストレーションを提供します。 また、モデルが2つの手書きのルールベースにうまく移行し、ルールベースがより自然言語にパラフレーズ化されることを実証する。 これらの発見は、トランスフォーマーの新たな役割、すなわち言語における明示的な理論を乗り越える限定された「ソフト定理プロバー」を示唆している。 これは、質問応答における説明可能性、修正可能性、反事実推論の新たな可能性を示唆する。

Beginning with McCarthy's Advice Taker (1959), AI has pursued the goal of providing a system with explicit, general knowledge and having the system reason over that knowledge. However, expressing the knowledge in a formal (logical or probabilistic) representation has been a major obstacle to this research. This paper investigates a modern approach to this problem where the facts and rules are provided as natural language sentences, thus bypassing a formal representation. We train transformers to reason (or emulate reasoning) over these sentences using synthetically generated data. Our models, that we call RuleTakers, provide the first empirical demonstration that this kind of soft reasoning over language is learnable, can achieve high (99%) accuracy, and generalizes to test data requiring substantially deeper chaining than seen during training (95%+ scores). We also demonstrate that the models transfer well to two hand-authored rulebases, and to rulebases paraphrased into more natural language. These findings are significant as it suggests a new role for transformers, namely as limited "soft theorem provers" operating over explicit theories in language. This in turn suggests new possibilities for explainability, correctability, and counterfactual reasoning in question-answering.
翻訳日:2023-01-01 03:56:47 公開日:2020-05-05
# 動的フェデレーション学習

Dynamic Federated Learning ( http://arxiv.org/abs/2002.08782v2 )

ライセンス: Link先を確認
Elsa Rizk, Stefan Vlaski, Ali H. Sayed(参考訳) フェデレーション学習は,マルチエージェント環境における集中型協調戦略の包括的用語として登場してきた。 多くの連合学習アーキテクチャは、オンラインの方法でデータを処理し、したがって自然に適応するが、ほとんどの性能分析は静的最適化問題を仮定し、問題ソリューションやデータ特性におけるドリフトの存在を保証しない。 我々は、各イテレーションにおいて、利用可能なエージェントのランダムなサブセットがデータに基づいてローカル更新を行うフェデレート学習モデルを考える。 集約最適化問題に対する真の最小化器上の非定常ランダムウォークモデルの下で、アーキテクチャの性能は、各エージェントにおけるデータ変動率、各エージェントにおけるモデル変動率、アルゴリズムの学習率に逆比例する追跡項の3つの要因によって決定されることを示す。 その結果,収束と追跡性能のトレードオフが明らかになった。

Federated learning has emerged as an umbrella term for centralized coordination strategies in multi-agent environments. While many federated learning architectures process data in an online manner, and are hence adaptive by nature, most performance analyses assume static optimization problems and offer no guarantees in the presence of drifts in the problem solution or data characteristics. We consider a federated learning model where at every iteration, a random subset of available agents perform local updates based on their data. Under a non-stationary random walk model on the true minimizer for the aggregate optimization problem, we establish that the performance of the architecture is determined by three factors, namely, the data variability at each agent, the model variability across all agents, and a tracking term that is inversely proportional to the learning rate of the algorithm. The results clarify the trade-off between convergence and tracking performance.
翻訳日:2022-12-30 06:49:29 公開日:2020-05-05
# DIHARD IIはまだ難しい - DKU-LENOVOチームによる実験結果と議論

DIHARD II is Still Hard: Experimental Results and Discussions from the DKU-LENOVO Team ( http://arxiv.org/abs/2002.12761v2 )

ライセンス: Link先を確認
Qingjian Lin, Weicheng Cai, Lin Yang, Junjie Wang, Jun Zhang, Ming Li(参考訳) 本稿では,DKULENOVOチームによる第2回DIHARD音声ダイアリゼーションチャレンジの提出システムについて述べる。 ダイアリゼーションシステムには音声アクティビティ検出(vad)、セグメンテーション、話者埋め込み抽出、類似度スコアリング、クラスタリング、再セグメンテーション、重なり検出など複数のモジュールが含まれている。 各モジュールに対して、パフォーマンスを向上させるためのさまざまなテクニックを検討します。 最後の提案では、ResNet-LSTMベースのVAD、Deep ResNetベースの話者埋め込み、LSTMベースの類似度スコアリング、スペクトルクラスタリングを採用。 変分ベイズ(VB)ダイアリゼーションは, 分離段階で適用され, 重なり検出も若干改善されている。 提案システムでは,トラック1では18.84%,トラック2では27.90%を達成している。 私たちのシステムは、公式のベースラインに対してdersを27.5%、31.7%削減しましたが、ダイアリゼーションタスクは依然として非常に難しいと考えています。

In this paper, we present the submitted system for the second DIHARD Speech Diarization Challenge from the DKULENOVO team. Our diarization system includes multiple modules, namely voice activity detection (VAD), segmentation, speaker embedding extraction, similarity scoring, clustering, resegmentation and overlap detection. For each module, we explore different techniques to enhance performance. Our final submission employs the ResNet-LSTM based VAD, the Deep ResNet based speaker embedding, the LSTM based similarity scoring and spectral clustering. Variational Bayes (VB) diarization is applied in the resegmentation stage and overlap detection also brings slight improvement. Our proposed system achieves 18.84% DER in Track1 and 27.90% DER in Track2. Although our systems have reduced the DERs by 27.5% and 31.7% relatively against the official baselines, we believe that the diarization task is still very difficult.
翻訳日:2022-12-29 09:36:50 公開日:2020-05-05
# タンパー検出精度向上のためのカメラモデルとソースデバイス固有法則の融合

Fusion of Camera Model and Source Device Specific Forensic Methods for Improved Tamper Detection ( http://arxiv.org/abs/2002.10123v2 )

ライセンス: Link先を確認
Ahmet G\"okhan Poyraz, Ahmet Emir Dirik, Ahmet Karak\"u\c{c}\"uk, Nasir Memon(参考訳) prnuベースのカメラ認識法は画像法医学文献で広く研究されている。 近年,CNNを用いたカメラモデル認識手法が開発されている。 これらの2つの手法はローカライゼーション問題の解も提供する。 本稿では,ニューラルネットワークを用いた小型タンパ検出性能向上のための組み合わせを提案する。 その結果,融合法はJPEG圧縮下でも基礎となる手法よりも優れていた。 100$\times$100ピクセルサイズの偽造の場合、提案手法は、小規模画像偽造のローカライズにおける融合の有用性を検証する最先端技術よりも優れている。 提案手法はprnuに基づく手法を用いて任意のタンパー検出パイプラインに対して実現可能である。

PRNU based camera recognition method is widely studied in the image forensic literature. In recent years, CNN based camera model recognition methods have been developed. These two methods also provide solutions to tamper localization problem. In this paper, we propose their combination via a Neural Network to achieve better small-scale tamper detection performance. According to the results, the fusion method performs better than underlying methods even under high JPEG compression. For forgeries as small as 100$\times$100 pixel size, the proposed method outperforms the state-of-the-art, which validates the usefulness of fusion for localization of small-size image forgeries. We believe the proposed approach is feasible for any tamper-detection pipeline using the PRNU based methodology.
翻訳日:2022-12-29 04:47:07 公開日:2020-05-05
# MagnifierNet: 個人再識別のための意味的逆境と融合を目指して

MagnifierNet: Towards Semantic Adversary and Fusion for Person Re-identification ( http://arxiv.org/abs/2002.10979v4 )

ライセンス: Link先を確認
Yushi Lan, Yuan Liu, Maoqing Tian, Xinchi Zhou, Xuesen Zhang, Shuai Yi, Hongsheng Li(参考訳) 人物再同定(reid)は,近年,部分アライメントの実施によって大幅に改善されているが,視覚的に類似した人物の識別や識別に関しては依然として課題となっている。 これらのシナリオでは、各部分の特徴を拡大し、それらを選択的に融合することで、実現可能なソリューションを提供することができる。 本研究では,細部から部品までを正確にマイニングするトリプルブランチネットワークであるmagnifiernetを提案する。 まず、全体的なサルエント機能はグローバルブランチによってエンコードされる。 第二に、各意味領域の詳細な表現を強化するため、訓練中に動的に生成した意味を包含したサンプルから学習する「semantic adversarial branch」が設計されている。 一方,意味領域情報を逐次融合することで,無関係なノイズを除去する「意味融合ブランチ」を導入する。 特徴の多様性をさらに向上するため,学習された意味表現間の重複を取り除くために,新たな損失関数"Semantic Diversity Loss"を導入する。 最先端のパフォーマンスは3つのベンチマークで大きなマージンで達成されている。 特に、最も難しいCUHK03-LとCUHK03-Dベンチマークでは、mAPスコアが6%と5%改善されている。

Although person re-identification (ReID) has achieved significant improvement recently by enforcing part alignment, it is still a challenging task when it comes to distinguishing visually similar identities or identifying the occluded person. In these scenarios, magnifying details in each part features and selectively fusing them together may provide a feasible solution. In this work, we propose MagnifierNet, a triple-branch network which accurately mines details from whole to parts. Firstly, the holistic salient features are encoded by a global branch. Secondly, to enhance detailed representation for each semantic region, the "Semantic Adversarial Branch" is designed to learn from dynamically generated semantic-occluded samples during training. Meanwhile, we introduce "Semantic Fusion Branch" to filter out irrelevant noises by selectively fusing semantic region information sequentially. To further improve feature diversity, we introduce a novel loss function "Semantic Diversity Loss" to remove redundant overlaps across learned semantic representations. State-of-the-art performance has been achieved on three benchmarks by large margins. Specifically, the mAP score is improved by 6% and 5% on the most challenging CUHK03-L and CUHK03-D benchmarks.
翻訳日:2022-12-28 21:57:02 公開日:2020-05-05
# PointASNL:適応サンプリングを用いた非局所ニューラルネットワークによるロバストポイントクラウド処理

PointASNL: Robust Point Clouds Processing using Nonlocal Neural Networks with Adaptive Sampling ( http://arxiv.org/abs/2003.00492v3 )

ライセンス: Link先を確認
Xu Yan, Chaoda Zheng, Zhen Li, Sheng Wang and Shuguang Cui(参考訳) 生の点雲データは、必然的に3Dセンサーや再構成アルゴリズムからの取得を通じて、アウトレーヤやノイズを含む。 本稿では,雑音を伴う点雲を効果的に処理可能な,ロバストな点雲処理のための新しいエンドツーエンドネットワークであるPointASNLを提案する。 このアプローチの重要なコンポーネントはadaptive sampling (as)モジュールです。 まず、最遠点サンプリング(FPS)から初期サンプル点の周囲の近傍を再重み付けし、次に点雲全体を超えてサンプル点を適応的に調整する。 私たちのASモジュールは、ポイントクラウドの機能学習の恩恵を受けるだけでなく、アウトレーヤのバイアス効果も緩和します。 サンプル点の近傍および長距離依存性をさらに把握するために,非局所演算に触発された局所非局所(l-nl)モジュールを提案した。 このようなL-NLモジュールは、ノイズに敏感な学習プロセスを可能にする。 大規模実験により,ノイズの有無にかかわらず,合成データ,室内データ,屋外データにかかわらず,ポイントクラウド処理タスクにおけるロバスト性と優位性が検証された。 具体的には、pointasnlは、すべてのデータセットの分類とセグメンテーションタスクに対する最先端の堅牢なパフォーマンスを実現し、注意深いノイズを伴う実世界のsemantickittiデータセットの以前の方法を大幅に上回っている。 私たちのコードはhttps://github.com/yanx27/pointasnlでリリースしています。

Raw point clouds data inevitably contains outliers or noise through acquisition from 3D sensors or reconstruction algorithms. In this paper, we present a novel end-to-end network for robust point clouds processing, named PointASNL, which can deal with point clouds with noise effectively. The key component in our approach is the adaptive sampling (AS) module. It first re-weights the neighbors around the initial sampled points from farthest point sampling (FPS), and then adaptively adjusts the sampled points beyond the entire point cloud. Our AS module can not only benefit the feature learning of point clouds, but also ease the biased effect of outliers. To further capture the neighbor and long-range dependencies of the sampled point, we proposed a local-nonlocal (L-NL) module inspired by the nonlocal operation. Such L-NL module enables the learning process insensitive to noise. Extensive experiments verify the robustness and superiority of our approach in point clouds processing tasks regardless of synthesis data, indoor data, and outdoor data with or without noise. Specifically, PointASNL achieves state-of-the-art robust performance for classification and segmentation tasks on all datasets, and significantly outperforms previous methods on real-world outdoor SemanticKITTI dataset with considerate noise. Our code is released through https://github.com/yanx27/PointASNL.
翻訳日:2022-12-27 13:15:06 公開日:2020-05-05
# マルチモーダル高密度ビデオキャプション

Multi-modal Dense Video Captioning ( http://arxiv.org/abs/2003.07758v2 )

ライセンス: Link先を確認
Vladimir Iashin and Esa Rahtu(参考訳) デンスビデオキャプションは、未編集のビデオから興味深いイベントをローカライズし、各ローカライズされたイベントのテキスト記述(キャプション)を生成するタスクである。 以前の高密度ビデオキャプションにおけるほとんどの作品は、視覚情報のみに基づいており、オーディオトラックを完全に無視している。 しかし、特に音声や音声は、環境を理解する上で人間の観察者にとって重要な手がかりである。 本稿では,イベント記述に任意の種類のモダリティを活用可能な,新しい高密度ビデオキャプション手法を提案する。 具体的には、音声と音声のモダリティが高密度ビデオキャプションモデルをどのように改善するかを示す。 自動音声認識(ASR)システムを用いて、音声(字幕に類似した)の時間的に整列したテキスト記述を取得し、ビデオフレームと対応する音声トラックとともに別個の入力として扱う。 本稿では、機械翻訳問題としてキャプションタスクを定式化し、最近提案されたTransformerアーキテクチャを用いて、マルチモーダル入力データをテキスト記述に変換する。 我々は、ActivityNet Captionsデータセット上で、モデルの性能を示す。 アブレーション研究は、これらのモダリティがビデオフレームに相補的な情報を含むことを示唆する音声および音声成分からのかなりの寄与を示している。 さらに,オリジナルYouTubeビデオから得られたカテゴリタグを利用して,ActivityNet Captionの結果の詳細な分析を行う。 コード公開:github.com/v-iashin/MDVC

Dense video captioning is a task of localizing interesting events from an untrimmed video and producing textual description (captions) for each localized event. Most of the previous works in dense video captioning are solely based on visual information and completely ignore the audio track. However, audio, and speech, in particular, are vital cues for a human observer in understanding an environment. In this paper, we present a new dense video captioning approach that is able to utilize any number of modalities for event description. Specifically, we show how audio and speech modalities may improve a dense video captioning model. We apply automatic speech recognition (ASR) system to obtain a temporally aligned textual description of the speech (similar to subtitles) and treat it as a separate input alongside video frames and the corresponding audio track. We formulate the captioning task as a machine translation problem and utilize recently proposed Transformer architecture to convert multi-modal input data into textual descriptions. We demonstrate the performance of our model on ActivityNet Captions dataset. The ablation studies indicate a considerable contribution from audio and speech components suggesting that these modalities contain substantial complementary information to video frames. Furthermore, we provide an in-depth analysis of the ActivityNet Caption results by leveraging the category tags obtained from original YouTube videos. Code is publicly available: github.com/v-iashin/MDVC
翻訳日:2022-12-22 20:27:26 公開日:2020-05-05
# ルートイメージングのためのスーパーレゾリューション

Super Resolution for Root Imaging ( http://arxiv.org/abs/2003.13537v2 )

ライセンス: Link先を確認
Jose F. Ruiz-Munoz, Jyothier K. Nimmagadda, Tyler G. Dowd, and James E. Baciak, Alina Zare(参考訳) 高解像度カメラは、ターゲットと背景の識別などのタスクのメカニズムと、地上の微細な植物特性の測定と解析を提供することで、植物の表現型化に非常に役立っている。 しかし,植物根の高分解能(HR)画像の取得は,地上データ収集よりも困難である。 したがって、センサの解像度制限を克服し、ストレージスペースの要求を減らし、自動セグメンテーションなどの後続解析の性能を高めるために、効果的な超解像アルゴリズムが望まれる。 本稿では、畳み込みニューラルネットワーク(CNN)を用いて植物の根の画像を強化するSRフレームワークを提案する。 SRモデルをトレーニングするための3つの選択肢を比較する。 一 非植物根画像による訓練 二 植物根の画像による訓練及び 三 非植物根画像による事前訓練及び植物根画像による微調整 我々は、srモデルが非ルートデータセットでトレーニングされた場合でも、基本的なbicubic補間よりも優れる公開データセットの集合を実証する。 また, セグメント化実験の結果, SNRとは独立に高い性能が得られることがわかった。 したがって、画像強調の質は応用に依存すると結論付けている。

High-resolution cameras have become very helpful for plant phenotyping by providing a mechanism for tasks such as target versus background discrimination, and the measurement and analysis of fine-above-ground plant attributes. However, the acquisition of high-resolution (HR) imagery of plant roots is more challenging than above-ground data collection. Thus, an effective super-resolution (SR) algorithm is desired for overcoming resolution limitations of sensors, reducing storage space requirements, and boosting the performance of later analysis, such as automatic segmentation. We propose a SR framework for enhancing images of plant roots by using convolutional neural networks (CNNs). We compare three alternatives for training the SR model: i) training with non-plant-root images, ii) training with plant-root images, and iii) pretraining the model with non-plant-root images and fine-tuning with plant-root images. We demonstrate on a collection of publicly available datasets that the SR models outperform the basic bicubic interpolation even when trained with non-root datasets. Also, our segmentation experiments show that high performance on this task can be achieved independently of the SNR. Therefore, we conclude that the quality of the image enhancement depends on the application.
翻訳日:2022-12-18 08:31:37 公開日:2020-05-05
# 自然言語処理のための構造化出力予測器の校正

Calibrating Structured Output Predictors for Natural Language Processing ( http://arxiv.org/abs/2004.04361v2 )

ライセンス: Link先を確認
Abhyuday Jagannatha, Hong Yu(参考訳) 自然言語処理(NLP)アプリケーションにおける出力エンティティの予測信頼性の校正の問題に対処する。 名前付きエンティティ認識や質問応答などのNLPアプリケーションは、特に医療などの安全クリティカルな領域にシステムを展開する場合、その予測の正当性スコアを生成することが重要である。 しかし、そのような構造化予測モデルの出力空間は、しばしば二進法や多進法を直接適用するには大きすぎる。 本研究では,ニューラルネットワークに基づく構造化予測モデルに注目する出力要素の一般的なキャリブレーション手法を提案する。 提案手法は,任意のバイナリクラスキャリブレーションスキームとニューラルネットワークモデルを用いて適用することができる。 さらに,我々のキャリブレーション手法は,トレーニングコストやデータ要求を伴わずに,基礎となるモデルの性能を向上させるため,不確実性を意識した,エンティティ固有のデコーディングステップとしても使用できることを示す。 本手法は,名前付きエンティティ認識,パート・オブ・スパイチ,質問応答のキャリブレーション技術に勝ることを示す。 また、いくつかのタスクとベンチマークデータセットのデコードステップから、モデルのパフォーマンスも改善します。 本手法はドメイン外テストシナリオのキャリブレーションとモデル性能も改善する。

We address the problem of calibrating prediction confidence for output entities of interest in natural language processing (NLP) applications. It is important that NLP applications such as named entity recognition and question answering produce calibrated confidence scores for their predictions, especially if the system is to be deployed in a safety-critical domain such as healthcare. However, the output space of such structured prediction models is often too large to adapt binary or multi-class calibration methods directly. In this study, we propose a general calibration scheme for output entities of interest in neural-network based structured prediction models. Our proposed method can be used with any binary class calibration scheme and a neural network model. Additionally, we show that our calibration method can also be used as an uncertainty-aware, entity-specific decoding step to improve the performance of the underlying model at no additional training cost or data requirements. We show that our method outperforms current calibration techniques for named-entity-recognition, part-of-speech and question answering. We also improve our model's performance from our decoding step across several tasks and benchmark datasets. Our method improves the calibration and model performance on out-of-domain test scenarios as well.
翻訳日:2022-12-15 02:00:36 公開日:2020-05-05
# DeepEDN: 医療物のインターネットのためのディープラーニングベースの画像暗号化と復号ネットワーク

DeepEDN: A Deep Learning-based Image Encryption and Decryption Network for Internet of Medical Things ( http://arxiv.org/abs/2004.05523v2 )

ライセンス: Link先を確認
Yi Ding, Guozheng Wu, Dajiang Chen, Ning Zhang, Linpeng Gong, Mingsheng Cao, Zhiguang Qin(参考訳) internet of medical things(iomt)は多くの医療画像機器を医療情報ネットワークに接続し、医師の診断と治療のプロセスを容易にする。 医療画像にはセンシティブな情報が含まれているため、患者のプライバシーやセキュリティを保護することは非常に困難である。 本研究では,医療画像の暗号化と復号化のプロセスを実現するために,deepedn(deep learning based encryption and decryption network)を提案する。 具体的には、DeepEDNでは、Cycle-Generative Adversarial Network (Cycle-GAN) が、医学画像を元のドメインからターゲットドメインに転送する主な学習ネットワークとして使用される。 ターゲットドメインは、暗号化を実現するための学習モデルを導く「隠れた要因」と見なされる。 暗号化された画像を再構成ネットワークを介して元の(平文)画像に復元し、画像復号化を実現する。 プライバシー保護環境から直接データマイニングを容易にするために、興味のあるオブジェクトを暗号化画像から抽出するための関心領域(roi)-mining-networkが提案されている。 提案したDeepEDNは胸部X線データセットを用いて評価する。 広範な実験結果とセキュリティ解析により,提案手法は高いセキュリティ性能を実現でき,効率も良好であることが示された。

Internet of Medical Things (IoMT) can connect many medical imaging equipments to the medical information network to facilitate the process of diagnosing and treating for doctors. As medical image contains sensitive information, it is of importance yet very challenging to safeguard the privacy or security of the patient. In this work, a deep learning based encryption and decryption network (DeepEDN) is proposed to fulfill the process of encrypting and decrypting the medical image. Specifically, in DeepEDN, the Cycle-Generative Adversarial Network (Cycle-GAN) is employed as the main learning network to transfer the medical image from its original domain into the target domain. Target domain is regarded as a "Hidden Factors" to guide the learning model for realizing the encryption. The encrypted image is restored to the original (plaintext) image through a reconstruction network to achieve an image decryption. In order to facilitate the data mining directly from the privacy-protected environment, a region of interest(ROI)-mining-network is proposed to extract the interested object from the encrypted image. The proposed DeepEDN is evaluated on the chest X-ray dataset. Extensive experimental results and security analysis show that the proposed method can achieve a high level of security with a good performance in efficiency.
翻訳日:2022-12-14 05:39:39 公開日:2020-05-05
# 占有率推定のための低分解能熱トリップワイヤ

Low-Resolution Overhead Thermal Tripwire for Occupancy Estimation ( http://arxiv.org/abs/2004.05685v4 )

ライセンス: Link先を確認
Mertcan Cokbas, Prakash Ishwar, Janusz Konrad(参考訳) スマートな建物では、エネルギー効率の高いHVACや照明、宇宙利用分析、緊急対応など、さまざまなタスクに占有感を使用している。 低分解能熱センサを用いた人計数システムを提案する。 従来のサーマルセンサに基づく人計システムとは異なり、入り口の頭上トリップワイヤ構成を使用して、過渡的な進入や出口を検知し追跡しています。 この構成のためのアルゴリズムをカウントする2つの異なる人を開発する。 このアルゴリズムを評価するために,提案システムを用いて低分解能熱ビデオデータセットを収集,ラベル付けした。 データセットは最初のもので、公開されており、ダウンロードできる。 また,ドリフトやジッタの対象となるシステムに適した新しい評価指標を提案する。

Smart buildings use occupancy sensing for various tasks ranging from energy-efficient HVAC and lighting to space-utilization analysis and emergency response. We propose a people counting system which uses a low-resolution thermal sensor. Unlike previous people-counting systems based on thermal sensors, we use an overhead tripwire configuration at entryways to detect and track transient entries or exits. We develop two distinct people counting algorithms for this configuration. To evaluate our algorithms, we have collected and labeled a low-resolution thermal video dataset using the proposed system. The dataset, the first of its kind, is public and available for download. We also propose new evaluation metrics that are more suitable for systems that are subject to drift and jitter.
翻訳日:2022-12-14 05:32:13 公開日:2020-05-05
# XtremeDistil:多言語モデルの多段階蒸留

XtremeDistil: Multi-stage Distillation for Massive Multilingual Models ( http://arxiv.org/abs/2004.05686v2 )

ライセンス: Link先を確認
Subhabrata Mukherjee, Ahmed Awadallah(参考訳) 深層および大規模事前訓練された言語モデルは、様々な自然言語処理タスクの最先端技術である。 しかし、これらのモデルの巨大なサイズは、実際にそれらを使用するための抑止力になり得る。 近年の並行研究では、これらの巨大なモデルを浅いものに圧縮するために知識蒸留を使用している。 本研究では,多言語名前付きエンティティ認識(NER)に着目した知識蒸留について検討する。 特に,いくつかの蒸留戦略を考察し,教師のアーキテクチャに無依存な教師内部表現を活用した段階的最適化手法を提案する。 さらに,ラベルなしデータ量,アノテーションリソース,モデルアーキテクチャ,推論待ち時間など,いくつかの要因の役割について検討した。 提案手法は,NER 41言語に対する F1 スコアの95% を保ちながら,パラメータの35倍,バッチ推論の51倍のレイテンシで MBERT ライクな教師モデルを大幅に圧縮することを示した。

Deep and large pre-trained language models are the state-of-the-art for various natural language processing tasks. However, the huge size of these models could be a deterrent to use them in practice. Some recent and concurrent works use knowledge distillation to compress these huge models into shallow ones. In this work we study knowledge distillation with a focus on multi-lingual Named Entity Recognition (NER). In particular, we study several distillation strategies and propose a stage-wise optimization scheme leveraging teacher internal representations that is agnostic of teacher architecture and show that it outperforms strategies employed in prior works. Additionally, we investigate the role of several factors like the amount of unlabeled data, annotation resources, model architecture and inference latency to name a few. We show that our approach leads to massive compression of MBERT-like teacher models by upto 35x in terms of parameters and 51x in terms of latency for batch inference while retaining 95% of its F1-score for NER over 41 languages.
翻訳日:2022-12-14 05:04:45 公開日:2020-05-05
# 限られたトレーニングデータセットを用いたcxrのディープラーニング新型コロナウイルス機能

Deep Learning COVID-19 Features on CXR using Limited Training Data Sets ( http://arxiv.org/abs/2004.05758v2 )

ライセンス: Link先を確認
Yujin Oh, Sangjoon Park, Jong Chul Ye(参考訳) 新型コロナウイルス(COVID-19)の世界的なパンデミック下では、胸部X線(CXR)画像を分析するための人工知能の使用が重要になっている。 残念ながら、新型コロナウイルス(COVID-19)のパンデミックの突発性のため、ディープニューラルネットワークトレーニングのためのCXRデータセットの体系的な収集は難しい。 この問題に対処するために,比較的少数のトレーニング可能なパラメータを用いたパッチベースの畳み込みニューラルネットワークアプローチを提案する。 提案手法はCXRラジオグラフィーの潜在的なイメージングバイオマーカーの統計的解析に着想を得たものである。 以上の結果から,本手法は,新型コロナウイルスの診断や患者トリアージに有用で,臨床的に解釈可能なサリエンシマップを提供する。

Under the global pandemic of COVID-19, the use of artificial intelligence to analyze chest X-ray (CXR) image for COVID-19 diagnosis and patient triage is becoming important. Unfortunately, due to the emergent nature of the COVID-19 pandemic, a systematic collection of the CXR data set for deep neural network training is difficult. To address this problem, here we propose a patch-based convolutional neural network approach with a relatively small number of trainable parameters for COVID-19 diagnosis. The proposed method is inspired by our statistical analysis of the potential imaging biomarkers of the CXR radiographs. Experimental results show that our method achieves state-of-the-art performance and provides clinically interpretable saliency maps, which are useful for COVID-19 diagnosis and patient triage.
翻訳日:2022-12-13 23:08:35 公開日:2020-05-05
# 新型コロナウイルス対策のためのコンピュータビジョン:調査

Computer Vision For COVID-19 Control: A Survey ( http://arxiv.org/abs/2004.09420v2 )

ライセンス: Link先を確認
Anwaar Ulhaq, Asim Khan, Douglas Gomes, Manoranjan Paul(参考訳) 新型コロナウイルス(COVID-19)のパンデミックは、人口に対する大きな脅威との戦いに、緊急に貢献する必要が生じた。 人工知能のサブフィールドであるコンピュータビジョンは、医療における様々な複雑な問題の解決に成功し、新型コロナウイルス(COVID-19)対策に貢献する可能性がある。 コンピュータービジョンの研究者たちは、新型コロナウイルス(COVID-19)対策の効果的な方法を考案し、グローバルなコミュニティにサービスを提供しようとしている。 毎日、新しいコントリビューションが共有されています。 最近の研究を見直し、利用可能な研究資源に関する情報を収集し、今後の研究の方向性を示すことを動機付けました。 貴重な時間を節約するために、コンピュータビジョン研究者に提供したいのです。 本調査は、新型コロナウイルスのパンデミックに対するコンピュータビジョンの取り組みについて、利用可能な文献の予備的なレビューを提供する。

The COVID-19 pandemic has triggered an urgent need to contribute to the fight against an immense threat to the human population. Computer Vision, as a subfield of Artificial Intelligence, has enjoyed recent success in solving various complex problems in health care and has the potential to contribute to the fight of controlling COVID-19. In response to this call, computer vision researchers are putting their knowledge base at work to devise effective ways to counter COVID-19 challenge and serve the global community. New contributions are being shared with every passing day. It motivated us to review the recent work, collect information about available research resources and an indication of future research directions. We want to make it available to computer vision researchers to save precious time. This survey paper is intended to provide a preliminary review of the available literature on the computer vision efforts against COVID-19 pandemic.
翻訳日:2022-12-13 04:05:20 公開日:2020-05-05
# 事前トレーニングをやめるな - ドメインとタスクに言語モデルを適用する

Don't Stop Pretraining: Adapt Language Models to Domains and Tasks ( http://arxiv.org/abs/2004.10964v3 )

ライセンス: Link先を確認
Suchin Gururangan, Ana Marasovi\'c, Swabha Swayamdipta, Kyle Lo, Iz Beltagy, Doug Downey, Noah A. Smith(参考訳) 様々な情報源からテキストで事前訓練された言語モデルは、今日のNLPの基礎を形成する。 これらの広範囲にわたるモデルの成功を踏まえて,事前学習したモデルを対象タスクの領域に合わせることが依然として有効であるか検討する。 生物・コンピュータ科学の出版物・ニュース・レビュー)と8つの分類課題について,ドメイン内事前学習(ドメイン適応型事前学習)の第2段階が,高・低リソース環境下での性能向上につながることを示す。 さらに、タスクのラベルなしデータ(タスク適応プレトレーニング)への適応は、ドメイン適応プレトレーニング後もパフォーマンスが向上する。 最後に、単純なデータ選択戦略を用いて強化されたタスクコーパスへの適応は、特にドメイン適応型事前学習のためのリソースが利用できない場合に有効であることを示す。 全体としては、多相適応事前学習はタスク性能に大きな利益をもたらすことが一貫して見出される。

Language models pretrained on text from a wide variety of sources form the foundation of today's NLP. In light of the success of these broad-coverage models, we investigate whether it is still helpful to tailor a pretrained model to the domain of a target task. We present a study across four domains (biomedical and computer science publications, news, and reviews) and eight classification tasks, showing that a second phase of pretraining in-domain (domain-adaptive pretraining) leads to performance gains, under both high- and low-resource settings. Moreover, adapting to the task's unlabeled data (task-adaptive pretraining) improves performance even after domain-adaptive pretraining. Finally, we show that adapting to a task corpus augmented using simple data selection strategies is an effective alternative, especially when resources for domain-adaptive pretraining might be unavailable. Overall, we consistently find that multi-phase adaptive pretraining offers large gains in task performance.
翻訳日:2022-12-10 08:52:01 公開日:2020-05-05
# 構造ノイズ注入による遠絡画像生成

Disentangled Image Generation Through Structured Noise Injection ( http://arxiv.org/abs/2004.12411v2 )

ライセンス: Link先を確認
Yazeed Alharbi, Peter Wonka(参考訳) 潜在空間を分離することを目的として,gans(generative adversarial network)にノイズを注入する異なる設計選択について検討する。 従来の手法の代わりに,完全連結層を分割して複数のノイズコードを供給する。 目的は、生成した画像の特定部分に対する各ノイズコードの影響を制限することである。 生成ネットワークの第1層における乱れは生成した画像の乱れにつながることを示す。 グリッドベースの構造により,ネットワークアーキテクチャを複雑にすることなく,ラベルを必要とせず,複数の非絡み合いを実現する。 生成した画像のきめ細かい制御が可能な背景形状から、空間的ゆがみ、空間的ゆがみ、空間的ゆがみ、および前景オブジェクトのゆがみを実現する。 例えば、顔画像における表情の変化、鳥の画像におけるくちばしの長さの変化、車の画像における車の寸法の変化などである。 これにより、ffhqデータセットの最先端のメソッドよりも、経験上、ジエンタグルメントスコアが向上する。

We explore different design choices for injecting noise into generative adversarial networks (GANs) with the goal of disentangling the latent space. Instead of traditional approaches, we propose feeding multiple noise codes through separate fully-connected layers respectively. The aim is restricting the influence of each noise code to specific parts of the generated image. We show that disentanglement in the first layer of the generator network leads to disentanglement in the generated image. Through a grid-based structure, we achieve several aspects of disentanglement without complicating the network architecture and without requiring labels. We achieve spatial disentanglement, scale-space disentanglement, and disentanglement of the foreground object from the background style allowing fine-grained control over the generated images. Examples include changing facial expressions in face images, changing beak length in bird images, and changing car dimensions in car images. This empirically leads to better disentanglement scores than state-of-the-art methods on the FFHQ dataset.
翻訳日:2022-12-09 13:35:01 公開日:2020-05-05
# 強化学習を用いたグラフィカルモデル推論のためのヒューリスティックスを学べるか?

Can We Learn Heuristics For Graphical Model Inference Using Reinforcement Learning? ( http://arxiv.org/abs/2005.01508v2 )

ライセンス: Link先を確認
Safa Messaoud, Maghav Kumar, and Alexander G. Schwing(参考訳) 組合せ最適化はコンピュータビジョンでよく用いられる。 例えば、セマンティックセグメンテーション、人間のポーズ推定、行動認識といったアプリケーションでは、条件付きランダムフィールド(CRF)で推論を解くためにプログラムを定式化し、画像の視覚的特徴と整合した構造化出力を生成する。 しかし、CRFにおける推論の解法は一般に難解であり、近似法は計算的に要求され、高次ポテンシャルの単項、ペア、手作り形式に制限されている。 本稿では,強化学習を用いて,セマンティックセグメンテーションのタスクにおいて,高次CRFにおける推論を解くためのプログラムヒューリスティックス,すなわちポリシーを学習できることを示す。 提案手法はポテンシャルの形式に制約を課さずに効率的に推論タスクを解く。 我々はPascal VOCとMOTSデータセットに魅力的な結果を示す。

Combinatorial optimization is frequently used in computer vision. For instance, in applications like semantic segmentation, human pose estimation and action recognition, programs are formulated for solving inference in Conditional Random Fields (CRFs) to produce a structured output that is consistent with visual features of the image. However, solving inference in CRFs is in general intractable, and approximation methods are computationally demanding and limited to unary, pairwise and hand-crafted forms of higher order potentials. In this paper, we show that we can learn program heuristics, i.e., policies, for solving inference in higher order CRFs for the task of semantic segmentation, using reinforcement learning. Our method solves inference tasks efficiently without imposing any constraints on the form of the potentials. We show compelling results on the Pascal VOC and MOTS datasets.
翻訳日:2022-12-09 05:38:08 公開日:2020-05-05
# recurrent-convolutional neural network (r-cnn) を用いたセンチネル2データからの時間的特徴学習に基づく土地被覆と作物分類の改善

Improvement in Land Cover and Crop Classification based on Temporal Features Learning from Sentinel-2 Data Using Recurrent-Convolutional Neural Network (R-CNN) ( http://arxiv.org/abs/2004.12880v2 )

ライセンス: Link先を確認
Vittorio Mazzia, Aleem Khaliq, Marcello Chiaberge(参考訳) sentinel-2のような地球規模で利用可能な衛星画像の空間的・時間的分解能の増加は、研究者が自由に利用可能なマルチスペクトル光学画像を使用する新たな可能性を生み出し、デカメトリックな空間分解と、土地被覆や作物分類(lc&cc)、農業の監視と管理、環境モニタリングといったリモートセンシングアプリケーションに対するより頻繁な再訪をもたらす。 既存の土地マッピング専用のソリューションは、ピクセル単位とオブジェクト単位に基づいて分類することができる。 しかし、大規模に農作物の分類が検討される場合、依然として困難である。 本稿では,多種多様な農業システムを有するイタリア中部のsentinel-2画像を用いた畳み込みニューラルネットワーク (cnn) と再帰ニューラルネットワーク (recurrent neural network, rnn) を組み合わせた,画素ベースlc&ccのための新しい最適深層学習モデルを開発し,実装する。 提案手法は,複数画像の時間相関を学習することで自動特徴抽出が可能であり,手動の特徴工学や作物の表現段階のモデル化が可能である。 本研究では,主要農作物を含む15種について検討した。 また、ベクトルマシンSVM、ランダムフォレスト(RF)、カーナルSVM、勾配向上マシン(XGBoostとも呼ばれる)など、他の広く使われている機械学習アルゴリズムとの比較も行った。 提案する画素r-cnnによる全体的な精度は96.5%であり、従来の主流方式に比べてかなり向上した。 本研究では,画素r-cnnモデルを用いて,時系列データの評価と活用を高精度に行えることを示す。

The increasing spatial and temporal resolution of globally available satellite images, such as provided by Sentinel-2, creates new possibilities for researchers to use freely available multi-spectral optical images, with decametric spatial resolution and more frequent revisits for remote sensing applications such as land cover and crop classification (LC&CC), agricultural monitoring and management, environment monitoring. Existing solutions dedicated to cropland mapping can be categorized based on per-pixel based and object-based. However, it is still challenging when more classes of agricultural crops are considered at a massive scale. In this paper, a novel and optimal deep learning model for pixel-based LC&CC is developed and implemented based on Recurrent Neural Networks (RNN) in combination with Convolutional Neural Networks (CNN) using multi-temporal sentinel-2 imagery of central north part of Italy, which has diverse agricultural system dominated by economic crop types. The proposed methodology is capable of automated feature extraction by learning time correlation of multiple images, which reduces manual feature engineering and modeling crop phenological stages. Fifteen classes, including major agricultural crops, were considered in this study. We also tested other widely used traditional machine learning algorithms for comparison such as support vector machine SVM, random forest (RF), Kernal SVM, and gradient boosting machine, also called XGBoost. The overall accuracy achieved by our proposed Pixel R-CNN was 96.5%, which showed considerable improvements in comparison with existing mainstream methods. This study showed that Pixel R-CNN based model offers a highly accurate way to assess and employ time-series data for multi-temporal classification tasks.
翻訳日:2022-12-09 05:13:17 公開日:2020-05-05
# 雑音環境下での精度とロバストな領域適応に向けて

Towards Accurate and Robust Domain Adaptation under Noisy Environments ( http://arxiv.org/abs/2004.12529v2 )

ライセンス: Link先を確認
Zhongyi Han, Xian-Jin Gui, Chaoran Cui, Yilong Yin(参考訳) 非定常環境では、学習機械は通常、時間とともにデータ分布が変化するドメイン適応シナリオに直面する。 以前のドメイン適応論は理論と実践において大きな成功を収めた。 しかし、ソースドメインの例のラベルや特徴が腐敗する、ノイズの多い環境では、常に堅牢性を失う。 本稿では,ノイズロバスト領域の高精度適応を実現する試みについて報告する。 まず、有害ノイズが教師なし領域適応にどのように影響するかを理論的に分析する。 ラベルノイズの影響を解消するために,新たに定義された経験的ソースリスクを最小化するオフラインカリキュラム学習を提案する。 特徴雑音の影響を低減するため,代用分布に基づく差分差分法を提案する。 我々は,この手法を効率の良い共同最適化を行う対向ネットワークにシームレスに変換し,データ破損と分散シフトの両方による負の影響を軽減した。 実験により,本アルゴリズムは, 雑音環境下での領域適応タスクにおいて, 精度10%以上の精度向上を実現していることがわかった。

In non-stationary environments, learning machines usually confront the domain adaptation scenario where the data distribution does change over time. Previous domain adaptation works have achieved great success in theory and practice. However, they always lose robustness in noisy environments where the labels and features of examples from the source domain become corrupted. In this paper, we report our attempt towards achieving accurate noise-robust domain adaptation. We first give a theoretical analysis that reveals how harmful noises influence unsupervised domain adaptation. To eliminate the effect of label noise, we propose an offline curriculum learning for minimizing a newly-defined empirical source risk. To reduce the impact of feature noise, we propose a proxy distribution based margin discrepancy. We seamlessly transform our methods into an adversarial network that performs efficient joint optimization for them, successfully mitigating the negative influence from both data corruption and distribution shift. A series of empirical studies show that our algorithm remarkably outperforms state of the art, over 10% accuracy improvements in some domain adaptation tasks under noisy environments.
翻訳日:2022-12-09 04:19:29 公開日:2020-05-05
# マスクR-CNNを用いた自動車損傷の評価

Assessing Car Damage using Mask R-CNN ( http://arxiv.org/abs/2004.14173v3 )

ライセンス: Link先を確認
Sarath P, Soorya M, Shaik Abdul Rahman A, S Suresh Kumar, K Devaki(参考訳) 画像に基づく車両保護処理は、機械化に非常に適した重要な領域である。 本稿では,車両の被害特性について,その分類の一部が細粒化できる問題について考察する。 この理由から深層学習に基づく手続きを考察する。 最初は cnnの準備を 合法的に試みました いずれにせよ、マークされた情報の配置がほとんどないため、うまく機能しない。 その時点で,空間の明示的な事前準備の影響と微調整について検討する。 最後に、移動学習と服装学習に関するさまざまな道を探る。 実験の結果,空間の明示的な微調整よりも移動学習が優れていることが示された。 移動と学習の混合により89.5%の精度を達成する。

Picture based vehicle protection handling is a significant region with enormous degree for mechanization. In this paper we consider the issue of vehicle harm characterization, where a portion of the classifications can be fine-granular. We investigate profound learning based procedures for this reason. At first, we attempt legitimately preparing a CNN. In any case, because of little arrangement of marked information, it doesn't function admirably. At that point, we investigate the impact of space explicit pre-preparing followed by tweaking. At last, we explore different avenues regarding move learning and outfit learning. Trial results show that move learning works superior to space explicit tweaking. We accomplish precision of 89.5% with blend of move and gathering learning.
翻訳日:2022-12-08 13:00:08 公開日:2020-05-05
# セマンティックロールラベリングのための構造化チューニング

Structured Tuning for Semantic Role Labeling ( http://arxiv.org/abs/2005.00496v2 )

ライセンス: Link先を確認
Tao Li, Parth Anand Jawale, Martha Palmer, Vivek Srikumar(参考訳) 最近のニューラルネットワーク駆動型セマンティックロールラベリング(SRL)システムでは、F1スコアが著しく改善されている。 これらの改善は、少なくとも表面的には、線形SRLモデルに役立つ知識に富んだ制約付き復号機構と直交する表現的入力表現によるものである。 神経モデルに情報を伝えるための構造の導入は方法論的な課題である。 本稿では,訓練時にのみ軟化制約を用いたモデル改善のための構造化チューニングフレームワークを提案する。 本フレームワークはニューラルネットワークの表現性を活用し,構造的損失成分の監視を行う。 まず、強いベースライン(RoBERTa)から始め、私たちのアプローチの影響を検証し、宣言的な制約に従うことを学ぶことで、私たちのフレームワークがベースラインを上回っていることを示します。 さらに、より小さなトレーニングサイズで実験した結果、低リソースシナリオで一貫した改善が得られました。

Recent neural network-driven semantic role labeling (SRL) systems have shown impressive improvements in F1 scores. These improvements are due to expressive input representations, which, at least at the surface, are orthogonal to knowledge-rich constrained decoding mechanisms that helped linear SRL models. Introducing the benefits of structure to inform neural models presents a methodological challenge. In this paper, we present a structured tuning framework to improve models using softened constraints only at training time. Our framework leverages the expressiveness of neural networks and provides supervision with structured loss components. We start with a strong baseline (RoBERTa) to validate the impact of our approach, and show that our framework outperforms the baseline by learning to comply with declarative constraints. Additionally, our experiments with smaller training sizes show that we can achieve consistent improvements under low-resource scenarios.
翻訳日:2022-12-07 23:01:53 公開日:2020-05-05
# 見出し生成の真理性向上

Improving Truthfulness of Headline Generation ( http://arxiv.org/abs/2005.00882v2 )

ライセンス: Link先を確認
Kazuki Matsumaru, Sho Takase, Naoaki Okazaki(参考訳) 抽象要約レポート ROUGE のシステムと参照要約のスコアについての研究がほとんどである。 しかし、生成された要約の真理性には懸念がある: 生成された要約のすべての事実がソーステキストで言及されているかどうか。 本稿では,2つの人気データセットを用いた見出し生成における真理性の向上について検討する。 最先端のエンコーダ・デコーダモデルによって生成された見出しを分析し、そのモデルが時に非真実な見出しを生成することを示す。 理由の1つは、モデルのトレーニングに使用される非現実的な監視データにあると推測する。 記事と見出しの対の真理を定量化するために,記事が見出しを包含するか否かのテクスト的包含を考える。 この研究は、データセットでかなりの数の非現実的なインスタンスを確認した後、非現実的なインスタンスを監督データから取り除くことで、モデルの非現実的な振る舞いの問題を改善できるという仮説を立てた。 記事とその見出しの細部関係を予測する二項分類器を構築し, 監督データから不合理な事例を抽出する。 実験結果から, フィルタ付き監視データを用いた見出し生成モデルでは, ROUGEスコアに明らかな違いはなく, 生成した見出しの自動評価および手動評価において顕著な改善が見られた。

Most studies on abstractive summarization report ROUGE scores between system and reference summaries. However, we have a concern about the truthfulness of generated summaries: whether all facts of a generated summary are mentioned in the source text. This paper explores improving the truthfulness in headline generation on two popular datasets. Analyzing headlines generated by the state-of-the-art encoder-decoder model, we show that the model sometimes generates untruthful headlines. We conjecture that one of the reasons lies in untruthful supervision data used for training the model. In order to quantify the truthfulness of article-headline pairs, we consider the textual entailment of whether an article entails its headline. After confirming quite a few untruthful instances in the datasets, this study hypothesizes that removing untruthful instances from the supervision data may remedy the problem of the untruthful behaviors of the model. Building a binary classifier that predicts an entailment relation between an article and its headline, we filter out untruthful instances from the supervision data. Experimental results demonstrate that the headline generation model trained on filtered supervision data shows no clear difference in ROUGE scores but remarkable improvements in automatic and manual evaluations of the generated headlines.
翻訳日:2022-12-07 12:44:55 公開日:2020-05-05
# CoMoGCN:グラフ表現を用いたコヒーレントモーション認識軌道予測

CoMoGCN: Coherent Motion Aware Trajectory Prediction with Graph Representation ( http://arxiv.org/abs/2005.00754v2 )

ライセンス: Link先を確認
Yuying Chen, Congcong Liu, Bertram Shi and Ming Liu(参考訳) ロボットの群集ナビゲーションや自動運転といったタスクには,人間の軌道予測が不可欠である。 社会的相互作用のモデリングは、正確な集団的動き予測にとって非常に重要である。 しかしながら、既存のほとんどの手法は、群衆内のコヒーレンスに関する情報を考慮せず、ペアの相互作用のみを考慮している。 本研究では,グループ制約のある混雑したシーンにおける軌道予測のための,コヒーレントな動き認識グラフ畳み込みネットワーク(CoMoGCN)を提案する。 まず、移動コヒーレンスに応じて歩行者軌跡をグループにクラスタリングする。 そして,グラフ畳み込みネットワークを用いて,群衆情報を効率的に収集する。 CoMoGCNはまた、変分オートエンコーダを利用して、分布をモデル化することで、人間の軌道のマルチモーダルな性質を捉える。 本手法は,様々な軌道予測ベンチマークにおいて最先端性能を達成し,すべてのベンチマークで最高の平均性能を得た。

Forecasting human trajectories is critical for tasks such as robot crowd navigation and autonomous driving. Modeling social interactions is of great importance for accurate group-wise motion prediction. However, most existing methods do not consider information about coherence within the crowd, but rather only pairwise interactions. In this work, we propose a novel framework, coherent motion aware graph convolutional network (CoMoGCN), for trajectory prediction in crowded scenes with group constraints. First, we cluster pedestrian trajectories into groups according to motion coherence. Then, we use graph convolutional networks to aggregate crowd information efficiently. The CoMoGCN also takes advantage of variational autoencoders to capture the multimodal nature of the human trajectories by modeling the distribution. Our method achieves state-of-the-art performance on several different trajectory prediction benchmarks, and the best average performance among all benchmarks considered.
翻訳日:2022-12-07 12:41:49 公開日:2020-05-05
# 長期短期記憶ネットワークとlaglassoによる債券利回り予測--ブラックボックス内の覗き込み

Long short-term memory networks and laglasso for bond yield forecasting: Peeping inside the black box ( http://arxiv.org/abs/2005.02217v1 )

ライセンス: Link先を確認
Manuel Nunes, Enrico Gerding, Frank McGroarty, Mahesan Niranjan(参考訳) 固定所得資産管理における現代の意思決定は、最先端の機械学習モデルと適切な方法論の使用を含むインテリジェントシステムから恩恵を受ける。 長期記憶(LSTM)ネットワークを用いた結合収率予測の最初の研究を行い、その可能性を検証し、そのメモリ優位性を検証した。 具体的には、3つの入力シーケンスと5つの予測水平線を持つ一変量LSTMを用いて10年間の結合収率をモデル化する。 それらを多層パーセプトロン (MLP) と比較し, 単変量および最も関連する特徴と比較した。 LSTMに付随するブラックボックスの概念をデミスティクスするために、モデルに関する最初の内部研究を行う。 この目的のために,一意および多変数のシーケンス・ツー・シーケンス・アーキテクチャを用いて,メモリセル内の選択位置におけるLSTM信号の時間的計算を行う。 そこで我々は,LSTM-LagLasso法の開発のために,外因性情報を用いた状態信号の説明を進めた。 その結果,メモリを付加した単変量LSTMモデルは,マクロ経済情報や市場情報を用いた多変量MLPと同じような結果が得られることがわかった。 さらに、より短い予測地平線はより小さな入力シーケンスと逆数を必要とする。 LSTM信号で一貫して見られる最も顕著な特性は、時間を通して単位が活性化/不活性化され、収量範囲や特徴による単位の特殊化である。 これらの信号は複雑であるが、外因性変数によって説明できる。 加えて、LSTM-LagLassoによって識別される関連する機能は、予測モデルでは一般的には使われない。 本研究は、LSTMの可能性を検証し、金融実践者のための追加のツールを提供する。

Modern decision-making in fixed income asset management benefits from intelligent systems, which involve the use of state-of-the-art machine learning models and appropriate methodologies. We conduct the first study of bond yield forecasting using long short-term memory (LSTM) networks, validating its potential and identifying its memory advantage. Specifically, we model the 10-year bond yield using univariate LSTMs with three input sequences and five forecasting horizons. We compare those with multilayer perceptrons (MLP), univariate and with the most relevant features. To demystify the notion of black box associated with LSTMs, we conduct the first internal study of the model. To this end, we calculate the LSTM signals through time, at selected locations in the memory cell, using sequence-to-sequence architectures, uni and multivariate. We then proceed to explain the states' signals using exogenous information, for what we develop the LSTM-LagLasso methodology. The results show that the univariate LSTM model with additional memory is capable of achieving similar results as the multivariate MLP using macroeconomic and market information. Furthermore, shorter forecasting horizons require smaller input sequences and vice-versa. The most remarkable property found consistently in the LSTM signals, is the activation/deactivation of units through time, and the specialisation of units by yield range or feature. Those signals are complex but can be explained by exogenous variables. Additionally, some of the relevant features identified via LSTM-LagLasso are not commonly used in forecasting models. In conclusion, our work validates the potential of LSTMs and methodologies for bonds, providing additional tools for financial practitioners.
翻訳日:2022-12-06 14:53:49 公開日:2020-05-05
# 多エネルギー需要応答の階層的アプローチ:電力から多エネルギーアプリケーションへ

A Hierarchical Approach to Multi-Energy Demand Response: From Electricity to Multi-Energy Applications ( http://arxiv.org/abs/2005.02339v1 )

ライセンス: Link先を確認
Ali Hassan, Samrat Acharya, Michael Chertkov, Deepjyoti Deka and Yury Dvorkin(参考訳) エネルギー効率対策の増大と再生可能エネルギー資源の可用性により、消費者の行動が柔軟性がないという前提の下で、従来のエネルギーインフラシステム(電力、熱、ガス)は、適切なインセンティブの見返りに調整できないという仮定の下で、集中的に運用することはできない。 集中的でない運用パラダイムを実現するために、消費者の視点と能力は現在のディスパッチプラクティスに統合され、システムだけでなく個々の消費者レベルで異なるエネルギー源を切り替える上でも考慮すべきである。 消費者は、異なる構築環境に閉じ込められているため、多くの住宅、商業、産業の消費者の集合体のエネルギー消費を、アンサンブルに制御する機会を探る。 このアンサンブル制御は、マルチエネルギーインフラシステムのモデリングツールのセットへの現代的な需要応答となる。

Due to proliferation of energy efficiency measures and availability of the renewable energy resources, traditional energy infrastructure systems (electricity, heat, gas) can no longer be operated in a centralized manner under the assumption that consumer behavior is inflexible, i.e. cannot be adjusted in return for an adequate incentive. To allow for a less centralized operating paradigm, consumer-end perspective and abilities should be integrated in current dispatch practices and accounted for in switching between different energy sources not only at the system but also at the individual consumer level. Since consumers are confined within different built environments, this paper looks into an opportunity to control energy consumption of an aggregation of many residential, commercial and industrial consumers, into an ensemble. This ensemble control becomes a modern demand response contributor to the set of modeling tools for multi-energy infrastructure systems.
翻訳日:2022-12-06 14:53:21 公開日:2020-05-05
# ゲノム・臨床データの統合理論とデータ駆動モデリングのためのパイプライン

A Pipeline for Integrated Theory and Data-Driven Modeling of Genomic and Clinical Data ( http://arxiv.org/abs/2005.02521v1 )

ライセンス: Link先を確認
Vineet K Raghu, Xiaoyu Ge, Arun Balajee, Daniel J. Shirer, Isha Das, Panayiotis V. Benos, and Panos K. Chrysanthis(参考訳) rna-seqやマイクロアレイなどの高スループットゲノムシークエンシング技術は、ゲノムの高スループット測定を粒度レベルで可能にし、臨床意思決定や生医学研究を変革する可能性を秘めている。 しかし、病気の原因と医療介入の影響を真に理解するには、このデータは個人の表現型、環境、行動データと統合する必要がある。 さらに、これらのデータ型間の関係を推測できる効果的な知識発見手法が必要である。 本研究では,統合ゲノム・臨床データから知識発見のためのパイプラインを提案する。 パイプラインは、新しい変数選択方法から始まり、確率的グラフィカルモデルを使用して、データ内の機能間の関係を理解する。 このパイプラインが乳癌の予後予測モデルをどのように改善するかを実証し、シークエンシングデータの生物学的に解釈可能なビューを提供する。

High throughput genome sequencing technologies such as RNA-Seq and Microarray have the potential to transform clinical decision making and biomedical research by enabling high-throughput measurements of the genome at a granular level. However, to truly understand causes of disease and the effects of medical interventions, this data must be integrated with phenotypic, environmental, and behavioral data from individuals. Further, effective knowledge discovery methods that can infer relationships between these data types are required. In this work, we propose a pipeline for knowledge discovery from integrated genomic and clinical data. The pipeline begins with a novel variable selection method, and uses a probabilistic graphical model to understand the relationships between features in the data. We demonstrate how this pipeline can improve breast cancer outcome prediction models, and can provide a biologically interpretable view of sequencing data.
翻訳日:2022-12-06 14:53:06 公開日:2020-05-05
# グループテストのための応用指向数理アルゴリズム

Application-oriented mathematical algorithms for group testing ( http://arxiv.org/abs/2005.02388v1 )

ライセンス: Link先を確認
Endre Cs\'oka(参考訳) 多数のサンプルがあり、できるだけ少数のテストを使用して、感染したサンプルを見つけたいと思っています。 グループテストを使えば、少なくとも1人が感染しているかどうかを、少数のグループに伝えることができます。 集団検査は感染率が低い場合は特に効率的である。 本稿の目的は、最も効率的なグループテストアルゴリズムに関する数学的知識を要約し、拡張することであり、純粋に数学的モチベーションやアプローチではなく、現実のアプリケーションに焦点を当てることである。

We have a large number of samples and we want to find the infected ones using as few number of tests as possible. We can use group testing which tells about a small group of people whether at least one of them is infected. Group testing is particularly efficient if the infection rate is low. The goal of this article is to summarize and extend the mathematical knowledge about the most efficient group testing algorithms, focusing on real-life applications instead of pure mathematical motivations and approaches.
翻訳日:2022-12-06 14:43:30 公開日:2020-05-05
# 太陽フレア予測システムの設計と評価のための枠組み

A Framework for Designing and Evaluating Solar Flare Forecasting Systems ( http://arxiv.org/abs/2005.02493v1 )

ライセンス: Link先を確認
T. Cinto (1 and 2), A. L. S. Gradvohl (1), G. P. Coelho (1), A. E. A. da Silva (1) ((1) School of Technology - FT, University of Campinas - UNICAMP, Limeira, SP, Brazil, (2) Federal Institute of Education, Science and Technology of Rio Grande do Sul - IFRS, Campus Feliz, RS, Brazil)(参考訳) 宇宙気象の混乱は、航空や航空宇宙、衛星、石油やガス産業、電気システムなどいくつかの分野に悪影響を及ぼし、経済的・商業的な損失をもたらす。 太陽フレアは地球の大気に影響を与える最も重要な事象であり、研究者は予測に力を注いでいる。 関連する文献は包括的であり、フレア予測のために提案されたいくつかのシステムを持っている。 しかし、ほとんどの技術は特定の目的のために設計されており、データ入力の変化や予測アルゴリズムの変更を研究者がカスタマイズすることはできない。 本稿では,有望な結果を示すフレア予測システムを設計,訓練,評価するための枠組みを提案する。 提案するフレームワークは,モデル選択,機能選択,ランダム化ハイパーパラメータ最適化,データ再サンプリング,運用環境評価を含む。 ベースライン予測と比較して,0.70~0.75の正のリコールを持つ概念実証モデルを作成し,96時間前までのクラスフレアを96時間前まで予測し,roc曲線スコア以下の領域を高いレベルに維持した。

Disturbances in space weather can negatively affect several fields, including aviation and aerospace, satellites, oil and gas industries, and electrical systems, leading to economic and commercial losses. Solar flares are the most significant events that can affect the Earth's atmosphere, thus leading researchers to drive efforts on their forecasting. The related literature is comprehensive and holds several systems proposed for flare forecasting. However, most techniques are tailor-made and designed for specific purposes, not allowing researchers to customize them in case of changes in data input or in the prediction algorithm. This paper proposes a framework to design, train, and evaluate flare prediction systems which present promising results. Our proposed framework involves model and feature selection, randomized hyper-parameters optimization, data resampling, and evaluation under operational settings. Compared to baseline predictions, our framework generated some proof-of-concept models with positive recalls between 0.70 and 0.75 for forecasting $\geq M$ class flares up to 96 hours ahead while keeping the area under the ROC curve score at high levels.
翻訳日:2022-12-06 14:43:20 公開日:2020-05-05
# 時系列を画像として符号化するトラヒックデータインプテーションのための深層畳み込み生成逆ネットワーク

Deep convolutional generative adversarial networks for traffic data imputation encoding time series as images ( http://arxiv.org/abs/2005.04188v1 )

ライセンス: Link先を確認
Tongge Huang, Pranamesh Chakraborty, Anuj Sharma(参考訳) 十分な品質の交通データは、混雑予測、速度予測、インシデント検出、その他の交通操作タスクに関連する様々なインテリジェント交通システム(its)アプリケーションおよび研究の重要な要素である。 しかしながら,センサデータの欠落は,故障,メンテナンス不良,キャリブレーション不良,断続的通信など,いくつかの理由により避けられない問題である。 このようなデータ不足は、データ分析と意思決定を複雑かつ困難にすることが多い。 本研究では,現実的な合成データを生成することにより,損失データを効率的に再構築する,GANベースの交通センサデータ計算フレームワーク(TSDIGAN)を開発した。 近年、GANは画像データ生成において顕著な成功を収めている。 しかし,GANに基づくモデリングを利用してトラフィックデータを生成することは,交通データが強い時間依存性を持つため,難しい課題である。 この問題に対処するために,交通時系列データ生成の問題を画像生成に変換する,GASF(Gramian Angular Summation Field)と呼ばれる新しい時間依存符号化手法を提案する。 我々は,Caltrans Performance Management Systems(PeMS)が提供するベンチマークデータセットを用いて,提案モデルの評価と検証を行った。 本研究は,提案モデルが平均絶対誤差 (mae) とルート平均二乗誤差 (rmse) の観点から,ベンチマークデータセットの最先端モデルと比較して,トラヒックデータインプテーション精度を大幅に向上できることを示す。 さらに,提案モデルのロバスト性や効率性を示す非常に高いデータレート (>$50\%) の下でも,インプテーションタスクにおいて合理的に高い精度を実現する。

Sufficient high-quality traffic data are a crucial component of various Intelligent Transportation System (ITS) applications and research related to congestion prediction, speed prediction, incident detection, and other traffic operation tasks. Nonetheless, missing traffic data are a common issue in sensor data which is inevitable due to several reasons, such as malfunctioning, poor maintenance or calibration, and intermittent communications. Such missing data issues often make data analysis and decision-making complicated and challenging. In this study, we have developed a generative adversarial network (GAN) based traffic sensor data imputation framework (TSDIGAN) to efficiently reconstruct the missing data by generating realistic synthetic data. In recent years, GANs have shown impressive success in image data generation. However, generating traffic data by taking advantage of GAN based modeling is a challenging task, since traffic data have strong time dependency. To address this problem, we propose a novel time-dependent encoding method called the Gramian Angular Summation Field (GASF) that converts the problem of traffic time-series data generation into that of image generation. We have evaluated and tested our proposed model using the benchmark dataset provided by Caltrans Performance Management Systems (PeMS). This study shows that the proposed model can significantly improve the traffic data imputation accuracy in terms of Mean Absolute Error (MAE) and Root Mean Squared Error (RMSE) compared to state-of-the-art models on the benchmark dataset. Further, the model achieves reasonably high accuracy in imputation tasks even under a very high missing data rate ($>$ 50\%), which shows the robustness and efficiency of the proposed model.
翻訳日:2022-12-06 14:43:00 公開日:2020-05-05
# スマートグリッドの自己維持のための高度なコンピュータビジョン技術を備えた空飛ぶロボットの新しい設計

A new design of a flying robot, with advanced computer vision techniques to perform self-maintenance of smart grids ( http://arxiv.org/abs/2005.02460v1 )

ライセンス: Link先を確認
Abdullatif Baba(参考訳) 本稿では,送電網部品の状態を調査し,認識可能な各故障や欠陥に応じて適切なメンテナンス手順を実行するために,飛行ロボットの完全な設計を提案する。 この目的を達成するために、この設計には熱と空中の視覚システムを含む様々な種類のセンサーが使用されている。 このロボットの主な特徴と技術的仕様は、ここで詳述され、議論されている。 ロボットの周囲から読み出しや測定を行うため、本研究で本質的で先進的なコンピュータビジョン技術が活用されている。 各画像から、離散ウェーブレット変換に依存する新しい領域提案手法を用いて、異なる電気成分を含む多くのサブイメージを抽出し、後に畳み込みニューラルネットワークを用いて分類する。

In this paper, we present a full design of a flying robot to investigate the state of power grid components and to perform the appropriate maintenance procedures according to each fail or defect that could be recognized. To realize this purpose; different types of sensors including thermal and aerial vision-based systems are employed in this design. The main features and technical specifications of this robot are presented and discussed here in detail. Some essential and advanced computer vision techniques are exploited in this work to take some readings and measurements from the robot's surroundings. From each given image, many sub-images containing different electrical components are extracted using a new region proposal approach that relies on Discrete Wavelet Transform, to be classified later by utilizing a Convolutional Neural Network.
翻訳日:2022-12-06 14:42:29 公開日:2020-05-05
# 断層木解析:MaxSATによる最大確率最小カットセットの同定

Fault Tree Analysis: Identifying Maximum Probability Minimal Cut Sets with MaxSAT ( http://arxiv.org/abs/2005.03003v1 )

ライセンス: Link先を確認
Mart\'in Barr\`ere and Chris Hankin(参考訳) 本稿では,断層木における最大確率最小カットセット(MPMCS)を計算するためのMaxSATベースの新しい手法を提案する。 我々は,MPMCS問題を重み付き部分最大SAT問題としてモデル化し,並列SAT解決アーキテクチャを用いて解決する。 オープンソースツールで得られた結果は,このアプローチが効率的かつ効率的であることを示している。

In this paper, we present a novel MaxSAT-based technique to compute Maximum Probability Minimal Cut Sets (MPMCSs) in fault trees. We model the MPMCS problem as a Weighted Partial MaxSAT problem and solve it using a parallel SAT-solving architecture. The results obtained with our open source tool indicate that the approach is effective and efficient.
翻訳日:2022-12-06 14:42:16 公開日:2020-05-05
# 深層学習による健常者および障害者の筋腱接合部の自動追跡

Automatic Tracking of the Muscle Tendon Junction in Healthy and Impaired Subjects using Deep Learning ( http://arxiv.org/abs/2005.02071v1 )

ライセンス: Link先を確認
Christoph Leitner, Robert Jarolim, Andreas Konrad, Annika Kruse, Markus Tilp, J\"org Schr\"ottner, Christian Baumgartner(参考訳) 運動中の筋腱接合部変位の記録は、それぞれ筋と腱の挙動を別々に調べられる。 超音波画像における筋腱接合位置を検出するために,新しい深層学習手法を用いて全自動追跡法を提案する。 注意機構を利用して,ネットワークが関連する領域に集中できるようにし,その結果をよりよく解釈する。 データセットは, 健常者79名, 運動制限28名からなる大きなコホートからなり, 受動的全幅運動と最大収縮運動を行う。 トレーニングしたネットワークは, 平均絶対誤差2.55$\pm$1 mmの様々な品質の様々なデータセット上で, 筋腱接合を頑健に検出した。 提案手法は様々な分野に適用可能であり,リアルタイムに運用可能であることを示す。 完全なソフトウェアパッケージは、https://github.com/luuleitner/deepMTJを介してオープンソースで利用できる。

Recording muscle tendon junction displacements during movement, allows separate investigation of the muscle and tendon behaviour, respectively. In order to provide a fully-automatic tracking method, we employ a novel deep learning approach to detect the position of the muscle tendon junction in ultrasound images. We utilize the attention mechanism to enable the network to focus on relevant regions and to obtain a better interpretation of the results. Our data set consists of a large cohort of 79 healthy subjects and 28 subjects with movement limitations performing passive full range of motion and maximum contraction movements. Our trained network shows robust detection of the muscle tendon junction on a diverse data set of varying quality with a mean absolute error of 2.55$\pm$1 mm. We show that our approach can be applied for various subjects and can be operated in real-time. The complete software package is available for open-source use via: https://github.com/luuleitner/deepMTJ
翻訳日:2022-12-06 14:42:10 公開日:2020-05-05
# 画像テクスチャ分類のためのモーダル特徴

Modal features for image texture classification ( http://arxiv.org/abs/2005.01928v1 )

ライセンス: Link先を確認
Thomas Lacombe, Hugues Favreliere, Maurice Pillet(参考訳) 特徴抽出は、パターン認識と機械学習プロセスのための画像処理における重要なステップである。 その目的は、元の情報を正確に記述する特徴の計算を通じて入力データの次元を減少させることである。 本稿では,離散モード分解(DMD)に基づく特徴抽出手法を導入し,空間的特徴群と周波数的特徴群を拡張した。 これらの新機能はModal featuresと呼ばれる。 当初、振動力学問題から構築されたモーダルベースに信号を分解することを目的として、DMDプロジェクションを画像に適用し、2つのアプローチでモーダル特徴を抽出する。 最初のdmdは完全なdmdと呼ばれ、分解された座標を直接特徴として利用する。 2つ目のDMDは、DMDモードをフィルタとして使用して、局所的な変換プロセスを通じて特徴を得る。 いくつかの古典的特徴抽出法と比較して,画像テクスチャ分類タスクにおいて,複数の広く使用されているデータベースを含む実験を行う。 dmdアプローチは,より低い抽出時間で,最先端の技術技術に匹敵する優れた分類性能を達成できることを示す。

Feature extraction is a key step in image processing for pattern recognition and machine learning processes. Its purpose lies in reducing the dimensionality of the input data through the computing of features which accurately describe the original information. In this article, a new feature extraction method based on Discrete Modal Decomposition (DMD) is introduced, to extend the group of space and frequency based features. These new features are called modal features. Initially aiming to decompose a signal into a modal basis built from a vibration mechanics problem, the DMD projection is applied to images in order to extract modal features with two approaches. The first one, called full scale DMD, consists in exploiting directly the decomposition resulting coordinates as features. The second one, called filtering DMD, consists in using the DMD modes as filters to obtain features through a local transformation process. Experiments are performed on image texture classification tasks including several widely used data bases, compared to several classic feature extraction methods. We show that the DMD approach achieves good classification performances, comparable to the state of the art techniques, with a lower extraction time.
翻訳日:2022-12-06 14:37:35 公開日:2020-05-05
# 小規模,スパースな,しかし実質的な:スパースな土地データを用いた小規模農地の分別技術

Small, Sparse, but Substantial: Techniques for Segmenting Small Agricultural Fields Using Sparse Ground Data ( http://arxiv.org/abs/2005.01947v1 )

ライセンス: Link先を確認
Smit Marvaniya, Umamaheswari Devi, Jagabondhu Hazra, Shashank Mujumdar and Nitin Gupta(参考訳) 近年のデジタル農業(DA)の推進により、農業分野の自動化に関する研究が活発化している。 この問題に取り組むほとんどの以前の研究は中規模から大規模のフィールドの検出に重点を置いてきたが、アジアとアフリカのフィールドの約40%と70%は小さいという強い証拠がある。 小フィールドに対する適切なラベル付き画像の欠如,色,テクスチャ,形状の相違,境界線を分離することで,そのようなフィールドを検出するエンド・ツー・エンドの学習モデルの開発が困難になる。 そこで本稿では,機械学習と画像処理を組み合わせた多段階アプローチを提案する。 第1段階では,HED(holistically-nested edge detection)などの最先端エッジ検出アルゴリズムを利用して,第1レベルの輪郭やポリゴンを抽出する。 第2段階では、非場、過分割、ノイズであるポリゴンを識別し、除去する画像処理手法を提案する。 次の段階は、新しい ``cut-point'' ベースの技術とローカライズされた第2レベルのエッジ検出を組み合わせて、個々の小包を得るアンダーセグメンテーションに取り組む。 最終段階では、前段から農耕地として識別する分類器を訓練する。 高分解能画像を用いた評価では,Fスコアが0.84で,Fスコアが0.73,小フィールドが0.84,小フィールドが0.84である。

The recent thrust on digital agriculture (DA) has renewed significant research interest in the automated delineation of agricultural fields. Most prior work addressing this problem have focused on detecting medium to large fields, while there is strong evidence that around 40\% of the fields world-wide and 70% of the fields in Asia and Africa are small. The lack of adequate labeled images for small fields, huge variations in their color, texture, and shape, and faint boundary lines separating them make it difficult to develop an end-to-end learning model for detecting such fields. Hence, in this paper, we present a multi-stage approach that uses a combination of machine learning and image processing techniques. In the first stage, we leverage state-of-the-art edge detection algorithms such as holistically-nested edge detection (HED) to extract first-level contours and polygons. In the second stage, we propose image-processing techniques to identify polygons that are non-fields, over-segmentations, or noise and eliminate them. The next stage tackles under-segmentations using a combination of a novel ``cut-point'' based technique and localized second-level edge detection to obtain individual parcels. Since a few small, non-cropped but vegetated or constructed pockets can be interspersed in areas that are predominantly croplands, in the final stage, we train a classifier for identifying each parcel from the previous stage as an agricultural field or not. In an evaluation using high-resolution imagery, we show that our approach has a high F-Score of 0.84 in areas with large fields and reasonable accuracy with an F-Score of 0.73 in areas with small fields, which is encouraging.
翻訳日:2022-12-06 14:37:18 公開日:2020-05-05
# NTIRE 2020 : 実世界の超解像への挑戦:方法と結果

NTIRE 2020 Challenge on Real-World Image Super-Resolution: Methods and Results ( http://arxiv.org/abs/2005.01996v1 )

ライセンス: Link先を確認
Andreas Lugmayr, Martin Danelljan, Radu Timofte, Namhyuk Ahn, Dongwoon Bai, Jie Cai, Yun Cao, Junyang Chen, Kaihua Cheng, SeYoung Chun, Wei Deng, Mostafa El-Khamy, Chiu Man Ho, Xiaozhong Ji, Amin Kheradmand, Gwantae Kim, Hanseok Ko, Kanghyu Lee, Jungwon Lee, Hao Li, Ziluan Liu, Zhi-Song Liu, Shuai Liu, Yunhua Lu, Zibo Meng, Pablo Navarrete Michelini, Christian Micheloni, Kalpesh Prajapati, Haoyu Ren, Yong Hyeok Seo, Wan-Chi Siu, Kyung-Ah Sohn, Ying Tai, Rao Muhammad Umer, Shuangquan Wang, Huibing Wang, Timothy Haoning Wu, Haoning Wu, Biao Yang, Fuzhi Yang, Jaejun Yoo, Tongtong Zhao, Yuanbo Zhou, Haijie Zhuo, Ziyao Zong, Xueyi Zou(参考訳) 本稿は,NTIRE 2020における現実世界の超解像に関する課題を概観する。 参加方法と最終結果に焦点を当てている。 この課題は、真の高解像度画像と低解像度画像のペアが利用できない現実世界の設定に対処する。 そのため、トレーニングには、1組のソース入力画像と1セットの高品質なターゲット画像のみが提供される。 Track 1: 画像処理アーティファクトでは、合成生成された画像処理アーティファクトで画像を超解する。 これにより、接地画像に対するアプローチの定量的ベンチマークが可能となる。 トラック2: スマートフォンの画像では、真の低品質のスマートフォン画像が解決されなければならない。 両方のトラックにおいて、究極のゴールは人間の研究を用いて評価された最高の知覚品質を達成することである。 これはaim 2019に続く2番目の課題であり、最先端の超高解像度化を目標としている。 パフォーマンスの測定には、AIM 2019のベンチマークプロトコルを使用します。 合計22チームが最終テストフェーズに参加し、新しい革新的な解決策を実証した。

This paper reviews the NTIRE 2020 challenge on real world super-resolution. It focuses on the participating methods and final results. The challenge addresses the real world setting, where paired true high and low-resolution images are unavailable. For training, only one set of source input images is therefore provided along with a set of unpaired high-quality target images. In Track 1: Image Processing artifacts, the aim is to super-resolve images with synthetically generated image processing artifacts. This allows for quantitative benchmarking of the approaches \wrt a ground-truth image. In Track 2: Smartphone Images, real low-quality smart phone images have to be super-resolved. In both tracks, the ultimate goal is to achieve the best perceptual quality, evaluated using a human study. This is the second challenge on the subject, following AIM 2019, targeting to advance the state-of-the-art in super-resolution. To measure the performance we use the benchmark protocol from AIM 2019. In total 22 teams competed in the final testing phase, demonstrating new and innovative solutions to the problem.
翻訳日:2022-12-06 14:36:04 公開日:2020-05-05
# 警戒運転者の行動認識のためのアイリスセグメンテーション技術

Iris segmentation techniques to recognize the behavior of a vigilant driver ( http://arxiv.org/abs/2005.02450v1 )

ライセンス: Link先を確認
Abdullatif Baba(参考訳) 本稿では,車両運転者に対する警戒レベルの違いを認識する方法を明らかにする。 クラップ論理の古典的な問題を避けるため、我々は2変数に依存するファジィ論理ベースのシステムを用いて最終決定を行うことを好んだ。 2つの虹彩分割技術がよく示されている。 また, 瞳孔位置検出のための新しい手法として, 雑音のある場合に瞳孔位置を補正する手法も提案されている。

In this paper, we clarify how to recognize different levels of vigilance for vehicle drivers. In order to avoid the classical problems of crisp logic, we preferred to employ a fuzzy logic-based system that depends on two variables to make the final decision. Two iris segmentation techniques are well illustrated. A new technique for pupil position detection is also provided here with the possibility to correct the pupil detected position when dealing with some noisy cases.
翻訳日:2022-12-06 14:35:05 公開日:2020-05-05
# 奇跡:GAN研究の再現に向けて

Mimicry: Towards the Reproducibility of GAN Research ( http://arxiv.org/abs/2005.02494v1 )

ライセンス: Link先を確認
Kwot Sin Lee, Christopher Town(参考訳) GAN(Generative Adversarial Networks)研究の進展には、既存の研究と慎重に正確な比較が必要である。 しかし、モデルが異なるフレームワークを使用して異なる方法で実装され、同じメトリックが使われている場合でも異なる手順で評価される場合、実際にこれを達成するのは困難である。 これらの問題を緩和するため、文献に報告されたスコアを忠実に再現するために、人気のある最先端のGANの実装と評価指標を提供する軽量PyTorchライブラリであるMimicryを紹介した。 我々は、これらのGANを同じ条件下でトレーニングし、同じ手順を用いて3つの一般的なGANメトリクスにわたって評価することにより、異なるGANの総合的なベースライン性能を7つの広く使用されているデータセット上で提供する。 ライブラリはhttps://github.com/kwotsin/mimicryにある。

Advancing the state of Generative Adversarial Networks (GANs) research requires one to make careful and accurate comparisons with existing works. Yet, this is often difficult to achieve in practice when models are often implemented differently using varying frameworks, and evaluated using different procedures even when the same metric is used. To mitigate these issues, we introduce Mimicry, a lightweight PyTorch library that provides implementations of popular state-of-the-art GANs and evaluation metrics to closely reproduce reported scores in the literature. We provide comprehensive baseline performances of different GANs on seven widely-used datasets by training these GANs under the same conditions, and evaluating them across three popular GAN metrics using the same procedures. The library can be found at https://github.com/kwotsin/mimicry.
翻訳日:2022-12-06 14:34:57 公開日:2020-05-05
# 深層学習モデルを用いたベトナム種の自動植物画像同定

Automatic Plant Image Identification of Vietnamese species using Deep Learning Models ( http://arxiv.org/abs/2005.02832v1 )

ライセンス: Link先を確認
Nguyen Van Hieu, Ngo Le Huy Hien(参考訳) 自然生態系における何千もの植物種を区別することは複雑であり、この問題に対処するために多くの研究がなされている。 ベトナムでは、12,000種から1種を識別するには、徹底した訓練技術と深い知識を持つ植物管理の専門家が必要である。 そのため, 機械学習の進歩に伴い, 植物学者, 医薬品研究所, 分類学者, 林業サービス, 組織など, 様々な利害関係者の利益を得るために, 自動植物識別システムが提案されている。 このコンセプトは、機械学習とコンピュータビジョンの分野における、グローバル研究者とエンジニアによる研究と応用への興味を刺激している。 本稿では,ベトナムの植物生物のオンライン百科事典と『生命百科事典』からベトナム植物画像データセットを収集し,ベトナムの植物109種について総計28,046枚の環境画像を作成した。 MobileNetV2, VGG16, ResnetV2, Inception Resnet V2 の4つの深層畳み込み特徴抽出モデルの比較評価を行った。 これらのモデルは、植物画像識別のために、SVM(Support Vector Machine)分類器でテストされている。 提案されたモデルは高い認識率を達成し、MobilenetV2は83.9%で最高に達した。 この結果は、機械学習モデルが自然環境における植物種同定の可能性を示し、将来の研究は、現在のアプリケーション需要を満たすために、より大きなデータセット上でより高精度なシステムを提案する必要があることを示している。

It is complicated to distinguish among thousands of plant species in the natural ecosystem, and many efforts have been investigated to address the issue. In Vietnam, the task of identifying one from 12,000 species requires specialized experts in flora management, with thorough training skills and in-depth knowledge. Therefore, with the advance of machine learning, automatic plant identification systems have been proposed to benefit various stakeholders, including botanists, pharmaceutical laboratories, taxonomists, forestry services, and organizations. The concept has fueled an interest in research and application from global researchers and engineers in both fields of machine learning and computer vision. In this paper, the Vietnamese plant image dataset was collected from an online encyclopedia of Vietnamese organisms, together with the Encyclopedia of Life, to generate a total of 28,046 environmental images of 109 plant species in Vietnam. A comparative evaluation of four deep convolutional feature extraction models, which are MobileNetV2, VGG16, ResnetV2, and Inception Resnet V2, is presented. Those models have been tested on the Support Vector Machine (SVM) classifier to experiment with the purpose of plant image identification. The proposed models achieve promising recognition rates, and MobilenetV2 attained the highest with 83.9%. This result demonstrates that machine learning models are potential for plant species identification in the natural environment, and future works need to examine proposing higher accuracy systems on a larger dataset to meet the current application demand.
翻訳日:2022-12-06 14:34:40 公開日:2020-05-05
# 線形制約をSATにエンコードする

Encoding Linear Constraints into SAT ( http://arxiv.org/abs/2005.02073v1 )

ライセンス: Link先を確認
Ignasi Ab\'io, Valentin Mayer-Eichberger, Peter Stuckey(参考訳) 線形整数制約は、多くの実用的な応用で一般的に見られるため、組合せ問題において最も重要な制約の一つである。 通常、接続正規形式のブール満足度(SAT)形式への符号化は、SATモジュロ理論(SMT)や遅延節生成(LCG)、混合整数プログラミング(MIP)の解法と比較すると、これらの制約で問題となる。 本稿では,線形整数制約に対するSAT符号化の検討と分類を行う。 複数値決定図とソートネットワークに基づく新しいSAT符号化を定義する。 線形制約の異なるsat符号化を比較し、他の制約よりも望ましい場所を示す。 また、SATエンコーディングを他の解法と比較し、線形整数(MIP)ソルバよりも良い値を示し、時にはLCGやSMTソルバよりも良い値を示す。 新しいエンコーディングと遅延分解の組み合わせは、実行時に発生する解決プロセスにおいて重要な制約のみをエンコードするものであり、線形制約を含む多くの高組合せ問題に対して最適な選択肢となる。

Linear integer constraints are one of the most important constraints in combinatorial problems since they are commonly found in many practical applications. Typically, encodings to Boolean satisfiability (SAT) format of conjunctive normal form perform poorly in problems with these constraints in comparison with SAT modulo theories (SMT), lazy clause generation (LCG) or mixed integer programming (MIP) solvers. In this paper we explore and categorize SAT encodings for linear integer constraints. We define new SAT encodings based on multi-valued decision diagrams, and sorting networks. We compare different SAT encodings of linear constraints and demonstrate where one may be preferable to another. We also compare SAT encodings against other solving methods and show they can be better than linear integer (MIP) solvers and sometimes better than LCG or SMT solvers on appropriate problems. Combining the new encoding with lazy decomposition, which during runtime only encodes constraints that are important to the solving process that occurs, gives the best option for many highly combinatorial problems involving linear constraints.
翻訳日:2022-12-06 14:27:06 公開日:2020-05-05
# クラスタ化短経路木問題に対するランダム化グリーディアルゴリズムに基づくヒューリスティックス

A Heuristic Based on Randomized Greedy Algorithms for the Clustered Shortest-Path Tree Problem ( http://arxiv.org/abs/2005.04095v1 )

ライセンス: Link先を確認
Pham Dinh Thanh, Huynh Thi Thanh Binh, Do Dinh Dac, Nguyen Binh Long, Le Minh Hai Phong(参考訳) rgas (randomized greedy algorithms) は、ランダムプロセスと欲望アルゴリズムを組み込んだ組合せ最適化の問題だけでなく、構造がよく理解されていない問題を解くための興味深いアプローチである。 本稿では,rgas と shortest path tree algorithm (spta) の主な特徴を統合し,クラスタ化された shortest-path tree problem (cluspt) に対処する新しいアルゴリズムを提案する。 本アルゴリズムでは,各クラスタの最短経路木を決定するためにSPTAを用い,RGAの特性とSPTAの探索戦略を組み合わせてクラスタを接続するエッジを構築する。 提案アルゴリズムの性能を評価するために,ユークリッドベンチマークが選択される。 実験により,既存のアルゴリズムと比較して提案アルゴリズムの強みが示された。 また,パラメータがアルゴリズムの性能に与える影響についても検討した。

Randomized Greedy Algorithms (RGAs) are interesting approaches to solve problems whose structures are not well understood as well as problems in combinatorial optimization which incorporate the random processes and the greedy algorithms. This paper introduces a new algorithm that combines the major features of RGAs and Shortest Path Tree Algorithm (SPTA) to deal with the Clustered Shortest-Path Tree Problem (CluSPT). In our algorithm, SPTA is used to determine the shortest path tree in each cluster while the combination between characteristics of the RGAs and search strategy of SPTA is used to constructed the edges connecting clusters. To evaluate the performance of the proposed algorithm, Euclidean benchmarks are selected. The experimental investigations show the strengths of the proposed algorithm in comparison with some existing algorithms. We also analyze the influence of the parameters on the performance of the algorithm.
翻訳日:2022-12-06 14:26:34 公開日:2020-05-05
# ヒト-ncov蛋白質間相互作用ネットワークの計算モデル

Computational modeling of Human-nCoV protein-protein interaction network ( http://arxiv.org/abs/2005.04108v1 )

ライセンス: Link先を確認
Sovan Saha, Anup Kumar Halder, Soumyendu Sekhar Bandyopadhyay, Piyali Chatterjee, Mita Nasipuri and Subhadip Basu(参考訳) 新型コロナウイルスは、2020年に死亡率と死亡率の高い世界的なパンデミックを生み出した。 重症急性呼吸器症候群(sars-cov2)とも呼ばれる新型コロナウイルス(ncov)がこの致命的な疾患の原因となっている。 国際ウイルス分類委員会(ictv)は2003年のsars-cov流行と非常に遺伝的に類似していると宣言している(類似度89%)。 臨床的に検証されたヒト-ncovタンパク質の相互作用データの数は限定的である。 本研究は,実験により検証されたSARS-CoV-Humanタンパク質相互作用を用いて,nCoV-Humanタンパク質相互作用ネットワークの計算モデルの開発に焦点を当てる。 当初、レベル1およびレベル2ヒトスプレッダータンパク質は、SARS-CoV-Human相互作用ネットワークにおいて、Susceptible-Infected-Susceptible (SIS)モデルを用いて同定される。 これらのタンパク質は、nCoV餌タンパク質の潜在的なヒト標的と考えられている。 遺伝子オントロジーに基づくファジィ親和性機能は、99.98%の特異性閾値でnCoV-Humanタンパク質相互作用ネットワークを構築するために使用されている。 これはまた、ヒトタンパク質相互作用ネットワークにおけるCOVID-19のレベル1ヒトスプレッダーを同定する。 その後、レベル2ヒトスプレッドラーはSISモデルを用いて同定される。 引き起こされた宿主-病原体相互作用ネットワークは、既知の薬物標的タンパク質と同定されたスプレッダータンパク質との間に大きな重なりを持つ7つのFDAが指定する新型コロナウイルスの薬物を用いて最終的に検証される。

COVID-19 has created a global pandemic with high morbidity and mortality in 2020. Novel coronavirus (nCoV), also known as Severe Acute Respiratory Syndrome Coronavirus 2 (SARS-CoV2), is responsible for this deadly disease. International Committee on Taxonomy of Viruses (ICTV) has declared that nCoV is highly genetically similar to SARS-CoV epidemic in 2003 (89% similarity). Limited number of clinically validated Human-nCoV protein interaction data is available in the literature. With this hypothesis, the present work focuses on developing a computational model for nCoV-Human protein interaction network, using the experimentally validated SARS-CoV-Human protein interactions. Initially, level-1 and level-2 human spreader proteins are identified in SARS-CoV-Human interaction network, using Susceptible-Infected-Susceptible (SIS) model. These proteins are considered as potential human targets for nCoV bait proteins. A gene-ontology based fuzzy affinity function has been used to construct the nCoV-Human protein interaction network at 99.98% specificity threshold. This also identifies the level-1 human spreaders for COVID-19 in human protein-interaction network. Level-2 human spreaders are subsequently identified using the SIS model. The derived host-pathogen interaction network is finally validated using 7 potential FDA listed drugs for COVID-19 with significant overlap between the known drug target proteins and the identified spreader proteins.
翻訳日:2022-12-06 14:26:21 公開日:2020-05-05
# 説明可能なai技術を用いたcovid-19拡散要因の検討

An Investigation of COVID-19 Spreading Factors with Explainable AI Techniques ( http://arxiv.org/abs/2005.06612v1 )

ライセンス: Link先を確認
Xiuyi Fan, Siyuan Liu, Jiarong Chen, Thomas C. Henderson(参考訳) 2019年12月に初めて確認されて以来、世界中の公衆衛生介入が実施されている。 異なる時期に異なる措置が実施されているため、22/01/2020~02/04/2020のデータを用いて18カ国・地域で実施されている措置の相対的な効果を評価する。 我々は、この期間に調査された国や地域にとって最も有効であるトップ1と2つの対策を計算した。 2つの説明可能なAI技術、SHAPとECPIを用いて、即時複製数(R_t$)を予測するための(機械学習)モデルを構築し、それらのモデルを現実世界の代理として使用し、我々のモデルに対する最大の影響を最も効果的に捉えていると入力する。 道路横断、都市封鎖、接触追跡は2つの最も効果的な手段である。 R_t<1$を確保するためには、フェイスマスクの公衆着用も重要である。 質量試験だけでは最も効果的な測定ではないが、他の測定値と組み合わせれば有効である。 温かい温度は伝達を減少させるのに役立つ。

Since COVID-19 was first identified in December 2019, various public health interventions have been implemented across the world. As different measures are implemented at different countries at different times, we conduct an assessment of the relative effectiveness of the measures implemented in 18 countries and regions using data from 22/01/2020 to 02/04/2020. We compute the top one and two measures that are most effective for the countries and regions studied during the period. Two Explainable AI techniques, SHAP and ECPI, are used in our study; such that we construct (machine learning) models for predicting the instantaneous reproduction number ($R_t$) and use the models as surrogates to the real world and inputs that the greatest influence to our models are seen as measures that are most effective. Across-the-board, city lockdown and contact tracing are the two most effective measures. For ensuring $R_t<1$, public wearing face masks is also important. Mass testing alone is not the most effective measure although when paired with other measures, it can be effective. Warm temperature helps for reducing the transmission.
翻訳日:2022-12-06 14:25:55 公開日:2020-05-05
# ImpactCite: XLNetを用いたCitation Impact Analysisの手法

ImpactCite: An XLNet-based method for Citation Impact Analysis ( http://arxiv.org/abs/2005.06611v1 )

ライセンス: Link先を確認
Dominique Mercier, Syed Tahseen Raza Rizvi, Vikas Rajashekar, Andreas Dengel, Sheraz Ahmed(参考訳) 引用は科学文学の影響を理解する上で重要な役割を果たす。 一般的に、引用は定量的に分析されるが、引用の質的分析は、コミュニティにおける科学的アーティファクトの影響に関する深い洞察を明らかにする。 したがって、引用インパクト分析(感情と意図の分類を含む)は、最終的にランク付けと影響の推定を支援する引用の質を定量化することができる。 この論文の貢献は2つある。 まず,BERT や ALBERT などの有名な言語モデルと,感情分類と意図分類の両タスクのための人気ネットワークをベンチマークする。 第2に,xlnetに基づく引用衝撃解析手法であるimpactciteを提案する。 すべての評価は、公開されている引用分析データセットのセットで実行される。 評価の結果、impactciteは、既存のアプローチを3.44%、f1-scoreで1.33%上回ることで、引用意図と感情分類の両方において新たな最先端のパフォーマンスを達成していることがわかった。 そこで本研究では,各タスクに対するImpactCite(XLNetベースのソリューション)を強調し,引用の効果をよりよく理解する。 CSC-Clean corpusは引用感情分類のためのクリーンで信頼性の高いデータセットである。

Citations play a vital role in understanding the impact of scientific literature. Generally, citations are analyzed quantitatively whereas qualitative analysis of citations can reveal deeper insights into the impact of a scientific artifact in the community. Therefore, citation impact analysis (which includes sentiment and intent classification) enables us to quantify the quality of the citations which can eventually assist us in the estimation of ranking and impact. The contribution of this paper is two-fold. First, we benchmark the well-known language models like BERT and ALBERT along with several popular networks for both tasks of sentiment and intent classification. Second, we provide ImpactCite, which is XLNet-based method for citation impact analysis. All evaluations are performed on a set of publicly available citation analysis datasets. Evaluation results reveal that ImpactCite achieves a new state-of-the-art performance for both citation intent and sentiment classification by outperforming the existing approaches by 3.44% and 1.33% in F1-score. Therefore, we emphasize ImpactCite (XLNet-based solution) for both tasks to better understand the impact of a citation. Additional efforts have been performed to come up with CSC-Clean corpus, which is a clean and reliable dataset for citation sentiment classification.
翻訳日:2022-12-06 14:25:08 公開日:2020-05-05
# 新型コロナウイルスの定量化のための3次元トモグラフィーパターン合成

3D Tomographic Pattern Synthesis for Enhancing the Quantification of COVID-19 ( http://arxiv.org/abs/2005.01903v1 )

ライセンス: Link先を確認
Siqi Liu, Bogdan Georgescu, Zhoubing Xu, Youngjin Yoo, Guillaume Chabin, Shikha Chaganti, Sasa Grbic, Sebastian Piat, Brian Teixeira, Abishek Balachandran, Vishwanath RS, Thomas Re, Dorin Comaniciu(参考訳) 2020年4月12日現在、コロナウイルス(COVID-19)は18万人に感染し、11万人以上の死者を出した。 胸部CT(CT)で見られるトモグラフィーのパターンは, 疾患の重症度と進行度と相関していることが, いくつかの研究で示されている。 したがって、CT画像は、新型コロナウイルス患者の管理にとって重要なモダリティとして現れる可能性がある。 AIベースのソリューションは、CTベースの定量的レポーティングをサポートし、Opacity (PO)のような定量的バイオマーカーが自動的に計算される場合、読み出しが効率的かつ再現可能である。 しかし、covid-19はaiの開発に独自の課題をもたらし、特に大規模な画像データとアノテーションが利用可能になった。 本稿では、これらの課題に取り組むために、既存のcovid-19データベースを強化するために、合成データセットを使用することを提案する。 疾患のない患者の胸部CTに新型コロナウイルス関連トモグラフィーパターンを塗布するためにGAN(Generative Adversarial Network)を訓練する。 また,手動でラベル付けした新型コロナウイルスの胸部CT患者から得られる位置先を利用して,適切な異常分布を生成する。 合成データは、実際のCOVID-19トレーニングデータに20%の合成データを付加することにより、肺のセグメンテーションとCOVID-19パターンのセグメンテーションの両方を改善するために使用される。 7ヶ国12ヶ所から採取した2143個の胸部CT(327例)を採取した。 100のCOVID-19陽性、100のコントロールケースでテストしたところ、合成データは肺の分画(+6.02%の病変包接率)と異常分画(+2.78%のダイス係数)の両方を改善するのに役立ち、全体としてより正確なPO計算(+2.82%のピアソン係数)をもたらすことがわかった。

The Coronavirus Disease (COVID-19) has affected 1.8 million people and resulted in more than 110,000 deaths as of April 12, 2020. Several studies have shown that tomographic patterns seen on chest Computed Tomography (CT), such as ground-glass opacities, consolidations, and crazy paving pattern, are correlated with the disease severity and progression. CT imaging can thus emerge as an important modality for the management of COVID-19 patients. AI-based solutions can be used to support CT based quantitative reporting and make reading efficient and reproducible if quantitative biomarkers, such as the Percentage of Opacity (PO), can be automatically computed. However, COVID-19 has posed unique challenges to the development of AI, specifically concerning the availability of appropriate image data and annotations at scale. In this paper, we propose to use synthetic datasets to augment an existing COVID-19 database to tackle these challenges. We train a Generative Adversarial Network (GAN) to inpaint COVID-19 related tomographic patterns on chest CTs from patients without infectious diseases. Additionally, we leverage location priors derived from manually labeled COVID-19 chest CTs patients to generate appropriate abnormality distributions. Synthetic data are used to improve both lung segmentation and segmentation of COVID-19 patterns by adding 20% of synthetic data to the real COVID-19 training data. We collected 2143 chest CTs, containing 327 COVID-19 positive cases, acquired from 12 sites across 7 countries. By testing on 100 COVID-19 positive and 100 control cases, we show that synthetic data can help improve both lung segmentation (+6.02% lesion inclusion rate) and abnormality segmentation (+2.78% dice coefficient), leading to an overall more accurate PO computation (+2.82% Pearson coefficient).
翻訳日:2022-12-06 14:24:47 公開日:2020-05-05
# StereoGAN: ドメイン翻訳とステレオマッチングの併用最適化によるブリッジング合成-リアルドメインギャップ

StereoGAN: Bridging Synthetic-to-Real Domain Gap by Joint Optimization of Domain Translation and Stereo Matching ( http://arxiv.org/abs/2005.01927v1 )

ライセンス: Link先を確認
Rui Liu, Chengxi Yang, Wenxiu Sun, Xiaogang Wang, Hongsheng Li(参考訳) 大規模合成データセットはステレオマッチングに有用であるが、通常は既知のドメインバイアスをもたらす。 CycleGANで表される教師なし画像と画像の変換ネットワークは、ドメインギャップを扱う上で大きな可能性を秘めているが、ピクセル歪みや翻訳後のステレオミスマッチの問題により、この手法をステレオマッチングに一般化することは容易ではない。 本稿では,この課題に取り組むために,ドメイン翻訳とステレオマッチングネットワークを用いたエンドツーエンドトレーニングフレームワークを提案する。 第一に、エンドツーエンドフレームワークにおけるドメイン変換とステレオマッチングネットワークの協調最適化により、前者が最大範囲まで容易になる。 第二に、このフレームワークは2つの新しい損失、すなわち双方向のマルチスケール特徴の再射損失と相関整合損失を導入し、全ての合成ステレオ画像が現実的なものに変換され、エピポーラ制約が維持される。 上記の2つの貢献の効果的な組み合わせは、印象的なステレオ一貫性翻訳と不均一推定精度をもたらす。 また, 正規化項を求めるモードが追加され, より微細な多様性を有する合成から現実への翻訳結果が得られた。 ステレオマッチングにおける合成-実領域間ギャップの橋渡しにおける提案手法の有効性を,広範な実験により実証した。

Large-scale synthetic datasets are beneficial to stereo matching but usually introduce known domain bias. Although unsupervised image-to-image translation networks represented by CycleGAN show great potential in dealing with domain gap, it is non-trivial to generalize this method to stereo matching due to the problem of pixel distortion and stereo mismatch after translation. In this paper, we propose an end-to-end training framework with domain translation and stereo matching networks to tackle this challenge. First, joint optimization between domain translation and stereo matching networks in our end-to-end framework makes the former facilitate the latter one to the maximum extent. Second, this framework introduces two novel losses, i.e., bidirectional multi-scale feature re-projection loss and correlation consistency loss, to help translate all synthetic stereo images into realistic ones as well as maintain epipolar constraints. The effective combination of above two contributions leads to impressive stereo-consistent translation and disparity estimation accuracy. In addition, a mode seeking regularization term is added to endow the synthetic-to-real translation results with higher fine-grained diversity. Extensive experiments demonstrate the effectiveness of the proposed framework on bridging the synthetic-to-real domain gap on stereo matching.
翻訳日:2022-12-06 14:18:47 公開日:2020-05-05
# 画像収集から自己教師形とポーズネットワークをもつ点雲へ

From Image Collections to Point Clouds with Self-supervised Shape and Pose Networks ( http://arxiv.org/abs/2005.01939v1 )

ライセンス: Link先を確認
K L Navaneet, Ansu Mathew, Shashank Kashyap, Wei-Chih Hung, Varun Jampani and R. Venkatesh Babu(参考訳) 2次元画像から3Dモデルを再構成することは、コンピュータビジョンの基本的な問題の一つである。 本研究では,単一の画像から3次元物体を再構成する深層学習手法を提案する。 3次元監督や多視点監視を用いた最近の研究とは対照的に、トレーニング中にポーズ情報のない単一のビューイメージのみを使用する。 これにより、オブジェクトカテゴリと対応するシルエットの画像収集のみを必要とするアプローチがより実践的になる。 我々は3Dポイントクラウドの再構成と推定ネットワークの自己教師方式の両方を学び、異なるポイントクラウドレンダラーを用いて2Dインスペクションでトレーニングする。 提案手法の重要な特徴は,ランダムにサンプリングされたポーズで回転させることで,予測した3次元点雲に3次元幾何学的推論を課すことである。 さらに、単一ビューの監視を使用することで、テストイメージに対してテスト時の最適化を行うことができます。 合成ShapeNetと実世界のPix3Dデータセットの実験により、我々のアプローチは、監督の少ないにもかかわらず、ポーズ監視や多視点教師付きアプローチと比較して競争性能が向上することを示した。

Reconstructing 3D models from 2D images is one of the fundamental problems in computer vision. In this work, we propose a deep learning technique for 3D object reconstruction from a single image. Contrary to recent works that either use 3D supervision or multi-view supervision, we use only single view images with no pose information during training as well. This makes our approach more practical requiring only an image collection of an object category and the corresponding silhouettes. We learn both 3D point cloud reconstruction and pose estimation networks in a self-supervised manner, making use of differentiable point cloud renderer to train with 2D supervision. A key novelty of the proposed technique is to impose 3D geometric reasoning into predicted 3D point clouds by rotating them with randomly sampled poses and then enforcing cycle consistency on both 3D reconstructions and poses. In addition, using single-view supervision allows us to do test-time optimization on a given test image. Experiments on the synthetic ShapeNet and real-world Pix3D datasets demonstrate that our approach, despite using less supervision, can achieve competitive performance compared to pose-supervised and multi-view supervised approaches.
翻訳日:2022-12-06 14:18:25 公開日:2020-05-05
# パノスコープ領域適応とタスク再重み付けによる顕微鏡画像の教師なしインスタンス分割

Unsupervised Instance Segmentation in Microscopy Images via Panoptic Domain Adaptation and Task Re-weighting ( http://arxiv.org/abs/2005.02066v1 )

ライセンス: Link先を確認
Dongnan Liu, Donghao Zhang, Yang Song, Fan Zhang, Lauren O'Donnell, Heng Huang, Mei Chen, Weidong Cai(参考訳) 核インスタンスセグメンテーションのための教師なしドメイン適応(UDA)は、労働集約的なアノテーションとデータセット間のドメインシフトの負担を軽減するため、デジタル病理にとって重要である。 本研究では, 蛍光顕微鏡画像から学習し, 非教師付き核分割のためのCycle Consistency Panoptic Domain Adaptive Mask R-CNN (CyC-PDAM) アーキテクチャを提案する。 より具体的には、合成画像中の補助生成物を除去する核塗布機構を最初に提案する。 第二に、ドメイン識別器を持つセマンティックブランチは、パンプトレベルのドメイン適応を実現するように設計されている。 第3に,ソースバイアスの影響を回避するため,タスク固有の損失関数に対して動的にトレードオフ重み付けを行うタスク重み付け機構を提案する。 3つのデータセットによる実験結果から,提案手法は最先端のUDA手法よりも優れており,完全教師付き手法と同等の性能を示した。

Unsupervised domain adaptation (UDA) for nuclei instance segmentation is important for digital pathology, as it alleviates the burden of labor-intensive annotation and domain shift across datasets. In this work, we propose a Cycle Consistency Panoptic Domain Adaptive Mask R-CNN (CyC-PDAM) architecture for unsupervised nuclei segmentation in histopathology images, by learning from fluorescence microscopy images. More specifically, we first propose a nuclei inpainting mechanism to remove the auxiliary generated objects in the synthesized images. Secondly, a semantic branch with a domain discriminator is designed to achieve panoptic-level domain adaptation. Thirdly, in order to avoid the influence of the source-biased features, we propose a task re-weighting mechanism to dynamically add trade-off weights for the task-specific loss functions. Experimental results on three datasets indicate that our proposed method outperforms state-of-the-art UDA methods significantly, and demonstrates a similar performance as fully supervised methods.
翻訳日:2022-12-06 14:18:02 公開日:2020-05-05
# グラフ操作探索による適応的相互作用モデリング

Adaptive Interaction Modeling via Graph Operations Search ( http://arxiv.org/abs/2005.02113v1 )

ライセンス: Link先を確認
Haoxin Li, Wei-Shi Zheng, Yu Tao, Haifeng Hu, Jian-Huang Lai(参考訳) インタラクションモデリングはビデオアクション分析において重要である。 近年、ビデオ内の相互作用をモデル化するための特定の構造を設計する作品がいくつかある。 しかし、それらの構造は手動で設計され、非適応的であり、構造設計の努力を必要とする。 本稿では,相互作用モデリングのための適応構造を学習するための構造設計プロセスを自動化する。 本稿では,異なるビデオに対して適応的構造を構築し,適応的相互作用モデリングを容易にするネットワーク構造を識別可能なアーキテクチャ探索機構で探索することを提案する。 この目的のために,我々はまず,ビデオの異なる関係を明示的にキャプチャするいくつかの基本的なグラフ操作で検索空間を設計する。 アーキテクチャ探索フレームワークが適応的相互作用モデリング構造の構築を学んでいることを実験的に実証し、構造といくつかの相互作用特性との関係をより理解し、構造設計の取り組みの必要性を解放する。 さらに,検索空間における基本的なグラフ操作は,ビデオ内の異なる相互作用をモデル化できることを示す。 2つの相互作用データセットを用いた実験により,本手法が最先端技術との競合性能を実現することを示す。

Interaction modeling is important for video action analysis. Recently, several works design specific structures to model interactions in videos. However, their structures are manually designed and non-adaptive, which require structures design efforts and more importantly could not model interactions adaptively. In this paper, we automate the process of structures design to learn adaptive structures for interaction modeling. We propose to search the network structures with differentiable architecture search mechanism, which learns to construct adaptive structures for different videos to facilitate adaptive interaction modeling. To this end, we first design the search space with several basic graph operations that explicitly capture different relations in videos. We experimentally demonstrate that our architecture search framework learns to construct adaptive interaction modeling structures, which provides more understanding about the relations between the structures and some interaction characteristics, and also releases the requirement of structures design efforts. Additionally, we show that the designed basic graph operations in the search space are able to model different interactions in videos. The experiments on two interaction datasets show that our method achieves competitive performance with state-of-the-arts.
翻訳日:2022-12-06 14:17:44 公開日:2020-05-05
# マルチタスク学習を一部指導する

Partly Supervised Multitask Learning ( http://arxiv.org/abs/2005.02523v1 )

ライセンス: Link先を確認
Abdullah-Al-Zubaer Imran, Chao Huang, Hui Tang, Wei Fan, Yuan Xiao, Dingjun Hao, Zhen Qian, Demetri Terzopoulos(参考訳) 近年,ラベル付きデータのプールを必要とする完全教師付きモデルの代替として,半教師付き学習が注目されている。 さらに、複数のタスクに対するモデルの最適化は、シングルタスク学習よりも優れた一般化性を提供する。 自己超越的・逆行的訓練を生かして,医療画像,セグメンテーション,診断の2つの重要なタスクを達成すべく,新しい汎用半教師型・マルチタスクモデル,すなわち,自己教師型・半教師型・マルチタスク学習(S$4$MTL)を提案する。 胸部X線データを用いた実験結果から,S$4$MTLモデルの方が半教師付き単一タスク,半教師付きマルチタスク,完全教師付き単一タスクモデルよりも優れており,クラスやセグメンテーションラベルが50%削減されていることが示唆された。 提案モデルは, 医用画像領域だけでなく, 汎用視覚タスクにおいても, 限定的なアノテーション問題に取り組む上で有効であると仮定した。

Semi-supervised learning has recently been attracting attention as an alternative to fully supervised models that require large pools of labeled data. Moreover, optimizing a model for multiple tasks can provide better generalizability than single-task learning. Leveraging self-supervision and adversarial training, we propose a novel general purpose semi-supervised, multiple-task model---namely, self-supervised, semi-supervised, multitask learning (S$^4$MTL)---for accomplishing two important tasks in medical imaging, segmentation and diagnostic classification. Experimental results on chest and spine X-ray datasets suggest that our S$^4$MTL model significantly outperforms semi-supervised single task, semi/fully-supervised multitask, and fully-supervised single task models, even with a 50\% reduction of class and segmentation labels. We hypothesize that our proposed model can be effective in tackling limited annotation problems for joint training, not only in medical imaging domains, but also for general-purpose vision tasks.
翻訳日:2022-12-06 14:16:13 公開日:2020-05-05
# 単語・音節多層ネットワークにおける自己組織化パターン

Self-organizing Pattern in Multilayer Network for Words and Syllables ( http://arxiv.org/abs/2005.02087v1 )

ライセンス: Link先を確認
Li-Min Wang, Sun-Ting Tsai, Shan-Jyun Wu, Meng-Xue Tsai, Daw-Wei Wang, Yi-Ching Su, and Tzay-Ming Hong(参考訳) 言語学者の究極の目標の1つは、人間の言語に普遍的な性質を見つけることである。 単語は一般的には言語形態と意味の任意のマッピングを表すと考えられているが、zipf を補完する音節の等しく重要な役割を強調する新しい普遍法則を提案する。 英語と中国語のコーパスで単語と音節のランク頻度分布をプロットすることにより、目に見える線が出現し、マスターカーブに適合する。 この分析に基づいて単語と音節の多層ネットワークを探索し、音節とそれらの接続の包含に大きく依存する自己組織化の特徴を示す。 インターネットスラングがいかに流行するかを定量化するために、スケーリング構造の解析形式が導出され、進化言語学の新たなツールとして有用であることを示す。

One of the ultimate goals for linguists is to find universal properties in human languages. Although words are generally considered as representing arbitrary mapping between linguistic forms and meanings, we propose a new universal law that highlights the equally important role of syllables, which is complementary to Zipf's. By plotting rank-rank frequency distribution of word and syllable for English and Chinese corpora, visible lines appear and can be fit to a master curve. We discover the multi-layer network for words and syllables based on this analysis exhibits the feature of self-organization which relies heavily on the inclusion of syllables and their connections. Analytic form for the scaling structure is derived and used to quantify how Internet slang becomes fashionable, which demonstrates its usefulness as a new tool to evolutionary linguistics.
翻訳日:2022-12-06 14:15:37 公開日:2020-05-05
# コード切り換えパターンは下流nlpアプリケーションの性能を向上させる効果的な方法である:ユーモア、皮肉、ヘイトスピーチ検出を事例として

Code-switching patterns can be an effective route to improve performance of downstream NLP applications: A case study of humour, sarcasm and hate speech detection ( http://arxiv.org/abs/2005.02295v1 )

ライセンス: Link先を確認
Srijan Bansal, Vishal Garimella, Ayush Suhane, Jasabanta Patro, Animesh Mukherjee(参考訳) 本稿では、コードスイッチングパターンを用いて、下流の様々なNLPアプリケーションを改善する方法について述べる。 特に,ユーモア,皮肉,ヘイトスピーチ検出タスクを改善するために,異なるスイッチング機能をエンコードする。 この単純な言語学的観察は、他の類似のNLPアプリケーションの改善にも役立つと信じている。

In this paper we demonstrate how code-switching patterns can be utilised to improve various downstream NLP applications. In particular, we encode different switching features to improve humour, sarcasm and hate speech detection tasks. We believe that this simple linguistic observation can also be potentially helpful in improving other similar NLP applications.
翻訳日:2022-12-06 14:08:54 公開日:2020-05-05
# セネガルの地方言語図--その翻訳の課題・課題・展望

Digraph of Senegal s local languages: issues, challenges and prospects of their transliteration ( http://arxiv.org/abs/2005.02325v1 )

ライセンス: Link先を確認
Elhadji Mamadou Nguer, Diop Sokhna Bao, Yacoub Ahmed Fall, Mouhamadou Khoule(参考訳) セネガルの地方言語は、西アフリカ諸国の言語と同様に、補充アラビア語アルファベット(アジャミ)とラテンアルファベットの2つのアルファベットに基づいて書かれている。 それぞれの著作には独自の応用がある。 アジャミ文字は一般的に、コミュニケーション、ビジネス、文学(宗教文、詩文など)、伝統宗教医学などの分野で教育を受けた人々によって用いられる。 ラテン文字で書くことは、ICT(Web、辞書、Windows、Googleのツールなど)のローカライズ、法律文(Wolofで翻訳された商用コードや憲法)の翻訳、宗教文(Wolofで翻訳されたQuranとBible)、書籍版などに使われる。 両集団の知識への一般アクセスを促進するため、これら2つの経典間で翻訳ツールを設置することが有用である。 この作業は、協力的なオンライン辞書Wolof(Nguer E. M., Khoule M, Thiam M. N., Mbaye B. T., Thiare O., Cisse M. T., Mangeot M. 2014)のプロジェクト実装のフレームワークに含まれる。 私たちのゴールは、翻訳に関する問題と、それが提起する課題を提起することと、その一方で、視点を提示することにあります。

The local languages in Senegal, like those of West African countries in general, are written based on two alphabets: supplemented Arabic alphabet (called Ajami) and Latin alphabet. Each writing has its own applications. Ajami writing is generally used by people educated in Koranic schools for communication, business, literature (religious texts, poetry, etc.), traditional religious medicine, etc. Writing with Latin characters is used for localization of ICT (Web, dictionaries, Windows and Google tools translated in Wolof, etc.), the translation of legal texts (commercial code and constitution translated in Wolof) and religious ones (Quran and Bible in Wolof), book edition, etc. To facilitate both populations general access to knowledge, it is useful to set up transliteration tools between these two scriptures. This work falls within the framework of the implementation of project for a collaborative online dictionary Wolof (Nguer E. M., Khoule M, Thiam M. N., Mbaye B. T., Thiare O., Cisse M. T., Mangeot M. 2014), which will involve people using Ajami writing. Our goal will consist, on the one hand in raising the issues related to the transliteration and the challenges that this will raise, and on the other one, presenting the perspectives.
翻訳日:2022-12-06 14:08:30 公開日:2020-05-05
# Informal Romanization の音声認識における音声と視覚の優位性

Phonetic and Visual Priors for Decipherment of Informal Romanization ( http://arxiv.org/abs/2005.02517v1 )

ライセンス: Link先を確認
Maria Ryskina, Matthew R. Gormley, Taylor Berg-Kirkpatrick(参考訳) 非公式なローマ字化(英: informal romanization)は、人間が非公式なデジタル通信で使う慣用的なプロセスで、非ラテン文字の言語をラテン語の文字集合にエンコードするために使われる。 文字置換の選択はユーザによって異なるが、様々な言語で観察されるのと同じ原則によって支配されていることが示されている。 非ラテン語文字を教師なしで観察されたロマライズされたテキストから解読するためのノイズチャネルWFSTカスケードモデルを提案する。 私たちは、エジプトのアラビア語とロシア語の2つの言語のロマン化データを直接トレーニングします。 文字マッピングにおける音素および視覚的優先による帰納バイアスを加えることで、両方の言語におけるモデルの性能が大幅に向上し、教師付きスカイラインにかなり近い結果が得られることを示す。 最後に、ロシアのソーシャルネットワークのウェブサイトから収集され、実験のために部分的に注釈付けされたロシア人の新しいデータセットを紹介します。

Informal romanization is an idiosyncratic process used by humans in informal digital communication to encode non-Latin script languages into Latin character sets found on common keyboards. Character substitution choices differ between users but have been shown to be governed by the same main principles observed across a variety of languages---namely, character pairs are often associated through phonetic or visual similarity. We propose a noisy-channel WFST cascade model for deciphering the original non-Latin script from observed romanized text in an unsupervised fashion. We train our model directly on romanized data from two languages: Egyptian Arabic and Russian. We demonstrate that adding inductive bias through phonetic and visual priors on character mappings substantially improves the model's performance on both languages, yielding results much closer to the supervised skyline. Finally, we introduce a new dataset of romanized Russian, collected from a Russian social network website and partially annotated for our experiments.
翻訳日:2022-12-06 14:07:28 公開日:2020-05-05
# ラングスとアフリカ : ラテン2アジャミ : 翻訳オートマティクスのアルゴリズム

Digraphie des langues ouest africaines : Latin2Ajami : un algorithme de translitteration automatique ( http://arxiv.org/abs/2005.02827v1 )

ライセンス: Link先を確認
El hadji M. Fall, El hadji M. Nguer, Bao Diop Sokhna, Mouhamadou Khoule, Mathieu Mangeot, Mame T. Cisse(参考訳) 西アフリカの国語と同様、セネガルの国語は2つのアルファベットで書かれている: 公式の命令書からその強さを引き出すラテン文字と、広く統合され、制度的な支援がほとんどないアラビア文字(アジャミ)である。 この図は互いに無視する2つの世界を生み出した。 実際、アジャミ文字はコラニ語派の人々が日常的に用いており、ラテン文字で書くことは公立学校の人々が用いている。 この問題を解決するために、これらの2つの経典間の翻訳ツールを確立することが有用である。 予備作業(nguer, bao-diop, fall, khoule, 2015)は、問題、課題、展望を特定するために行われた。 これが現在の作品となり、その後この作品へと転落した。 その目的はラテン語からアジャミへの翻訳アルゴリズムの研究と作成である。

The national languages of Senegal, like those of West Africa country in general, are written with two alphabets : the Latin alphabet that draws its strength from official decreesm and the completed Arabic script (Ajami), widespread and well integrated, that has little institutional support. This digraph created two worlds ignoring each other. Indeed, Ajami writing is generally used daily by populations from Koranic schools, while writing with the Latin alphabet is used by people from the public school. To solve this problem, it is useful to establish transliteration tools between these two scriptures. Preliminary work (Nguer, Bao-Diop, Fall, khoule, 2015) was performed to locate the problems, challenges and prospects. This present work, making it subsequently fell into this. Its objective is the study and creation of a transliteration algorithm from latin towards Ajami.
翻訳日:2022-12-06 14:06:40 公開日:2020-05-05
# マルチモーダルセンサ融合を用いた複雑な動的環境における確率論的エンドツーエンド車両ナビゲーション

Probabilistic End-to-End Vehicle Navigation in Complex Dynamic Environments with Multimodal Sensor Fusion ( http://arxiv.org/abs/2005.01935v1 )

ライセンス: Link先を確認
Peide Cai, Sukai Wang, Yuxiang Sun, Ming Liu(参考訳) 終日および全天候ナビゲーションは、様々な環境条件や複雑なエージェントの行動に対して適切な反応を必要とする自動運転にとって重要な機能である。 近年,ディープラーニングの普及に伴い,自動運転車のエンドツーエンド制御が研究されている。 しかし、ほとんどの作品は視覚情報のみに基づいており、薄暗い光や暗黒光といった照明条件に挑戦することで劣化することがある。 加えて、それらは通常、将来不確実性を考慮せずに決定論的制御コマンドを生成し、適用する。 本稿では,模倣学習に基づき,カメラ,ライダー,レーダからの情報を活用して,認識能力を備えた確率的駆動モデルを提案する。 我々はさらに,様々な環境条件(都市や農村,交通密度,天気やその時刻など)や動的障害物(車両,歩行者,モーターサイクリスト,自転車など)を含む,運転実績をオンライン上で評価した。 以上の結果から,提案モデルがベースラインを上回っており,交通量が多く,天候の厳しい未熟な環境では優れた一般化性能が得られることが示唆された。

All-day and all-weather navigation is a critical capability for autonomous driving, which requires proper reaction to varied environmental conditions and complex agent behaviors. Recently, with the rise of deep learning, end-to-end control for autonomous vehicles has been well studied. However, most works are solely based on visual information, which can be degraded by challenging illumination conditions such as dim light or total darkness. In addition, they usually generate and apply deterministic control commands without considering the uncertainties in the future. In this paper, based on imitation learning, we propose a probabilistic driving model with ultiperception capability utilizing the information from the camera, lidar and radar. We further evaluate its driving performance online on our new driving benchmark, which includes various environmental conditions (e.g., urban and rural areas, traffic densities, weather and times of the day) and dynamic obstacles (e.g., vehicles, pedestrians, motorcyclists and bicyclists). The results suggest that our proposed model outperforms baselines and achieves excellent generalization performance in unseen environments with heavy traffic and extreme weather.
翻訳日:2022-12-06 13:59:44 公開日:2020-05-05
# opiniondigest: 意見要約のためのシンプルなフレームワーク

OpinionDigest: A Simple Framework for Opinion Summarization ( http://arxiv.org/abs/2005.01901v1 )

ライセンス: Link先を確認
Yoshihiko Suhara, Xiaolan Wang, Stefanos Angelidis, Wang-Chiew Tan(参考訳) 我々は,金本位制の要約に頼らない抽象的意見要約フレームワークである opiniondigest を提案する。 このフレームワークは、アスペクトベースの感性分析モデルを使用して、レビューから意見フレーズを抽出し、トランスフォーマーモデルを使用して、これらの抽出から元のレビューを再構築する。 要約時には、複数のレビューからの抽出をマージし、最も人気のあるものを選択する。 選択された意見は、訓練されたトランスフォーマーモデルへの入力として使用され、それらが意見を要約する。 opiniondigestは、特定のユーザーのニーズに合わせてカスタマイズされた要約を生成することもできる。 yelpのデータの自動評価は、我々のフレームワークが競合ベースラインを上回ることを示している。 2つのコーパスに関する人間の研究は、オピニオンダイジェストが情報的な要約を生成し、将来有望なカスタマイズ能力を示すことを検証している。

We present OpinionDigest, an abstractive opinion summarization framework, which does not rely on gold-standard summaries for training. The framework uses an Aspect-based Sentiment Analysis model to extract opinion phrases from reviews, and trains a Transformer model to reconstruct the original reviews from these extractions. At summarization time, we merge extractions from multiple reviews and select the most popular ones. The selected opinions are used as input to the trained Transformer model, which verbalizes them into an opinion summary. OpinionDigest can also generate customized summaries, tailored to specific user needs, by filtering the selected opinions according to their aspect and/or sentiment. Automatic evaluation on Yelp data shows that our framework outperforms competitive baselines. Human studies on two corpora verify that OpinionDigest produces informative summaries and shows promising customization capabilities.
翻訳日:2022-12-06 13:59:07 公開日:2020-05-05
# 制御されたパラフレーズ生成のためのニューラルシンタクティックプレオーダー

Neural Syntactic Preordering for Controlled Paraphrase Generation ( http://arxiv.org/abs/2005.02013v1 )

ライセンス: Link先を確認
Tanya Goyal and Greg Durrett(参考訳) 自然言語文のパラフレーズ化は多面的プロセスであり、個々の単語や短いフレーズの置き換え、内容の局所的な再構成、あるいはトピック化やパッシブ化のようなハイレベルな再構成を含む。 過去のアプローチは、解釈可能な方法でこのパラフレーズ可能性の空間をカバーするのに苦労した。 私たちの研究は、機械翻訳における事前注文文学にインスパイアされ、構文変換を使用して、原文をソフトに「順序付け」し、ニューラルネットワークのパラフレーズモデルを導きます。 まず、入力文が与えられた場合、エンコーダ・デコーダモデルを用いて、実行可能な構文再構成を導出する。 このモデルは、文の部分的語彙的、部分的構文的ビュー上で動作し、大きなチャンクを並べ替えることができる。 次に、提案した各再構成を用いて位置埋め込みのシーケンスを生成し、最終的なエンコーダ-デコーダパラフレーズモデルが特定の順序でソース語に従属することを奨励する。 自動・人両方の評価から,提案システムは,生成したパラフレーズの多様性を著しく向上させつつ,ベースラインアプローチの品質を維持していることが示された。

Paraphrasing natural language sentences is a multifaceted process: it might involve replacing individual words or short phrases, local rearrangement of content, or high-level restructuring like topicalization or passivization. Past approaches struggle to cover this space of paraphrase possibilities in an interpretable manner. Our work, inspired by pre-ordering literature in machine translation, uses syntactic transformations to softly "reorder'' the source sentence and guide our neural paraphrasing model. First, given an input sentence, we derive a set of feasible syntactic rearrangements using an encoder-decoder model. This model operates over a partially lexical, partially syntactic view of the sentence and can reorder big chunks. Next, we use each proposed rearrangement to produce a sequence of position embeddings, which encourages our final encoder-decoder paraphrase model to attend to the source words in a particular order. Our evaluation, both automatic and human, shows that the proposed system retains the quality of the baseline approaches while giving a substantial increase in the diversity of the generated paraphrases
翻訳日:2022-12-06 13:58:52 公開日:2020-05-05
# 低リソース言語におけるテキスト分類のためのベースラインの確立

Establishing Baselines for Text Classification in Low-Resource Languages ( http://arxiv.org/abs/2005.02068v1 )

ライセンス: Link先を確認
Jan Christian Blaise Cruz and Charibeth Cheng(参考訳) トランスフォーマーベースの微調整技術は、低リソース、低データ環境を含むタスクにおいて有効であることが証明されているが、適切に確立されたベースラインとベンチマークデータセットの欠如は、低リソース設定に対処する様々なアプローチを比較するのを難しくしている。 この研究には3つの貢献があります。 まず、未リリースの2つのデータセットを、テキスト分類のためのベンチマークデータセットと、低リソース言語であるfilipinoのための低リソースマルチラベルテキスト分類として紹介する。 次に、フィリピン設定で使用するために、より優れたBERTとDistilBERTモデルを事前訓練する。 第3に,モデルの性能劣化に対する抵抗を,トレーニングサンプル数を減らすことでベンチマークする簡易劣化試験を導入する。 我々は,事前学習したモデルの劣化速度を解析し,低リソース環境での運用を目的としたモデルの比較に用いる方法を検討する。 研究コミュニティが使用するすべてのモデルとデータセットをリリースします。

While transformer-based finetuning techniques have proven effective in tasks that involve low-resource, low-data environments, a lack of properly established baselines and benchmark datasets make it hard to compare different approaches that are aimed at tackling the low-resource setting. In this work, we provide three contributions. First, we introduce two previously unreleased datasets as benchmark datasets for text classification and low-resource multilabel text classification for the low-resource language Filipino. Second, we pretrain better BERT and DistilBERT models for use within the Filipino setting. Third, we introduce a simple degradation test that benchmarks a model's resistance to performance degradation as the number of training samples are reduced. We analyze our pretrained model's degradation speeds and look towards the use of this method for comparing models aimed at operating within the low-resource setting. We release all our models and datasets for the research community to use.
翻訳日:2022-12-06 13:58:32 公開日:2020-05-05
# 乱用言語を学ぶための画像とテキストのマルチモーダルデータセットの作成

Creating a Multimodal Dataset of Images and Text to Study Abusive Language ( http://arxiv.org/abs/2005.02235v1 )

ライセンス: Link先を確認
Alessio Palmero Aprosio, Stefano Menini, Sara Tonelli(参考訳) オンラインヘイトスピーチを研究するために,興味のある言語現象を含むデータセットが利用可能であることが重要である。 しかし、特定のターゲットグループ、例えばティーンエージャーの場合、そのようなデータ収集は、同意やプライバシー制限の問題のために問題となる可能性がある。 さらに、この種のテキストのみのデータセットは広く使われているが、Instagramのような画像ベースのソーシャルメディアプラットフォームによって設定される制限は、研究者がマルチモーダルヘイトスピーチデータを試すことを困難にしている。 そこで私たちは,イメージと虐待的なコメントのマルチモーダルデータセットを作成するために,学校で使用されているアノテーションツールであるCREENDERを開発した。 イタリアのコメントを含むコーパスは、画像の主題がコメントの引き金となるかどうかを調べるために、異なる視点から分析されてきた。 画像に写っている人物の存在は、不快なコメントを得る確率を増加させるが、ユーザーは異なる方法で同じ画像を判断する。

In order to study online hate speech, the availability of datasets containing the linguistic phenomena of interest are of crucial importance. However, when it comes to specific target groups, for example teenagers, collecting such data may be problematic due to issues with consent and privacy restrictions. Furthermore, while text-only datasets of this kind have been widely used, limitations set by image-based social media platforms like Instagram make it difficult for researchers to experiment with multimodal hate speech data. We therefore developed CREENDER, an annotation tool that has been used in school classes to create a multimodal dataset of images and abusive comments, which we make freely available under Apache 2.0 license. The corpus, with Italian comments, has been analysed from different perspectives, to investigate whether the subject of the images plays a role in triggering a comment. We find that users judge the same images in different ways, although the presence of a person in the picture increases the probability to get an offensive comment.
翻訳日:2022-12-06 13:57:47 公開日:2020-05-05
# 校正駆動深部モデルを用いた科学プロセスのための精密エミュレータの設計

Designing Accurate Emulators for Scientific Processes using Calibration-Driven Deep Models ( http://arxiv.org/abs/2005.02328v1 )

ライセンス: Link先を確認
Jayaraman J. Thiagarajan, Bindya Venkatesh, Rushil Anirudh, Peer-Timo Bremer, Jim Gaffney, Gemma Anderson, Brian Spears(参考訳) 複雑な科学過程を正確にエミュレートする予測モデルは、数値シミュレータや実験よりも指数的なスピードアップを達成することができる。 その結果、深層ニューラルネットワークのような現代の機械学習(ML)手法を利用してデータ駆動エミュレータを構築するために、近年急増している。 既存の取り組みの大部分は、既定のmlソリューションの調整に重点を置いているが、観測データとモデルからの予測との差異を測定するために損失関数を選択するという、見過ごされがちな、しかし重要な問題について研究している。 予測される残差構造により良い先行性がないため、実際には平均二乗誤差や平均絶対誤差のような単純な選択がなされる。 しかし、これらの損失関数による固有対称ノイズ仮定は、データが不均一である場合やノイズ分布が非対称の場合において不適切である。 本研究では,異種データにおいても有効で,異常値に対して頑健なエミュレータ設計のためのインターバル校正に基づく新しいディープラーニング手法であるlearn-by-calibrating(lbc)を提案する。 大規模なユースケースを用いて,LbCは広義の損失関数選択に対する一般化誤差を大幅に改善し,小規模なデータ構造においても高品質なエミュレータを実現し,さらに重要な点として,明確な事前条件なしに固有雑音構造を復元することを示した。

Predictive models that accurately emulate complex scientific processes can achieve exponential speed-ups over numerical simulators or experiments, and at the same time provide surrogates for improving the subsequent analysis. Consequently, there is a recent surge in utilizing modern machine learning (ML) methods, such as deep neural networks, to build data-driven emulators. While the majority of existing efforts has focused on tailoring off-the-shelf ML solutions to better suit the scientific problem at hand, we study an often overlooked, yet important, problem of choosing loss functions to measure the discrepancy between observed data and the predictions from a model. Due to lack of better priors on the expected residual structure, in practice, simple choices such as the mean squared error and the mean absolute error are made. However, the inherent symmetric noise assumption made by these loss functions makes them inappropriate in cases where the data is heterogeneous or when the noise distribution is asymmetric. We propose Learn-by-Calibrating (LbC), a novel deep learning approach based on interval calibration for designing emulators in scientific applications, that are effective even with heterogeneous data and are robust to outliers. Using a large suite of use-cases, we show that LbC provides significant improvements in generalization error over widely-adopted loss function choices, achieves high-quality emulators even in small data regimes and more importantly, recovers the inherent noise structure without any explicit priors.
翻訳日:2022-12-06 13:51:37 公開日:2020-05-05
# 分子特性予測のための適応不変性

Adaptive Invariance for Molecule Property Prediction ( http://arxiv.org/abs/2005.03004v1 )

ライセンス: Link先を確認
Wengong Jin, Regina Barzilay, Tommi Jaakkola(参考訳) 効果的な特性予測手法は、正確なインシリコスクリーンを通して、または大規模な実験を効果的に誘導することによって、covid-19アンチウイルスの探索を加速するのに役立つ。 しかし、既存の予測ツールは、現在利用可能なトレーニングデータの不足や断片化に対応する能力に制限がある。 本稿では,異種データを超えた一般化や外挿が可能な予測器の学習手法を提案する。 提案手法は,最近提案された不変リスク最小化に基づいて,予測器にニュアンス変動を回避させる。 我々は,分子の潜在表現を継続的に操作し,予測器に対する望ましくない変動を強調することでこれを達成する。 この方法をテストするために,SARS-CoV-2アンチウイルススクリーニングデータ,SARS-CoV-2メインプロテアーゼに結合する分子断片,SARS-CoV-1の大規模スクリーニングデータという3つのデータソースの組み合わせを用いる。 我々の予測器は最先端の伝達学習手法をかなりの差で上回る。 また,Broad drug repurposing hubにおけるモデル上位20の予測について報告する。

Effective property prediction methods can help accelerate the search for COVID-19 antivirals either through accurate in-silico screens or by effectively guiding on-going at-scale experimental efforts. However, existing prediction tools have limited ability to accommodate scarce or fragmented training data currently available. In this paper, we introduce a novel approach to learn predictors that can generalize or extrapolate beyond the heterogeneous data. Our method builds on and extends recently proposed invariant risk minimization, adaptively forcing the predictor to avoid nuisance variation. We achieve this by continually exercising and manipulating latent representations of molecules to highlight undesirable variation to the predictor. To test the method we use a combination of three data sources: SARS-CoV-2 antiviral screening data, molecular fragments that bind to SARS-CoV-2 main protease and large screening data for SARS-CoV-1. Our predictor outperforms state-of-the-art transfer learning methods by significant margin. We also report the top 20 predictions of our model on Broad drug repurposing hub.
翻訳日:2022-12-06 13:50:24 公開日:2020-05-05
# uav自律ナビゲーション・マッピング・ターゲット検出のための強化学習

Reinforcement Learning for UAV Autonomous Navigation, Mapping and Target Detection ( http://arxiv.org/abs/2005.05057v1 )

ライセンス: Link先を確認
Anna Guerra, Francesco Guidi, Davide Dardari, Petar M. Djuric(参考訳) 本稿では,無人航空機(UAV)に低複雑性レーダを装備し,未知の環境下での飛行における共同検出・マッピング・ナビゲーション問題について検討する。 目的は、マッピング精度を最大化することを目的として軌道を最適化することであり、同時に、目標検出の観点からは、測定が十分な情報にならない領域を避けることである。 この問題は、UAVがターゲット検出および環境マッピングのための状態推定器を動作させるエージェントであるマルコフ決定プロセス(MDP)と、独自のナビゲーションポリシー(すなわち制御法)を推論する強化学習(RL)アルゴリズムとして定式化されている。 数値的な結果は,UAVが周囲の環境を再構築しながら,目標検出の確率の高い地域を自律的に探索する能力を示すものである。

In this paper, we study a joint detection, mapping and navigation problem for a single unmanned aerial vehicle (UAV) equipped with a low complexity radar and flying in an unknown environment. The goal is to optimize its trajectory with the purpose of maximizing the mapping accuracy and, at the same time, to avoid areas where measurements might not be sufficiently informative from the perspective of a target detection. This problem is formulated as a Markov decision process (MDP) where the UAV is an agent that runs either a state estimator for target detection and for environment mapping, and a reinforcement learning (RL) algorithm to infer its own policy of navigation (i.e., the control law). Numerical results show the feasibility of the proposed idea, highlighting the UAV's capability of autonomously exploring areas with high probability of target detection while reconstructing the surrounding environment.
翻訳日:2022-12-06 13:49:30 公開日:2020-05-05
# ESG2Risk - ESGニュースから株価変動予測までのディープラーニングフレームワーク

ESG2Risk: A Deep Learning Framework from ESG News to Stock Volatility Prediction ( http://arxiv.org/abs/2005.02527v1 )

ライセンス: Link先を確認
Tian Guo, Nicolas Jamet, Valentin Betrix, Louis-Alexandre Piquet, Emmanuel Hauptmann(参考訳) 環境・社会・ガバナンス(esg)を体系的な投資に組み込むことが近年注目されている。 本稿では,金融ニュースの流れにおけるESGの出来事に着目し,株価変動に関するESG関連金融ニュースの予測力を探る。 特に,深層学習モデルのESGニュース抽出,ニュース表現,ベイズ推定のパイプラインを構築した。 実データおよび異なる市場に関する実験的評価は、高いボラティリティ予測と潜在的に高いリスクと低いリターンを持つ株との関係と同様に、優れた予測性能を示す。 また、様々なテキストデータとターゲット変数に対する柔軟な予測フレームワークとして、提案されたパイプラインの見通しを示す。

Incorporating environmental, social, and governance (ESG) considerations into systematic investments has drawn numerous attention recently. In this paper, we focus on the ESG events in financial news flow and exploring the predictive power of ESG related financial news on stock volatility. In particular, we develop a pipeline of ESG news extraction, news representations, and Bayesian inference of deep learning models. Experimental evaluation on real data and different markets demonstrates the superior predicting performance as well as the relation of high volatility prediction to stocks with potential high risk and low return. It also shows the prospect of the proposed pipeline as a flexible predicting framework for various textual data and target variables.
翻訳日:2022-12-06 13:41:10 公開日:2020-05-05
# 検証せずに説明してはいけない:ビデオアクティビティ認識による説明可能なaiの評価

Don't Explain without Verifying Veracity: An Evaluation of Explainable AI with Video Activity Recognition ( http://arxiv.org/abs/2005.02335v1 )

ライセンス: Link先を確認
Mahsan Nourani, Chiradeep Roy, Tahrima Rahman, Eric D. Ragan, Nicholas Ruozzi, Vibhav Gogate(参考訳) 説明可能な機械学習と人工知能モデルは、モデルの意思決定プロセスを正当化するために使われてきた。 この透明性は、ユーザパフォーマンスの向上と基盤となるモデルの理解を支援することを目的としている。 しかし実際には、説明可能なシステムは多くのオープンな問題や課題に直面している。 特に、設計者は解釈可能性を提供するために深層学習モデルの複雑さを減らすかもしれない。 しかし、これらの単純化されたモデルによって生成された説明は、正確には正当化されず、モデルに忠実であるかもしれない。 これにより、モデル予測に関して意味のある説明が見つからない可能性があるため、ユーザをさらに混乱させる可能性がある。 これらの説明がユーザーの行動にどのように影響するかを理解することは、現在進行中の課題である。 本稿では,知的システムにおけるユーザパフォーマンスと合意の妥当性について考察する。 説明可能なアクティビティ認識システムを用いたユーザスタディを通じて,ビデオレビューおよびクエリタスクにおける説明妥当性の変動を比較する。 その結果, 精度の低い説明は, 正確な説明と説明のないシステムと比較して, ユーザパフォーマンスと合意を著しく低下させることがわかった。 これらの知見は、正確で理解可能な説明の重要性を示し、悪い説明は、ユーザーのパフォーマンスとaiシステムへの依存に与えた影響に関して、説明が全くないよりも悪い場合があると警告する。

Explainable machine learning and artificial intelligence models have been used to justify a model's decision-making process. This added transparency aims to help improve user performance and understanding of the underlying model. However, in practice, explainable systems face many open questions and challenges. Specifically, designers might reduce the complexity of deep learning models in order to provide interpretability. The explanations generated by these simplified models, however, might not accurately justify and be truthful to the model. This can further add confusion to the users as they might not find the explanations meaningful with respect to the model predictions. Understanding how these explanations affect user behavior is an ongoing challenge. In this paper, we explore how explanation veracity affects user performance and agreement in intelligent systems. Through a controlled user study with an explainable activity recognition system, we compare variations in explanation veracity for a video review and querying task. The results suggest that low veracity explanations significantly decrease user performance and agreement compared to both accurate explanations and a system without explanations. These findings demonstrate the importance of accurate and understandable explanations and caution that poor explanations can sometimes be worse than no explanations with respect to their effect on user performance and reliance on an AI system.
翻訳日:2022-12-06 13:40:59 公開日:2020-05-05
# クロスポイント抵抗メモリアレイを用いた一段階回帰と分類

One-step regression and classification with crosspoint resistive memory arrays ( http://arxiv.org/abs/2005.01988v1 )

ライセンス: Link先を確認
Zhong Sun, Giacomo Pedretti, Alessandro Bricalli, Daniele Ielmini(参考訳) 機械学習は、私たちの日常生活でユビキタスセンサーによって生成されるビッグデータを処理するツールとして、近年注目を集めている。 高速で低エネルギーのコンピューティングマシンが、クラウド上のリモートフレームサーバを使わずに、エッジでリアルタイムの人工知能を実現するために求められている。 このような要件は、ムーアの法則が従来の計算アーキテクチャの終端と通信ボトルネックに近づくことで制限される金属酸化物半導体(CMOS)技術に挑戦する。 したがって、データ集約型アプリケーションを高速化するためには、新しいコンピューティング概念、アーキテクチャ、デバイスが強く必要である。 ここで、フィードバック構成のクロスポイント抵抗メモリ回路は、メモリ内のデータの擬似逆行列を演算することにより、線形回帰とロジスティック回帰を1ステップで実行できることを示す。 これにより、データ列の回帰とデータの集合の分類である最も初等的な学習操作を、新しい技術によって1つの計算ステップで実行することができる。 ワンステップ学習は、ボストンの住宅コストの予測と、mnist桁認識のための2層ニューラルネットワークのトレーニングのシミュレーションによってさらに支持されている。 結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。

Machine learning has been getting a large attention in the recent years, as a tool to process big data generated by ubiquitous sensors in our daily life. High speed, low energy computing machines are in demand to enable real-time artificial intelligence at the edge, i.e., without the support of a remote frame server in the cloud. Such requirements challenge the complementary metal-oxide-semiconductor (CMOS) technology, which is limited by the Moore's law approaching its end and the communication bottleneck in conventional computing architecture. Novel computing concepts, architectures and devices are thus strongly needed to accelerate data-intensive applications. Here we show a crosspoint resistive memory circuit with feedback configuration can execute linear regression and logistic regression in just one step by computing the pseudoinverse matrix of the data within the memory. The most elementary learning operation, that is the regression of a sequence of data and the classification of a set of data, can thus be executed in one single computational step by the novel technology. One-step learning is further supported by simulations of the prediction of the cost of a house in Boston and the training of a 2-layer neural network for MNIST digit recognition. The results are all obtained in one computational step, thanks to the physical, parallel, and analog computing within the crosspoint array.
翻訳日:2022-12-06 13:39:58 公開日:2020-05-05
# 安全なガウスプロセス帯域最適化のためのレグレト境界

Regret Bounds for Safe Gaussian Process Bandit Optimization ( http://arxiv.org/abs/2005.01936v1 )

ライセンス: Link先を確認
Sanae Amani, Mahnoosh Alizadeh, Christos Thrampoulidis(参考訳) 多くのアプリケーションでは、システムの給与関数と安全制約の両方について不確実性があるため、学習者が逐次決定を行う必要がある。 安全クリティカルなシステムでは、学習者の行動が学習過程のどの段階においても安全制約に違反しないことが最重要である。 本稿では,まず[srinivas et al., 2010]で考察したガウス過程(gps)から未知のペイオフと制約関数をサンプリングした確率的バンディット最適化問題について検討する。 我々は,SGP-UCBと呼ばれるGP-UCBの安全版を開発し,各ラウンドの安全制約を尊重するために必要な修正を行った。 アルゴリズムには2つの異なるフェーズがある。 第1フェーズは、決定セットにおける安全なアクションのセットを推定し、第2フェーズはGP-UCB決定ルールに従う。 私たちの主な貢献は、この問題に対する最初のサブ線形後悔境界を導き出すことです。 我々はSGP-UCBを既存の安全なベイズGP最適化アルゴリズムと比較する。

Many applications require a learner to make sequential decisions given uncertainty regarding both the system's payoff function and safety constraints. In safety-critical systems, it is paramount that the learner's actions do not violate the safety constraints at any stage of the learning process. In this paper, we study a stochastic bandit optimization problem where the unknown payoff and constraint functions are sampled from Gaussian Processes (GPs) first considered in [Srinivas et al., 2010]. We develop a safe variant of GP-UCB called SGP-UCB, with necessary modifications to respect safety constraints at every round. The algorithm has two distinct phases. The first phase seeks to estimate the set of safe actions in the decision set, while the second phase follows the GP-UCB decision rule. Our main contribution is to derive the first sub-linear regret bounds for this problem. We numerically compare SGP-UCB against existing safe Bayesian GP optimization algorithms.
翻訳日:2022-12-06 13:33:26 公開日:2020-05-05
# 浅層・深層ニューラルネットワークの正規化のための適応的低ランク因子化

Adaptive Low-Rank Factorization to regularize shallow and deep neural networks ( http://arxiv.org/abs/2005.01995v1 )

ライセンス: Link先を確認
Mohammad Mahdi Bejani, Mehdi Ghatee(参考訳) オーバーフィッティング(overfitting)は、深層学習分野におけるカーシング科目の1つである。 この課題を解決するために、学習モデルを規則化する多くのアプローチが提案された。 一般化を延ばすためにモデルにいくつかのハイパーパラメータを追加するが、これらのハイパーパラメータを決定するのは困難であり、悪い設定はトレーニングプロセスを多様化させる。 さらに、ほとんどの正規化スキームは学習速度を低下させる。 最近、taiなど。 [1] CNNの畳み込みカーネルの冗長性を除去する制約付きフィルタとして低ランクテンソル分解を提案する。 異なる視点で、学習過程に沿って学習モデルのパラメータをドロップアウトするために、Low-Rank matrix Factorization (LRF)を使用します。 しかし、[1]に類似したこのスキームは、操作数を減らそうとすると、おそらくトレーニングの精度を低下させる。 その代わり、層の複雑さが高い場合に適応的にこの正規化スキームを使用する。 任意の層の複雑さは、学習システムの非線形条件数によって評価することができる。 AdaptiveLRF" と名付けられたこの手法は、トレーニング速度を下げたり、レイヤーの精度を下げたりしない。 AdaptiveLRFの動作はノイズの多いデータセットで可視化される。 次に、いくつかの小型および大規模データセットに改善点を示す。 浅層ネットワーク上の有名なドロップアウト正規化器に対するAdaptiveLRFの嗜好を示す。 また、AdaptiveLRFはMobileNet V2、ResNet V2、DenseNet、Xceptionなど、さまざまなディープネットワーク上のドロップアウトとアダプティブドロップアウトと競合する。 SVHNとCIFAR-10データセットにおけるAdaptiveLRFの最良の結果は98%、94.1%、97.9%、94%の精度である。 最後に,学習モデルの品質向上のために,LRFに基づく損失関数の利用について述べる。

The overfitting is one of the cursing subjects in the deep learning field. To solve this challenge, many approaches were proposed to regularize the learning models. They add some hyper-parameters to the model to extend the generalization; however, it is a hard task to determine these hyper-parameters and a bad setting diverges the training process. In addition, most of the regularization schemes decrease the learning speed. Recently, Tai et al. [1] proposed low-rank tensor decomposition as a constrained filter for removing the redundancy in the convolution kernels of CNN. With a different viewpoint, we use Low-Rank matrix Factorization (LRF) to drop out some parameters of the learning model along the training process. However, this scheme similar to [1] probably decreases the training accuracy when it tries to decrease the number of operations. Instead, we use this regularization scheme adaptively when the complexity of a layer is high. The complexity of any layer can be evaluated by the nonlinear condition numbers of its learning system. The resulted method entitled "AdaptiveLRF" neither decreases the training speed nor vanishes the accuracy of the layer. The behavior of AdaptiveLRF is visualized on a noisy dataset. Then, the improvements are presented on some small-size and large-scale datasets. The preference of AdaptiveLRF on famous dropout regularizers on shallow networks is demonstrated. Also, AdaptiveLRF competes with dropout and adaptive dropout on the various deep networks including MobileNet V2, ResNet V2, DenseNet, and Xception. The best results of AdaptiveLRF on SVHN and CIFAR-10 datasets are 98%, 94.1% F-measure, and 97.9%, 94% accuracy. Finally, we state the usage of the LRF-based loss function to improve the quality of the learning model.
翻訳日:2022-12-06 13:33:11 公開日:2020-05-05
# 離散的から深層的な政策学習

Discrete-to-Deep Supervised Policy Learning ( http://arxiv.org/abs/2005.02057v1 )

ライセンス: Link先を確認
Budi Kurniawan, Peter Vamplew, Michael Papasimeon, Richard Dazeley, Cameron Foale(参考訳) ニューラルネットワークは有効な関数近似器であるが、主にサンプルが相関しているため、強化学習(RL)コンテキストでのトレーニングは困難である。 長年にわたって、研究者は経験リプレイや非同期並列エージェントシステムを用いることでこの問題に取り組んできた。 本稿では,ニューラルネットワークをRLで学習するためのD2D-SPLを提案する。 D2D-SPLは連続状態空間を離散状態に識別し、アクタークリティカルを用いてポリシーを学ぶ。 次に、各離散状態から入力値と最も数値的好みのアクションを入力/ターゲットペアとして選択する。 最後に、すべての離散状態からの入力/ターゲットペアを使用して分類器をトレーニングする。 D2D-SPLは単一のエージェントを使用し、経験的な再生を必要とせず、最先端のメソッドよりも高速に学習する。 我々は,2つのRL環境,Cartpoleと航空機操作シミュレータを用いて実験を行った。

Neural networks are effective function approximators, but hard to train in the reinforcement learning (RL) context mainly because samples are correlated. For years, scholars have got around this by employing experience replay or an asynchronous parallel-agent system. This paper proposes Discrete-to-Deep Supervised Policy Learning (D2D-SPL) for training neural networks in RL. D2D-SPL discretises the continuous state space into discrete states and uses actor-critic to learn a policy. It then selects from each discrete state an input value and the action with the highest numerical preference as an input/target pair. Finally it uses input/target pairs from all discrete states to train a classifier. D2D-SPL uses a single agent, needs no experience replay and learns much faster than state-of-the-art methods. We test our method with two RL environments, the Cartpole and an aircraft manoeuvring simulator.
翻訳日:2022-12-06 13:32:42 公開日:2020-05-05
# コルモゴロフ-スミルノフ境界を用いた信頼できない機械学習生存モデルを説明するロバストアルゴリズム

A robust algorithm for explaining unreliable machine learning survival models using the Kolmogorov-Smirnov bounds ( http://arxiv.org/abs/2005.02249v1 )

ライセンス: Link先を確認
Maxim S. Kovalev and Lev V. Utkin(参考訳) 機械学習サバイバルモデルを説明するために,SurvLIME-KSと呼ばれる説明法に基づく新しいロバストアルゴリズムを提案する。 このアルゴリズムは、少数のトレーニングデータや生存データのアウトレーヤのケースに対して堅牢性を確保するために開発された。 SurvLIME-KSの背景にある最初のアイデアは、Cox比例ハザードモデルを適用して、実験例の周りの局所領域におけるブラックボックス生存モデルを近似することである。 第二の考えは、予測累積ハザード関数の集合を構成するためによく知られたコルモゴロフ・スミルノフ境界を組み込むことである。 その結果、説明ブラックボックスモデルの累積ハザード関数と近似coxモデルの平均距離を最小化し、コルモゴロフ-スミルノフ境界が生成する区間における累積ハザード関数全体の距離を最大化することを目的としたロバスト・マクシミン戦略が用いられる。 最大最適化問題は二次プログラムに還元される。 合成および実データを用いた様々な数値実験により、SurvLIME-KS効率が示されている。

A new robust algorithm based of the explanation method SurvLIME called SurvLIME-KS is proposed for explaining machine learning survival models. The algorithm is developed to ensure robustness to cases of a small amount of training data or outliers of survival data. The first idea behind SurvLIME-KS is to apply the Cox proportional hazards model to approximate the black-box survival model at the local area around a test example due to the linear relationship of covariates in the model. The second idea is to incorporate the well-known Kolmogorov-Smirnov bounds for constructing sets of predicted cumulative hazard functions. As a result, the robust maximin strategy is used, which aims to minimize the average distance between cumulative hazard functions of the explained black-box model and of the approximating Cox model, and to maximize the distance over all cumulative hazard functions in the interval produced by the Kolmogorov-Smirnov bounds. The maximin optimization problem is reduced to the quadratic program. Various numerical experiments with synthetic and real datasets demonstrate the SurvLIME-KS efficiency.
翻訳日:2022-12-06 13:32:29 公開日:2020-05-05
# SurvLIME-Inf: 機械学習サバイバルモデルの説明のためのSurvLIMEの簡易的な修正

SurvLIME-Inf: A simplified modification of SurvLIME for explanation of machine learning survival models ( http://arxiv.org/abs/2005.02387v1 )

ライセンス: Link先を確認
Lev V. Utkin, Maxim S. Kovalev and Ernest M. Kasimov(参考訳) 機械学習サバイバルモデルを説明するためにSurvLIME-Infと呼ばれるSurvLIMEの新たな変更を提案する。 SurvLIMEとSurvLIME-Infの背景にある基本的な考え方は、Cox比例ハザードモデルを用いて、テスト例の周辺地域のブラックボックスサバイバルモデルを近似することである。 coxモデルは共変量の線形関係のために用いられる。 SurvLIMEとは対照的に、近似された累積ハザード関数と近似近似の距離を定義するために$L_{\infty }$-normを使用する。 これは重要な特徴を特定し、ブラックボックスモデル予測を説明する単純な線形計画問題につながる。 さらに、トレーニングセットが非常に小さい場合、SurvLIME-InfはSurvLIMEより優れます。 合成および実データを用いた数値実験は、SurvLIME-Inf効率を示す。

A new modification of the explanation method SurvLIME called SurvLIME-Inf for explaining machine learning survival models is proposed. The basic idea behind SurvLIME as well as SurvLIME-Inf is to apply the Cox proportional hazards model to approximate the black-box survival model at the local area around a test example. The Cox model is used due to the linear relationship of covariates. In contrast to SurvLIME, the proposed modification uses $L_{\infty }$-norm for defining distances between approximating and approximated cumulative hazard functions. This leads to a simple linear programming problem for determining important features and for explaining the black-box model prediction. Moreover, SurvLIME-Inf outperforms SurvLIME when the training set is very small. Numerical experiments with synthetic and real datasets demonstrate the SurvLIME-Inf efficiency.
翻訳日:2022-12-06 13:32:09 公開日:2020-05-05
# 盗まれた確率:ニューラルネットワークモデルの構造的弱点

Stolen Probability: A Structural Weakness of Neural Language Models ( http://arxiv.org/abs/2005.02433v1 )

ライセンス: Link先を確認
David Demeter, Gregory Kimmel and Doug Downey(参考訳) ニューラルネットワーク言語モデル(nnlms)は、高次元埋め込み空間において、すべての単語ベクトルを含む予測ベクトルのドット積を成す距離計量にソフトマックス関数を適用して確率分布を生成する。 ドット積距離計量は、NNLMの誘導バイアスの一部を構成する。 NNLMは、この帰納バイアスをうまく最適化するが、この結果、確率を割り当てる際に、いくつかの単語を犠牲にして構造的に不利益にする埋め込み空間の準最適順序が導かれることを示す。 本研究では,包絡空間内の凸殻の内部にある単語が,包絡空間上の単語の確率によってその確率が制限されていることを示す数値的,理論的,実証的な分析を行った。

Neural Network Language Models (NNLMs) generate probability distributions by applying a softmax function to a distance metric formed by taking the dot product of a prediction vector with all word vectors in a high-dimensional embedding space. The dot-product distance metric forms part of the inductive bias of NNLMs. Although NNLMs optimize well with this inductive bias, we show that this results in a sub-optimal ordering of the embedding space that structurally impoverishes some words at the expense of others when assigning probability. We present numerical, theoretical and empirical analyses showing that words on the interior of the convex hull in the embedding space have their probability bounded by the probabilities of the words on the hull.
翻訳日:2022-12-06 13:31:35 公開日:2020-05-05
# ganによるクラスタリングにおける潜伏構造の影響

Effect of The Latent Structure on Clustering with GANs ( http://arxiv.org/abs/2005.02435v1 )

ライセンス: Link先を確認
Deepak Mishra, Aravind Jayendran, Prathosh A. P(参考訳) generative adversarial networks (gans) は画像などの自然データ多様体からデータを生成することに顕著な成功を収めている。 いくつかのシナリオでは、特に厳しいクラス不均衡がある場合、生成されたデータが適切にクラスタ化されることが望ましい。 本稿では,GANの生成空間におけるクラスタリングの問題に着目し,その潜在空間の特性との関係を明らかにする。 私たちは、第一原則、GANフレームワークにおける忠実なクラスタリングを達成するために必要な必要かつ十分な条件から導き出します。 (i)調整可能なプリエントを持つマルチモーダル潜在空間の存在。 (ii)潜在空間反転機構の存在と (iii)潜在空間上の所望のクラスターの事前配置 また,これらの条件を部分的に満たし,必要なすべてのコンポーネントの重要性を示す文献において,複数の実世界の画像データセットに関するアブレーティブな研究を通じて,GANモデルを同定する。 さらに,スパース監視によるクラスタ事前学習を容易にするマルチモーダル潜在空間の構築手順についても述べる。

Generative adversarial networks (GANs) have shown remarkable success in generation of data from natural data manifolds such as images. In several scenarios, it is desirable that generated data is well-clustered, especially when there is severe class imbalance. In this paper, we focus on the problem of clustering in generated space of GANs and uncover its relationship with the characteristics of the latent space. We derive from first principles, the necessary and sufficient conditions needed to achieve faithful clustering in the GAN framework: (i) presence of a multimodal latent space with adjustable priors, (ii) existence of a latent space inversion mechanism and (iii) imposition of the desired cluster priors on the latent space. We also identify the GAN models in the literature that partially satisfy these conditions and demonstrate the importance of all the components required, through ablative studies on multiple real world image datasets. Additionally, we describe a procedure to construct a multimodal latent space which facilitates learning of cluster priors with sparse supervision.
翻訳日:2022-12-06 13:31:23 公開日:2020-05-05
# ロシア語自然言語生成 : 言語モデリングデータセットの作成と現代ニューラルアーキテクチャによる評価

Russian Natural Language Generation: Creation of a Language Modelling Dataset and Evaluation with Modern Neural Architectures ( http://arxiv.org/abs/2005.02470v1 )

ライセンス: Link先を確認
Zein Shaheen, Gerhard Wohlgenannt, Bassel Zaity, Dmitry Mouromtsev, Vadim Pak(参考訳) コヒーレントで文法的に正しい意味のあるテキストを生成することは非常に難しいが、現代の多くのNLPシステムにとって非常に重要である。 これまでのところ、研究は主に英語に焦点を当てており、他の言語では標準化されたデータセットと最先端のモデルによる実験の両方がまれである。 この作品では、 一 ロシア語モデリングのための新しい参考データセットの提供 ii) テキスト生成のための一般的な現代的な手法である変分オートエンコーダと、新しいデータセットでトレーニングした生成的逆ネットワークの実験。 我々は, 難易度, 文法的正しさ, 語彙的多様性などの指標に関する生成テキストを評価する。

Generating coherent, grammatically correct, and meaningful text is very challenging, however, it is crucial to many modern NLP systems. So far, research has mostly focused on English language, for other languages both standardized datasets, as well as experiments with state-of-the-art models, are rare. In this work, we i) provide a novel reference dataset for Russian language modeling, ii) experiment with popular modern methods for text generation, namely variational autoencoders, and generative adversarial networks, which we trained on the new dataset. We evaluate the generated text regarding metrics such as perplexity, grammatical correctness and lexical diversity.
翻訳日:2022-12-06 13:25:06 公開日:2020-05-05
# MultiReQA: 検索質問応答モデルのためのクロスドメイン評価

MultiReQA: A Cross-Domain Evaluation for Retrieval Question Answering Models ( http://arxiv.org/abs/2005.02507v1 )

ライセンス: Link先を確認
Mandy Guo, Yinfei Yang, Daniel Cer, Qinlan Shen, Noah Constant(参考訳) ReQA(Retrieval Question answering)とは、オープンコーパス(Ahmad et al.,2019)から質問に対する文レベルの回答を検索するタスクである。 本稿では,公開されているQAデータセットから抽出した8つの検索QAタスクからなるマルチドメインReQA評価スイートであるMultiReQAを提案する。 我々は,2つの教師付きニューラルモデルを用いて,bert anduse-qaモデルの微調整と驚くほど強力な情報検索ベースライン,bm25を用いて,これらのデータセットを体系的に評価した。 これらのタスクのうち5つは、トレインとテストデータの両方を含み、3つはテストデータのみを含む。 トレーニングデータを用いた5つのタスクのパフォーマンスは、すべてのドメインをカバーする汎用モデルが達成可能である一方で、ドメイン内のデータのみをトレーニングすることで、最高のパフォーマンスが得られることを示している。

Retrieval question answering (ReQA) is the task of retrieving a sentence-level answer to a question from an open corpus (Ahmad et al.,2019).This paper presents MultiReQA, anew multi-domain ReQA evaluation suite com-posed of eight retrieval QA tasks drawn from publicly available QA datasets. We provide the first systematic retrieval based evaluation over these datasets using two supervised neural models, based on fine-tuning BERT andUSE-QA models respectively, as well as a surprisingly strong information retrieval baseline,BM25. Five of these tasks contain both train-ing and test data, while three contain test data only. Performance on the five tasks with train-ing data shows that while a general model covering all domains is achievable, the best performance is often obtained by training exclusively on in-domain data.
翻訳日:2022-12-06 13:24:54 公開日:2020-05-05
# 説明可能な人工知能の分析と設計のための多成分フレームワーク

A multi-component framework for the analysis and design of explainable artificial intelligence ( http://arxiv.org/abs/2005.01908v1 )

ライセンス: Link先を確認
S. Atakishiyev, H. Babiker, N. Farruque, R. Goebel1, M-Y. Kima, M.H. Motallebi, J. Rabelo, T. Syed, O. R. Za\"iane(参考訳) 説明可能な人工知能(XAI)の研究の急速な成長は、2つの実質的な発展に続く。 第一に、現代の機械学習手法、特に深層学習と強化学習の巨大な応用成功は、産業、商業、社会的価値に対する高い期待を生み出した。 第2に、AIシステムの透明性と信頼性を保証するための規制原則の作成を含む、信頼できるAIシステムを作成することに対する懸念の出現である。これらの2つのスレッドは、XAIの要求に対処するツールやテクニックを開発、提供しようとする、研究活動の“完璧な嵐”のようなものを生み出した。 現在のXAIの調査が示すように、科学史における説明可能性の文献を尊重する原則的な枠組みは、まだ現れておらず、透明なXAIの枠組み開発の基礎となっている。 ここでは、XAI要件の戦略的在庫を提供し、XAIのアイデアの歴史とそれらの関連性を実証し、これらのアイデアを単純なフレームワークに合成し、5段階のXAIをキャリブレーションする。

The rapid growth of research in explainable artificial intelligence (XAI) follows on two substantial developments. First, the enormous application success of modern machine learning methods, especially deep and reinforcement learning, which have created high expectations for industrial, commercial and social value. Second, the emergence of concern for creating trusted AI systems, including the creation of regulatory principles to ensure transparency and trust of AI systems.These two threads have created a kind of "perfect storm" of research activity, all eager to create and deliver it any set of tools and techniques to address the XAI demand. As some surveys of current XAI suggest, there is yet to appear a principled framework that respects the literature of explainability in the history of science, and which provides a basis for the development of a framework for transparent XAI. Here we intend to provide a strategic inventory of XAI requirements, demonstrate their connection to a history of XAI ideas, and synthesize those ideas into a simple framework to calibrate five successive levels of XAI.
翻訳日:2022-12-06 13:24:00 公開日:2020-05-05
# 確率論的論理推論を用いた分類のための説明可能なAI

Explainable AI for Classification using Probabilistic Logic Inference ( http://arxiv.org/abs/2005.02074v1 )

ライセンス: Link先を確認
Xiuyi Fan and Siyuan Liu and Thomas C. Henderson(参考訳) Explainable AIの網羅的な目標は、インテリジェントな振る舞いを示すだけでなく、その根拠を説明し、洞察を明らかにするシステムを開発することである。 説明可能な機械学習では、高いレベルの予測精度と透明な説明を生成する手法が有用である。 本稿では,説明可能な分類法を提案する。 本手法は,まず学習データから記号的知識ベースを構築し,その知識ベースに対して線形計画法を用いて確率的推論を行う。 本手法は,ランダムフォレストやサポートベクターマシン,ニューラルネットワークといった従来の分類器に匹敵するレベルの学習性能を実現する。 分類の責任を負う決定的な特徴を説明として識別し、アート・シャプリー値に基づく方法であるshapによって発見されたものと類似した結果を生成する。 我々のアルゴリズムは合成および非合成データセットでうまく機能する。

The overarching goal of Explainable AI is to develop systems that not only exhibit intelligent behaviours, but also are able to explain their rationale and reveal insights. In explainable machine learning, methods that produce a high level of prediction accuracy as well as transparent explanations are valuable. In this work, we present an explainable classification method. Our method works by first constructing a symbolic Knowledge Base from the training data, and then performing probabilistic inferences on such Knowledge Base with linear programming. Our approach achieves a level of learning performance comparable to that of traditional classifiers such as random forests, support vector machines and neural networks. It identifies decisive features that are responsible for a classification as explanations and produces results similar to the ones found by SHAP, a state of the art Shapley Value based method. Our algorithms perform well on a range of synthetic and non-synthetic data sets.
翻訳日:2022-12-06 13:22:49 公開日:2020-05-05
# 深層強化学習による一般化計画

Generalized Planning With Deep Reinforcement Learning ( http://arxiv.org/abs/2005.02305v1 )

ライセンス: Link先を確認
Or Rivlin, Tamir Hazan, Erez Karpas(参考訳) 知性の目印は、一般的な原則を例から推測する能力であり、観察された範囲を超えて正しい。 一般的な計画では、そのような原則を計画問題のクラスで見つけることを扱うため、ドメインの小さなインスタンスを使って発見された原則は、同じドメインのはるかに大きなインスタンスを解決するのに使うことができる。 本研究では,このような一般化した方針を学習するために,深層強化学習とグラフニューラルネットワークの利用について検討し,トレーニング対象よりも桁違いに大きなインスタンスに一般化できることを実証する。

A hallmark of intelligence is the ability to deduce general principles from examples, which are correct beyond the range of those observed. Generalized Planning deals with finding such principles for a class of planning problems, so that principles discovered using small instances of a domain can be used to solve much larger instances of the same domain. In this work we study the use of Deep Reinforcement Learning and Graph Neural Networks to learn such generalized policies and demonstrate that they can generalize to instances that are orders of magnitude larger than those they were trained on.
翻訳日:2022-12-06 13:22:10 公開日:2020-05-05
# 一般データの分類に基づく異常検出

Classification-Based Anomaly Detection for General Data ( http://arxiv.org/abs/2005.02359v1 )

ライセンス: Link先を確認
Liron Bergman and Yedid Hoshen(参考訳) 異常検出(anomaly detection)は、以前に見られたパターンから実質的に逸脱するパターンを見つけることで、人工知能の根本的な問題のひとつだ。 近年,この課題において,分類に基づく手法が優れた結果を得た。 本研究では、統一的な視点を示し、現在の一般化仮定を緩和するオープンセット手法であるGOADを提案する。 さらに,無作為なアフィン変換を用いた非画像データへの変換法の適用性も拡張する。 提案手法は最先端の精度を示し, 広範データ型に適用可能である。 この手法の強力な性能は、異なるドメインの複数のデータセット上で広範囲に検証される。

Anomaly detection, finding patterns that substantially deviate from those seen previously, is one of the fundamental problems of artificial intelligence. Recently, classification-based methods were shown to achieve superior results on this task. In this work, we present a unifying view and propose an open-set method, GOAD, to relax current generalization assumptions. Furthermore, we extend the applicability of transformation-based methods to non-image data using random affine transformations. Our method is shown to obtain state-of-the-art accuracy and is applicable to broad data types. The strong performance of our method is extensively validated on multiple datasets from different domains.
翻訳日:2022-12-06 13:15:25 公開日:2020-05-05
# 視覚注意と塩分検出のための側方抑制インスパイア畳み込みニューラルネットワークの再現

Reproduction of Lateral Inhibition-Inspired Convolutional Neural Network for Visual Attention and Saliency Detection ( http://arxiv.org/abs/2005.02184v1 )

ライセンス: Link先を確認
Filip Marcinek(参考訳) 近年、ニューラルネットワークは繁栄を続けており、写真中の関連オブジェクトの検出や、CNNネットワークを中心に、これらのオブジェクトの認識(分類)に高い効率を実現している。 しかし、現在のソリューションは理想的ではない。なぜなら、ネットワークは自然画像の例でさえも効果的に混同できるからだ。 対象の分類は,対象が位置する背景画素の影響を強く受けているのではないかと思う。 私の研究では、licNNネットワークによって作成されたこの目的の従順性マップを用いて、上記の問題を解析します。 対象物を取り巻くニューロンを抑えるために設計されており、その結果、分類器の予測に対する背景画素の寄与を減少させる。 自然画像と逆画像のデータセットに関する私の実験では、背景と間違った分類された前景オブジェクトの間には目に見える相関関係があることが示されています。 このネットワークの挙動は、例えば、雪の背景にあるからといって、黄色いスクールバスと雪のプローを混同しないため、人間の経験に支えられていない。

In recent years, neural networks have continued to flourish, achieving high efficiency in detecting relevant objects in photos or simply recognizing (classifying) these objects - mainly using CNN networks. Current solutions, however, are far from ideal, because it often turns out that network can be effectively confused with even natural images examples. I suspect that the classification of an object is strongly influenced by the background pixels on which the object is located. In my work, I analyze the above problem using for this purpose saliency maps created by the LICNN network. They are designed to suppress the neurons surrounding the examined object and, consequently, reduce the contribution of background pixels to the classifier predictions. My experiments on the natural and adversarial images datasets show that, indeed, there is a visible correlation between the background and the wrong-classified foreground object. This behavior of the network is not supported by human experience, because, for example, we do not confuse the yellow school bus with the snow plow just because it is on the snowy background.
翻訳日:2022-12-06 13:14:53 公開日:2020-05-05
# ダブルスレッショルドと拡張スキームを用いた高精度で効率的なディープスパイキングニューラルネットワークの構築

Constructing Accurate and Efficient Deep Spiking Neural Networks with Double-threshold and Augmented Schemes ( http://arxiv.org/abs/2005.03231v1 )

ライセンス: Link先を確認
Qiang Yu, Chenxiang Ma, Shiming Song, Gaoyan Zhang, Jianwu Dang, Kay Chen Tan(参考訳) スパイキングニューラルネットワーク(SNN)は、人工知能ニューラルネットワーク(ANN)が直面する高消費電力化など、現在の課題を克服する潜在的候補と考えられているが、実際的なタスクにおける認識精度に関してはまだギャップがある。 これにより、トレーニングされたANNをSNNにマッピングすることで、このギャップを埋める変換戦略が最近導入された。 しかし、この得られたSNNがANNの精度とスパイクベースの計算パラダイムの高効率の両方の利点をどの程度享受できるかは、まだ不明である。 本稿では,TurMappingとAugMappingという2つの新しい変換手法を提案する。 TerMappingは、ダブルスレッショルド方式による典型的なしきい値バランス方式の直接的な拡張であり、AugMappingは、スパイク係数を用いて、タイムステップで発生する典型的なオールスルースパイクの数を運ぶ新しいスパイク方式を取り入れている。 MNIST, Fashion-MNIST, CIFAR10データセットを用いて本手法の性能を検討した。 その結果,提案手法は変換されたsnsの精度を効果的に向上できることがわかった。 さらに重要なことに、提案されたaugmappingは、他の最先端のアプローチに比べて正確で高速で効率的なディープsnsを構築するのに有利である。 そこで本研究では,スパイクベースニューロモルフィックコンピューティングを用いた応用開発において大きなメリットがあるSNNの性能向上のために,ANNの高度な技術をさらに統合するための新たなアプローチを提案する。

Spiking neural networks (SNNs) are considered as a potential candidate to overcome current challenges such as the high-power consumption encountered by artificial neural networks (ANNs), however there is still a gap between them with respect to the recognition accuracy on practical tasks. A conversion strategy was thus introduced recently to bridge this gap by mapping a trained ANN to an SNN. However, it is still unclear that to what extent this obtained SNN can benefit both the accuracy advantage from ANN and high efficiency from the spike-based paradigm of computation. In this paper, we propose two new conversion methods, namely TerMapping and AugMapping. The TerMapping is a straightforward extension of a typical threshold-balancing method with a double-threshold scheme, while the AugMapping additionally incorporates a new scheme of augmented spike that employs a spike coefficient to carry the number of typical all-or-nothing spikes occurring at a time step. We examine the performance of our methods based on MNIST, Fashion-MNIST and CIFAR10 datasets. The results show that the proposed double-threshold scheme can effectively improve accuracies of the converted SNNs. More importantly, the proposed AugMapping is more advantageous for constructing accurate, fast and efficient deep SNNs as compared to other state-of-the-art approaches. Our study therefore provides new approaches for further integration of advanced techniques in ANNs to improve the performance of SNNs, which could be of great merit to applied developments with spike-based neuromorphic computing.
翻訳日:2022-12-06 13:14:34 公開日:2020-05-05
# 勾配方向変化のモニタリングによる変圧器バッチサイズの動的調整

Dynamically Adjusting Transformer Batch Size by Monitoring Gradient Direction Change ( http://arxiv.org/abs/2005.02008v1 )

ライセンス: Link先を確認
Hongfei Xu and Josef van Genabith and Deyi Xiong and Qiuhui Liu(参考訳) ハイパーパラメータの選択はニューラルモデルの性能に影響する。 これまでの多くの研究(Sutskever et al., 2013; Duchi et al., 2011; Kingma and Ba, 2015)は収束の加速と学習率の影響の低減に焦点を当てていたが、バッチサイズの影響に焦点を当てた論文は比較的少ない。 本稿では,バッチサイズの増加が勾配方向に与える影響を分析し,その角度変化による勾配の安定性を評価する。 我々の観測から、勾配方向の角度変化は、まずミニバッチを蓄積しながら安定(すなわち徐々に減少)し、次に変動し始める傾向にある。 本稿では,ミニバッチの勾配を蓄積し,勾配の方向が変動し始めるタイミングで最適化ステップを実行することで,バッチサイズを自動的かつ動的に決定する。 大規模モデルに対するアプローチの効率を改善するために,バッチサイズに敏感なパラメータの勾配を選択するサンプリング手法を提案する。 トレーニング中の適切なバッチサイズと効率的なバッチサイズを動的に決定する。 WMT 14の英語とドイツ語、フランス語のタスクに対する実験では、それぞれ25kのバッチサイズを+0.73と+0.82 BLEUで改善した。

The choice of hyper-parameters affects the performance of neural models. While much previous research (Sutskever et al., 2013; Duchi et al., 2011; Kingma and Ba, 2015) focuses on accelerating convergence and reducing the effects of the learning rate, comparatively few papers concentrate on the effect of batch size. In this paper, we analyze how increasing batch size affects gradient direction, and propose to evaluate the stability of gradients with their angle change. Based on our observations, the angle change of gradient direction first tends to stabilize (i.e. gradually decrease) while accumulating mini-batches, and then starts to fluctuate. We propose to automatically and dynamically determine batch sizes by accumulating gradients of mini-batches and performing an optimization step at just the time when the direction of gradients starts to fluctuate. To improve the efficiency of our approach for large models, we propose a sampling approach to select gradients of parameters sensitive to the batch size. Our approach dynamically determines proper and efficient batch sizes during training. In our experiments on the WMT 14 English to German and English to French tasks, our approach improves the Transformer with a fixed 25k batch size by +0.73 and +0.82 BLEU respectively.
翻訳日:2022-12-06 13:14:05 公開日:2020-05-05
# スパースニューラルネットワークデータによる性能と固有個体群動態の繰り返しニューラルネットワーク学習

Recurrent Neural Network Learning of Performance and Intrinsic Population Dynamics from Sparse Neural Data ( http://arxiv.org/abs/2005.02211v1 )

ライセンス: Link先を確認
Alessandro Salatiello and Martin A. Giese(参考訳) リカレントニューラルネットワーク(RNN)は、脳機能の一般的なモデルである。 典型的なトレーニング戦略は、生物学的回路と一致するように、入力出力の挙動を調整することである。 この戦略は、生物ネットワークと人工ネットワークが同じ計算タスクを実行することを保証しているが、内部活動のダイナミクスが一致することを保証しない。 このことは、訓練されたRNNが異なる内部計算機構を用いてタスクを実行し、生体回路の最適化モデルとなることを示唆している。 本研究では,RNNの入力出力動作だけでなく,スパークスなニューラル記録に基づく内部ネットワークダイナミクスも学習可能な,新たなトレーニング戦略を提案する。 提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。 具体的には、運動野で同時に観察される振動活性化パターンに基づいて、到達運動の実行中に典型的に観察される多相筋様活動パターンを生成する。 トレーニングアルゴリズムが生物学的ネットワークからサンプリングされたニューロンの小さなサブセットの活性に依存する場合であっても、内部ダイナミクスの再生が成功することを示す。 さらに,本手法によるRNNのトレーニングにより,その一般化性能が大幅に向上することを示す。 提案手法は, 生体回路の重要な計算特性を, スパース・ニューラル記録から自動的に取得する強力な機能的RNNモデルの構築に適していることを示唆する。

Recurrent Neural Networks (RNNs) are popular models of brain function. The typical training strategy is to adjust their input-output behavior so that it matches that of the biological circuit of interest. Even though this strategy ensures that the biological and artificial networks perform the same computational task, it does not guarantee that their internal activity dynamics match. This suggests that the trained RNNs might end up performing the task employing a different internal computational mechanism, which would make them a suboptimal model of the biological circuit. In this work, we introduce a novel training strategy that allows learning not only the input-output behavior of an RNN but also its internal network dynamics, based on sparse neural recordings. We test the proposed method by training an RNN to simultaneously reproduce internal dynamics and output signals of a physiologically-inspired neural model. Specifically, this model generates the multiphasic muscle-like activity patterns typically observed during the execution of reaching movements, based on the oscillatory activation patterns concurrently observed in the motor cortex. Remarkably, we show that the reproduction of the internal dynamics is successful even when the training algorithm relies on the activities of a small subset of neurons sampled from the biological network. Furthermore, we show that training the RNNs with this method significantly improves their generalization performance. Overall, our results suggest that the proposed method is suitable for building powerful functional RNN models, which automatically capture important computational properties of the biological circuit of interest from sparse neural recordings.
翻訳日:2022-12-06 13:13:28 公開日:2020-05-05
# 確率的仮定が重要:遠隔教師付き文書レベルの質問応答モデルの改良

Probabilistic Assumptions Matter: Improved Models for Distantly-Supervised Document-Level Question Answering ( http://arxiv.org/abs/2005.01898v1 )

ライセンス: Link先を確認
Hao Cheng, Ming-Wei Chang, Kenton Lee, Kristina Toutanova(参考訳) 本稿では,文書レベルの超ビジョン,ペアリング質問,関連文書と回答文字列を用いた抽出質問応答の問題に対処する。 従来使用されていた確率空間と遠方スーパービジョンの仮定(弱い応答文字列ラベルと可能な応答参照スパンの対応性に関する仮定)を比較した。 これらの仮定が相互作用し、異なる構成が相補的な利点をもたらすことを示す。 多目的モデルが複数の仮定の利点を効果的に組み合わせ、最も優れた個別の定式化を達成できることを実証する。 本稿では,TriviaQA-WikiのF1の4.3ポイント,NarrativeQA要約のRue-Lの1.7ポイントを比較検討した。

We address the problem of extractive question answering using document-level distant super-vision, pairing questions and relevant documents with answer strings. We compare previously used probability space and distant super-vision assumptions (assumptions on the correspondence between the weak answer string labels and possible answer mention spans). We show that these assumptions interact, and that different configurations provide complementary benefits. We demonstrate that a multi-objective model can efficiently combine the advantages of multiple assumptions and out-perform the best individual formulation. Our approach outperforms previous state-of-the-art models by 4.3 points in F1 on TriviaQA-Wiki and 1.7 points in Rouge-L on NarrativeQA summaries.
翻訳日:2022-12-06 13:13:03 公開日:2020-05-05
# オンチップベイズ型ニューロモーフィック学習に向けて

Towards On-Chip Bayesian Neuromorphic Learning ( http://arxiv.org/abs/2005.04165v1 )

ライセンス: Link先を確認
Nathan Wycoff, Prasanna Balaprakash, Fangfang Xia(参考訳) エッジデバイスが重要なアプリケーションにデプロイされ、彼らの決定が深刻な経済的、政治的、または公衆衛生的な結果をもたらす可能性がある場合、彼らは環境にどう反応するかを判断する手段が必要である。 例えば、失われた配達ドローンは、配信センターに戻るか、正確に配送する方法が混乱している場合、そのアクションを“おそらく”正しいものにするのではなく、クライアントに連絡する可能性がある。 この問題は医療や軍事用途に当てはまる。 しかし、ニューロモーフィックコンピューティングアルゴリズムが解決しなければならない脳-リアリスティックな時間的クレジット割り当て問題は困難である。 二重の役割重みはバックプロパゲーションベースの学習で働き、ネットワークが入力とフィードバックの両方にどのように反応するかを決定する。 e-prop 1は有望な学習アルゴリズムであり、ブロードキャストアライメント(フィードバック中にネットワークの重みをランダムな重みに置き換えるテクニック)と蓄積されたローカル情報を扱う。 ベイズ損失項を類似の方法で表現できる条件について検討し,局所情報のみを用いて計算可能で,ハードウェア上で実装することがもはや困難ではないアルゴリズムを提案する。 このアルゴリズムは、ストア-リコール問題に現れ、時間とともに行われる決定について、適切な不確実性を学ぶことができることを示唆している。

If edge devices are to be deployed to critical applications where their decisions could have serious financial, political, or public-health consequences, they will need a way to signal when they are not sure how to react to their environment. For instance, a lost delivery drone could make its way back to a distribution center or contact the client if it is confused about how exactly to make its delivery, rather than taking the action which is "most likely" correct. This issue is compounded for health care or military applications. However, the brain-realistic temporal credit assignment problem neuromorphic computing algorithms have to solve is difficult. The double role weights play in backpropagation-based-learning, dictating how the network reacts to both input and feedback, needs to be decoupled. e-prop 1 is a promising learning algorithm that tackles this with Broadcast Alignment (a technique where network weights are replaced with random weights during feedback) and accumulated local information. We investigate under what conditions the Bayesian loss term can be expressed in a similar fashion, proposing an algorithm that can be computed with only local information as well and which is thus no more difficult to implement on hardware. This algorithm is exhibited on a store-recall problem, which suggests that it can learn good uncertainty on decisions to be made over time.
翻訳日:2022-12-06 13:06:45 公開日:2020-05-05
# 連合学習における一般化誤りとプライバシー漏洩に関する情報理論的境界

Information-Theoretic Bounds on the Generalization Error and Privacy Leakage in Federated Learning ( http://arxiv.org/abs/2005.02503v1 )

ライセンス: Link先を確認
Semih Yagli, Alex Dytso, H. Vincent Poor(参考訳) モバイルネットワークで動作する機械学習アルゴリズムは,3つのカテゴリに分類される。 1つ目は、エンドユーザーデバイスがデータを中央サーバーに送信し、このデータがモデルをトレーニングするのに使用される古典的な状況である。 第2に、各デバイスが独自のモデルをトレーニングし、モデルパラメータを中央サーバに送信する分散設定で、モデルパラメータを集約して1つの最終モデルを生成する。 3つ目は連合学習(federated learning)で、任意の時間に、ある数のアクティブエンドユーザーが自身のローカルデータをトレーニングし、中央サーバから提供されるフィードバックとともに、新たに推定されたモデルパラメータを中央サーバに送信する。 サーバはこれらの新しいパラメータを集約し、独自のモデルを更新し、更新されたパラメータをすべてのエンドユーザに返送し、収束するまでこのプロセスを継続する。 この研究の主な目的は、前述のすべての学習パラダイムに対する情報理論フレームワークを提供することである。 さらに,提案フレームワークを用いて,古典的,分散的,フェデレートされた学習環境におけるプライバシリークのバウンダリとともに,一般化誤差の上下境界を開発する。 キーワード:連合学習、分散学習、機械学習、モデル集約。

Machine learning algorithms operating on mobile networks can be characterized into three different categories. First is the classical situation in which the end-user devices send their data to a central server where this data is used to train a model. Second is the distributed setting in which each device trains its own model and send its model parameters to a central server where these model parameters are aggregated to create one final model. Third is the federated learning setting in which, at any given time $t$, a certain number of active end users train with their own local data along with feedback provided by the central server and then send their newly estimated model parameters to the central server. The server, then, aggregates these new parameters, updates its own model, and feeds the updated parameters back to all the end users, continuing this process until it converges. The main objective of this work is to provide an information-theoretic framework for all of the aforementioned learning paradigms. Moreover, using the provided framework, we develop upper and lower bounds on the generalization error together with bounds on the privacy leakage in the classical, distributed and federated learning settings. Keywords: Federated Learning, Distributed Learning, Machine Learning, Model Aggregation.
翻訳日:2022-12-06 13:06:22 公開日:2020-05-05
# スマートTo-Do : 電子メールからのTo-Doアイテムの自動生成

Smart To-Do : Automatic Generation of To-Do Items from Emails ( http://arxiv.org/abs/2005.06282v1 )

ライセンス: Link先を確認
Sudipto Mukherjee, Subhabrata Mukherjee, Marcello Hasegawa, Ahmed Hassan Awadallah, Ryen White(参考訳) メールサービスアプリケーションのインテリジェントな機能は、フォルダを整理し、メールを作成し、待機中のタスクに応答することで生産性を向上させることを目指している。 本研究では,メールによるタスク管理を支援する新しいアプリケーションSmart-To-Doについて検討する。 送信者がアクションを実行することを約束したメールからTo-Doアイテムを自動的に生成するタスクとデータセットを導入する。 本稿では,ニューラルテキスト生成とシーケンス・ツー・シーケンス学習の最近の進歩を活用し,BLEUとROUGEのスコアを0:23,0:63とする2段階プロセスの設計を行う。 私たちの知る限りでは、メールからto-doアイテムを構成する問題に対処するのはこれが初めてです。

Intelligent features in email service applications aim to increase productivity by helping people organize their folders, compose their emails and respond to pending tasks. In this work, we explore a new application, Smart-To-Do, that helps users with task management over emails. We introduce a new task and dataset for automatically generating To-Do items from emails where the sender has promised to perform an action. We design a two-stage process leveraging recent advances in neural text generation and sequence-to-sequence learning, obtaining BLEU and ROUGE scores of 0:23 and 0:63 for this task. To the best of our knowledge, this is the first work to address the problem of composing To-Do items from emails.
翻訳日:2022-12-06 13:06:01 公開日:2020-05-05
# ExpBERT:自然言語による表現工学

ExpBERT: Representation Engineering with Natural Language Explanations ( http://arxiv.org/abs/2005.01932v1 )

ライセンス: Link先を確認
Shikhar Murty, Pang Wei Koh, and Percy Liang(参考訳) 夫婦が通常、テキストから配偶者のペアを抽出するタスクのために新婚旅行に出かける帰納的バイアスを規定したいとします。 本稿では,モデル開発者がこのような帰納的バイアスを自然言語の説明として指定できるようにする。 我々は、MultiNLIで微調整されたBERTを用いて、入力文に関するこれらの説明を ``interpret'' し、入力の説明誘導表現を生成する。 3つの関係抽出タスクのうち,提案手法であるExpBERTはBERTベースラインと一致するが,ラベル付きデータを3~20倍少なくし,同じラベル付きデータを3~10F1ポイント改善する。

Suppose we want to specify the inductive bias that married couples typically go on honeymoons for the task of extracting pairs of spouses from text. In this paper, we allow model developers to specify these types of inductive biases as natural language explanations. We use BERT fine-tuned on MultiNLI to ``interpret'' these explanations with respect to the input sentence, producing explanation-guided representations of the input. Across three relation extraction tasks, our method, ExpBERT, matches a BERT baseline but with 3--20x less labeled data and improves on the baseline by 3--10 F1 points with the same amount of labeled data.
翻訳日:2022-12-06 13:05:46 公開日:2020-05-05
# グラフモデルに基づくニューラルシンボリック関係推論:効果的なリンク推論と知識ベースからの計算

Neural-Symbolic Relational Reasoning on Graph Models: Effective Link Inference and Computation from Knowledge Bases ( http://arxiv.org/abs/2005.02525v1 )

ライセンス: Link先を確認
Henrique Lemos and Pedro Avelar and Marcelo Prates and Lu\'is Lamb and Artur Garcez(参考訳) ニューラルシンボリックモデルへの最近の発展と関心の高まりは、ハイブリッドアプローチが人工知能によりリッチなモデルを提供できることを示している。 効果的なリレーショナル学習と推論手法の統合はこの方向の重要な課題の1つであり、ニューラルネットワークとシンボリック推論はAIシステムの開発に役立つ補完的な特徴を提供する。 ナレッジグラフにおけるリレーショナルラベリングやリンク予測は、ディープラーニングに基づく自然言語処理研究の主要な問題の一つとなっている。 さらに、ニューラルシンボリック技術を利用する他の分野もそのような研究の恩恵を受ける可能性がある。 知識グラフの既存のものから行方不明の事実を識別する試みがいくつかある。 2つの研究の行は、それらをつなぐすべての既知の事実やそれらをつなぐいくつかの事実経路を考慮して、2つの実体間の知識関係を予測しようとする。 本稿では,その経路を含む知識グラフの最小部分集合を組み込んでモデルに与え,すべての経路に学習を適用するニューラルシンボリックグラフニューラルネットワークを提案する。 単語埋め込みに対応するエンティティや事実の表現を学習することで、モデルがどのようにエンドツーエンドでこれらの表現をデコードし、マルチタスクアプローチでエンティティ間の関係を推論できるかを訓練できるかを示す。 ニューラルシンボリック手法は,大規模グラフにおける関係推論の解法を活用し,また,そのようなニューラルシンボリックモデルがパスベースアプローチよりも効果的であることが示されている。

The recent developments and growing interest in neural-symbolic models has shown that hybrid approaches can offer richer models for Artificial Intelligence. The integration of effective relational learning and reasoning methods is one of the key challenges in this direction, as neural learning and symbolic reasoning offer complementary characteristics that can benefit the development of AI systems. Relational labelling or link prediction on knowledge graphs has become one of the main problems in deep learning-based natural language processing research. Moreover, other fields which make use of neural-symbolic techniques may also benefit from such research endeavours. There have been several efforts towards the identification of missing facts from existing ones in knowledge graphs. Two lines of research try and predict knowledge relations between two entities by considering all known facts connecting them or several paths of facts connecting them. We propose a neural-symbolic graph neural network which applies learning over all the paths by feeding the model with the embedding of the minimal subset of the knowledge graph containing such paths. By learning to produce representations for entities and facts corresponding to word embeddings, we show how the model can be trained end-to-end to decode these representations and infer relations between entities in a multitask approach. Our contribution is two-fold: a neural-symbolic methodology leverages the resolution of relational inference in large graphs, and we also demonstrate that such neural-symbolic model is shown more effective than path-based approaches
翻訳日:2022-12-06 13:05:09 公開日:2020-05-05
# マルチメディアイベント抽出のためのクロスメディア構造化共通空間

Cross-media Structured Common Space for Multimedia Event Extraction ( http://arxiv.org/abs/2005.02472v1 )

ライセンス: Link先を確認
Manling Li, Alireza Zareian, Qi Zeng, Spencer Whitehead, Di Lu, Heng Ji, Shih-Fu Chang(参考訳) 本稿では,マルチメディア文書からイベントとその引数を抽出することを目的としたM2E2タスクを提案する。 最初のベンチマークを開発し、広範囲に注釈付きイベントや議論のある245のマルチメディアニュース記事のデータセットを収集する。 本稿では,テキストおよび視覚データからの意味情報の構造化表現を共通の埋め込み空間にエンコードする新しい手法,Weakly Aligned Structured Embedding (WASE)を提案する。 構造は、明確なクロスメディアアノテーションを使わずに利用可能なリソースを活用できる、弱い教師付きトレーニング戦略を採用することで、モダリティをまたいでアラインメントされる。 単モーダルな最先端手法と比較して,本手法はテキストイベント引数のラベル付けと視覚イベント抽出において4.0%,9.8%の絶対Fスコアゲインを達成する。 最先端のマルチメディア非構造化表現と比較して,マルチメディアイベント抽出と引数ロールラベリングにおいて,f-scoreの絶対値が8.3%と5.%向上した。 画像を利用することで、従来のテキストのみの方法よりも21.4%多くイベントを参照できる。

We introduce a new task, MultiMedia Event Extraction (M2E2), which aims to extract events and their arguments from multimedia documents. We develop the first benchmark and collect a dataset of 245 multimedia news articles with extensively annotated events and arguments. We propose a novel method, Weakly Aligned Structured Embedding (WASE), that encodes structured representations of semantic information from textual and visual data into a common embedding space. The structures are aligned across modalities by employing a weakly supervised training strategy, which enables exploiting available resources without explicit cross-media annotation. Compared to uni-modal state-of-the-art methods, our approach achieves 4.0% and 9.8% absolute F-score gains on text event argument role labeling and visual event extraction. Compared to state-of-the-art multimedia unstructured representations, we achieve 8.3% and 5.0% absolute F-score gains on multimedia event extraction and argument role labeling, respectively. By utilizing images, we extract 21.4% more event mentions than traditional text-only methods.
翻訳日:2022-12-06 13:04:45 公開日:2020-05-05
# 概念活性化ベクターを用いた深層学習に基づく皮膚病変分類器の解釈について

On Interpretability of Deep Learning based Skin Lesion Classifiers using Concept Activation Vectors ( http://arxiv.org/abs/2005.02000v1 )

ライセンス: Link先を確認
Adriano Lucieri, Muhammad Naseer Bajwa, Stephan Alexander Braun, Muhammad Imran Malik, Andreas Dengel and Sheraz Ahmed(参考訳) 深層学習に基づく医用画像分類器は眼科、皮膚科、病理学、放射線学など様々な応用分野において顕著な進歩を見せている。 しかし, 実際の臨床施設におけるコンピュータ支援診断(CAD)システムの受容は, 意思決定過程が明らかになっていないため, 著しく制限されている。 本研究は, 皮膚科医が記述, 採用した類似の疾患関連概念を学習し, 活用することを検証することによって, 深層学習に基づく医用画像分類器の解明を目的とする。 Reasoning for Complex Data (RECOD) Lab を用いて, メラノサイトティック・ナエビ, メラノーマ, セボリック・ケラトーシスの3つの皮膚腫瘍の分類を行い, 潜伏領域の詳細な解析を行った。 確立された2つの皮膚疾患データセットであるPH2とDerm7ptが実験に用いられている。 概念活性化ベクトル(Concept Activation Vectors, CAV)の助けを借りて, 人間の理解可能な概念をRECOD画像分類モデルにマッピングする。 独立評価セットを用いた結果から,その潜在表現において人間の理解可能な概念を学習し,符号化することを示す。 さらに、TCAVスコア (Testing with CAVs) は、ニューラルネットワークが予測を行う際に、正しい方法で疾患関連の概念を活用することを示唆している。 本研究は,CADにおける医療従事者の信頼性を高めるだけでなく,CAVベースのニューラルネットワーク解釈手法のさらなる発展の足掛かりとなることを期待する。

Deep learning based medical image classifiers have shown remarkable prowess in various application areas like ophthalmology, dermatology, pathology, and radiology. However, the acceptance of these Computer-Aided Diagnosis (CAD) systems in real clinical setups is severely limited primarily because their decision-making process remains largely obscure. This work aims at elucidating a deep learning based medical image classifier by verifying that the model learns and utilizes similar disease-related concepts as described and employed by dermatologists. We used a well-trained and high performing neural network developed by REasoning for COmplex Data (RECOD) Lab for classification of three skin tumours, i.e. Melanocytic Naevi, Melanoma and Seborrheic Keratosis and performed a detailed analysis on its latent space. Two well established and publicly available skin disease datasets, PH2 and derm7pt, are used for experimentation. Human understandable concepts are mapped to RECOD image classification model with the help of Concept Activation Vectors (CAVs), introducing a novel training and significance testing paradigm for CAVs. Our results on an independent evaluation set clearly shows that the classifier learns and encodes human understandable concepts in its latent representation. Additionally, TCAV scores (Testing with CAVs) suggest that the neural network indeed makes use of disease-related concepts in the correct way when making predictions. We anticipate that this work can not only increase confidence of medical practitioners on CAD but also serve as a stepping stone for further development of CAV-based neural network interpretation methods.
翻訳日:2022-12-06 13:04:03 公開日:2020-05-05