このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200916となっている論文です。

PDF登録状況(公開日: 20200916)

TitleAuthorsAbstract論文公表日・翻訳日
# 多くの人の1つ:多くのパラメータの関数を推定する

One from many: Estimating a function of many parameters ( http://arxiv.org/abs/2002.02898v2 )

ライセンス: Link先を確認
Jonathan A. Gross, Carlton M. Caves(参考訳) 量子マルチパラメータ推定のための達成可能な感度境界の定式化は困難である。 プロセスの多くのパラメータは未知であり、パラメータを制御せずにこれらのパラメータの特定の線形結合を推定する。 表面的には単パラメータ推定に似ており、真に複数パラメータの側面を保っている。 幾何学的推論は、この文脈における基本的で達成可能な量子過程の飽和に必要かつ十分な条件を示す。

Difficult it is to formulate achievable sensitivity bounds for quantum multiparameter estimation. Consider a special case, one parameter from many: many parameters of a process are unknown; estimate a specific linear combination of these parameters without having the ability to control any of the parameters. Superficially similar to single-parameter estimation, the problem retains genuinely multiparameter aspects. Geometric reasoning demonstrates the conditions, necessary and sufficient, for saturating the fundamental and attainable quantum-process bound in this context.
翻訳日:2023-06-04 07:22:22 公開日:2020-09-16
# ワーナー状態と等方状態の分解

The Decompositions of Werner and Isotropic States ( http://arxiv.org/abs/2003.00694v3 )

ライセンス: Link先を確認
Ma-Cheng Yang, Jun-Li Li, Cong-Feng Qiao(参考訳) 分離可能なヴェルナー状態の分解と等方性状態は、量子情報理論においてよく知られた難しい問題であり、この研究において、ヒルベルト空間における対称情報完備な正の作用素値測度(SIC-POVM)を探索するブロッホベクトル表現においてそれらを調べる。 任意の$N\times N$ Werner 状態の分解を正則な単純性の観点から得られる。 一方、等方性状態の分解は部分転位によるヴェルナー状態の分解と関係していることがわかった。 興味深いことに、大きな$N$制限では、ワーナー状態は分離可能か非ステアブル絡み合っているが、ほとんどの等方性状態はステアブルである傾向がある。

The decompositions of separable Werner state, and also isotropic state, are well-known tough issues in quantum information theory, in this work we investigate them in the Bloch vector representation, exploring the symmetric informationally complete positive operator-valued measure (SIC-POVM) in the Hilbert space. We successfully get the decomposition for arbitrary $N\times N$ Werner state in terms of regular simplexes. Meanwhile, the decomposition of isotropic state is found to be related to the decomposition of Werner state via partial transposition. It is interesting to note that in the large $N$ limit, while the Werner states are either separable or non-steerably entangled, most of the isotropic states tend to be steerable.
翻訳日:2023-05-31 12:31:59 公開日:2020-09-16
# SIMONのグラバー

Grover on SIMON ( http://arxiv.org/abs/2004.10686v2 )

ライセンス: Link先を確認
Ravi Anand, Arpita Maitra, Sourav Mukhopadhyay(参考訳) 秘密鍵が$n$-bitの任意の対称鍵暗号系の場合、鍵は$O(2^{n/2})$ exploiting Grover search algorithm で回収でき、有効鍵長は半分になる。 この方向では、AESや他のブロック暗号に関するその後の研究が行われている。 一方、SIMONのような軽量暗号は未探索のままであった。 この背景において、Groverの探索アルゴリズムをSIMONのすべての変種について提示し、量子資源を列挙して、NOT、CNOT、Toffoliゲートといった攻撃を実装する。 また、回路のT深さと攻撃に必要な量子ビット数も提供する。 SIMONでGroverを実装するのに必要なキュービット数は$O(2nr+mn)$であり、$r$は選択された平文暗号テキストペアの数である。 我々は、IBMQ量子シミュレータと14量子ビットプロセッサでSIMONの縮小版を実行する。 シミュレーションが理論を支持する場合、ゲートの不確かさとキュービットの短いデコヒーレンス時間のため、実際の実装は現実とは程遠いことが判明した。 SIMONの全バージョンのための完全なコードも提示されている。

For any symmetric key cryptosystem with $n$-bit secret key, the key can be recovered in $O(2^{n/2})$ exploiting Grover search algorithm, resulting in the effective key length to be half. In this direction, subsequent work has been done on AES and some other block ciphers. On the other hand, lightweight ciphers like SIMON was left unexplored. In this backdrop, we present Grover's search algorithm on all the variants of SIMON and enumerate the quantum resources to implement such attack in terms of NOT, CNOT and Toffoli gates. We also provide the T-depth of the circuits and the number of qubits required for the attack. We show that the number of qubits required for implementing Grover on SIMON $2n/mn$ is $O(2nr+mn)$, where $r$ is the number of chosen plaintext-cipher text pairs. We run a reduced version of SIMON in IBMQ quantum simulator and the 14-qubits processor as well. We found that where simulation supports theory, the actual implementation is far from the reality due to the infidelity of the gates and short decoherence time of the qubits. The complete codes for all version of SIMON have also been presented.
翻訳日:2023-05-22 10:57:59 公開日:2020-09-16
# 開二次フェルミオン系における混合時間とカットオフ

Mixing times and cutoffs in open quadratic fermionic systems ( http://arxiv.org/abs/2004.11788v2 )

ライセンス: Link先を確認
Eric Vernier(参考訳) 古典的確率論において、「カットオフ」という用語は、いくつかのマルコフ連鎖が初期配置から非常に狭い時間枠で完全に混合する(近い)性質を記述する。 我々は、コヒーレント量子進化が2つのフェルミオン量子モデル(ゲイン/ロスモデルとトポロジカルモデル)の混合特性にどのように影響するかを検討する。 カットオフ現象が量子ケースにまで拡大していることを確認し、混合特性が初期状態にどのように依存するかを注意して、定性的に異なる振る舞いでモデルの異なる状態を描く。 トポロジカルケースでは、開境界条件を取る際に、長寿命エッジゼロモードの存在によって混合特性がどう影響するかをさらに示す。

In classical probability theory, the term "cutoff" describes the property of some Markov chains to jump from (close to) their initial configuration to (close to) completely mixed in a very narrow window of time. We investigate how coherent quantum evolution affects the mixing properties in two fermionic quantum models (the "gain/loss" and "topological" models), whose time evolution is governed by a Lindblad equation quadratic in fermionic operators, allowing for a straightforward exact solution. We check that the phenomenon of cutoff extends to the quantum case and examine with some care how the mixing properties depend on the initial state, drawing different regimes of our models with qualitatively different behaviour. In the topological case, we further show how the mixing properties are affected by the presence of a long-lived edge zero mode when taking open boundary conditions.
翻訳日:2023-05-22 06:02:19 公開日:2020-09-16
# 誤り訂正符号としての物質位相の地中部分空間

Ground Subspaces of Topological Phases of Matter as Error Correcting Codes ( http://arxiv.org/abs/2004.11982v3 )

ライセンス: Link先を確認
Yang Qiu, Zhenghan Wang(参考訳) トポロジカル量子コンピューティングは本質的にフォールトトレラントであると考えられている。 1つの数学的正当性は、物質の位相位相の基底部分空間または基底状態多様体が、マクロ距離の誤差補正符号として振る舞うことを証明することである。 これは物理学の文献において、トポロジカル位相の定義として広く仮定され、用いられるが、北エフのセミナー論文の二重アーベルアノンモデルに加えて、最近まで非アーベルモデルは数学的に証明されていない。 cuiらはこの定理をダブルド・アーベル・エノンモデルから任意の有限群に基づくすべてのキタエフモデルへと拡張した。 これらの証明はハミルトニアンの詳細な知識を用いて非常に明確であり、レヴィン=ウェンのような他のモデルをカバーする証明をさらに拡張することは困難であると思われる。 位相量子場理論 (tqfts) に基づく全く異なるアプローチを追求し、tqfts における円板公理と円板公理の格子実装が本質的に tqo1 と tqo2 条件の同値であることを証明する。 我々は、レヴィン・ウェンモデルのトポロジカル格子ハミルトニアンスキーマとダイクグラーフ・ウィッテンTQFTの誤差補正特性を、基礎となるTQFTの格子版とアンラスを提供することで確認する。 基底部分空間の誤差補正特性は、ハア符号のようなギャップ付きフラクトンモデルでも共有される。 本稿では, 誤差補正特性を用いて物質のトポロジ的位相を特徴付けることを提案し, 隙間フラクトン模型をラックストポロジカルと呼ぶ。

Topological quantum computing is believed to be inherently fault-tolerant. One mathematical justification would be to prove that ground subspaces or ground state manifolds of topological phases of matter behave as error correction codes with macroscopic distance. While this is widely assumed and used as a definition of topological phases of matter in the physics literature, besides the doubled abelian anyon models in Kitaev's seminal paper, no non-abelian models are proven to be so mathematically until recently. Cui et al extended the theorem from doubled abelian anyon models to all Kitaev models based on any finite group. Those proofs are very explicit using detailed knowledge of the Hamiltonians, so it seems to be hard to further extend the proof to cover other models such as the Levin-Wen. We pursue a totally different approach based on topological quantum field theories (TQFTs), and prove that a lattice implementation of the disk axiom and annulus axiom in TQFTs as essentially the equivalence of TQO1 and TQO2 conditions. We confirm the error correcting properties of ground subspaces for topological lattice Hamiltonian schemas of the Levin-Wen model and Dijkgraaf-Witten TQFTs by providing a lattice version of the disk axiom and annulus of the underlying TQFTs. The error correcting property of ground subspaces is also shared by gapped fracton models such as the Haah codes. We propose to characterize topological phases of matter via error correcting properties, and refer to gapped fracton models as lax-topological.
翻訳日:2023-05-22 05:54:07 公開日:2020-09-16
# 距離における量子コヒーレンスとアハラノフ・ボーム非局所性

Probing quantum coherence at a distance and Aharonov-Bohm non-locality ( http://arxiv.org/abs/2004.13080v3 )

ライセンス: Link先を確認
Sebastian Horvat, Philippe Allard Guerin, Luca Apadula and Flavio Del Santo(参考訳) 標準干渉法実験では、ビームスプリッター上の2つの波束を再結合することにより、2つの経路間の位相差を測定する。 しかし, この相は, 既知の重ね合わせ状態の粒子を用いて, 局所的な測定によっても推定可能であることが近年認識されている。 本研究では、これらのプロトコルを異なる種類の粒子(粒子、フェルミオン、荷電または無電荷)に対してさらに分析し、位相がアーベルゲージ場とのカップリングに起因するときに生じる微妙さに特に重点を置いている。 その場合、測定可能な量は4-ベクトルポテンシャルの時空ループ積分であり、2つの同一の粒子または粒子-粒子対で囲まれている。 さらに, 一般チャージフェルミオン状態において局所的な測定を行う任意の数の当事者が関与するシナリオについて, 考察を一般化する。 最後に, 具体的な応用として, marletto と vedral (arxiv: 1906.03440) による最近の提案を解析した。

In a standard interferometry experiment, one measures the phase difference between two paths by recombining the two wave packets on a beam-splitter. However, it has been recently recognized that the phase can also be estimated via local measurements, by using an ancillary particle in a known superposition state. In this work, we further analyse these protocols for different types of particles (bosons or fermions, charged or uncharged), with a particular emphasis on the subtleties that arise when the phase is due to the coupling to an abelian gauge field. In that case, we show that the measurable quantities are spacetime loop integrals of the 4-vector potential, enclosed by two identical particles or by a particle-antiparticle pair. Furthermore, we generalize our considerations to scenarios involving an arbitrary number of parties performing local measurements on a general charged fermionic state. Finally, as a concrete application, we analyse a recent proposal by Marletto and Vedral (arXiv:1906.03440) involving the time-dependent Aharonov-Bohm effect.
翻訳日:2023-05-21 23:52:06 公開日:2020-09-16
# 多体ローカライゼーションに対する多項フィルタ精密対角化法

Polynomially filtered exact diagonalization approach to many-body localization ( http://arxiv.org/abs/2005.09534v2 )

ライセンス: Link先を確認
Piotr Sierant, Maciej Lewenstein, Jakub Zakrzewski(参考訳) 大きなスパース行列に対する多項式フィルター付き完全対角化法(polfed)を導入する。 このアルゴリズムは, 行列の高次多項式を用いたスペクトル変換により, 固有ベクトルと所定のエネルギー目標に近い固有値を持つ部分空間の最適基底を求める。 メモリ要件は、最先端のシフト-反転アプローチよりもシステムサイズでスケールする。 polfedのポテンシャルは、1次元相互作用する量子スピン1/2鎖における多体局在遷移を検証できる。 我々はThouless Timeの障害強度とシステムサイズスケーリングについて検討した。 両部エンタングルメントエントロピーとギャップ比のシステムサイズ依存性は、システムにおける有限サイズ効果の重要性を強調する。 臨界障害強度の推定値を求める多体局所化遷移のシナリオについて考察する。

Polynomially filtered exact diagonalization method (POLFED) for large sparse matrices is introduced. The algorithm finds an optimal basis of a subspace spanned by eigenvectors with eigenvalues close to a specified energy target by a spectral transformation using a high order polynomial of the matrix. The memory requirements scale better with system size than in the state-of-the-art shift-invert approach. The potential of POLFED is demonstrated examining many-body localization transition in 1D interacting quantum spin-1/2 chains. We investigate the disorder strength and system size scaling of Thouless time. System size dependence of bipartite entanglement entropy and of the gap ratio highlights the importance of finite-size effects in the system. We discuss possible scenarios regarding the many-body localization transition obtaining estimates for the critical disorder strength.
翻訳日:2023-05-19 08:02:38 公開日:2020-09-16
# ヘシアンによる制約量子制御の最適化

Hessian-based optimization of constrained quantum control ( http://arxiv.org/abs/2006.00935v2 )

ライセンス: Link先を確認
Mogens Dalgaard and Felix Motzoi and Jesper Hasseriis Mohr Jensen and Jacob Sherson(参考訳) 量子システムの効率的な最適化は、フォールトトレラントしきい値に到達するために必要である。 量子力学を最適化するための標準的なツールは勾配に基づく \textsc{grape} アルゴリズムであり、量子物理学の幅広い分野に応用されている。 本研究では、コヒーレント力学の厳密な解析微分を正確に2,^{\mathrm{nd}}$で導出し実装し、近似した2,^{\mathrm{nd}}$ order \textsc{bfgs} で最適化する標準と比較して改善を求める。 回路-\textsc{qed}系における制約付きユニタリゲート合成の最適かつ平均的な誤差に対して,幅広いゲート持続時間における性能改善を示す。

Efficient optimization of quantum systems is a necessity for reaching fault tolerant thresholds. A standard tool for optimizing simulated quantum dynamics is the gradient-based \textsc{grape} algorithm, which has been successfully applied in a wide range of different branches of quantum physics. In this work, we derive and implement exact $2^{\mathrm{nd}}$ order analytical derivatives of the coherent dynamics and find improvements compared to the standard of optimizing with the approximate $2^{\mathrm{nd}}$ order \textsc{bfgs}. We demonstrate performance improvements for both the best and average errors of constrained unitary gate synthesis on a circuit-\textsc{qed} system over a broad range of different gate durations.
翻訳日:2023-05-17 11:27:37 公開日:2020-09-16
# Mach-Zehnder干渉計を用いた高速長距離QKDプロトコルの可読性と検出率に関する研究

Studies on the readability and on the detection rate in a Mach-Zehnder interferometer-based implementation for high-rate, long-distance QKD protocols ( http://arxiv.org/abs/2006.02328v2 )

ライセンス: Link先を確認
Christos Papapanos, Dimitris Zavitsanos, Adam Raptakis, Giannis Giannoulis, Christos Kouloumentas, Hercules Avramopoulos(参考訳) 送信機/受信機局における2つのファイバベースマッハ・ツェンダー干渉計(MZ)を用いて,色分散が量子鍵分布(QKD)プロトコルの可視性と同期性に与える影響について検討した。 干渉計の2つのアーム間の経路長差の必要条件を明らかにすることにより、検出器の窓の形状を考慮できる伝送距離を考慮し、所望の可視性を達成する。 また、上記の限界は、量子非線形現象を含む設定で記録できる最大検出率と、検出器のゲートの最大時間窓とを関連付けている。 提案手法は,送信シンボルの正しい順序を維持するために,信号に色分散補償技術を適用するために,セットアップのクロックレートに依存する2つの方法を提案する。 最後に、広く使われている位相エンコーディングbb84 qkdプロトコルの場合を考慮して、より現実的なqkdデプロイメントに理論的結果を適用する。 提案手法は送信局における伝送距離や光子放射率に依存するため,各シンボルの識別が不可欠である光ファイバーQKDプロトコルに容易に一般化することができる。

We study the way that chromatic dispersion affects the visibility and the synchronization on Quantum Key Distribution (QKD) protocols in a widely-used setup based on the use of two fiber-based Mach-Zehnder (MZ) interferometers at transmitter/receiver stations. We identify the necessary conditions for the path length difference between the two arms of the interferometers for achieving the desired visibility given the transmission distance -- where the form of the detector's window can be considered. We also associate the above limitations with the maximum detection rate that can be recorded in our setup, including the quantum non-linearity phenomenon, and to the maximum time window of the detector's gate. Exploiting our results we provide two methods, depending on the clock rate of the setup, to perform chromatic dispersion compensation techniques to the signal for keeping the correct order of the transmitted symbols. At the end, we apply our theoretical outcomes in a more realistic QKD deployment, considering the case of phase-encoding BB84 QKD protocol, which is widely used. Our proposed methods, depending on the transmission distance and on the photon emission rate at transmitter station, can be easily generalized to every fiber-optic QKD protocol, for which the discrimination of each symbol is crucial.
翻訳日:2023-05-17 06:40:54 公開日:2020-09-16
# 複合測定による相関

Correlations constrained by composite measurements ( http://arxiv.org/abs/2009.04994v2 )

ライセンス: Link先を確認
{\L}ukasz Czekaj, Ana Bel\'en Sainz, John Selby, Micha{\l} Horodecki(参考訳) 自然界で許容される相関の集合をどう理解するかは、量子論の基礎の中核における際立ったオープンな問題である。 ここでは、デバイス非依存のアプローチを補完的に捉え、物理理論がそれらの測定値の特定の制約によって制限される場合の相関について検討する。 理論が合成測度を示すことを要求することは、その状態と効果の集合の構造に制約の階層を課し、許容される相関自体に制約の階層を与えることを示す。 さらに,局所的なfiducial測定のパリティを読み取る,絡み合った測定の存在を要求する特定の場合にも注目する。 非線形最適化問題とそれに対する半定値緩和を定式化し,ベル不等式違反に対するパリティ読解法の存在の帰結を考察する。 特に、ある状況において、この仮定は驚くほど強い結果、すなわち、tsirelson の束縛が回復できることを示す。

How to understand the set of correlations admissible in nature is one outstanding open problem in the core of the foundations of quantum theory. Here we take a complementary viewpoint to the device-independent approach, and explore the correlations that physical theories may feature when restricted by some particular constraints on their measurements. We show that demanding that a theory exhibits a composite measurement imposes a hierarchy of constraints on the structure of its sets of states and effects, which translate to a hierarchy of constraints on the allowed correlations themselves. We moreover focus on the particular case where one demands the existence of an entangled measurement that reads out the parity of local fiducial measurements. By formulating a non-linear Optimisation Problem, and semidefinite relaxations of it, we explore the consequences of the existence of such a parity reading measurement for violations of Bell inequalities. In particular, we show that in certain situations this assumption has surprisingly strong consequences, namely, that Tsirelson's bound can be recovered.
翻訳日:2023-05-03 00:49:17 公開日:2020-09-16
# 電場を用いた反応性分子の共鳴衝突遮蔽

Resonant collisional shielding of reactive molecules using electric fields ( http://arxiv.org/abs/2009.07461v1 )

ライセンス: Link先を確認
Kyle Matsuda, Luigi De Marco, Jun-Ru Li, William G. Tobias, Giacomo Valtolina, Goulven Qu\'em\'ener, Jun Ye(参考訳) 反応損失を含む分子間相互作用の完全な制御は、量子科学の新しいフロンティアを開く。 本研究では, 極低温分子の励起衝突チャネルを初期衝突チャネルと縮退させる外部電場を用いて, 化学反応速度の極端な可変性を示す。 この状況では、共鳴双極子相互作用はチャネルを長い範囲で混合し、分子間ポテンシャルを劇的に変化させる。 フェミオン性カリウム-ルビジウム (KRb) 分子を最初の励起回転状態に調製し, 共鳴で電界強度を数パーセント調整し, 化学反応速度の3次変調を観察した。 準2次元幾何学では、衝突の3つの最小角運動量投影から寄与を正確に決定する。 共振特性を用いて分子を損失から保護し、バックグラウンド値以下で最大1桁の反応速度を抑制することにより、大電界における極性分子の長寿命サンプルを実現する。

Full control of molecular interactions, including reactive losses, would open new frontiers in quantum science. Here, we demonstrate extreme tunability of chemical reaction rates by using an external electric field to shift excited collision channels of ultracold molecules into degeneracy with the initial collision channel. In this situation, resonant dipolar interactions mix the channels at long range, dramatically altering the intermolecular potential. We prepare fermionic potassium-rubidium (KRb) molecules in their first excited rotational state and observe a three orders-of-magnitude modulation of the chemical reaction rate as we tune the electric field strength by a few percent across resonance. In a quasi-two-dimensional geometry, we accurately determine the contributions from the three lowest angular momentum projections of the collisions. Using the resonant features, we shield the molecules from loss and suppress the reaction rate by up to an order of magnitude below the background value, realizing a long-lived sample of polar molecules in large electric fields.
翻訳日:2023-05-02 02:34:31 公開日:2020-09-16
# 高次元二成分絡み合いに対する適応状態忠実度推定

Adaptive State Fidelity Estimation for Higher Dimensional Bipartite Entanglement ( http://arxiv.org/abs/2009.07741v1 )

ライセンス: Link先を確認
Jun-Yi Wu(参考訳) 二つの高次元系における量子状態忠実度推定の適応的手法を確立する。 この方法は、ローカルpovmオペレータによって構築され、計算ベースで測定統計に適合する状態検証演算子を用いる。 この手法を用いてベル型絡み合った状態を安定化する状態検証演算子を明示的に構成する。 計算に基づく誤差演算子と合わせて、ベル型絡み合い状態に対する状態忠実度の下限と上限をわずかな測定構成で推定することができる。 これらの境界は、[Bavaresco et.al., Nature Physics (2018), 14, 1032~1037] で導かれた忠実性境界よりも厳密である。

An adaptive method for quantum state fidelity estimation in bipartite higher dimensional systems is established. This method employs state verifier operators which are constructed by local POVM operators and adapted to the measurement statistics in the computational basis. Employing this method, the state verifier operators that stabilize Bell-type entangled states are constructed explicitly. Together with an error operator in the computational basis, one can estimate the lower and upper bounds on the state fidelity for Bell-type entangled states in few measurement configurations. These bounds can be tighter than the fidelity bounds derived in [Bavaresco et.al., Nature Physics (2018), 14, 1032~1037], if one constructs more than one local POVM measurements additional to the measurement in the computational basis.
翻訳日:2023-05-02 02:29:18 公開日:2020-09-16
# 世界貿易分析のための潜在ディリクレ配置モデル

Latent Dirichlet Allocation Models for World Trade Analysis ( http://arxiv.org/abs/2009.07727v1 )

ライセンス: Link先を確認
Diego Kozlowski, Viktoriya Semeshenko and Andrea Molinari(参考訳) 国際貿易は経済学における古典的な研究分野の1つである。 現在、データの可用性を考慮して、分析に使用されるツールは、従来のアプローチを超える新しい方法論やテクニックを補完し、強化することができる。 本稿では, 自然言語処理分野からよく知られた潜在ディリクレ割当モデルを用いて, 国際貿易の製品空間における潜在次元の探索を行い, 時間とともに各国に分布することを示す。 この手法を1962年から2016年までの各国の輸出品のデータセットに適用する。 本研究は, 実証的証拠に基づいて, 高レベルの商品分類を創出する可能性を示し, 国内における商品分類の分布について検討する。 後者は、各国の貿易特化に関する興味深い洞察を示している。

The international trade is one of the classic areas of study in economics. Nowadays, given the availability of data, the tools used for the analysis can be complemented and enriched with new methodologies and techniques that go beyond the traditional approach. The present paper shows the application of the Latent Dirichlet Allocation Models, a well known technique from the area of Natural Language Processing, to search for latent dimensions in the product space of international trade, and their distribution across countries over time. We apply this technique to a dataset of countries' exports of goods from 1962 to 2016. The findings show the possibility to generate higher level classifications of goods based on the empirical evidence, and also allow to study the distribution of those classifications within countries. The latter show interesting insights about countries' trade specialisation.
翻訳日:2023-05-02 02:29:04 公開日:2020-09-16
# インデックス2サドルの古典的および量子力学的発現--連続反応と逐次反応のメカニズム

Classical and quantum dynamical manifestations of index-2 saddles: concerted versus sequential reaction mechanisms ( http://arxiv.org/abs/2009.07716v1 )

ライセンス: Link先を確認
Priyanka Pandey, Shibabrat Naik and Srihari Keshavamurthy(参考訳) 多次元ポテンシャルエネルギー面上の高次指数サドルの存在は通常、化学反応のダイナミクスにおいてあまり重要でないと仮定される。 このような視点は、近年のエレガントな実験や新しい理論的アプローチのおかげで、慎重に再考する必要がある。 本研究では、2次自由度ハミルトニアンのモデルに関する古典的および量子力学的な詳細な研究を行い、協調的あるいは段階的な反応機構の優位性に関する議論の本質を捉えた。 この機構の超高速シフトは、基本的に古典力学効果であることを示す。 さらに、古典位相空間は規則力学とカオス力学の混合であるため、指数2サドルよりも十分なエネルギーにおいても、Murrell-Laidler型機構を含む様々な動的挙動を持つことができる。 位相空間における古典不変多様体の明示的な構成を用いて、動的結果の合理化を行う。

The presence of higher index saddles on a multidimensional potential energy surface is usually assumed to be of little significance in chemical reaction dynamics. Such a viewpoint requires careful reconsideration, thanks to elegant experiments and novel theoretical approaches that have come about in recent years. In this work, we perform a detailed classical and quantum dynamical study of a model two degree of freedom Hamiltonian, which captures the essence of the debate regarding the dominance of a concerted or a stepwise reaction mechanism. We show that the ultrafast shift of the mechanism from a concerted to a stepwise one is essentially a classical dynamical effect. In addition, due to the classical phase space being a mixture of regular and chaotic dynamics, it is possible to have a rich variety of dynamical behaviour, including a Murrell-Laidler type of mechanism, even at energies sufficiently above that of the index-2 saddle. We rationalize the dynamical results using an explicit construction of the classical invariant manifolds in the phase space.
翻訳日:2023-05-02 02:28:52 公開日:2020-09-16
# 結合光パラメトリック発振器における非散逸非エルミタンダイナミクスと例外点

Non-Dissipative Non-Hermitian Dynamics and Exceptional Points in Coupled Optical Parametric Oscillators ( http://arxiv.org/abs/2009.07522v1 )

ライセンス: Link先を確認
Arkadev Roy, Saman Jahani, Qiushi Guo, Avik Dutt, Shanhui Fan, Mohammad-Ali Miri, and Alireza Marandi(参考訳) 例外点を特徴とする工学的非エルミート系は、フォトニクス、音響学、光学力学、電子工学、原子物理学など様々な分野において、異常な現象を引き起こしている。 本稿では,位相感度増幅と非増幅から生じる結合光パラメトリック発振器(opos)の非ヘルミトダイナミクスを紹介し,レーザー利得と損失に依存する従来の非ヘルミト系とは異なる利点を示す。 OPOベースの非エルミート系は、パラメトリックゲイン、ノイズレス位相感応増幅、リッチ量子および古典的非線形力学の即時性質の恩恵を受けることができる。 2つの結合OPOはスペクトル反PT対称性を示し,その退化作用と非退化作用の相違点を示す。 従来の非エルミート系と比較して、結合オポ系の異なるポテンシャルを示すために、再構成可能な動的非エルミート系における可変フロッケ例外点と、他の非エルミート系プラットフォームでは実現が容易でない例外点周辺の圧縮真空の生成という2つのoposを持つ高次例外点を提案する。 この結果から,OPOの結合は非エルミート的セッティングとして優れており,非線形力学系の実現には前例がない。

Engineered non-Hermitian systems featuring exceptional points can lead to a host of extraordinary phenomena in diverse fields ranging from photonics, acoustics, opto-mechanics, electronics, to atomic physics. Here we introduce and present non-Hermitian dynamics of coupled optical parametric oscillators (OPOs) arising from phase-sensitive amplification and de-amplification, and show their distinct advantages over conventional non-Hermitian systems relying on laser gain and loss. OPO-based non-Hermitian systems can benefit from the instantaneous nature of the parametric gain, noiseless phase-sensitive amplification, and rich quantum and classical nonlinear dynamics. We show that two coupled OPOs can exhibit spectral anti-PT symmetry and an exceptional point between its degenerate and non-degenerate operation regimes. To demonstrate the distinct potentials of the coupled OPO system compared to conventional non-Hermitian systems, we present higher-order exceptional points with two OPOs, tunable Floquet exceptional points in a reconfigurable dynamic non-Hermitian system, and generation of squeezed vacuum around exceptional points, all of which are not easy to realize in other non-Hermitian platforms. Our results show that coupled OPOs are an outstanding non-Hermitian setting with unprecedented opportunities in realizing nonlinear dynamical systems for enhanced sensing and quantum information processing.
翻訳日:2023-05-02 02:27:23 公開日:2020-09-16
# 相対論的電子スピンのベリー相

Berry phase for spins of relativistic electrons ( http://arxiv.org/abs/2009.07505v1 )

ライセンス: Link先を確認
Iwo Bialynicki-Birula and Zofia Bialynicka-Birula(参考訳) ベリーフェーズは非常に一般的な概念です。 ここでは、スピンの異なる値のディラック方程式の解の族に適用される。 スピン空間におけるベリー位相の値は、運動量空間で以前に発見されたのと同じ式で与えられる。

Berry phase is a very general concept. It is applied here to families of solutions of the Dirac equation with different values of spin. The value of the Berry phase in the spin space is given by the same expression as was found before in the momentum space.
翻訳日:2023-05-02 02:26:56 公開日:2020-09-16
# 量子コンピュータにおける光フロント場理論

Light-Front Field Theory on Current Quantum Computers ( http://arxiv.org/abs/2009.07885v1 )

ライセンス: Link先を確認
Michael Kreshchuk, Shaoyang Jia, William M. Kirby, Gary Goldstein, James P. Vary, Peter J. Love(参考訳) 本研究は, 量子場理論の光前線定式化におけるシミュレーションのための量子アルゴリズムであり, 既存の量子デバイスを用いて相対論的核物理学における有界状態の構造を研究できることを示す。 具体的には、変分量子固有ソルバアルゴリズムを適用し、基底光面量子化フレームワークで得られる光面ハミルトニアンの基底状態を求める。 実演として,IBMQ Vigoチップ上のパイオンの質量,質量半径,崩壊定数,電磁形状係数,電荷半径を算出する。 物理状態の異なるエンコーディングに基づく2つの実装を検討し、量子的優位性をもたらす可能性のある開発を提案する。 量子コンピュータ上の実際の物理系のシミュレーションを可能にするために、量子場理論に対する光-フロントアプローチが使われるのはこれが初めてである。

We present a quantum algorithm for simulation of quantum field theory in the light-front formulation and demonstrate how existing quantum devices can be used to study the structure of bound states in relativistic nuclear physics. Specifically, we apply the Variational Quantum Eigensolver algorithm to find the ground state of the light-front Hamiltonian obtained within the Basis Light-Front Quantization framework. As a demonstration, we calculate the mass, mass radius, decay constant, electromagnetic form factor, and charge radius of the pion on the IBMQ Vigo chip. We consider two implementations based on different encodings of physical states, and propose a development that may lead to quantum advantage. This is the first time that the light-front approach to quantum field theory has been used to enable simulation of a real physical system on a quantum computer.
翻訳日:2023-05-02 02:21:23 公開日:2020-09-16
# 不均一磁場中における2次元散逸スピン系の熱状態における絡み合い堅牢性とスピン緩和

Entanglement robustness and spin relaxation in thermal states of two-dimensional dissipative spin system in an inhomogeneous magnetic field ( http://arxiv.org/abs/2009.07878v1 )

ライセンス: Link先を確認
Gehad Sadiek and Samaher Almalki(参考訳) 有限温度におけるボルン・マルコフの制約に従う散逸的リンドブラッド環境に結合した異方性の異なる2次元ハイゼンベルク三角形スピン格子を考える。 系に不均質な磁場を印加すると、系の漸近定常状態におけるスピンの絡み合い分布と特性に有意な影響を及ぼす可能性がある。 特に、中心スピンに向かって内向き(成長)勾配を有する不均質な磁場を適用することで、全異方性(イジング)系の熱散逸減衰効果に対して、近辺のエンタングルメントとそのロバスト性が大幅に向上するのに対し、近辺のエンタングルメントは全て消滅する。 同じフィールドを部分異方性 (xyz) システムに適用することで、近接する近傍の絡み合いと頑健性が向上するだけでなく、近接する近傍の全ての領域も強化される。 それでも、場の不均一性は、任意の系構成の下で消滅する等方性(XXX)系における絡み合いの漸近挙動に何の影響も示さない。 さらに、同じ不均質場はスピン力学にも最も影響を与える。 等方性系では、スピンは分離可能な(不等角な)定常状態へと緩和され、全てのスピンは磁場の不均一性にかかわらず共通のスピン状態に達するが、完全異方性系の定常状態のスピンは格子内の位置によって異なる区別されたスピン状態に達する。 しかしながら、XYZ系では、異方性は低いが、スピン状態はさらに区別され、系全体の長い範囲の量子相関が伴う。

We consider a finite two-dimensional Heisenberg triangular spin lattice at different degrees of anisotropy coupled to a dissipative Lindblad environment obeying the Born-Markovian constrain at finite temperature. We show how applying an inhomogeneous magnetic field to the system may significantly affect the entanglement distribution and properties among the spins in the asymptotic steady state of the system. Particularly, applying an inhomogeneous field with an inward (growing) gradient toward the central spin is found to considerably enhance the nearest neighbor entanglement and its robustness to the thermal dissipative decay effect in the completely anisotropic (Ising) system, whereas all the beyond nearest neighbor entanglements vanish entirely. Applying the same field to a partially anisotropic (XYZ) system, does not only enhance the nearest neighbor entanglements and their robustness but also all the beyond nearest neighbor ones. Nevertheless, the inhomogeneity of the field shows no effect on the asymptotic behavior of the entanglement in the isotropic (XXX) system, which vanishes under any system configuration. Moreover, the same inhomogeneous field exhibits the most influential impact, compared with the other ones, on the the spin dynamics as well. Although in the isotropic system the spins relax to a separable (disentangled) steady state with all the spins reaching a common spin state regardless of the field inhomogeneity, the spins in the steady state of the completely anisotropic system reach different distinguished spin states depending on their positions in the lattice. However, in the XYZ system, though the anisotropy is lower, the spin states become even more distinguished, accompanying the long range quantum correlation across the system, which is a sign of a critical behavior taking place at this combination of system anisotropy and field inhomogeneity.
翻訳日:2023-05-02 02:20:40 公開日:2020-09-16
# 量子トランスダクション強化のためのAI対応制御に向けて

Towards AI-enabled Control for Enhancing Quantum Transduction ( http://arxiv.org/abs/2009.07876v1 )

ライセンス: Link先を確認
Mekena Metcalf and Anastasiia Butko and Mariam Kiran(参考訳) 量子インターネットの出現により、分散量子テストベッドを接続し、量子ビット性能を管理するイノベーションを拡張する新しい技術と研究を開発するための新しい方法を見つけることが重要となる。 多くの新興技術は、量子リピータと特殊なハードウェアに焦点を当て、特殊なチャネル上で量子距離を拡張する。 しかし、現在のネットワーク技術を利用して光学技術に投資し、量子技術と融合する作業はほとんどない。 本稿では、量子ビットと光子エネルギーの最適化と効率的な変換を可能にし、光学デバイスと量子デバイスを連携させるAI対応制御について論じる。 提案手法は、深部強化学習アルゴリズムなどのAI技術と物理量子トランスデューサを統合し、両波長間のリアルタイム変換を通知する。 シミュレーション環境から学ぶことで、トレーニングされたAI対応トランスデューサは、量子ビット寿命を最大化するために最適な量子トランスデューサにつながる。

With advent of quantum internet, it becomes crucial to find novel ways to connect distributed quantum testbeds and develop novel technologies and research that extend innovations in managing the qubit performance. Numerous emerging technologies are focused on quantum repeaters and specialized hardware to extend the quantum distance over special-purpose channels. However, there is little work that utilizes current network technology, invested in optic technologies, to merge with quantum technologies. In this paper we argue for an AI-enabled control that allows optimized and efficient conversion between qubit and photon energies, to enable optic and quantum devices to work together. Our approach integrates AI techniques, such as deep reinforcement learning algorithms, with physical quantum transducer to inform real-time conversion between the two wavelengths. Learning from simulated environment, the trained AI-enabled transducer will lead to optimal quantum transduction to maximize the qubit lifetime.
翻訳日:2023-05-02 02:20:07 公開日:2020-09-16
# デコヒーレンス下における格子ゲージ理論の運命

Fate of Lattice Gauge Theories Under Decoherence ( http://arxiv.org/abs/2009.07848v1 )

ライセンス: Link先を確認
Jad C. Halimeh, Valentin Kasper, Philipp Hauke(参考訳) 現代の量子シミュレータとNISQデバイスの性能に関する主要なテストは、ゲージ理論の信頼性の実現である。 避けられないユニタリ誤差に加えて、現実的な実験は非一貫性に苦しめられ、ゲージ不変性やゲージ理論自体を損なう。 本稿では,格子ゲージ理論のクエンチダイナミクスに対する非一貫性の影響について検討する。 ゲージの違反をゲージセクターの発散尺度として厳密に同定すると、すぐに環境結合強度のデコヒーレンスが原因で、最初に$\sim\gamma t$が増加することが判明し、ユニタリ誤差が$\lambda$が支配され、その違反は弾道的に$\sim\lambda^2t^2$が増加する。 さらに、ゲージ理論の文脈で複数の量子コヒーレンスを導入し、デコヒーレンス効果を定量化する。 実験的にアクセス可能などちらの手段も、この作業の直接的な文脈を超えて独立した関心を持つだろう。

A major test of the capabilities of modern quantum simulators and NISQ devices is the reliable realization of gauge theories, which constitute a gold standard of implementational efficacy. In addition to unavoidable unitary errors, realistic experiments suffer from decoherence, which compromises gauge invariance and, therefore, the gauge theory itself. Here, we study the effect of decoherence on the quench dynamics of a lattice gauge theory. Rigorously identifying the gauge violation as a divergence measure in the gauge sectors, we find at short times that it first grows diffusively $\sim\gamma t$ due to decoherence at environment-coupling strength $\gamma$, before unitary errors at strength $\lambda$ dominate and the violation grows ballistically $\sim\lambda^2t^2$. We further introduce multiple quantum coherences in the context of gauge theories to quantify decoherence effects. Both experimentally accessible measures will be of independent interest beyond the immediate context of this work.
翻訳日:2023-05-02 02:19:03 公開日:2020-09-16
# 誘電体スタックを有する開空洞における光間相互作用

Light-matter interaction in open cavities with dielectric stacks ( http://arxiv.org/abs/2009.07949v1 )

ライセンス: Link先を確認
Astghik Saharyan, Juan-Rafael \'Alvarez, Thomas H. Doherty, Axel Kuhn and St\'ephane Guerin(参考訳) 多層誘電体ミラーの効果を考慮した単一エミッタと光共振器内の放射場との正確な双極子結合強度の評価を行った。 本モデルでは、キャビティの共鳴周波数、それに対応する光または原子遷移の周波数、誘電体ミラーの設計波長を自由に変化させることができる。 結合強度は、非有界周波数モードの開系に対して導出される。 非常に短い空洞の場合、そのモード体積と共鳴を定義するための有効長さは異なり、またその幾何学的長さから可視的に分岐し、誘電鏡自体の中で放射場が最強であることが判明した。 共振波長よりも長いキャビティに対してのみ、通常幾何学的長さから仮定したモード体積漸近的アプローチを行う。

We evaluate the exact dipole coupling strength between a single emitter and the radiation field within an optical cavity, taking into account the effects of multilayer dielectric mirrors. Our model allows one to freely vary the resonance frequency of the cavity, the frequency of light or atomic transition addressing it and the design wavelength of the dielectric mirror. The coupling strength is derived for an open system with unbound frequency modes. For very short cavities, the effective length used to determine their mode volume and the lengths defining their resonances are different, and also found to diverge appreciably from their geometric length, with the radiation field being strongest within the dielectric mirror itself. Only for cavities much longer than their resonant wavelength does the mode volume asymptotically approach that normally assumed from their geometric length.
翻訳日:2023-05-02 02:09:12 公開日:2020-09-16
# 有限エネルギーgottesman-Kitaev-Preskill状態の安定化

Stabilization of Finite-Energy Gottesman-Kitaev-Preskill States ( http://arxiv.org/abs/2009.07941v1 )

ライセンス: Link先を確認
Baptiste Royer and Shraddha Singh and S.M. Girvin(参考訳) 本稿では,GKP(Gottesman-Kitaev-Preskill)状態に対する新しいアプローチを紹介し,その有限エネルギーバージョンを正確に扱う。 この分析に基づいて,GKP多様体を自律的に安定化し,キュービット測定に依存することなく誤差を補正する新しいキュービットオシレータ回路を開発した。 最後に、GKP状態に符号化された論理情報が、これらの新しい回路によって安定化された場合、典型的な発振器ノイズ源に対して非常に堅牢であることを示す。

We introduce a new approach to Gottesman-Kitaev-Preskill (GKP) states that treats their finite-energy version in an exact manner. Based on this analysis, we develop new qubit-oscillator circuits that autonomously stabilize a GKP manifold, correcting errors without relying on qubit measurements. Finally, we show numerically that logical information encoded in GKP states is very robust against typical oscillator noise sources when stabilized by these new circuits.
翻訳日:2023-05-02 02:08:40 公開日:2020-09-16
# 超低温中性子の強散乱と並列誘導

Strong scattering and parallel guiding of ultracold neutrons ( http://arxiv.org/abs/2009.07900v1 )

ライセンス: Link先を確認
Zhehui Wang, Marcel Demarteau, C. L. Morris, and Yanhua Shih(参考訳) 10nev以下の運動エネルギーを持つ超低温中性子では、cと^7$liのメタマテリアルで2\pi l_{c} / \lambda\leq 1$の強い散乱が得られる。 ここで、$l_{c}$と$\lambda$はそれぞれ、コヒーレント散乱の平均自由経路と中性子波長である。 中性子メタマテリアルの並列導波路アレイにおけるudn干渉法と高分解能分光(nano-electronvolt-pico-electronvolt resolution)は、新しい実験可能性の例である。

For ultracold neutrons with a kinetic energy below 10 neV, strong scattering, characterized by $2\pi l_{c} / \lambda\leq 1$, can be obtained in metamaterials of C and $^7$Li. Here $l_{c}$ and $\lambda$ are the coherent scattering mean free path and the neutron wavelength, respectively. UCN interferometry and high-resolution spectroscopy (nano-electronvolt to pico-electronvolt resolution) in parallel waveguide arrays of neutronic metamaterials are given as examples of new experimental possibilities.
翻訳日:2023-05-02 02:08:31 公開日:2020-09-16
# 適応格子精密化によるベイズ位相推定

Bayesian phase estimation with adaptive grid refinement ( http://arxiv.org/abs/2009.07898v1 )

ライセンス: Link先を確認
Ramakrishna Tipireddy and Nathan Wiebe(参考訳) 本稿では,適応格子改質法に基づく新しいベイズ位相推定手法を提案する。 グリッドリファインメントとセルマージ戦略を用いて、正確な位相推定に必要な粒子数を自動的に選択し、各ステップに必要な粒子の総数は最小となる。 提案手法は,後方分布がバイモーダルである場合など,特定の場合に失敗する傾向がある従来のサンプリングに基づく逐次モンテカルロ法に代わる強力な手法である。 また,グリッド法とサンプリング法をハイブリッド粒子フィルタとして組み合わせて,グリッド法を用いてパラメータの小さいが支配的なセットを推定し,Lu-West (LW) ベースのSMCを残りのパラメータ集合を推定する。 主クルトシス解析は、グリッドリファインメント法およびサンプリングベース法におけるパラメータの選択を決定するのに使うことができる。 提案手法とLiu-West再サンプリングに基づくSMCの性能を比較した数値結果を提案する。 数値計算の結果,提案手法は量子位相推定に有望であることが示唆された。 これはハミルトンの未知のパラメータを推定し、未知の量子デバイスを特徴付けるのに非常に有用な手法であるハミルトン学習に容易に適応することができる。

We introduce a novel Bayesian phase estimation technique based on adaptive grid refinement method. This method automatically chooses the number particles needed for accurate phase estimation using grid refinement and cell merging strategies such that the total number of particles needed at each step is minimal. The proposed method provides a powerful alternative to traditional sampling based sequential Monte Carlo method which tend to fail in certain instances such as when the posterior distribution is bimodal. We also combine grid based and sampling based methods as hybrid particle filter where grid based method can be used to estimate a small but dominant set of parameters and Liu-West (LW) based SMC for the remaining set of parameters. Principal kurtosis analysis can be used to decide the choice of parameters for grid refinement method and for sampling based methods. We provide numerical results comparing the performance of the proposed grid refinement method with Liu-West resampling based SMC. Numerical results suggest that the proposed method is quite promising for quantum phase estimation. It can be easily adapted to Hamiltonian learning which is a very useful technique for estimating unknown parameters of a Hamiltonian and for characterizing unknown quantum devices.
翻訳日:2023-05-02 02:08:21 公開日:2020-09-16
# 安定性とメモリロスはハンドインハンド:ダイナミクスと計算の3つの結果

Stability and Memory-loss go Hand-in-Hand: Three Results in Dynamics & Computation ( http://arxiv.org/abs/2001.00766v2 )

ライセンス: Link先を確認
G Manjunath(参考訳) 力学と計算の関係を確立する普遍法則の探索は、生物にインスパイアされたコンピューティングにおける最近の拡張主義的イニシアチブによって進められている。 このようなダイナミクスと計算の両方を理解するための一般的な設定は、時間入力に応答する駆動力学系である。 意外なことに、駆動システムのメモリロスは、内部状態を忘れるための特徴であり、何十年にもわたって解決されていない基本的な安定性に関する質問に対して、明確な答えを提供するのに役立つ。 駆動システムのパラメータの変更は安定性にどのように影響するか? 臨界点の数学的定義は何ですか。 我々は、ニューロモルフィックコンピューティングや最先端貯水池コンピューティングアプリケーションのための専用ハードウェア実装の時代に入る、生物学的にインスパイアされたコンピュータの理解と設計をタイムリーに行うことを期待する。

The search for universal laws that help establish a relationship between dynamics and computation is driven by recent expansionist initiatives in biologically inspired computing. A general setting to understand both such dynamics and computation is a driven dynamical system that responds to a temporal input. Surprisingly, we find memory-loss a feature of driven systems to forget their internal states helps provide unambiguous answers to the following fundamental stability questions that have been unanswered for decades: what is necessary and sufficient so that slightly different inputs still lead to mostly similar responses? How does changing the driven system's parameters affect stability? What is the mathematical definition of the edge-of-criticality? We anticipate our results to be timely in understanding and designing biologically inspired computers that are entering an era of dedicated hardware implementations for neuromorphic computing and state-of-the-art reservoir computing applications.
翻訳日:2023-01-14 17:36:52 公開日:2020-09-16
# RobBERT: オランダ語RoBERTaベースの言語モデル

RobBERT: a Dutch RoBERTa-based Language Model ( http://arxiv.org/abs/2001.06286v2 )

ライセンス: Link先を確認
Pieter Delobelle, Thomas Winters, Bettina Berendt(参考訳) 近年、事前学習された言語モデルが自然言語処理の分野を支配しており、様々な複雑な自然言語タスクのパフォーマンス向上に繋がっている。 最も著名な事前訓練型言語モデルの一つにBERTがあり、英語と多言語版としてリリースされた。 多言語BERTは多くのタスクでうまく機能するが、最近の研究では、単一言語で訓練されたBERTモデルは多言語バージョンよりも大幅に優れていることが示されている。 したがって、オランダのBERTモデルをトレーニングすることは、幅広いオランダのNLPタスクに多くの可能性がある。 以前のアプローチでは、BERTの以前の実装を使用して、オランダ版のBERTをトレーニングしていましたが、堅牢に最適化されたBERTアプローチであるRoBERTaを使用して、RobBERTと呼ばれるオランダ語のモデルをトレーニングしました。 各種タスクにおけるその性能および微調整データセットサイズの重要性を測定した。 また,言語固有のトークン化器の重要性とモデルの公平性も評価した。 RobBERTは様々なタスクの最先端の結果を改善し、特に小さなデータセットを扱う場合、他のモデルよりもはるかに優れています。 これらの結果から,多種多様なオランダ語タスクの事前学習モデルであることが示唆された。 事前訓練および微調整されたモデルは、より下流のオランダのNLPアプリケーションをサポートするために公開されている。

Pre-trained language models have been dominating the field of natural language processing in recent years, and have led to significant performance gains for various complex natural language tasks. One of the most prominent pre-trained language models is BERT, which was released as an English as well as a multilingual version. Although multilingual BERT performs well on many tasks, recent studies show that BERT models trained on a single language significantly outperform the multilingual version. Training a Dutch BERT model thus has a lot of potential for a wide range of Dutch NLP tasks. While previous approaches have used earlier implementations of BERT to train a Dutch version of BERT, we used RoBERTa, a robustly optimized BERT approach, to train a Dutch language model called RobBERT. We measured its performance on various tasks as well as the importance of the fine-tuning dataset size. We also evaluated the importance of language-specific tokenizers and the model's fairness. We found that RobBERT improves state-of-the-art results for various tasks, and especially significantly outperforms other models when dealing with smaller datasets. These results indicate that it is a powerful pre-trained model for a large variety of Dutch language tasks. The pre-trained and fine-tuned models are publicly available to support further downstream Dutch NLP applications.
翻訳日:2023-01-10 09:49:54 公開日:2020-09-16
# トラヒック信号制御のための空間微分によるスケーラブルなマルチエージェント協調学習

Learning Scalable Multi-Agent Coordination by Spatial Differentiation for Traffic Signal Control ( http://arxiv.org/abs/2002.11874v3 )

ライセンス: Link先を確認
Junjia Liu, Huimin Zhang, Zhuang Fu and Yao Wang(参考訳) 交通信号のインテリジェントな制御は、交通システムの最適化に不可欠である。 大規模道路網におけるグローバル最適交通効率を実現するため,近年の研究では交差点間の協調が重視され,有望な結果が得られた。 しかし、既存の研究は(明示的かつ暗黙的に)交差点間での観察の共有により多くの注意を払っており、決定後の結果には関心がなかった。 本稿では,トラヒック信号制御のための深層強化学習法に基づくマルチエージェント協調フレームワークを設計・設計し,元の {\gamma}-reward と {\gamma}-attention-reward の両方を含む {\gamma}-reward として定義する。 具体的には,リプレイバッファ内の時間空間情報を用いて各アクションの報酬を補正したコーディネーションの空間微分法を提案する。 提案したモデルがナッシュ平衡に収束できることを示す簡潔な理論解析が与えられる。 マルコフ連鎖のアイデアを時空次元に拡張することにより、この真に分散したコーディネーション機構はグラフアテンション法を置き換え、よりスケーラブルで、より実践と一致した道路網の分離を実現する。 シミュレーションの結果,提案モデルは一元的な設定を使わずに,最先端の性能を保ったままであることがわかった。 コードはhttps://github.com/Skylark0924/Gamma Rewardで入手できる。

The intelligent control of the traffic signal is critical to the optimization of transportation systems. To achieve global optimal traffic efficiency in large-scale road networks, recent works have focused on coordination among intersections, which have shown promising results. However, existing studies paid more attention to observations sharing among intersections (both explicit and implicit) and did not care about the consequences after decisions. In this paper, we design a multiagent coordination framework based on Deep Reinforcement Learning methods for traffic signal control, defined as {\gamma}-Reward that includes both original {\gamma}-Reward and {\gamma}-Attention-Reward. Specifically, we propose the Spatial Differentiation method for coordination which uses the temporal-spatial information in the replay buffer to amend the reward of each action. A concise theoretical analysis that proves the proposed model can converge to Nash equilibrium is given. By extending the idea of Markov Chain to the dimension of space-time, this truly decentralized coordination mechanism replaces the graph attention method and realizes the decoupling of the road network, which is more scalable and more in line with practice. The simulation results show that the proposed model remains a state-of-the-art performance even not use a centralized setting. Code is available in https://github.com/Skylark0924/Gamma Reward.
翻訳日:2022-12-28 09:09:09 公開日:2020-09-16
# 肯定的未学習としてのクレームチェックウェアネス検出

Claim Check-Worthiness Detection as Positive Unlabelled Learning ( http://arxiv.org/abs/2003.02736v2 )

ライセンス: Link先を確認
Dustin Wright and Isabelle Augenstein(参考訳) ファクトチェックの第一段階として、クレームチェック適性検出はファクトチェックシステムの重要なコンポーネントである。 この問題を調査する研究には、政治演説や討論からの評価、Twitterでの噂の検出、Wikipediaからの引用に必要な検出など、さまざまなものがある。 これまでにこれらのタスクの関連性を理解するための構造的な比較は行われておらず、これらすべてに対する統一的なアプローチが達成可能かどうかの調査も行われていない。 本研究は,これらの課題の根底にあるクレームチェック適性検出における中心的課題である文の真偽の把握と,文が検証無しにどの程度信用されるかに重きを置くものである。 そのため、アノテータはチェック値の明確化を判断するインスタンスのみをマークします。 当社のベストパフォーマンス手法は、チェックに値しないと誤ってラベル付けされたインスタンスを見つける正の非ラベル学習の変種を用いて、これを自動修正する統一アプローチである。 これを適用することで,英語におけるクレームチェック適性検出について検討した3つの課題のうち2つにおいて,芸術の状態を上回った。

As the first step of automatic fact checking, claim check-worthiness detection is a critical component of fact checking systems. There are multiple lines of research which study this problem: check-worthiness ranking from political speeches and debates, rumour detection on Twitter, and citation needed detection from Wikipedia. To date, there has been no structured comparison of these various tasks to understand their relatedness, and no investigation into whether or not a unified approach to all of them is achievable. In this work, we illuminate a central challenge in claim check-worthiness detection underlying all of these tasks, being that they hinge upon detecting both how factual a sentence is, as well as how likely a sentence is to be believed without verification. As such, annotators only mark those instances they judge to be clear-cut check-worthy. Our best performing method is a unified approach which automatically corrects for this using a variant of positive unlabelled learning that finds instances which were incorrectly labelled as not check-worthy. In applying this, we out-perform the state of the art in two of the three tasks studied for claim check-worthiness detection in English.
翻訳日:2022-12-26 06:25:23 公開日:2020-09-16
# 適応誘導のための機械操作タスクにおけるユーザ行動のモデル化

Modeling User Behaviors in Machine Operation Tasks for Adaptive Guidance ( http://arxiv.org/abs/2003.03025v5 )

ライセンス: Link先を確認
Chen Long-fei, Yuichi Nakamura, Kazuaki Kondo(参考訳) 機器操作を支援する適応型誘導システムは、様々なスキルや知識レベルを考慮した様々なユーザー行動や、迅速なタスク状況を含む包括的なモデルを必要とする。 本稿では,ユーザが提供する視覚操作記録を多様な体験レベルと個人的特性で統合することを目的とした,操作タスクのモデル化手法を提案する。 本研究では,視覚的に観察できるユーザ行動パターンと,機械操作条件下でのスキルレベルとの関係について検討した。 頭部装着型RGB-Dカメラと静的視線追跡装置を用いて,12人の作業者が行う2つの縫製作業の144のサンプルについて検討した。 操作者の視線や頭の動き,手操作,ホットスポットなどの行動特性は,継続的なユーザスキル向上による行動傾向が顕著に見られた。 ユーザ行動の多様性をモデル化するために,2段階の手法を用いた。 実験結果から,複数の特徴がユーザスキル評価の適切な指標となり,個人の行動特性を明らかにする上で有用な手がかりが得られた。 異なるスキルと運用習慣を備えたユーザレコードの統合により、多様なユーザ固有のニーズに柔軟に適応できるリッチで包括的なタスクモデルの開発が可能になった。

An adaptive guidance system that supports equipment operators requires a comprehensive model, which involves a variety of user behaviors that considers different skill and knowledge levels, as well as rapid-changing task situations. In the present paper, we introduced a novel method for modeling operational tasks, aiming to integrate visual operation records provided by users with diverse experience levels and personal characteristics. For this purpose, we investigated the relationships between user behavior patterns that could be visually observed and their skill levels under machine operation conditions. We considered 144 samples of two sewing tasks performed by 12 operators using a head-mounted RGB-D camera and a static gaze tracker. Behavioral features, such as the operator's gaze and head movements, hand interactions, and hotspots, were observed with significant behavioral trends resulting from continuous user skill improvement. We used a two-step method to model the diversity of user behavior: prototype selection and experience integration based on skill ranking. The experimental results showed that several features could serve as appropriate indices for user skill evaluation, as well as providing valuable clues for revealing personal behavioral characteristics. The integration of user records with different skills and operational habits allowed developing a rich, inclusive task model that could be used flexibly to adapt to diverse user-specific needs.
翻訳日:2022-12-26 01:11:43 公開日:2020-09-16
# メトリクス学習のリアリティチェック

A Metric Learning Reality Check ( http://arxiv.org/abs/2003.08505v3 )

ライセンス: Link先を確認
Kevin Musgrave, Serge Belongie, Ser-Nam Lim(参考訳) 過去4年間のディープメトリック学習論文は、一貫して精度の大幅な進歩を主張しており、しばしば10年前の方法のパフォーマンスを2倍に上回っている。 この論文では、実際にこれが真実かどうかをよく見ていきます。 多数のメートル法学習論文の実験手法に欠陥を見出した結果,時間経過とともに改善が進んでいることが示唆された。

Deep metric learning papers from the past four years have consistently claimed great advances in accuracy, often more than doubling the performance of decade-old methods. In this paper, we take a closer look at the field to see if this is actually true. We find flaws in the experimental methodology of numerous metric learning papers, and show that the actual improvements over time have been marginal at best.
翻訳日:2022-12-22 12:58:53 公開日:2020-09-16
# マルチドメインテキストマイニングのためのメタ微調整ニューラルネットワークモデル

Meta Fine-Tuning Neural Language Models for Multi-Domain Text Mining ( http://arxiv.org/abs/2003.13003v2 )

ライセンス: Link先を確認
Chengyu Wang, Minghui Qiu, Jun Huang, Xiaofeng He(参考訳) 事前学習されたニューラルネットワークモデルは、タスク固有のトレーニングセットでモデルを微調整することで、さまざまなnlpタスクに大幅な改善をもたらす。 微調整中、パラメータは事前訓練されたモデルから直接初期化され、異なる領域における類似のNLPタスクの学習プロセスが相互に相関し強化されていることを無視する。 本稿では,メタファインタニング(Meta Fine-Tuning, MFT)と呼ばれる学習手法を提案する。 すべてのデータセットをマルチタスクでトレーニングする代わりに、MDTはさまざまなドメインの典型的なインスタンスからのみ学習して、高度に伝達可能な知識を取得する。 さらに、新しいドメインの破損損失関数を最適化することで、ドメイン不変表現をエンコードすることを言語モデルに推奨する。 MFTの後、モデルはより優れたパラメータ初期化とより高い一般化能力で各領域に対して微調整できる。 BERT 上で MFT を実装し,複数のマルチドメインテキストマイニングタスクを解決する。 実験結果から, MFTの有効性と, その有用性が確認された。

Pre-trained neural language models bring significant improvement for various NLP tasks, by fine-tuning the models on task-specific training sets. During fine-tuning, the parameters are initialized from pre-trained models directly, which ignores how the learning process of similar NLP tasks in different domains is correlated and mutually reinforced. In this paper, we propose an effective learning procedure named Meta Fine-Tuning (MFT), served as a meta-learner to solve a group of similar NLP tasks for neural language models. Instead of simply multi-task training over all the datasets, MFT only learns from typical instances of various domains to acquire highly transferable knowledge. It further encourages the language model to encode domain-invariant representations by optimizing a series of novel domain corruption loss functions. After MFT, the model can be fine-tuned for each domain with better parameter initializations and higher generalization ability. We implement MFT upon BERT to solve several multi-domain text mining tasks. Experimental results confirm the effectiveness of MFT and its usefulness for few-shot learning.
翻訳日:2022-12-18 13:04:21 公開日:2020-09-16
# ニューラルネットワークによる新型コロナウイルスの国別リスク予測

Neural network based country wise risk prediction of COVID-19 ( http://arxiv.org/abs/2004.00959v2 )

ライセンス: Link先を確認
Ratnabali Pal, Arif Ahmed Sekh, Samarjit Kar, Dilip K. Prasad(参考訳) 新型コロナウイルスの世界的な流行(covid-19)は、研究コミュニティに新たな課題をもたらしている。 人工知能(AI)駆動の手法は、そのような流行のパラメータ、リスク、影響を予測するのに有用である。 このような予測は、そのような病気の拡散の制御と予防に有用である。 AIを適用する主な課題は、少量のデータ量と不確実性である。 本稿では,国家のリスクカテゴリーを予測するために,浅層長短期記憶(lstm)ベースのニューラルネットワークを提案する。 我々はベイズ最適化フレームワークを用いて国固有のネットワークを最適化し、自動設計した。 その結果,提案パイプラインは180か国のデータに対して最先端の手法よりも優れており,リスク分類に有用であることがわかった。 また,予測のためにトレンドデータと天気データを組み合わせて実験を行った。 その結果、天候はそれほど大きな役割を果たさないことがわかった。 このツールは、予防措置を早期に実施できるように、そのような流行の長期化を予測できる。

The recent worldwide outbreak of the novel coronavirus (COVID-19) has opened up new challenges to the research community. Artificial intelligence (AI) driven methods can be useful to predict the parameters, risks, and effects of such an epidemic. Such predictions can be helpful to control and prevent the spread of such diseases. The main challenges of applying AI is the small volume of data and the uncertain nature. Here, we propose a shallow long short-term memory (LSTM) based neural network to predict the risk category of a country. We have used a Bayesian optimization framework to optimize and automatically design country-specific networks. The results show that the proposed pipeline outperforms state-of-the-art methods for data of 180 countries and can be a useful tool for such risk categorization. We have also experimented with the trend data and weather data combined for the prediction. The outcome shows that the weather does not have a significant role. The tool can be used to predict long-duration outbreak of such an epidemic such that we can take preventive steps earlier
翻訳日:2022-12-18 02:01:14 公開日:2020-09-16
# FeederGAN:Deep Graph Adversarial Netsによる合成フィード生成

FeederGAN: Synthetic Feeder Generation via Deep Graph Adversarial Nets ( http://arxiv.org/abs/2004.01407v2 )

ライセンス: Link先を確認
Ming Liang, Yao Meng, Jiyu Wang, David Lubkeman, Ning Lu(参考訳) 本稿では,FederGAN(FederGAN)と略される,GANベースの合成フィード生成機構を提案する。 FeederGANは、GANとグラフ畳み込みネットワーク(GCN)を利用したディープラーニングフレームワークを通じて、指向グラフで表される実際のフィードモデルを消化する。 デバイス接続が隣接マトリックスにマッピングされるように、そのモデル入力ファイルから分配供給回路の情報を抽出し、回路タイプ(三相、二相、一相)や部品属性(長さ、電流格付けなど)などのデバイス特性を属性マトリックスにマッピングする。 次に、ワッサーシュタイン距離を用いてGANを最適化し、GCNを用いて生成されたグラフを実際のグラフと区別する。 グラフ理論に基づく欲求的手法を開発し、生成した隣接行列と属性行列を用いてフィードアを再構築する。 以上の結果から, GAN生成フィードは, 視覚検査および実分布フィードから得られた経験的統計により, トポロジと属性の両方において実際のフィードと類似していることがわかった。

This paper presents a novel, automated, generative adversarial networks (GAN) based synthetic feeder generation mechanism, abbreviated as FeederGAN. FeederGAN digests real feeder models represented by directed graphs via a deep learning framework powered by GAN and graph convolutional networks (GCN). Information of a distribution feeder circuit is extracted from its model input files so that the device connectivity is mapped onto the adjacency matrix and the device characteristics, such as circuit types (i.e., 3-phase, 2-phase, and 1-phase) and component attributes (e.g., length and current ratings), are mapped onto the attribute matrix. Then, Wasserstein distance is used to optimize the GAN and GCN is used to discriminate the generated graphs from the actual ones. A greedy method based on graph theory is developed to reconstruct the feeder using the generated adjacency and attribute matrices. Our results show that the GAN generated feeders resemble the actual feeder in both topology and attributes verified by visual inspection and by empirical statistics obtained from actual distribution feeders.
翻訳日:2022-12-17 05:11:33 公開日:2020-09-16
# ループ内の逆学習を伴わないガイド付きダイアログポリシー学習

Guided Dialog Policy Learning without Adversarial Learning in the Loop ( http://arxiv.org/abs/2004.03267v2 )

ライセンス: Link先を確認
Ziming Li, Sungjin Lee, Baolin Peng, Jinchao Li, Julia Kiseleva, Maarten de Rijke, Shahin Shayandeh, Jianfeng Gao(参考訳) 強化学習(RL)手法は,効果的な対話政策を訓練するための一般的な選択肢である。 しかし,これらの手法は,対話終了時にのみユーザシミュレータによって返される,スパースで不安定な報奨信号に苦しむ。 さらに報酬信号は、ドメイン知識を必要とする人間の専門家によって手動で設計される。 近年,対話政策とともに報酬関数を学習するための敵対的学習手法が数多く提案されている。 しかし、対話ポリシーや報酬モデルを即時に更新するためには、REINFORCEやPPOといったポリシー段階のアルゴリズムに制限される。 さらに、対話エージェントと報酬モデルとの交替訓練は、局所最適で簡単に立ち往生したり、あるいはモード崩壊を招く。 上記の課題を克服するため,我々は,敵の訓練を2つのステップに分割することを提案する。 まず, 補助対話生成器を用いて判別器を訓練し, 得られた報酬モデルを共通rl法に組み込んで, 対話政策学習の指導を行う。 このアプローチはオン・ポリシー法とオフ・ポリシー・rl法の両方に適用できる。 提案手法は, 大規模に実験した結果から, 1) 既存のドメインから新たなドメインに知識を移譲する可能性があり, オン・ポリティィ法とオフ・ポリティィ法の両方を用いて, 目覚ましいタスク成功率を達成することができる。

Reinforcement Learning (RL) methods have emerged as a popular choice for training an efficient and effective dialogue policy. However, these methods suffer from sparse and unstable reward signals returned by a user simulator only when a dialogue finishes. Besides, the reward signal is manually designed by human experts, which requires domain knowledge. Recently, a number of adversarial learning methods have been proposed to learn the reward function together with the dialogue policy. However, to alternatively update the dialogue policy and the reward model on the fly, we are limited to policy-gradient-based algorithms, such as REINFORCE and PPO. Moreover, the alternating training of a dialogue agent and the reward model can easily get stuck in local optima or result in mode collapse. To overcome the listed issues, we propose to decompose the adversarial training into two steps. First, we train the discriminator with an auxiliary dialogue generator and then incorporate a derived reward model into a common RL method to guide the dialogue policy learning. This approach is applicable to both on-policy and off-policy RL methods. Based on our extensive experimentation, we can conclude the proposed method: (1) achieves a remarkable task success rate using both on-policy and off-policy RL methods; and (2) has the potential to transfer knowledge from existing domains to a new domain.
翻訳日:2022-12-15 22:52:55 公開日:2020-09-16
# 累積オーバーサンプリングによるオンライン学習:予算効果最大化への応用

Online Learning with Cumulative Oversampling: Application to Budgeted Influence Maximization ( http://arxiv.org/abs/2004.11963v3 )

ライセンス: Link先を確認
Shatian Wang, Shuoguang Yang, Zhen Xu, Van-Anh Truong(参考訳) オンライン学習のための累積オーバーサンプリング(CO)手法を提案する。 我々のキーとなる考え方は、各ラウンドで一度更新された信念空間からパラメータ推定をサンプリングし(トンプソンサンプリングと同様)、現在のラウンドまで累積サンプルを用いて、標準 UCB 法で構築されたものと比較して、真のパラメータの周りに漸近的に集中する楽観的なパラメータ推定を構築することである。 我々は, エッジウェイトを線形に一般化した影響最大化(IM)半帯域の新たな予算付き変種にCOを適用し, オフライン問題はNPハードである。 オフライン問題のために設計したオラクルとCOを組み合わせることで、オンライン学習アルゴリズムは予算配分、パラメータ学習、報酬の最大化に同時に取り組みます。 IMの半帯域に対して,我々のCOベースのアルゴリズムは理論上のUTBベースのアルゴリズムに匹敵する規模の後悔を達成し,数値実験でトンプソンサンプリングと同等に動作することを示す。

We propose a cumulative oversampling (CO) method for online learning. Our key idea is to sample parameter estimations from the updated belief space once in each round (similar to Thompson Sampling), and utilize the cumulative samples up to the current round to construct optimistic parameter estimations that asymptotically concentrate around the true parameters as tighter upper confidence bounds compared to the ones constructed with standard UCB methods. We apply CO to a novel budgeted variant of the Influence Maximization (IM) semi-bandits with linear generalization of edge weights, whose offline problem is NP-hard. Combining CO with the oracle we design for the offline problem, our online learning algorithm simultaneously tackles budget allocation, parameter learning, and reward maximization. We show that for IM semi-bandits, our CO-based algorithm achieves a scaled regret comparable to that of the UCB-based algorithms in theory, and performs on par with Thompson Sampling in numerical experiments.
翻訳日:2022-12-10 03:17:32 公開日:2020-09-16
# ディープラーニングに基づく画像理解技術を用いた自律ドローンの制御設計

Control Design of Autonomous Drone Using Deep Learning Based Image Understanding Techniques ( http://arxiv.org/abs/2004.12886v3 )

ライセンス: Link先を確認
Seid Miad Zandavi, Vera Chung, Ali Anaissi(参考訳) 本稿では,室内環境の騒音や不確実性を考慮して,制御器の入力として画像を利用する新しい枠組みを提案する。 騒音環境下でのドローン/クアドコプターの飛行安定性を向上し,物体と深度検出技術を用いた自律飛行を可能にするため,微分フィルタを用いたpida制御を提案する。 数学的モデルは、非線形性、不確実性、結合の問題に対処することで、高い忠実度を持つ正確なモデルから導かれる。 提案したPIDAコントローラは、Stochastic Dual Simplex Algorithm (SDSA) によって自動飛行をサポートするように調整されている。 シミュレーションの結果,深層学習に基づく画像理解手法(retinanet ant colony detectionとpsmnet)を,提案する制御器に適用することで,環境障害発生時の所望地点の生成と追跡が可能となった。

This paper presents a new framework to use images as the inputs for the controller to have autonomous flight, considering the noisy indoor environment and uncertainties. A new Proportional-Integral-Derivative-Accelerated (PIDA) control with a derivative filter is proposed to improves drone/quadcopter flight stability within a noisy environment and enables autonomous flight using object and depth detection techniques. The mathematical model is derived from an accurate model with a high level of fidelity by addressing the problems of non-linearity, uncertainties, and coupling. The proposed PIDA controller is tuned by Stochastic Dual Simplex Algorithm (SDSA) to support autonomous flight. The simulation results show that adapting the deep learning-based image understanding techniques (RetinaNet ant colony detection and PSMNet) to the proposed controller can enable the generation and tracking of the desired point in the presence of environmental disturbances.
翻訳日:2022-12-09 04:17:22 公開日:2020-09-16
# SciANN: ニューラルネットワークを用いた科学計算と物理インフォームドディープラーニングのためのKeras/Tensorflowラッパー

SciANN: A Keras/Tensorflow wrapper for scientific computations and physics-informed deep learning using artificial neural networks ( http://arxiv.org/abs/2005.08803v2 )

ライセンス: Link先を確認
Ehsan Haghighat and Ruben Juanes(参考訳) 本稿では,ニューラルネットワークを用いた科学計算および物理インフォームドディープラーニングのためのPythonパッケージであるSciANNを紹介する。 sciannでは、tensorflowとkerasが広く使用されているディープラーニングパッケージを使用して、ディープニューラルネットワークと最適化モデルを構築し、バッチ最適化や転送学習のためのモデル再利用など、kerasの機能の多くを継承している。 SciANNは、物理インフォームドニューラルネットワーク(PINN)アーキテクチャを用いて、科学計算のためのニューラルネットワーク構築を抽象化し、偏微分方程式(PDE)の解と発見を行うように設計されている。 一連の例で、このフレームワークは、離散データに対する曲線フィッティングや、強弱形式のPDEの解法と発見にどのように使用できるかを説明する。 我々は、現在SciANNで利用可能な機能を要約し、現在および将来の開発について概説する。

In this paper, we introduce SciANN, a Python package for scientific computing and physics-informed deep learning using artificial neural networks. SciANN uses the widely used deep-learning packages Tensorflow and Keras to build deep neural networks and optimization models, thus inheriting many of Keras's functionalities, such as batch optimization and model reuse for transfer learning. SciANN is designed to abstract neural network construction for scientific computations and solution and discovery of partial differential equations (PDE) using the physics-informed neural networks (PINN) architecture, therefore providing the flexibility to set up complex functional forms. We illustrate, in a series of examples, how the framework can be used for curve fitting on discrete data, and for solution and discovery of PDEs in strong and weak forms. We summarize the features currently available in SciANN, and also outline ongoing and future developments.
翻訳日:2022-12-04 21:03:33 公開日:2020-09-16
# RegQCNET:イメージ・トゥ・テンポレート脳MRIアフィン登録のための深い品質制御

RegQCNET: Deep Quality Control for Image-to-template Brain MRI Affine Registration ( http://arxiv.org/abs/2005.06835v2 )

ライセンス: Link先を確認
Baudouin Denis de Senneville, Jos\'e V. Manjon, Pierrick Coup\'e(参考訳) 共通参照空間への1つまたは複数の脳画像のアフィン登録は、脳のセグメンテーションや機能解析のような多くの画像処理タスクに必須の条件である。 登録品質のマニュアル評価は、特に大量のデータを含む研究において、面倒で時間を要する作業である。 自動化され信頼性の高い品質管理(qc)が必須になる。 さらに、QCの計算時間は、大量のデータセットの処理と互換性がある必要がある。 したがって、自動的なディープニューラルネットワークアプローチは、自動的に登録品質を評価する方法として現れる。 本稿では、登録画像と参照テンプレートとの間のアフィン登録ミスマッチの振幅を定量的に予測するために、RegQCNETと呼ばれるコンパクトな3D畳み込みニューラルネットワーク(CNN)を導入する。 この測定単位系を用いて登録誤差の定量的推定を行う。 したがって、有用で使用不能な画像を区別するために、有意義なタスク固有のしきい値を手動または自動で定義することができる。 提案したRegQCNETのロバスト性は、様々な空間変換とトレーニングとテストの間の強度変化をシミュレートしたライフスパン脳画像に基づいて初めて分析される。 第2に、手作業による閾値と自動しきい値の両方を用いて、画像が使用可能または使用不可能と分類できるregqcnetの可能性を評価する。 実験では, クロスバリデーションによる複数のコンピュータ支援分類モデルを用いて, 自動しきい値の推定を行った。 この目的のために、3953脳の寿命コホートに基づいて、専門家の視覚的品質制御を使用した。 最後に、regqcnetの精度を通常の画像特徴と比較する。 その結果,提案するディープラーニングqcはロバストで高速であり,処理パイプラインにおけるアフィン登録誤差を推定できることがわかった。

Affine registration of one or several brain image(s) onto a common reference space is a necessary prerequisite for many image processing tasks, such as brain segmentation or functional analysis. Manual assessment of registration quality is a tedious and time-consuming task, especially in studies comprising a large amount of data. An automated and reliable quality control (QC) becomes mandatory. Moreover, the computation time of the QC must be also compatible with the processing of massive datasets. Therefore, an automated deep neural network approaches appear as a method of choice to automatically assess registration quality. In the current study, a compact 3D convolutional neural network (CNN), referred to as RegQCNET, is introduced to quantitatively predict the amplitude of an affine registration mismatch between a registered image and a reference template. This quantitative estimation of registration error is expressed using metric unit system. Therefore, a meaningful task-specific threshold can be manually or automatically defined in order to distinguish usable and non-usable images. The robustness of the proposed RegQCNET is first analyzed on lifespan brain images undergoing various simulated spatial transformations and intensity variations between training and testing. Secondly, the potential of RegQCNET to classify images as usable or non-usable is evaluated using both manual and automatic thresholds. During our experiments, automatic thresholds are estimated using several computer-assisted classification models through cross-validation. To this end we used expert's visual quality control estimated on a lifespan cohort of 3953 brains. Finally, the RegQCNET accuracy is compared to usual image features. Results show that the proposed deep learning QC is robust, fast and accurate to estimate affine registration error in processing pipeline.
翻訳日:2022-12-03 04:57:43 公開日:2020-09-16
# 小型セルネットワークにおける協調エッジキャッシングを支援する人工知能

Artificial Intelligence Assisted Collaborative Edge Caching in Small Cell Networks ( http://arxiv.org/abs/2005.07941v2 )

ライセンス: Link先を確認
Md Ferdous Pervej, Le Thanh Tan, Rose Qingyang Hu(参考訳) エッジキャッシングは、コアネットワークの負荷を低減し、コンテンツ配信パフォーマンスを向上させるために、ここ数年にわたって利用されてきた新しいパラダイムである。 既存のキャッシュソリューションの多くは、異種キャッシュモデルに付随する膨大な複雑さのため、均一なキャッシュ配置しか考慮していない。 従来のモデリングパラダイムとは異なり、エッジノードにおける異種キャッシュモデルを持つユーザの異種コンテンツ嗜好について考察する。 さらに,2層ヘテロジニアスネットワークにおけるキャッシュヒット率(chr)を最大化するために,エッジノードを協調させる。 しかし、複雑な組合せ決定変数のため、定式化問題は多項式時間で解くことは困難である。 さらに、問題を解決するためのツールやソフトウェアさえ存在しません。 複雑な制約問題を妥当な時間で効率的に解決する修正粒子群最適化(M-PSO)アルゴリズムを提案する。 数値解析とシミュレーションにより,提案アルゴリズムは既存のベースラインキャッシュ方式と比較してCHR性能を大幅に向上することを確認した。

Edge caching is a new paradigm that has been exploited over the past several years to reduce the load for the core network and to enhance the content delivery performance. Many existing caching solutions only consider homogeneous caching placement due to the immense complexity associated with the heterogeneous caching models. Unlike these legacy modeling paradigms, this paper considers heterogeneous content preference of the users with heterogeneous caching models at the edge nodes. Besides, aiming to maximize the cache hit ratio (CHR) in a two-tier heterogeneous network, we let the edge nodes collaborate. However, due to complex combinatorial decision variables, the formulated problem is hard to solve in the polynomial time. Moreover, there does not even exist a ready-to-use tool or software to solve the problem. We propose a modified particle swarm optimization (M-PSO) algorithm that efficiently solves the complex constraint problem in a reasonable time. Using numerical analysis and simulation, we validate that the proposed algorithm significantly enhances the CHR performance when comparing to that of the existing baseline caching schemes.
翻訳日:2022-12-02 14:01:05 公開日:2020-09-16
# 新型コロナウイルスについて何の質問があるのか? 質問分類データセット

What Are People Asking About COVID-19? A Question Classification Dataset ( http://arxiv.org/abs/2005.12522v2 )

ライセンス: Link先を確認
Jerry Wei, Chengyu Huang, Soroush Vosoughi, Jason Wei(参考訳) 我々は、13のソースから1,690件のCOVID-19に関する質問セットであるCOVID-Qを紹介し、この質問は15の質問カテゴリと207の質問クラスタに注釈付けします。 今回のデータセットで最も一般的な質問は、COVID-19の感染、予防、社会的影響についてであり、複数のソースに現れた質問の多くは、CDCやFDAなどの信頼できる組織のFAQのウェブサイトから回答されなかった。 データセットはhttps://github.com/JerryWei03/COVID-Q.comに公開しています。 質問を15のカテゴリに分類するために、BERTベースラインは、カテゴリ毎に20の例でトレーニングされた時点で58.1%の精度を記録し、質問クラスタリングタスクではBERT+トリプルト損失ベースラインが49.5%の精度を達成した。 COVID-Qは、応用システム開発や、モデル評価のためのドメイン固有のリソースとして、直接的な利用に役立つことを期待しています。

We present COVID-Q, a set of 1,690 questions about COVID-19 from 13 sources, which we annotate into 15 question categories and 207 question clusters. The most common questions in our dataset asked about transmission, prevention, and societal effects of COVID, and we found that many questions that appeared in multiple sources were not answered by any FAQ websites of reputable organizations such as the CDC and FDA. We post our dataset publicly at https://github.com/JerryWei03/COVID-Q. For classifying questions into 15 categories, a BERT baseline scored 58.1% accuracy when trained on 20 examples per category, and for a question clustering task, a BERT + triplet loss baseline achieved 49.5% accuracy. We hope COVID-Q can help either for direct use in developing applied systems or as a domain-specific resource for model evaluation.
翻訳日:2022-11-29 00:06:37 公開日:2020-09-16
# 近接雑音を利用した学習:量子アドバンテージの可能性

Learning to Utilize Correlated Auxiliary Noise: A Possible Quantum Advantage ( http://arxiv.org/abs/2006.04863v2 )

ライセンス: Link先を確認
Aida Ahmadzadegan, Petar Simidzija, Ming Li, Achim Kempf(参考訳) この論文には2つのメッセージがあります。 まず,ノイズデータを処理するニューラルネットワークが,データ上の雑音と相関する補助ノイズへのアクセスを利用可能であれば学習できることを実証する。 ネットワークは、相関した補助雑音を近似鍵として使用し、ノイズの多い入力データを復号する。 第二に、このタスクでは、ノイズの増加に伴うスケーリングの挙動が、将来の量子マシンに有利であることを示す。 特に、デコヒーレンスは環境中の相関した補助雑音を生成する。 この新しいアプローチは、マシンが学習した量子エラー訂正を提供することで、将来の量子マシンの実現に役立つ。

This paper has two messages. First, we demonstrate that neural networks that process noisy data can learn to exploit, when available, access to auxiliary noise that is correlated with the noise on the data. In effect, the network learns to use the correlated auxiliary noise as an approximate key to decipher its noisy input data. Second, we show that, for this task, the scaling behavior with increasing noise is such that future quantum machines could possess an advantage. In particular, decoherence generates correlated auxiliary noise in the environment. The new approach could, therefore, help enable future quantum machines by providing machine-learned quantum error correction.
翻訳日:2022-11-24 02:35:45 公開日:2020-09-16
# 深部畳み込みニューラルネットワークモデルによるフラビアル洪水の早期予測

A deep convolutional neural network model for rapid prediction of fluvial flood inundation ( http://arxiv.org/abs/2006.11555v2 )

ライセンス: Link先を確認
Syed Kabir (1 and 2), Sandhya Patidar (2), Xilin Xia (1), Qiuhua Liang (1), Jeffrey Neal (3) and Gareth Pender (2). ((1) School of Architecture, Building and Civil Engineering, Loughborough University, Loughborough, United Kingdom. (2) School of Energy, Geoscience, Infrastructure and Society, Heriot-Watt University, Edinburgh, United Kingdom. (3) School of Geographical Sciences, University of Bristol, Bristol, United Kingdom)(参考訳) 2次元(2次元)水力/流体力学モデルの多くは、リアルタイムアプリケーションには計算的に要求されすぎている。 本稿では, 深部畳み込みニューラルネットワーク (CNN) を用いた新しいモデリング手法を提案し, フラビアル洪水の急激な予測を行う。 CNNモデルは2次元油圧モデル(LISFLOOD-FP)からの出力を用いて、水深を予測する。 事前訓練されたモデルは、2005年1月と2015年12月のカーライルの洪水をシミュレートするために適用される。 cnn予測は、lisflood-fpの出力と好適に比較される。 CNNモデルの性能は、サポートベクトル回帰(SVR)法に対するベンチマークによってさらに確認される。 その結果、CNNモデルはSVRよりも大きなマージンで優れていた。 cnnモデルは、いくつかの定量的評価行列で示されるように、浸水した細胞を捕獲するのに非常に正確である。 最大水深を再現する誤差は2005年のイベントでは0 ~ 0.2 m、計算領域をカバーするセルの99%以上で2015年のイベントでは0 ~ 0.5 mである。 提案手法は, 簡易性, 性能, 計算効率を考慮し, リアルタイム洪水モデリング・予測に大きな可能性をもたらす。

Most of the two-dimensional (2D) hydraulic/hydrodynamic models are still computationally too demanding for real-time applications. In this paper, an innovative modelling approach based on a deep convolutional neural network (CNN) method is presented for rapid prediction of fluvial flood inundation. The CNN model is trained using outputs from a 2D hydraulic model (i.e. LISFLOOD-FP) to predict water depths. The pre-trained model is then applied to simulate the January 2005 and December 2015 floods in Carlisle, UK. The CNN predictions are compared favourably with the outputs produced by LISFLOOD-FP. The performance of the CNN model is further confirmed by benchmarking against a support vector regression (SVR) method. The results show that the CNN model outperforms SVR by a large margin. The CNN model is highly accurate in capturing flooded cells as indicated by several quantitative assessment matrices. The estimated error for reproducing maximum flood depth is 0 ~ 0.2 meters for the 2005 event and 0 ~ 0.5 meters for the 2015 event at over 99% of the cells covering the computational domain. The proposed CNN method offers great potential for real-time flood modelling/forecasting considering its simplicity, superior performance and computational efficiency.
翻訳日:2022-11-18 22:28:11 公開日:2020-09-16
# 潜在変数ガウス過程を用いた多クラス構造によるデータ駆動トポロジー最適化

Data-Driven Topology Optimization with Multiclass Microstructures using Latent Variable Gaussian Process ( http://arxiv.org/abs/2006.15273v2 )

ライセンス: Link先を確認
Liwei Wang, Siyu Tao, Ping Zhu, Wei Chen(参考訳) データ駆動アプローチは、より効率の良い多スケール構造のトポロジカル設計のための有望な方法として登場している。 しかし、既存のデータ駆動手法は主に、空間的に変化する所望の特性に対応するために複数のクラスを考慮せずに、単一クラスのマイクロ構造にフォーカスする。 鍵となる課題は、様々な性質を満たすために、異なるクラスのミクロ構造間で固有の順序付けや距離測定が欠けていることである。 このハードルを克服するため,我々は新たに開発した潜在可変ガウス過程(lvgp)モデルを拡張し,メタマテリアルのミクロ構造ライブラリのためのマルチ応答型lvgp(mr-lvgp)モデルを作成し,質的微細構造の概念と定量的構造設計変数を混合変数入力として用いた。 MR-LVGPモデルでは、混合変数が応答に対する集合的影響に基づいて連続的な設計空間に埋め込み、異なる幾何学的クラスとミクロ構造の材料パラメータ間の相互作用に関する重要な洞察を提供する。 このモデルにより,マルチスケールトポロジー最適化のための勾配情報を描画可能な,異なる微細構造概念間の連続的かつ微分可能な遷移を容易に得ることができる。 周期的マイクロ構造を用いたマルチスケールトポロジ最適化により,その利点を実証する。 設計例では、マイクロ構造やマクロ構造に対する一貫した負荷伝達経路により、マルチクラスのマイクロ構造を考えることで性能が向上することを示した。

The data-driven approach is emerging as a promising method for the topological design of multiscale structures with greater efficiency. However, existing data-driven methods mostly focus on a single class of microstructures without considering multiple classes to accommodate spatially varying desired properties. The key challenge is the lack of an inherent ordering or distance measure between different classes of microstructures in meeting a range of properties. To overcome this hurdle, we extend the newly developed latent-variable Gaussian process (LVGP) models to create multi-response LVGP (MR-LVGP) models for the microstructure libraries of metamaterials, taking both qualitative microstructure concepts and quantitative microstructure design variables as mixed-variable inputs. The MR-LVGP model embeds the mixed variables into a continuous design space based on their collective effects on the responses, providing substantial insights into the interplay between different geometrical classes and material parameters of microstructures. With this model, we can easily obtain a continuous and differentiable transition between different microstructure concepts that can render gradient information for multiscale topology optimization. We demonstrate its benefits through multiscale topology optimization with aperiodic microstructures. Design examples reveal that considering multiclass microstructures can lead to improved performance due to the consistent load-transfer paths for micro- and macro-structures.
翻訳日:2022-11-16 07:43:31 公開日:2020-09-16
# 機械系学習のための深層生成モデリングとメタマテリアルシステムの設計

Deep Generative Modeling for Mechanistic-based Learning and Design of Metamaterial Systems ( http://arxiv.org/abs/2006.15274v2 )

ライセンス: Link先を確認
Liwei Wang, Yu-Chin Chan, Faez Ahmed, Zhao Liu, Ping Zhu, Wei Chen(参考訳) メタマテリアルは新しいパラダイム素材システムとして登場し、様々なエンジニアリングアプリケーションで前例のない、カスタマイズ可能な特性を生み出している。 しかし,メタマテリアルとそのマルチスケールシステムの逆設計は,高次元トポロジカルデザイン空間,複数局所最適化,高計算コストにより困難である。 これらのハードルに対処するために,深部生成モデルに基づく新しいデータ駆動型メタマテリアル設計フレームワークを提案する。 特性予測のための変分オートエンコーダ(vae)とレグレッシャ(reressor)を同時に大きなメタマテリアルデータベースに訓練し、複雑な微細構造を低次元で連続的で組織化された潜在空間にマッピングする。 本研究では,VAEの潜伏空間が形状類似度を測り,微構造間の補間を可能にし,測地や特性の有意な変動パターンを符号化する距離測定値を提供することを示す。 これらの知見に基づき, マイクロ構造, グレードファミリー, マルチスケールシステムの設計において, 系統的データ駆動方式を提案する。 ミクロ組織設計では, 潜時空間における単純なベクトル操作により, 機械的特性のチューニングや複雑な組織操作が容易に行える。 ベクトル演算はさらに拡張され、構築されたグラフモデルを用いて機械的特性を制御したメタマテリアルファミリーを生成する。 マルチスケールのメタマテリアルシステム設計では、異なる位置のターゲット特性に対してVAEを用いて多様なマイクロ構造を迅速に生成し、隣接するマイクロ構造間の互換性を確保するために効率的なグラフベースの最適化手法で組み立てることができる。 所望の歪み挙動を実現する機能的グレードとヘテロジニアスなメタマテリアルシステムの設計により,我々の枠組みを実証する。

Metamaterials are emerging as a new paradigmatic material system to render unprecedented and tailorable properties for a wide variety of engineering applications. However, the inverse design of metamaterial and its multiscale system is challenging due to high-dimensional topological design space, multiple local optima, and high computational cost. To address these hurdles, we propose a novel data-driven metamaterial design framework based on deep generative modeling. A variational autoencoder (VAE) and a regressor for property prediction are simultaneously trained on a large metamaterial database to map complex microstructures into a low-dimensional, continuous, and organized latent space. We show in this study that the latent space of VAE provides a distance metric to measure shape similarity, enable interpolation between microstructures and encode meaningful patterns of variation in geometries and properties. Based on these insights, systematic data-driven methods are proposed for the design of microstructure, graded family, and multiscale system. For microstructure design, the tuning of mechanical properties and complex manipulations of microstructures are easily achieved by simple vector operations in the latent space. The vector operation is further extended to generate metamaterial families with a controlled gradation of mechanical properties by searching on a constructed graph model. For multiscale metamaterial systems design, a diverse set of microstructures can be rapidly generated using VAE for target properties at different locations and then assembled by an efficient graph-based optimization method to ensure compatibility between adjacent microstructures. We demonstrate our framework by designing both functionally graded and heterogeneous metamaterial systems that achieve desired distortion behaviors.
翻訳日:2022-11-16 07:43:07 公開日:2020-09-16
# sgquant: 特殊量子化によるグラフニューラルネットワークの最後のビットを絞り込む

SGQuant: Squeezing the Last Bit on Graph Neural Networks with Specialized Quantization ( http://arxiv.org/abs/2007.05100v2 )

ライセンス: Link先を確認
Boyuan Feng, Yuke Wang, Xu Li, Shu Yang, Xueqiao Peng, and Yufei Ding(参考訳) グラフベースの学習の人気が高まる中、グラフニューラルネットワーク(gnn)は高い精度のため、研究や産業分野から多くの注目を集めている。 しかし、既存のGNNは高いメモリフットプリント(例えばノード埋め込み機能)に悩まされている。 この高いメモリフットプリントは、広くデプロイされたIoTデバイスなど、メモリ制限されたデバイスへの潜在的な応用をハードルとする。 そこで本研究では,GNNのメモリ消費を体系的に削減する,特殊なGNN量子化スキームであるSGQuantを提案する。 具体的には,まず,gnn対応量子化アルゴリズムの設計と,gnn量子化微調整方式を提案する。 次に,GNN計算の異なるレベル(成分,グラフトポロジ,層)で動作する多粒度量子化戦略について検討する。 さらに,上述の多粒度量子化に対して最も適切な量子化ビットをピンポイントする自動ビット選択(abs)を提供する。 集中的な実験の結果、SGQuantは従来の完全精度のGNNと比較してメモリフットプリントを4.25倍から31.9倍に効果的に削減し、精度を平均0.4%に抑えることができた。

With the increasing popularity of graph-based learning, Graph Neural Networks (GNNs) win lots of attention from the research and industry field because of their high accuracy. However, existing GNNs suffer from high memory footprints (e.g., node embedding features). This high memory footprint hurdles the potential applications towards memory-constrained devices, such as the widely-deployed IoT devices. To this end, we propose a specialized GNN quantization scheme, SGQuant, to systematically reduce the GNN memory consumption. Specifically, we first propose a GNN-tailored quantization algorithm design and a GNN quantization fine-tuning scheme to reduce memory consumption while maintaining accuracy. Then, we investigate the multi-granularity quantization strategy that operates at different levels (components, graph topology, and layers) of GNN computation. Moreover, we offer an automatic bit-selecting (ABS) to pinpoint the most appropriate quantization bits for the above multi-granularity quantizations. Intensive experiments show that SGQuant can effectively reduce the memory footprint from 4.25x to 31.9x compared with the original full-precision GNNs while limiting the accuracy drop to 0.4% on average.
翻訳日:2022-11-12 03:39:35 公開日:2020-09-16
# 画像ベース乳癌リスクモデルにおける遺伝リスクと早期がん症状の分離

Decoupling Inherent Risk and Early Cancer Signs in Image-based Breast Cancer Risk Models ( http://arxiv.org/abs/2007.05791v4 )

ライセンス: Link先を確認
Yue Liu, Hossein Azizpour, Fredrik Strand, Kevin Smith(参考訳) 乳がんの発症リスクを正確に推定する能力は、臨床意思決定に有用である。 有望な新しいアプローチの1つは、ディープニューラルネットワークに基づく画像ベースのリスクモデルを統合することである。 しかし、トレーニングデータの選択がネットワークが識別するパターンに影響を与えるため、そのようなモデルを使用する場合には注意する必要がある。 このことを念頭に置いて,ポジティブなトレーニングデータ(すなわち,がんを発症する患者からのイメージ)を選択するための3つの異なる基準を用いてネットワークを訓練した。がんの徴候のない画像でトレーニングされた固有のリスクモデル,がんや早期がんの徴候を含む画像でトレーニングされた癌標識モデル,がん診断を受けた患者のすべての画像でトレーニングされた畳み込みモデルである。 これらの3つのモデルは、異なるパターンに焦点を当てた特徴を学習し、パフォーマンスのコントラストに変換する。 短期リスクはがんの兆候モデルにより推定され、長期リスクは固有のリスクモデルによって推定される。 すべての画像に対する不注意なトレーニングは、早期のがん徴候に固有のリスクを和らげ、両方の体制において最適以下の推定をもたらす。 その結果、凝縮モデルにより、早期がんの徴候が既に見えている場合、医師は予防措置を推奨される可能性がある。

The ability to accurately estimate risk of developing breast cancer would be invaluable for clinical decision-making. One promising new approach is to integrate image-based risk models based on deep neural networks. However, one must take care when using such models, as selection of training data influences the patterns the network will learn to identify. With this in mind, we trained networks using three different criteria to select the positive training data (i.e. images from patients that will develop cancer): an inherent risk model trained on images with no visible signs of cancer, a cancer signs model trained on images containing cancer or early signs of cancer, and a conflated model trained on all images from patients with a cancer diagnosis. We find that these three models learn distinctive features that focus on different patterns, which translates to contrasts in performance. Short-term risk is best estimated by the cancer signs model, whilst long-term risk is best estimated by the inherent risk model. Carelessly training with all images conflates inherent risk with early cancer signs, and yields sub-optimal estimates in both regimes. As a consequence, conflated models may lead physicians to recommend preventative action when early cancer signs are already visible.
翻訳日:2022-11-11 13:27:59 公開日:2020-09-16
# 隣り合うバイアスの組合せおよび計算的研究

Combinatorial and computational investigations of Neighbor-Joining bias ( http://arxiv.org/abs/2007.09345v3 )

ライセンス: Link先を確認
Ruth Davidson and Abraham Martin del Campo(参考訳) 隣り合うアルゴリズムは、生物データから生じる相似性マップからツリーメトリックを計算する一般的な距離に基づく系統解析手法である。 ユークリッド空間の点としての異性写像を実現するアルゴリズムは、入力空間を木の組み合わせ型によってインデックスされた多面体領域に分割する。 これらの領域の完全な組合せ記述はまだ見つかっていないが、近傍に結合する凝集イベントの異なる配列が同じ組合せ木を生成できるため、複数の幾何領域を同じアルゴリズム出力に関連付けることができる。 木上の凝集順序を定義することでこの混乱を解消し、出力空間の異なる領域と重み付きモツキン経路の間の単射をもたらす。 その結果,分類数にのみ依存する多面体領域数の式が得られた。 我々は,これらの多面体領域間の計算比較を行い,アルゴリズムの実装に現れるバイアスを明らかにする。

The Neighbor-Joining algorithm is a popular distance-based phylogenetic method that computes a tree metric from a dissimilarity map arising from biological data. Realizing dissimilarity maps as points in Euclidean space, the algorithm partitions the input space into polyhedral regions indexed by the combinatorial type of the trees returned. A full combinatorial description of these regions has not been found yet; different sequences of Neighbor-Joining agglomeration events can produce the same combinatorial tree, therefore associating multiple geometric regions to the same algorithmic output. We resolve this confusion by defining agglomeration orders on trees, leading to a bijection between distinct regions of the output space and weighted Motzkin paths. As a result, we give a formula for the number of polyhedral regions depending only on the number of taxa. We conclude with a computational comparison between these polyhedral regions, to unveil biases introduced in any implementation of the algorithm.
翻訳日:2022-11-09 05:34:07 公開日:2020-09-16
# 重度定量化のための教師なし形状正規化基準

Unsupervised Shape Normality Metric for Severity Quantification ( http://arxiv.org/abs/2007.09307v2 )

ライセンス: Link先を確認
Wenzheng Tao, Riddhish Bhalodia, Erin Anstadt, Ladislav Kavan, Ross T. Whitaker, Jesse A. Goldstein(参考訳) 本稿では,一般解剖学的形状の異常を客観的に定量化するための教師なし手法について述べる。 解剖学的変形の重症度は、しばしば患者の臨床管理における決定要因となる。 しかし、経験的偏見と専門的個人における特異なランダム残差は、客観的な変形度に関係なく、診断や患者管理の決定に多様性をもたらす。 そのため、ヒトのバイアスや不整合を必然的に維持する病的サンプルのラベル付けが不十分なため、教師付き手法は誤解されがちである。 さらに、特定の病状を示す被験者は、通常人口と比較して自然に稀である。 正常標本のパワーを十分に活用することで,十分な病理サンプルに頼ることを避けるため,正常試料からのみ学習し,病理学の知識をゼロにする形状正規度指標(SNM)を提案する。 データから自動的に推測されるランドマークによって形を表現し、正規群を多変量ガウス分布でモデル化する。 頭蓋骨、大腿骨、肩甲骨、上腕骨を含む様々な解剖学的データセットに関する広範な実験は、snmが効果的な正常度測定を提供し、病理を著しく検出し示すことができることを示した。 したがって、SNMは様々な臨床応用において有望な価値を提供する。

This work describes an unsupervised method to objectively quantify the abnormality of general anatomical shapes. The severity of an anatomical deformity often serves as a determinant in the clinical management of patients. However, experiential bias and distinctive random residuals among specialist individuals bring variability in diagnosis and patient management decisions, irrespective of the objective deformity degree. Therefore, supervised methods are prone to be misled given insufficient labeling of pathological samples that inevitably preserve human bias and inconsistency. Furthermore, subjects demonstrating a specific pathology are naturally rare relative to the normal population. To avoid relying on sufficient pathological samples by fully utilizing the power of normal samples, we propose the shape normality metric (SNM), which requires learning only from normal samples and zero knowledge about the pathology. We represent shapes by landmarks automatically inferred from the data and model the normal group by a multivariate Gaussian distribution. Extensive experiments on different anatomical datasets, including skulls, femurs, scapulae, and humeri, demonstrate that SNM can provide an effective normality measurement, which can significantly detect and indicate pathology. Therefore, SNM offers promising value in a variety of clinical applications.
翻訳日:2022-11-09 05:33:51 公開日:2020-09-16
# 新型コロナ患者のアウトカム予測のための統合分析

Integrative Analysis for COVID-19 Patient Outcome Prediction ( http://arxiv.org/abs/2007.10416v2 )

ライセンス: Link先を確認
Hanqing Chao, Xi Fang, Jiajin Zhang, Fatemeh Homayounieh, Chiara D. Arru, Subba R. Digumarthy, Rosa Babaei, Hadi K. Mobin, Iman Mohseni, Luca Saba, Alessandro Carriero, Zeno Falaschi, Alessio Pasche, Ge Wang, Mannudeep K. Kalra, Pingkun Yan(参考訳) 新型コロナウイルス診断のための胸部CT画像解析は集中的に研究されているが,画像に基づく患者の予後予測にはほとんど効果がない。 早期介入のある高リスク患者の管理は、大多数の患者が自然に回復するため、新型コロナウイルス肺炎の死亡率を下げる鍵となる。 したがって,初診時のベースライン画像による疾患進展の正確な予測は,患者の管理に役立てることができる。 深層学習による画像分割による肺病変の大きさと容積情報のみの代わりに, 人口統計, バイタルサイン, 検査結果から肺不透明度の放射能と非画像特徴を組み合わせ, 集中治療室(ICU)の入院の必要性を予測した。 本研究は,画像データと非画像データの両方を含む患者の総合的な情報を結果予測に利用した最初の研究である。 提案手法は,米国病院,イラン病院,イタリア病院の3施設から分離して収集したデータセットを用いて徹底的に評価され,rt-pcr (reverse transcription polymerase chain reaction) 患者295名に陽性肺炎を診断した。 以上の結果から,非画像機能の追加は,最大0.884名までのaucと96.1%までの感度を達成するための予測性能を著しく向上させる可能性が示唆された。 また, 地域性肺炎を含む他の肺疾患にも適用できるが, 地域性肺炎に限らない。 私たちの仕事のソースコードはhttps://github.com/dial-rpi/covid19-icupredictionで入手できます。

While image analysis of chest computed tomography (CT) for COVID-19 diagnosis has been intensively studied, little work has been performed for image-based patient outcome prediction. Management of high-risk patients with early intervention is a key to lower the fatality rate of COVID-19 pneumonia, as a majority of patients recover naturally. Therefore, an accurate prediction of disease progression with baseline imaging at the time of the initial presentation can help in patient management. In lieu of only size and volume information of pulmonary abnormalities and features through deep learning based image segmentation, here we combine radiomics of lung opacities and non-imaging features from demographic data, vital signs, and laboratory findings to predict need for intensive care unit (ICU) admission. To our knowledge, this is the first study that uses holistic information of a patient including both imaging and non-imaging data for outcome prediction. The proposed methods were thoroughly evaluated on datasets separately collected from three hospitals, one in the United States, one in Iran, and another in Italy, with a total 295 patients with reverse transcription polymerase chain reaction (RT-PCR) assay positive COVID-19 pneumonia. Our experimental results demonstrate that adding non-imaging features can significantly improve the performance of prediction to achieve AUC up to 0.884 and sensitivity as high as 96.1%, which can be valuable to provide clinical decision support in managing COVID-19 patients. Our methods may also be applied to other lung diseases including but not limited to community acquired pneumonia. The source code of our work is available at https://github.com/DIAL-RPI/COVID19-ICUPrediction.
翻訳日:2022-11-08 14:35:00 公開日:2020-09-16
# 金属添加物製造のための機械学習:物理インフォームドニューラルネットワークを用いた温度予測と溶融プール流体力学

Machine learning for metal additive manufacturing: Predicting temperature and melt pool fluid dynamics using physics-informed neural networks ( http://arxiv.org/abs/2008.13547v2 )

ライセンス: Link先を確認
Qiming Zhu, Zeliang Liu, Jinhui Yan(参考訳) 最近の機械学習(ML)と人工知能(AI)の爆発は、金属添加物製造(AM)プロセスモデリングのブレークスルーに大きな可能性を示している。 しかし、データサイエンスにおける従来の機械学習ツールの成功は主に、実験または第一原理シミュレーションによって得られるラベル付きデータセット(ビッグデータ)の膨大な量に起因する。 残念ながら、これらのラベル付きデータセットは、am実験の費用が高く、高忠実度シミュレーションの計算コストが抑えられているため、amで取得するコストが高い。 運動量,質量,エネルギーの保存則を含む,データと第一原理の両方を融合した物理情報ニューラルネットワーク(PINN)フレームワークをニューラルネットワークに提案し,学習プロセスについて報告する。 著者らの知る限り、PINNの3次元AMプロセスモデリングへの応用はこれが初めてである。 さらに,ヘビーサイド関数に基づくディリクレ境界条件(bcs)に対するハードタイプアプローチを提案する。 PINNフレームワークは、2018年のNIST AM-Benchmarkテストシリーズを含む2つの代表的な金属製造問題に適用されている。 我々は,PINNモデルの性能を実験データと高忠実度シミュレーション結果とを比較して慎重に評価する。 調査の結果、PINNは追加の物理的知識に依拠し、金属AMプロセス中の温度とプールのダイナミクスを適度な量のラベル付きデータセットで正確に予測できることがわかった。 PINNの金属AMへの進出は、物理学的なインフォームドディープラーニングの大きな可能性を示している。

The recent explosion of machine learning (ML) and artificial intelligence (AI) shows great potential in the breakthrough of metal additive manufacturing (AM) process modeling. However, the success of conventional machine learning tools in data science is primarily attributed to the unprecedented large amount of labeled data-sets (big data), which can be either obtained by experiments or first-principle simulations. Unfortunately, these labeled data-sets are expensive to obtain in AM due to the high expense of the AM experiments and prohibitive computational cost of high-fidelity simulations. We propose a physics-informed neural network (PINN) framework that fuses both data and first physical principles, including conservation laws of momentum, mass, and energy, into the neural network to inform the learning processes. To the best knowledge of the authors, this is the first application of PINN to three dimensional AM processes modeling. Besides, we propose a hard-type approach for Dirichlet boundary conditions (BCs) based on a Heaviside function, which can not only enforce the BCs but also accelerate the learning process. The PINN framework is applied to two representative metal manufacturing problems, including the 2018 NIST AM-Benchmark test series. We carefully assess the performance of the PINN model by comparing the predictions with available experimental data and high-fidelity simulation results. The investigations show that the PINN, owed to the additional physical knowledge, can accurately predict the temperature and melt pool dynamics during metal AM processes with only a moderate amount of labeled data-sets. The foray of PINN to metal AM shows the great potential of physics-informed deep learning for broader applications to advanced manufacturing.
翻訳日:2022-11-06 03:17:53 公開日:2020-09-16
# 放射状投影を用いたインフラストラクチャベースマルチカメラキャリブレーション

Infrastructure-based Multi-Camera Calibration using Radial Projections ( http://arxiv.org/abs/2007.15330v2 )

ライセンス: Link先を確認
Yukai Lin, Viktor Larsson, Marcel Geppert, Zuzana Kukelova, Marc Pollefeys and Torsten Sattler(参考訳) マルチカメラシステムは、自動運転車のようなインテリジェントシステムにとって重要なセンサープラットフォームである。 パターンに基づく校正技術は、カメラの内在を個別に校正するために用いられる。 しかし、カメラ間の視覚的重なりがほとんど、あるいは全くないシステムの外部キャリブレーションは困難である。 カメラの内在性を考えると、SLAMやStructure-from-Motionで事前に構築された3Dマップを用いて、外在性を評価することができる。 本稿では,インフラストラクチャベースのアプローチを用いて,マルチカメラシステムをスクラッチから完全にキャリブレーションすることを提案する。 歪みが主に放射状であると仮定すると、2段階のアプローチを導入する。 まず,カメラ1台あたりの未知の翻訳成分を推定する。 次に、本質的なパラメータと欠落する翻訳成分の両方について解決する。 複数のマルチカメラシステムを用いた屋内・屋外シーンの大規模実験により,キャリブレーション手法が高精度かつロバスト性を実現することを示した。 特に,本手法は,本システムの外部パラメータを精査する前に,まず内在パラメータを推定し,カメラごとのポーズを取るという単純なアプローチよりも頑健である。 実装はhttps://github.com/youkely/InfrasCal.comで公開されている。

Multi-camera systems are an important sensor platform for intelligent systems such as self-driving cars. Pattern-based calibration techniques can be used to calibrate the intrinsics of the cameras individually. However, extrinsic calibration of systems with little to no visual overlap between the cameras is a challenge. Given the camera intrinsics, infrastucture-based calibration techniques are able to estimate the extrinsics using 3D maps pre-built via SLAM or Structure-from-Motion. In this paper, we propose to fully calibrate a multi-camera system from scratch using an infrastructure-based approach. Assuming that the distortion is mainly radial, we introduce a two-stage approach. We first estimate the camera-rig extrinsics up to a single unknown translation component per camera. Next, we solve for both the intrinsic parameters and the missing translation components. Extensive experiments on multiple indoor and outdoor scenes with multiple multi-camera systems show that our calibration method achieves high accuracy and robustness. In particular, our approach is more robust than the naive approach of first estimating intrinsic parameters and pose per camera before refining the extrinsic parameters of the system. The implementation is available at https://github.com/youkely/InfrasCal.
翻訳日:2022-11-05 14:54:04 公開日:2020-09-16
# デザインドラフトからリアルアッティアへ:非整列ファッション画像翻訳

From Design Draft to Real Attire: Unaligned Fashion Image Translation ( http://arxiv.org/abs/2008.01023v3 )

ライセンス: Link先を確認
Yu Han, Shuai Yang, Wenjing Wang, Jiaying Liu(参考訳) ファッションの操作は、その大きな応用価値から関心が高まり、多くの研究がファッションイメージに拍車をかけた。 しかし、ファッションデザインの草案にはほとんど注目されていない。 本稿では,デザインドラフトと実際のファッションアイテム間の非整合性翻訳問題について検討し,その主な課題は2つのモダリティ間の大きな相違にある。 まず,2つのデザインドラフトと実際のファッションアイテムイメージをピクセルワイドなアライメントなしで収集する。 ミスアライメント問題を解決するためには,サンプリングネットワークを訓練し,入力を中間状態に適応的に調整し,出力に構造的アライメントを施すことが主目的である。 さらに,サンプリングネットワーク上に構築した実ファッションアイテム翻訳ネットワーク(D2RNet)に,テクスチャと形状に着目した2つの別々の翻訳ストリームを組み合わせることで,両者の利点を享受する。 D2RNetは、デザインドラフトに対してテクスチャと形状の整合性の両方でリアルな衣服を生成することができる。 本稿では,このアイデアを逆変換問題に適用し,それに応じてR2DNetを提案する。 非整合なファッションデザイン翻訳に関する広範囲な実験は、最先端の手法よりも優れた方法を示している。 プロジェクトのwebサイトは、https://victoriahy.github.io/mm2020/。

Fashion manipulation has attracted growing interest due to its great application value, which inspires many researches towards fashion images. However, little attention has been paid to fashion design draft. In this paper, we study a new unaligned translation problem between design drafts and real fashion items, whose main challenge lies in the huge misalignment between the two modalities. We first collect paired design drafts and real fashion item images without pixel-wise alignment. To solve the misalignment problem, our main idea is to train a sampling network to adaptively adjust the input to an intermediate state with structure alignment to the output. Moreover, built upon the sampling network, we present design draft to real fashion item translation network (D2RNet), where two separate translation streams that focus on texture and shape, respectively, are combined tactfully to get both benefits. D2RNet is able to generate realistic garments with both texture and shape consistency to their design drafts. We show that this idea can be effectively applied to the reverse translation problem and present R2DNet accordingly. Extensive experiments on unaligned fashion design translation demonstrate the superiority of our method over state-of-the-art methods. Our project website is available at: https://victoriahy.github.io/MM2020/ .
翻訳日:2022-11-03 07:08:06 公開日:2020-09-16
# 説明可能な予測プロセスモニタリング

Explainable Predictive Process Monitoring ( http://arxiv.org/abs/2008.01807v2 )

ライセンス: Link先を確認
Riccardo Galanti, Bernat Coma-Puig, Massimiliano de Leoni, Josep Carmona, Nicol\`o Navarin(参考訳) 予測的ビジネスプロセスモニタリングは、組織にとって不可欠な支援となり、彼らのプロセスのオンライン運用サポートを提供しています。 本稿は、予測的ビジネスプロセス監視に説明機能を持たせることの基本的課題に取り組み、残時間や活動実行などの一般的なKPIを予測する際に、その理由だけでなく理由も報告する。 ゲーム理論であるShapley Valuesを用いて、予測の堅牢な説明を得る。 このアプローチは実生活のベンチマークで実装され、テストされ、予測ビジネスプロセス監視の分野でどのように説明ができるかを初めて示す。

Predictive Business Process Monitoring is becoming an essential aid for organizations, providing online operational support of their processes. This paper tackles the fundamental problem of equipping predictive business process monitoring with explanation capabilities, so that not only the what but also the why is reported when predicting generic KPIs like remaining time, or activity execution. We use the game theory of Shapley Values to obtain robust explanations of the predictions. The approach has been implemented and tested on real-life benchmarks, showing for the first time how explanations can be given in the field of predictive business process monitoring.
翻訳日:2022-11-02 23:39:26 公開日:2020-09-16
# 群衆歩行者検出のための可視的特徴ガイダンス

Visible Feature Guidance for Crowd Pedestrian Detection ( http://arxiv.org/abs/2008.09993v2 )

ライセンス: Link先を確認
Zhida Huang, Kaiyu Yue, Jiangfan Deng, Feng Zhou(参考訳) 目立たない人間の部分に応じて、正確なフルバウンディングボックスを推測することは難しいため、群衆シーンの激しい閉塞と密集した集まりは歩行者検出を困難な問題にしています。 そこで本研究では,VFG(Visible Feature Guidance, Visible Feature Guidance)と呼ばれるメカニズムを提案する。 訓練中,可視的特徴を用いて可視的境界ボックスとフルバウンディングボックスの同時出力をレグレッションする。 次に,視覚的バウンディングボックス上でのみNMSを実行し,推論において最高の適合フルボックスを実現する。 この方法は、群衆シーンにおけるNMSの影響を緩和し、フルバウンディングボックスをより正確にすることができる。 さらに,歩行者追跡などのポスト・アプリケーション・プロセスにおける特徴連想を緩和するために,ハンガリーのアルゴリズムを人間インスタンスのアソシエイト部品に適用する。 提案手法は,2段検出器と1段検出器の両方において,mAPおよびAP50の約2~3%の改善を安定的に得ることができる。 特に厳格なIoUではMR-2の方が有効です。 Crowd Human、Cityperson、Caltech、KITTIのデータセットに関する実験は、可視的特徴ガイダンスが検出者にとって有望なパフォーマンスを達成するのに役立つことを示している。 さらに、parts associationは、ビジョンコミュニティのためのcrowdhumanに関する強力なベンチマークを作成している。

Heavy occlusion and dense gathering in crowd scene make pedestrian detection become a challenging problem, because it's difficult to guess a precise full bounding box according to the invisible human part. To crack this nut, we propose a mechanism called Visible Feature Guidance (VFG) for both training and inference. During training, we adopt visible feature to regress the simultaneous outputs of visible bounding box and full bounding box. Then we perform NMS only on visible bounding boxes to achieve the best fitting full box in inference. This manner can alleviate the incapable influence brought by NMS in crowd scene and make full bounding box more precisely. Furthermore, in order to ease feature association in the post application process, such as pedestrian tracking, we apply Hungarian algorithm to associate parts for a human instance. Our proposed method can stably bring about 2~3% improvements in mAP and AP50 for both two-stage and one-stage detector. It's also more effective for MR-2 especially with the stricter IoU. Experiments on Crowdhuman, Cityperson, Caltech and KITTI datasets show that visible feature guidance can help detector achieve promisingly better performances. Moreover, parts association produces a strong benchmark on Crowdhuman for the vision community.
翻訳日:2022-10-26 03:02:35 公開日:2020-09-16
# autofs: 多様性を意識したインタラクティブ強化学習による自動機能選択

AutoFS: Automated Feature Selection via Diversity-aware Interactive Reinforcement Learning ( http://arxiv.org/abs/2008.12001v3 )

ライセンス: Link先を確認
Wei Fan, Kunpeng Liu, Hao Liu, Pengyang Wang, Yong Ge and Yanjie Fu(参考訳) 本稿では,自動特徴選択における効率と効率のバランスの問題について検討する。 特徴選択は、機械学習と予測分析の基本的なインテリジェンスである。 多くの特徴選択法を探索した後、計算ジレンマを観測する。 1) 従来の特徴選択法(例:mRMR)は主に効率的であるが、最適な部分集合を特定することは困難である。 2) 強化特徴選択法は, 最良部分集合を探索するために自動的に特徴空間をナビゲートするが, 通常は非効率である。 自動化と効率は常に異なるのか? 自動化によって有効性と効率のギャップを埋めることができるか? このような計算ジレンマに動機づけられた本研究は,新しい特徴空間ナビゲーション手法の開発である。 そこで本研究では,エージェントの自己探索経験だけでなく,多様な外部スキルトレーナーによる特徴探索学習を高速化する,インタラクティブ強化機能選択(IRFS)フレームワークを提案する。 具体的には,特徴選択問題を対話型強化学習フレームワークに定式化する。 本フレームワークでは,まず,(1) KBest 型トレーナー,(2) 決定木型トレーナーという,異なる探索法に熟練した2人のトレーナーをモデル化する。 次に,(1)エージェントの訓練を多角化し,(2)異なる段階における指導の役割を担い,トレーナーの経験を融合させ,指導過程を多様化させる,という2つの戦略を考案する。 このようなハイブリッドな教育戦略は、エージェントがより広い知識を学ぶのに役立ち、その後より効果的になる。 最後に,本手法の性能向上を実証するために,実世界のデータセットに関する広範な実験を行った。

In this paper, we study the problem of balancing effectiveness and efficiency in automated feature selection. Feature selection is a fundamental intelligence for machine learning and predictive analysis. After exploring many feature selection methods, we observe a computational dilemma: 1) traditional feature selection methods (e.g., mRMR) are mostly efficient, but difficult to identify the best subset; 2) the emerging reinforced feature selection methods automatically navigate feature space to explore the best subset, but are usually inefficient. Are automation and efficiency always apart from each other? Can we bridge the gap between effectiveness and efficiency under automation? Motivated by such a computational dilemma, this study is to develop a novel feature space navigation method. To that end, we propose an Interactive Reinforced Feature Selection (IRFS) framework that guides agents by not just self-exploration experience, but also diverse external skilled trainers to accelerate learning for feature exploration. Specifically, we formulate the feature selection problem into an interactive reinforcement learning framework. In this framework, we first model two trainers skilled at different searching strategies: (1) KBest based trainer; (2) Decision Tree based trainer. We then develop two strategies: (1) to identify assertive and hesitant agents to diversify agent training, and (2) to enable the two trainers to take the teaching role in different stages to fuse the experiences of the trainers and diversify teaching process. Such a hybrid teaching strategy can help agents to learn broader knowledge, and, thereafter, be more effective. Finally, we present extensive experiments on real-world datasets to demonstrate the improved performances of our method: more efficient than existing reinforced selection and more effective than classic selection.
翻訳日:2022-10-24 07:00:38 公開日:2020-09-16
# ニューラルネットワークトレーニングにおけるモデル並列性のための可変サブネットワーク分割

Tunable Subnetwork Splitting for Model-parallelism of Neural Network Training ( http://arxiv.org/abs/2009.04053v2 )

ライセンス: Link先を確認
Junxiang Wang, Zheng Chai, Yue Cheng, Liang Zhao(参考訳) 近年,深層ニューラルネットワーク最適化のための勾配降下の代替として,交流最小化法が提案されている。 交互最小化法は通常、ディープニューラルネットワークをレイヤーワイズサブプロブレムに分解し、並列に最適化することができる。 有意な並列性にもかかわらず、重度の精度低下のため、深層ニューラルネットワークの訓練において交代最小化法が研究されることはほとんどない。 本稿では,ディープニューラルネットワークの分解粒度を調整可能なチューナブルサブネットワーク分割法(tssm)と呼ばれる再構成によって,並列性と精度の説得力のあるトレードオフを実現することを提案する。 TSSMの定式化を解くために, 交互方向分割法(gsADMM)と交互方向分割法(gsAM)の2つの方法を提案する。 5つのベンチマークデータセットによる実験の結果,提案したTSSMは,トレーニング精度を損なうことなく,大幅な高速化が達成できることがわかった。 コードはhttps://github.com/xianggebenben/TSSMでリリースされた。

Alternating minimization methods have recently been proposed as alternatives to the gradient descent for deep neural network optimization. Alternating minimization methods can typically decompose a deep neural network into layerwise subproblems, which can then be optimized in parallel. Despite the significant parallelism, alternating minimization methods are rarely explored in training deep neural networks because of the severe accuracy degradation. In this paper, we analyze the reason and propose to achieve a compelling trade-off between parallelism and accuracy by a reformulation called Tunable Subnetwork Splitting Method (TSSM), which can tune the decomposition granularity of deep neural networks. Two methods gradient splitting Alternating Direction Method of Multipliers (gsADMM) and gradient splitting Alternating Minimization (gsAM) are proposed to solve the TSSM formulation. Experiments on five benchmark datasets show that our proposed TSSM can achieve significant speedup without observable loss of training accuracy. The code has been released at https://github.com/xianggebenben/TSSM.
翻訳日:2022-10-20 09:04:14 公開日:2020-09-16
# Few-Shot 1クラス分類のためのメタ学習

Meta Learning for Few-Shot One-class Classification ( http://arxiv.org/abs/2009.05353v2 )

ライセンス: Link先を確認
Gabriel Dahia, Maur\'icio Pamplona Segundo(参考訳) そこで本研究では,対象クラスから少数のサンプルのみを付与し,他のクラスからのみ一クラス分類を行う方法を提案する。 メタ学習段階が1つのクラス分類を繰り返しシミュレートするメタ学習問題として,1つのクラス分類の有意義な特徴の学習を,選択したアルゴリズムの分類損失を用いて特徴表現を学習する。 これらの表現を学ぶには、同様のタスクから得られる多クラスデータのみが必要である。 本稿では,本手法でサポートベクトルデータ記述法をどのように利用できるかを示すとともに,データから直接特徴表現を学習することが,どの1クラスアルゴリズムを選択するかよりも重要であることを示す。 我々は,マイショット分類データセットをマイショット・ワンクラス分類シナリオに適用し,従来のマイショット分類の最先端技術と類似した結果を得た。 私たちのコードはhttps://github.com/gdahia/meta_occで利用可能です。

We propose a method that can perform one-class classification given only a small number of examples from the target class and none from the others. We formulate the learning of meaningful features for one-class classification as a meta-learning problem in which the meta-training stage repeatedly simulates one-class classification, using the classification loss of the chosen algorithm to learn a feature representation. To learn these representations, we require only multiclass data from similar tasks. We show how the Support Vector Data Description method can be used with our method, and also propose a simpler variant based on Prototypical Networks that obtains comparable performance, indicating that learning feature representations directly from data may be more important than which one-class algorithm we choose. We validate our approach by adapting few-shot classification datasets to the few-shot one-class classification scenario, obtaining similar results to the state-of-the-art of traditional one-class classification, and that improves upon that of one-class classification baselines employed in the few-shot setting. Our code is available at https://github.com/gdahia/meta_occ
翻訳日:2022-10-19 21:07:12 公開日:2020-09-16
# UPB at SemEval-2020 Task 6: 定義抽出のための事前訓練言語モデル

UPB at SemEval-2020 Task 6: Pretrained Language Models for Definition Extraction ( http://arxiv.org/abs/2009.05603v2 )

ライセンス: Link先を確認
Andrei-Marius Avram, Dumitru-Clementin Cercel, Costin-Gabriel Chiru(参考訳) 本研究は,SemEval-2020: Extracting Definitions from Free Text in Textbooks (DeftEval) の6番目のタスクのコンテキストにおける我々の貢献を示す。 このコンペティションは,(1)定義文と非定義文の分類,(2)定義文のラベル付け,(3)関係分類という,粒度が異なる3つのサブタスクから構成される。 我々は、様々な事前訓練された言語モデル(BERT、XLNet、RoBERTa、SciBERT、ALBERT)を使用して、競争の3つのサブタスクのそれぞれを解決する。 具体的には、各言語モデルのバリエーションについて、重み付けと微調整の両方を実験します。 また,第2サブタスクと第3サブタスクのアウトプットを共同で予測するようにトレーニングしたマルチタスクアーキテクチャについても検討した。 DeftEvalデータセットで評価したベストパフォーマンスモデルは、第1サブタスクの32位、第2サブタスクの37位を得る。 詳細はhttps://github.com/avramandrei/defteval.com/で確認できる。

This work presents our contribution in the context of the 6th task of SemEval-2020: Extracting Definitions from Free Text in Textbooks (DeftEval). This competition consists of three subtasks with different levels of granularity: (1) classification of sentences as definitional or non-definitional,(2) labeling of definitional sentences, and (3) relation classification. We use various pretrained language models (i.e., BERT, XLNet, RoBERTa, SciBERT, and ALBERT) to solve each of the three subtasks of the competition. Specifically, for each language model variant, we experiment by both freezing its weights and fine-tuning them. We also explore a multi-task architecture that was trained to jointly predict the outputs for the second and the third subtasks. Our best performing model evaluated on the DeftEval dataset obtains the 32nd place for the first subtask and the 37th place for the second subtask. The code is available for further research at: https://github.com/avramandrei/DeftEval.
翻訳日:2022-10-19 20:42:41 公開日:2020-09-16
# 永続的でスケーラブルなJADE:クラウドベースのインメモリマルチエージェントフレームワーク

Persistent And Scalable JADE: A Cloud based InMemory Multi-agent Framework ( http://arxiv.org/abs/2009.06425v2 )

ライセンス: Link先を確認
Nauman Khalid, Ghalib Ahmed Tahir, Peter Bloodsworth(参考訳) マルチエージェントシステムは永続性とスケーラビリティの点で制限されることが多い。 この問題はエージェントステートが頻繁に変化するアプリケーションでより一般的である。 これにより、エージェントの複雑さが増大し、スケーラビリティが低下するため、既存のメソッドが使いにくくなります。 本研究は,anovel in-memory agent persistence frameworkを提案する。 2つのプロトタイプが実装され、1つは提案手法と、もう1つは確立されたエージェントの持続性環境を用いて実現されている。 これらの発見は、動的クラウド環境において、将来のリアルタイムマルチエージェントシステムがスケーラブルで永続的になるのに役立つだろう。

Multi-agent systems are often limited in terms of persistenceand scalability. This issue is more prevalent for applications inwhich agent states changes frequently. This makes the existingmethods less usable as they increase the agent's complexityand are less scalable. This research study has presented anovel in-memory agent persistence framework. Two prototypeshave been implemented, one using the proposed solution andthe other using an established agent persistency environment.Experimental results confirm that the proposed framework ismore scalable than existing approaches whilst providing asimilar level of persistency. These findings will help futurereal-time multiagent systems to become scalable and persistentin a dynamic cloud environment.
翻訳日:2022-10-18 12:51:32 公開日:2020-09-16
# 長期記憶ネットワークを用いたトルコにおけるcovid-19の短期予測

Short-Term Forecasting COVID-19 Cases In Turkey Using Long Short-Term Memory Network ( http://arxiv.org/abs/2009.06343v2 )

ライセンス: Link先を確認
Selahattin Serdar Helli, \c{C}a\u{g}kan Dem\.irc\.i, Onur \c{C}oban and Anda\c{c} Hamamci(参考訳) 新型コロナウイルス(covid-19)は、2019年12月以来、世界で最も深刻な感染症の一つであり、世界中で厳しいパンデミックを引き起こしている。 本研究の目的は,トルコにおけるcovid-19感染者の総数を予測する際に,lstm(long short-term memory)ネットワークの価値を評価することである。 2020年3月24日から4月23日までの30日間のデータは、今後15日間の推計に使用される。 15日間のLSTMネットワークの平均絶対誤差は1,69$\pm$1.35%である。 同じデータの場合、Box-Jenkinsメソッドのエラーは3.24$\pm$1.56%、Prophetメソッドは6.88$\pm$4.96%、Holt-Winters Additiveメソッドは0.47$\pm$0.28%である。 さらに、LSTMネットワークの入力に対する合計ケース数もデスデータとして提供される場合、平均誤差は0.99$\pm$0.51%に減少する。 その結果、入力に死亡データを追加すると、入力として全体のケース数のみを使用する場合に比べて予測誤差が小さくなる。 しかし,Holt-Winters Additive Method with Damped Trend は LSTM Network において,COVID-19 感染者の総数を予測する上で,優れた結果をもたらす。

COVID-19 has been one of the most severe diseases, causing a harsh pandemic all over the world, since December 2019. The aim of this study is to evaluate the value of Long Short-Term Memory (LSTM) Networks in forecasting the total number of COVID-19 cases in Turkey. The COVID-19 data for 30 days, between March 24 and April 23, 2020, are used to estimate the next fifteen days. The mean absolute error of the LSTM Network for 15 days estimation is 1,69$\pm$1.35%. Whereas, for the same data, the error of the Box-Jenkins method is 3.24$\pm$1.56%, Prophet method is 6.88$\pm$4.96% and Holt-Winters Additive method with Damped Trend is 0.47$\pm$0.28%. Additionally, when the number of deaths data is also provided with the number of total cases to the input of LSTM Network, the mean error reduces to 0.99$\pm$0.51%. Consequently, addition of the number of deaths data to the input, results a lower error in forecasting, compared to using only the number of total cases as the input. However, Holt-Winters Additive method with Damped Trend gives superior results to LSTM Networks in forecasting the total number of COVID-19 cases.
翻訳日:2022-10-18 11:42:14 公開日:2020-09-16
# CSI2 Image: Generative Adversarial Networks を用いたチャネル状態情報からの画像再構成

CSI2Image: Image Reconstruction from Channel State Information Using Generative Adversarial Networks ( http://arxiv.org/abs/2009.07100v2 )

ライセンス: Link先を確認
Sorachi Kato, Takeru Fukushima, Tomoki Murakami, Hirantha Abeysekera, Yusuke Iwasaki, Takuya Fujihashi, Takashi Watanabe, Shunsuke Saruwatari(参考訳) 本研究では,物理空間情報を取得するための無線センシング能力の上限を求めることを目的とする。 ワイヤレスセンシングの研究は、新しい現象の獲得に成功し続けているため、これは難しい目標である。 したがって、完全な回答はまだ得られないが、それに向けてのステップが取られる。 これを実現するために,gans(generative adversarial networks)に基づく新しいチャネル状態情報(csi)から画像への変換手法であるcsi2imageを提案する。 再構成された画像が所望の物理空間情報をキャプチャする度に、無線センシングを用いて取得した物理情報の種類を推定することができる。 gen\-er-a-tor-only learning, GAN-only learning, hybrid learningの3種類の学習方法が示されている。 CSI2画像の性能評価は、画像の明瞭さと所望の物理空間情報の存在の両方を評価する必要があるため困難である。 そこで本研究では,オブジェクト検出ライブラリを用いた定量的評価手法を提案する。 CSI2イメージはIEEE 802.11ac圧縮CSIを用いて実装され、評価結果から画像の再構成に成功した。 以上の結果から, 簡易な無線センシングではgen\-er-a-torのみの学習が十分であることが示されたが, 複雑な無線センシングでは, GANはより正確な物理空間情報を持つ一般化画像の再構成に重要である。

This study aims to find the upper limit of the wireless sensing capability of acquiring physical space information. This is a challenging objective, because at present, wireless sensing studies continue to succeed in acquiring novel phenomena. Thus, although a complete answer cannot be obtained yet, a step is taken towards it here. To achieve this, CSI2Image, a novel channel-state-information (CSI)-to-image conversion method based on generative adversarial networks (GANs), is proposed. The type of physical information acquired using wireless sensing can be estimated by checking wheth\-er the reconstructed image captures the desired physical space information. Three types of learning methods are demonstrated: gen\-er\-a\-tor-only learning, GAN-only learning, and hybrid learning. Evaluating the performance of CSI2Image is difficult, because both the clarity of the image and the presence of the desired physical space information must be evaluated. To solve this problem, a quantitative evaluation methodology using an object detection library is also proposed. CSI2Image was implemented using IEEE 802.11ac compressed CSI, and the evaluation results show that the image was successfully reconstructed. The results demonstrate that gen\-er\-a\-tor-only learning is sufficient for simple wireless sensing problems, but in complex wireless sensing problems, GANs are important for reconstructing generalized images with more accurate physical space information.
翻訳日:2022-10-18 06:25:27 公開日:2020-09-16
# 小容器分割のためのグラフベース平滑化正規化器を用いたU-Net

U-Net with Graph Based Smoothing Regularizer for Small Vessel Segmentation on Fundus Image ( http://arxiv.org/abs/2009.07567v1 )

ライセンス: Link先を確認
Lukman Hakim, Novanto Yudistira, Muthusubash Kavitha, and Takio Kurita(参考訳) 網膜血管の検出、特に小血管の状態の変化は、人体の血管網を特定する上で最も重要な指標である。 既存の技術は主に大型船の形状に焦点を合わせており、分離された小型船には適さない。 基礎領域の低コントラスト小血管に注意を払うため,グラフベーススムーズな正規化器とU-netフレームワークの損失関数を組み合わせることを提案した。 提案した正規化器は, 血管領域のグラフラプラシアンと画像の背景領域を計算し, 2つのグラフとして処理した。 小容器の再構築におけるグラフベース平滑化正則化のポテンシャルを,古典的Uネットと正則化の有無で比較した。 数値的および視覚的な結果から,小血管の分節化と網膜血管の分断再結合に有効性が証明された。

The detection of retinal blood vessels, especially the changes of small vessel condition is the most important indicator to identify the vascular network of the human body. Existing techniques focused mainly on shape of the large vessels, which is not appropriate for the disconnected small and isolated vessels. Paying attention to the low contrast small blood vessel in fundus region, first time we proposed to combine graph based smoothing regularizer with the loss function in the U-net framework. The proposed regularizer treated the image as two graphs by calculating the graph laplacians on vessel regions and the background regions on the image. The potential of the proposed graph based smoothing regularizer in reconstructing small vessel is compared over the classical U-net with or without regularizer. Numerical and visual results shows that our developed regularizer proved its effectiveness in segmenting the small vessels and reconnecting the fragmented retinal blood vessels.
翻訳日:2022-10-18 00:57:53 公開日:2020-09-16
# 可変オートエンコーダを用いた屋内登山経路の埋め込みと生成

Embedding and generation of indoor climbing routes with variational autoencoder ( http://arxiv.org/abs/2009.13271v1 )

ライセンス: Link先を確認
K. H. Lo(参考訳) 近年,屋内登山の普及により,登山ルートの分類・生成に深層学習アルゴリズムの応用が可能となった。 本研究は,登山コミュニティ内でよく知られたトレーニングツールである標準訓練装置ムーンボードにおいて,登山経路に変分オートエンコーダを用いる。 符号化された潜在空間をサンプリングすることで、アルゴリズムが高品質な登山経路を生成できることが観察される。 生成した22の問題は、ユーザレビューのためにMoonboardアプリにアップロードされる。 このアルゴリズムは、屋内登山ルート設定を容易にする第一歩となる可能性がある。

Recent increase in popularity of indoor climbing allows possible applications of deep learning algorthms to classify and generate climbing routes. In this work, we employ a variational autoencoder to climbing routes in a standardized training apparatus MoonBoard, a well-known training tool within the climbing community. By sampling the encoded latent space, it is observed that the algorithm can generate high quality climbing routes. 22 generated problems are uploaded to the Moonboard app for user review. This algorithm could serve as a first step to facilitate indoor climbing route setting.
翻訳日:2022-10-18 00:56:43 公開日:2020-09-16
# 遅延型貯留層計算システムにおけるリコール能力の限界

Limitations of the recall capabilities in delay based reservoir computing systems ( http://arxiv.org/abs/2010.15562v1 )

ライセンス: Link先を確認
Felix K\"oster, Dominik Ehlert, Kathy L\"udge(参考訳) 我々は,遅延型貯水池コンピュータのメモリ容量を非線形性として解析し,線形および高次リコール能力の数値計算を行う。 物理的実現の可能性としては、外部キャビティを持つレーザーがあり、その情報は電気注入によって供給される。 貯水池システムの計算能力のタスク独立定量化は、基底関数の完全な正規直交集合によって行われる。 この結果から,記憶容量が一定の読み出し次元であっても,クロックサイクルと呼ばれる情報入力期間とシステムの時間遅延の比率に依存することが示唆された。 クロックサイクルの約1.6倍の時間遅延で最適性能が見つかる

We analyze the memory capacity of a delay based reservoir computer with a Hopf normal form as nonlinearity and numerically compute the linear as well as the higher order recall capabilities. A possible physical realisation could be a laser with external cavity, for which the information is fed via electrical injection. A task independent quantification of the computational capability of the reservoir system is done via a complete orthonormal set of basis functions. Our results suggest that even for constant readout dimension the total memory capacity is dependent on the ratio between the information input period, also called the clock cycle, and the time delay in the system. Optimal performance is found for a time delay about 1.6 times the clock cycle
翻訳日:2022-10-18 00:55:21 公開日:2020-09-16
# 畳み込みLSTMを用いたディープフェイク映像検出のための残差ネットワーク

A Convolutional LSTM based Residual Network for Deepfake Video Detection ( http://arxiv.org/abs/2009.07480v1 )

ライセンス: Link先を確認
Shahroz Tariq, Sangyup Lee and Simon S. Woo(参考訳) 近年,深層学習に基づくビデオ操作手法が大衆に広く普及している。 努力をほとんど必要とせずに、ごく少数の犠牲者やターゲット画像だけでディープフェイクビデオの作り方を簡単に学べる。 これは、写真がインターネット、特にソーシャルメディアのウェブサイトで公開されているすべての人にとって、重大な社会問題を引き起こします。 これらのディープフェイクを識別するために、いくつかのディープラーニングに基づく検出方法が開発されている。 しかし、これらの手法は特定のタイプのディープフェイク法でのみうまく機能するため、一般化性に欠ける。 したがって、これらの手法は他のディープフェイク法を検出できない。 また、ビデオの時間的情報も活用していない。 本稿ではこれらの制限に対処する。 ビデオからの入力として連続画像のシーケンスを取り込んで,ディープフェイク映像のフレーム間に存在する不自然なアーティファクトを検出するのに役立つ時間情報を学習する畳み込み型lstmベース残差ネットワーク(clrnet)を開発した。 また,異なるディープフェイク法を一般化するトランスファー学習に基づくアプローチを提案する。 本研究では,faceforensics++データセットを用いた厳密な実験を通じて,従来提案していたdeepfake検出手法の5つを,同一モデルを用いて異なるdeepfake法を検出する方法の一般化により超えていることを示した。

In recent years, deep learning-based video manipulation methods have become widely accessible to masses. With little to no effort, people can easily learn how to generate deepfake videos with only a few victims or target images. This creates a significant social problem for everyone whose photos are publicly available on the Internet, especially on social media websites. Several deep learning-based detection methods have been developed to identify these deepfakes. However, these methods lack generalizability, because they perform well only for a specific type of deepfake method. Therefore, those methods are not transferable to detect other deepfake methods. Also, they do not take advantage of the temporal information of the video. In this paper, we addressed these limitations. We developed a Convolutional LSTM based Residual Network (CLRNet), which takes a sequence of consecutive images as an input from a video to learn the temporal information that helps in detecting unnatural looking artifacts that are present between frames of deepfake videos. We also propose a transfer learning-based approach to generalize different deepfake methods. Through rigorous experimentations using the FaceForensics++ dataset, we showed that our method outperforms five of the previously proposed state-of-the-art deepfake detection methods by better generalizing at detecting different deepfake methods using the same model.
翻訳日:2022-10-18 00:50:00 公開日:2020-09-16
# 安全保存損失を有するrgbデータによる屋外ロボットトラバーサビリティ推定のためのドメイン適応

Domain Adaptation for Outdoor Robot Traversability Estimation from RGB data with Safety-Preserving Loss ( http://arxiv.org/abs/2009.07565v1 )

ライセンス: Link先を確認
Simone Palazzo, Dario C. Guastella, Luciano Cantelli, Paolo Spadaro, Francesco Rundo, Giovanni Muscato, Daniela Giordano, Concetto Spampinato(参考訳) 移動ロボットを取り巻く領域の移動可能性を推定できることは、ナビゲーションアルゴリズムの設計における基本的な課題である。 しかし、障害物や地形のタイプや斜面からの距離を評価し、視界による検出された距離の不連続に対処する必要があるため、作業は複雑であることが多い。 本稿では,車載RGBカメラの視野内で異なる経路のトラバーススコアを推定し,予測するためのディープラーニングに基づくアプローチを提案する。 提案モデルのバックボーンは最先端の深部セグメンテーションモデルに基づいており、経路の可逆性を予測するタスクを微調整する。 次に、モデルの能力を強化する。 a) 勾配反転無監督適応によるドメインシフトに対処し、 b) 移動ロボットの特定の安全性要件を考慮し,モデルに安全側のerrを奨励すること,すなわち,ロボットを事前に停止させるようなものよりも障害物との衝突を引き起こすような過ちを罰すること。 実験の結果,本手法は到達可能な領域を良好に識別し,未発見の場所に一般化できることがわかった。

Being able to estimate the traversability of the area surrounding a mobile robot is a fundamental task in the design of a navigation algorithm. However, the task is often complex, since it requires evaluating distances from obstacles, type and slope of terrain, and dealing with non-obvious discontinuities in detected distances due to perspective. In this paper, we present an approach based on deep learning to estimate and anticipate the traversing score of different routes in the field of view of an on-board RGB camera. The backbone of the proposed model is based on a state-of-the-art deep segmentation model, which is fine-tuned on the task of predicting route traversability. We then enhance the model's capabilities by a) addressing domain shifts through gradient-reversal unsupervised adaptation, and b) accounting for the specific safety requirements of a mobile robot, by encouraging the model to err on the safe side, i.e., penalizing errors that would cause collisions with obstacles more than those that would cause the robot to stop in advance. Experimental results show that our approach is able to satisfactorily identify traversable areas and to generalize to unseen locations.
翻訳日:2022-10-18 00:49:18 公開日:2020-09-16
# ChoreoNet:Choreographic Action Unitによる音楽とダンスの合成を目指す

ChoreoNet: Towards Music to Dance Synthesis with Choreographic Action Unit ( http://arxiv.org/abs/2009.07637v1 )

ライセンス: Link先を確認
Zijie Ye, Haozhe Wu, Jia Jia, Yaohua Bu, Wei Chen, Fanbo Meng, Yanfeng Wang(参考訳) ダンスと音楽は2つの非常に相関の深い芸術形式である。 ダンスを合成する動きは近年注目を集めている。 以前の作品の多くは、人間の骨格キーポイントマッピングに直接音楽を通して音楽からダンスへの合成を行っている。 一方、人間の振付師は、まず複数の振付ダンスユニット(caus)を考案し、それぞれに一連のダンスモーションを配置し、その後、音楽のリズム、メロディ、感情に応じてcauシーケンスを配置する。 これらに触発されて、2段階の振り付けアプローチを体系的に研究し、このような振り付けの知識を組み込むデータセットを構築した。 構築したデータセットに基づいて,人間の振付処理を模倣する2段階の音楽合成フレームワークChoreoNetを設計する。 本フレームワークはまず,音楽とCAUシーケンス間のマッピング関係を学習するためのCAU予測モデルを考案する。 その後, cau系列を連続的なダンス動作に変換するため, 空間-時間的インパインティングモデルを開発した。 実験の結果,提案したChoreoNetはベースライン法(CAU BLEUスコアでは0.622,ユーザスタディスコアでは1.59)より優れていた。

Dance and music are two highly correlated artistic forms. Synthesizing dance motions has attracted much attention recently. Most previous works conduct music-to-dance synthesis via directly music to human skeleton keypoints mapping. Meanwhile, human choreographers design dance motions from music in a two-stage manner: they firstly devise multiple choreographic dance units (CAUs), each with a series of dance motions, and then arrange the CAU sequence according to the rhythm, melody and emotion of the music. Inspired by these, we systematically study such two-stage choreography approach and construct a dataset to incorporate such choreography knowledge. Based on the constructed dataset, we design a two-stage music-to-dance synthesis framework ChoreoNet to imitate human choreography procedure. Our framework firstly devises a CAU prediction model to learn the mapping relationship between music and CAU sequences. Afterwards, we devise a spatial-temporal inpainting model to convert the CAU sequence into continuous dance motions. Experimental results demonstrate that the proposed ChoreoNet outperforms baseline methods (0.622 in terms of CAU BLEU score and 1.59 in terms of user study score).
翻訳日:2022-10-18 00:48:45 公開日:2020-09-16
# グローバル・オールシーソン・センチネル2画像における雲除去のためのマルチセンサデータフュージョン

Multi-Sensor Data Fusion for Cloud Removal in Global and All-Season Sentinel-2 Imagery ( http://arxiv.org/abs/2009.07683v1 )

ライセンス: Link先を確認
Patrick Ebel, Andrea Meraner, Michael Schmitt, Xiaoxiang Zhu(参考訳) この研究はIEEE TGRSによって出版に受け入れられている。 宇宙から観測された観測のほとんどは、雲の影響を受けている。 雲に覆われた情報を再構築する先行研究は数多くあるが、従来の研究はしばしば狭義の関心領域に限られており、様々な雲のカバレッジや異なる地域や季節で得られた様々な観測にアプローチが一般化できるかどうかという疑問が提起されている。 我々は,新たなクラウド除去アプローチをトレーニングするための,大規模な新しいデータセットを算出し,画像品質と多様性の2つのパフォーマンス指標を評価することで,一般化の課題を掲げる。 当社のデータセットは、クラウドフリーだけでなく、共同登録されたレーダーと光学観測のグローバルなサンプルを含む、最初の公開データセットです。 雲の網羅範囲は空の鮮明さと絶対的な網羅範囲で大きく異なるという観測に基づいて,提案したデータセット上で,極端に対処し,その性能を評価する新しいモデルを提案する。 最後に,実データよりも実データ上でのトレーニングモデルの優位性を実証し,実データ集合の注意深いキュレーションの必要性を概説する。 今後の研究を容易にするため,我々のデータセットをオンラインで公開する。

This work has been accepted by IEEE TGRS for publication. The majority of optical observations acquired via spaceborne earth imagery are affected by clouds. While there is numerous prior work on reconstructing cloud-covered information, previous studies are oftentimes confined to narrowly-defined regions of interest, raising the question of whether an approach can generalize to a diverse set of observations acquired at variable cloud coverage or in different regions and seasons. We target the challenge of generalization by curating a large novel data set for training new cloud removal approaches and evaluate on two recently proposed performance metrics of image quality and diversity. Our data set is the first publically available to contain a global sample of co-registered radar and optical observations, cloudy as well as cloud-free. Based on the observation that cloud coverage varies widely between clear skies and absolute coverage, we propose a novel model that can deal with either extremes and evaluate its performance on our proposed data set. Finally, we demonstrate the superiority of training models on real over synthetic data, underlining the need for a carefully curated data set of real observations. To facilitate future research, our data set is made available online
翻訳日:2022-10-18 00:48:24 公開日:2020-09-16
# カメラキャリブレーションを伴わない高ダイナミックレンジ画像スタックのノイズアウェアマージ

Noise-Aware Merging of High Dynamic Range Image Stacks without Camera Calibration ( http://arxiv.org/abs/2009.07975v1 )

ライセンス: Link先を確認
Param Hanji, Fangcheng Zhong, Rafal K. Mantiuk(参考訳) カメラノイズ分布をモデル化することにより、露光スタックから高ダイナミックレンジシーンの光度をほぼ最適に再構成することができる。 遅延放射率を最大様相推定を用いて推定する。 しかし、これはカメラのよく校正されたノイズモデルを必要とするため、実際には入手が困難である。 本研究では,カメラ固有の雑音パラメータの知識を必要とせず,簡易なポアソン雑音推定器を用いて,等価ばらつきの偏りのない推定が可能であることを示す。 スマートフォンのカメラから、フルフレームのミラーレスカメラまで、4種類のカメラでこれを実証しています。 実験結果は、シミュレーションと実際の画像、および異なるカメラ設定間で一致している。

A near-optimal reconstruction of the radiance of a High Dynamic Range scene from an exposure stack can be obtained by modeling the camera noise distribution. The latent radiance is then estimated using Maximum Likelihood Estimation. But this requires a well-calibrated noise model of the camera, which is difficult to obtain in practice. We show that an unbiased estimation of comparable variance can be obtained with a simpler Poisson noise estimator, which does not require the knowledge of camera-specific noise parameters. We demonstrate this empirically for four different cameras, ranging from a smartphone camera to a full-frame mirrorless camera. Our experimental results are consistent for simulated as well as real images, and across different camera settings.
翻訳日:2022-10-18 00:47:41 公開日:2020-09-16
# 肺CT画像と深部畳み込みニューラルネットワークを用いたCOVID-19感染の分類と地域分析

Classification and Region Analysis of COVID-19 Infection using Lung CT Images and Deep Convolutional Neural Networks ( http://arxiv.org/abs/2009.08864v1 )

ライセンス: Link先を確認
Saddam Hussain Khan, Anabia Sohail, Asifullah Khan, and Yeon Soo Lee(参考訳) 新型コロナウイルスは世界的な健康問題です。 したがって、感染パターンの早期検出と分析は、感染拡大の抑制と治療計画の策定に不可欠である。 本研究は、肺CT画像中のCOVID-19感染領域を記述するための2段階の深層畳み込みニューラルネットワーク(CNN)に基づくフレームワークを提案する。 第1段階では、まず2段階の離散ウェーブレット変換を用いて、COVID-19特異的CT画像の特徴を増強する。 これらの拡張CT画像は、提案したカスタマイズされたCoV-CTNetを用いて分類される。 第2段階では、新型コロナウイルス感染症領域の同定と解析のためのセグメンテーションモデルに、感染画像に分類されるCT画像を提供する。 本稿では,エンコーダおよびデコーダブロックにおける平均および最大プーリング操作を体系的に利用する,新しいセマンティックセグメンテーションモデルCoV-RASegを提案する。 最大および平均プール操作の体系的利用は、提案したCoV-RASegが境界と領域の均一性の両方を同時に学習するのに役立つ。 また、軽度に感染した地域を扱うために注意の考えが組み込まれている。 提案する2段階のフレームワークを標準Lung CT画像データセットで評価し,その性能を既存の深部CNNモデルと比較した。 提案する cov-ctnet の性能を mathew correlation coefficient (mcc) measure (0.98) と dice similarity (ds) score (0.95) を用いて評価した。 未確認の検査セットの有望な結果は、このフレームワークが新型コロナウイルス感染地域の識別と分析に役立つ可能性があることを示唆している。

COVID-19 is a global health problem. Consequently, early detection and analysis of the infection patterns are crucial for controlling infection spread as well as devising a treatment plan. This work proposes a two-stage deep Convolutional Neural Networks (CNNs) based framework for delineation of COVID-19 infected regions in Lung CT images. In the first stage, initially, COVID-19 specific CT image features are enhanced using a two-level discrete wavelet transformation. These enhanced CT images are then classified using the proposed custom-made deep CoV-CTNet. In the second stage, the CT images classified as infectious images are provided to the segmentation models for the identification and analysis of COVID-19 infectious regions. In this regard, we propose a novel semantic segmentation model CoV-RASeg, which systematically uses average and max pooling operations in the encoder and decoder blocks. This systematic utilization of max and average pooling operations helps the proposed CoV-RASeg in simultaneously learning both the boundaries and region homogeneity. Moreover, the idea of attention is incorporated to deal with mildly infected regions. The proposed two-stage framework is evaluated on a standard Lung CT image dataset, and its performance is compared with the existing deep CNN models. The performance of the proposed CoV-CTNet is evaluated using Mathew Correlation Coefficient (MCC) measure (0.98) and that of proposed CoV-RASeg using Dice Similarity (DS) score (0.95). The promising results on an unseen test set suggest that the proposed framework has the potential to help the radiologists in the identification and analysis of COVID-19 infected regions.
翻訳日:2022-10-18 00:47:31 公開日:2020-09-16
# 非侵入負荷モニタリングにおけるオーバーフィッティング防止とモデル性能予測のためのベイジアンサプライズ探索

Exploring Bayesian Surprise to Prevent Overfitting and to Predict Model Performance in Non-Intrusive Load Monitoring ( http://arxiv.org/abs/2009.07756v1 )

ライセンス: Link先を確認
Richard Jones, Christoph Klemenjak, Stephen Makonin, Ivan V. Bajic(参考訳) 非侵入負荷モニタリング(non-intrusive load monitoring, nilm)は、信号の集約のみに基づいてシステムを構成する電気負荷を分離する研究分野である。 重要な計算資源と研究時間は、モデルのトレーニングに費やされ、多くの場合、できるだけ多くのデータを使用します。 十分な事前トレーニングはいつ行われますか? NILMアルゴリズムは新しい未知のデータにいつ遭遇したか? この研究は、教師付きアルゴリズムと教師なしアルゴリズムの両方にとって重要であるこれらの疑問に答えるためにベイズ予想の概念を適用している。 予測分布(予測的サプライズ)と、観測窓の前後の遷移確率(遷移的サプライズ)の間のサプライズ度を定量化する。 NILMTK がサポートしているベンチマーク NILM アルゴリズムの性能を比較し,この2つの組み合わせによるサプライズ対策の有効なしきい値を確立する。 我々は,人気のある隠れマルコフモデルの性能をサプライズしきい値の関数として探索することにより,過渡的サプライズの利用を検証する。 最後に,データセット間性能のオーバーフィットを回避するために,正規化手法としてのサプライズしきい値の利用を検討する。 ここで議論される特定のサプライズしきい値の一般性は、さらなるテストなしでは疑わしいかもしれないが、この研究は、データセットサイズに関してモデルパフォーマンスのリターンが低下するポイントが存在するという明確な証拠を提供する。 これは将来のモデル開発やデータセットの取得、デプロイメント時のモデルの柔軟性の支援にも影響します。

Non-Intrusive Load Monitoring (NILM) is a field of research focused on segregating constituent electrical loads in a system based only on their aggregated signal. Significant computational resources and research time are spent training models, often using as much data as possible, perhaps driven by the preconception that more data equates to more accurate models and better performing algorithms. When has enough prior training been done? When has a NILM algorithm encountered new, unseen data? This work applies the notion of Bayesian surprise to answer these questions which are important for both supervised and unsupervised algorithms. We quantify the degree of surprise between the predictive distribution (termed postdictive surprise), as well as the transitional probabilities (termed transitional surprise), before and after a window of observations. We compare the performance of several benchmark NILM algorithms supported by NILMTK, in order to establish a useful threshold on the two combined measures of surprise. We validate the use of transitional surprise by exploring the performance of a popular Hidden Markov Model as a function of surprise threshold. Finally, we explore the use of a surprise threshold as a regularization technique to avoid overfitting in cross-dataset performance. Although the generality of the specific surprise threshold discussed herein may be suspect without further testing, this work provides clear evidence that a point of diminishing returns of model performance with respect to dataset size exists. This has implications for future model development, dataset acquisition, as well as aiding in model flexibility during deployment.
翻訳日:2022-10-18 00:41:45 公開日:2020-09-16
# 音楽演奏のためのヒューマンコンピュータデュエットシステム

A Human-Computer Duet System for Music Performance ( http://arxiv.org/abs/2009.07816v1 )

ライセンス: Link先を確認
Yuen-Jen Lin, Hsuan-Kai Kao, Yih-Chih Tseng, Ming Tsai, Li Su(参考訳) バーチャル・ミュージシャンは現代のマルチメディア・アーツで目覚ましい現象となっている。 しかし、近年の仮想音楽家の多くは、自分の行動を創り出す能力や、人間の音楽家と音楽を演奏する能力に恵まれていない。 本稿ではまず,人間のピアニストとコラボレーションして室内楽を自動的に演奏する仮想ヴァイオリニストを作成する。 このシステムは、リアルタイム音楽追跡、ポーズ推定、身体運動生成など、様々な分野のテクニックを取り入れている。 本システムでは,楽曲のみに基づいて仮想音楽家の振舞いが生成され,そのシステムは人や仮想音楽家の協調演奏を低コストで,効率よく,スケーラブルに生成する。 提案システムは公開コンサートで検証されている。 また,客観的品質評価手法とシステム改善の可能性についても論じる。

Virtual musicians have become a remarkable phenomenon in the contemporary multimedia arts. However, most of the virtual musicians nowadays have not been endowed with abilities to create their own behaviors, or to perform music with human musicians. In this paper, we firstly create a virtual violinist, who can collaborate with a human pianist to perform chamber music automatically without any intervention. The system incorporates the techniques from various fields, including real-time music tracking, pose estimation, and body movement generation. In our system, the virtual musician's behavior is generated based on the given music audio alone, and such a system results in a low-cost, efficient and scalable way to produce human and virtual musicians' co-performance. The proposed system has been validated in public concerts. Objective quality assessment approaches and possible ways to systematically improve the system are also discussed.
翻訳日:2022-10-18 00:41:16 公開日:2020-09-16
# サイド情報を用いた画像分離:コネクテッドオートエンコーダに基づくアプローチ

Image Separation with Side Information: A Connected Auto-Encoders Based Approach ( http://arxiv.org/abs/2009.07889v1 )

ライセンス: Link先を確認
Wei Pu, Barak Sober, Nathan Daly, Zahra Sabetsarvestani, Catherine Higgitt, Ingrid Daubechies, and Miguel R.D. Rodrigues(参考訳) X線撮影 (X-ray imaging) は, 画像解析において広く用いられている技術である。 絵画の状態に関する情報や、芸術家の技法や作業方法に関する洞察を提供し、裸眼で見えない隠された情報を明らかにすることができる。 本稿では,両面絵画のx線撮影から得られた混合x線像を分離する問題に対処する。 本研究では,絵の両面からの可視色画像(rgb画像)を用いて,混合x線画像を各面に対応する2つのシミュレーションx線画像に分離する「連結」オートエンコーダに基づく新しいニューラルネットワークアーキテクチャを提案する。 このアーキテクチャでは、畳み込みオートエンコーダがRGB画像から特徴を抽出する。 これらの特徴は、(1)原型rgb画像の再生、(2)仮説的な分離x線画像の再構成、(3)混合x線画像の再生に使用される。 このアルゴリズムは、混合X線画像と分離X線画像の両方を含むサンプルセットを必要とせずに、完全に自己監督的に動作する。 この手法は1432年にユベールとヤン・ファン・エイク兄弟によって描かれた『textsl{Ghent Altarpiece}』の両面の翼パネルの画像でテストされた。 これらの実験により, 提案手法は, 最先端のX線画像分離法よりも高い性能を示した。

X-radiography (X-ray imaging) is a widely used imaging technique in art investigation. It can provide information about the condition of a painting as well as insights into an artist's techniques and working methods, often revealing hidden information invisible to the naked eye. In this paper, we deal with the problem of separating mixed X-ray images originating from the radiography of double-sided paintings. Using the visible color images (RGB images) from each side of the painting, we propose a new Neural Network architecture, based upon 'connected' auto-encoders, designed to separate the mixed X-ray image into two simulated X-ray images corresponding to each side. In this proposed architecture, the convolutional auto encoders extract features from the RGB images. These features are then used to (1) reproduce both of the original RGB images, (2) reconstruct the hypothetical separated X-ray images, and (3) regenerate the mixed X-ray image. The algorithm operates in a totally self-supervised fashion without requiring a sample set that contains both the mixed X-ray images and the separated ones. The methodology was tested on images from the double-sided wing panels of the \textsl{Ghent Altarpiece}, painted in 1432 by the brothers Hubert and Jan van Eyck. These tests show that the proposed approach outperforms other state-of-the-art X-ray image separation methods for art investigation applications.
翻訳日:2022-10-18 00:41:04 公開日:2020-09-16
# オンラインマルチキャパシティライドシェアリングにおける競合率

Competitive Ratios for Online Multi-capacity Ridesharing ( http://arxiv.org/abs/2009.07925v1 )

ライセンス: Link先を確認
Meghna Lowalekar, Pradeep Varakantham, Patrick Jaillet(参考訳) マルチキャパシティのライドシェアリングでは、複数のリクエスト(例えば、顧客、食品、パーセル)が、異なる起源と宛先ペアが1つのリソースを旅する。 近年、Uberプール、フードパンダ、オンデマンドシャトルなどのオンライン多人数配車サービス(オンライン配車サービス)は、輸送、フードデリバリー、物流、その他の領域で大きな人気を集めている。 これは、マルチキャパシティのライドシェアリングサービスが、顧客(低コスト)、ドライバー(より高い収入)、マッチングプラットフォーム(車両/リソース当たりの収入)を含むすべての当事者に利益をもたらすためである。 もっとも重要なのは、これらのサービスが二酸化炭素排出量の削減にも役立つことだ(道路を走る車両が少ないため)。 オンラインのマルチキャパシティライドシェアリングは、マッチンググラフが(ユニットキャパシティの場合のように)もはや二分ではなく、リソース(タクシー、車)、リクエスト、リクエストグループ(一緒に旅行できるリクエストの組み合わせ)を備えた三分グラフであるため、非常に難しい。 リソースとリクエストグループ間の望ましいマッチングは、この三部グラフ内のリクエストグループとリクエストグループの間のエッジによって制約される(すなわち、リクエストは最終割り当てで少なくとも1つのリクエストグループの一部になる)。 オンラインのマルチキャパシティ・ライドシェアリング問題を解決するために、妙にヒューリスティックなアプローチが採用されているが、ソリューションの品質に関する保証は提供していない。 そこで本稿では,オンライン・マルチキャパシティ・ライドシェアリングにおける競争比率(リソースが要求群にサービスを提供して最初のロケーション/デポットに再加入する場合)に関する最初のアプローチを提案する。

In multi-capacity ridesharing, multiple requests (e.g., customers, food items, parcels) with different origin and destination pairs travel in one resource. In recent years, online multi-capacity ridesharing services (i.e., where assignments are made online) like Uber-pool, foodpanda, and on-demand shuttles have become hugely popular in transportation, food delivery, logistics and other domains. This is because multi-capacity ridesharing services benefit all parties involved { the customers (due to lower costs), the drivers (due to higher revenues) and the matching platforms (due to higher revenues per vehicle/resource). Most importantly these services can also help reduce carbon emissions (due to fewer vehicles on roads). Online multi-capacity ridesharing is extremely challenging as the underlying matching graph is no longer bipartite (as in the unit-capacity case) but a tripartite graph with resources (e.g., taxis, cars), requests and request groups (combinations of requests that can travel together). The desired matching between resources and request groups is constrained by the edges between requests and request groups in this tripartite graph (i.e., a request can be part of at most one request group in the final assignment). While there have been myopic heuristic approaches employed for solving the online multi-capacity ridesharing problem, they do not provide any guarantees on the solution quality. To that end, this paper presents the first approach with bounds on the competitive ratio for online multi-capacity ridesharing (when resources rejoin the system at their initial location/depot after serving a group of requests).
翻訳日:2022-10-18 00:40:41 公開日:2020-09-16
# ロボット心理学とロボ哲学の共通プログラミング言語「Hacking with God」

Hacking with God: a Common Programming Language of Robopsychology and Robophilosophy ( http://arxiv.org/abs/2009.09068v1 )

ライセンス: Link先を確認
Norbert B\'atfai(参考訳) このノートは、ロボ心理学とロボ哲学の概念をどのように解釈し、心理学と哲学の本来の職業の精神に再配置するかのスケッチである。 フィクション科学と架空の職業としてのロボ心理学の概念は、アシモフによって前世紀半ばに導入された。 一方、ロボ哲学は今日からわずか数年しか経っていない。 しかし現時点では、これらの新しい分野はいずれも、人工知能の開発における基本的かつ全体的な問題に焦点を当てていない。 その代わり、彼らは人生の大きな問題ではなく、道徳的あるいは倫理的な問題のような相補的な役割を果たす問題のみに焦点を当てている。 我々は,ロボット哲学とロボ心理学が,人工知能の進歩において,人間の知能の進歩において行った哲学や心理学と同じような指導的ルールを果たすことができるという概念を概説しようとする。 そこで本研究では,視覚人工言語と対話型定理証明器を用いたコンピュータアプリケーション prime convo assistant について概説する。 将来決定すべき問題は、そのようなアプリケーションを開発できるかどうかである。 もしそうなら、コンピューターゲームやeスポーツゲームも作れますか? このゲームが人間の思考を最も広く可能な社会的スケールで変えることができ、人間と機械知の間の標準的な数学的論理に基づくコミュニケーションチャネルを構築できるためには、興味深い疑問かもしれない。

This note is a sketch of how the concept of robopsychology and robophilosophy could be reinterpreted and repositioned in the spirit of the original vocation of psychology and philosophy. The notion of the robopsychology as a fictional science and a fictional occupation was introduced by Asimov in the middle of the last century. The robophilosophy, on the other hand, is only a few years old today. But at this moment, none of these new emerging disciplines focus on the fundamental and overall issues of the development of artificial general intelligence. Instead, they focus only on issues that, although are extremely important, play a complementary role, such as moral or ethical ones, rather than the big questions of life. We try to outline a conception in which the robophilosophy and robopsychology will be able to play a similar leading rule in the progress of artificial intelligence than the philosophy and psychology have done in the progress of human intelligence. To facilitate this, we outline the idea of a visual artificial language and interactive theorem prover-based computer application called Prime Convo Assistant. The question to be decided in the future is whether we can develop such an application. And if so, can we build a computer game on it, or even an esport game? It may be an interesting question in order for this game will be able to transform human thinking on the widest possible social scale and will be able to develop a standard mathematical logic-based communication channel between human and machine intelligence.
翻訳日:2022-10-18 00:40:07 公開日:2020-09-16
# コンボリューショナル・ドロップアウトネットワークを用いた患者特異的心血管モデリングにおける幾何学的不確かさ

Geometric Uncertainty in Patient-Specific Cardiovascular Modeling with Convolutional Dropout Networks ( http://arxiv.org/abs/2009.07395v1 )

ライセンス: Link先を確認
Gabriel Maher, Casey Fleeter, Daniele Schiavazzi, Alison Marsden(参考訳) 臨床応用画像量を用いた患者固有の心血管モデルの条件分布からサンプルを生成する新しい手法を提案する。 流出層を有する畳み込みニューラルネットワークアーキテクチャは、まず回帰手法を用いて血管腔のセグメンテーションを訓練し、血管腔表面のベイズ的推定を可能にする。 このネットワークはパスプランニング患者固有のモデリングパイプラインに統合され、心臓血管モデル群を生成する。 今回我々は,大動脈・腸骨分岐術,腹部大動脈瘤,左冠状動脈のサブモデルである3症例の血行動態に対する幾何学的不確かさの影響を定量化することにより,そのアプローチを実証する。 提案手法で導入された重要なイノベーションは、トレーニングデータから直接幾何学的不確実性を学ぶ能力である。 その結果, 幾何学的不確かさが壁せん断応力や速度等級の他の不確実性源と同等かそれ以上の変動係数を発生させるが, 圧力への影響は限られていることがわかった。 具体的には,小血管サイズを特徴とする解剖学や,ネットワークトレーニング中にみられにくい局所血管病変に当てはまる。

We propose a novel approach to generate samples from the conditional distribution of patient-specific cardiovascular models given a clinically aquired image volume. A convolutional neural network architecture with dropout layers is first trained for vessel lumen segmentation using a regression approach, to enable Bayesian estimation of vessel lumen surfaces. This network is then integrated into a path-planning patient-specific modeling pipeline to generate families of cardiovascular models. We demonstrate our approach by quantifying the effect of geometric uncertainty on the hemodynamics for three patient-specific anatomies, an aorto-iliac bifurcation, an abdominal aortic aneurysm and a sub-model of the left coronary arteries. A key innovation introduced in the proposed approach is the ability to learn geometric uncertainty directly from training data. The results show how geometric uncertainty produces coefficients of variation comparable to or larger than other sources of uncertainty for wall shear stress and velocity magnitude, but has limited impact on pressure. Specifically, this is true for anatomies characterized by small vessel sizes, and for local vessel lesions seen infrequently during network training.
翻訳日:2022-10-18 00:39:44 公開日:2020-09-16
# 機器アーチファクトの抑制による手術映像の運動拡大

Surgical Video Motion Magnification with Suppression of Instrument Artefacts ( http://arxiv.org/abs/2009.07432v1 )

ライセンス: Link先を確認
Mirek Janatka, Hani J. Marcus, Neil L. Dorward, Danail Stoyanov(参考訳) ビデオモーションの拡大は、不注意な損傷や出血を防ぐために、内視鏡的ビデオの地下血管を直接強調することができる。 しかし、全手術像に動フィルタを適用することは手術器具からの残留運動に敏感であり、収差運動アーチファクトによる実用的応用を妨げる可能性がある。 局所的空間周波数情報からの時間的フィルタ応答をシーンへのツール導入前に単一の心血管サイクルに記憶することにより、手術画像の空間領域に対して動き拡大が有効かどうかをフィルタを用いて判断することができる。 本稿では,非生理学的動作による収差を減少させる手法を提案する。 内視鏡下経鼻下垂体下垂体手術の有望な成績を,最近の構造類似性 (Structure similarity, SSIM) 法と比較し, ビデオと個々のフレームの時空間断面積を比較して質的解析を行った。

Video motion magnification could directly highlight subsurface blood vessels in endoscopic video in order to prevent inadvertent damage and bleeding. Applying motion filters to the full surgical image is however sensitive to residual motion from the surgical instruments and can impede practical application due to aberration motion artefacts. By storing the temporal filter response from local spatial frequency information for a single cardiovascular cycle prior to tool introduction to the scene, a filter can be used to determine if motion magnification should be active for a spatial region of the surgical image. In this paper, we propose a strategy to reduce aberration due to non-physiological motion for surgical video motion magnification. We present promising results on endoscopic transnasal transsphenoidal pituitary surgery with a quantitative comparison to recent methods using Structural Similarity (SSIM), as well as qualitative analysis by comparing spatio-temporal cross sections of the videos and individual frames.
翻訳日:2022-10-18 00:39:21 公開日:2020-09-16
# CT画像における金属アーチファクト低減のための画像を用いた深部Sinogram Completion

Deep Sinogram Completion with Image Prior for Metal Artifact Reduction in CT Images ( http://arxiv.org/abs/2009.07469v1 )

ライセンス: Link先を確認
Lequan Yu, Zhicheng Zhang, Xiaomeng Li, Lei Xing(参考訳) CTは, 診断, 評価, 治療計画, 指導に広く用いられている。 実際、ct画像は金属物の存在下で悪影響を及ぼし、重金属のアーティファクトを生じさせ、放射線治療における臨床診断や線量計算に影響を及ぼす可能性がある。 本稿では,画像領域とシングラム領域に基づくmar手法の利点を同時に活用し,金属アーティファクト低減(mar)のための汎用フレームワークを提案する。 我々は,この枠組みをシンノグラム補完問題として定式化し,ニューラルネットワーク (sinonet) を訓練し,金属影響を受ける投影を復元する。 再構成されたCT画像の新たなアーティファクトを緩和し,メタルトレース境界におけるプロジェクションの連続性を向上させるため,我々は,他のニューラルネットワーク(PriorNet)をトレーニングして,優れた事前画像を生成し,さらに新しい残像学習戦略を設計し,従来の画像情報を有効活用して,より優れたデノグラム完成を実現する。 2つのネットワークは、先行画像生成と深いシンノグラム補完手順が互いに恩恵を受けるように、微分可能な前方投影(fp)操作でエンドツーエンドで共同で訓練される。 最後に、完成したシンノグラムからフィルター付き後方投影(fbp)を用いて人工ct画像を再構成する。 シミュレーションおよび実アーティファクトデータに関する大規模な実験により,本手法は解剖学的構造を保ちながら優れたアーティファクトを再現し,他のMAR法より優れることを示した。

Computed tomography (CT) has been widely used for medical diagnosis, assessment, and therapy planning and guidance. In reality, CT images may be affected adversely in the presence of metallic objects, which could lead to severe metal artifacts and influence clinical diagnosis or dose calculation in radiation therapy. In this paper, we propose a generalizable framework for metal artifact reduction (MAR) by simultaneously leveraging the advantages of image domain and sinogram domain-based MAR techniques. We formulate our framework as a sinogram completion problem and train a neural network (SinoNet) to restore the metal-affected projections. To improve the continuity of the completed projections at the boundary of metal trace and thus alleviate new artifacts in the reconstructed CT images, we train another neural network (PriorNet) to generate a good prior image to guide sinogram learning, and further design a novel residual sinogram learning strategy to effectively utilize the prior image information for better sinogram completion. The two networks are jointly trained in an end-to-end fashion with a differentiable forward projection (FP) operation so that the prior image generation and deep sinogram completion procedures can benefit from each other. Finally, the artifact-reduced CT images are reconstructed using the filtered backward projection (FBP) from the completed sinogram. Extensive experiments on simulated and real artifacts data demonstrate that our method produces superior artifact-reduced results while preserving the anatomical structures and outperforms other MAR methods.
翻訳日:2022-10-18 00:38:32 公開日:2020-09-16
# グラフ形態変換に基づく骨格化と再構成

Skeletonization and Reconstruction based on Graph Morphological Transformations ( http://arxiv.org/abs/2009.07970v1 )

ライセンス: Link先を確認
Hossein Memarzadeh Sharifipour, Bardia Yousefi, Xavier P.V. Maldague(参考訳) ピクセル隣接グラフ上の多スケール形状スケルトン化は画像処理、コンピュータビジョン、データマイニングの分野で興味深い研究課題である。 この領域における以前の研究は、ほとんどグラフ頂点に焦点を当てていた。 我々は,現在のノードベース変換とは反対のエッジに基づく新しい構造的グラフ形態変換を提案し,それらを用いて,グラフで表される赤外線熱画像のスケルトン化と再構成を行った。 この手法の利点は、多くの広く使われているパスベースのアプローチがこの形態的操作の定義の中で利用できることである。 例えば、距離マップと画像フォレスティング変換(IFT)を、画像の骨格を計算するために2つの主要な経路ベースの方法として利用する。 さらに,Maragos et al (2013) が提案したグラフスケルトン化手法の接続性に関するオープンな疑問についても論じ,一般には決定が困難であることが示されている。

Multiscale shape skeletonization on pixel adjacency graphs is an advanced intriguing research subject in the field of image processing, computer vision and data mining. The previous works in this area almost focused on the graph vertices. We proposed novel structured based graph morphological transformations based on edges opposite to the current node based transformations and used them for deploying skeletonization and reconstruction of infrared thermal images represented by graphs. The advantage of this method is that many widely used path based approaches become available within this definition of morphological operations. For instance, we use distance maps and image foresting transform (IFT) as two main path based methods are utilized for computing the skeleton of an image. Moreover, In addition, the open question proposed by Maragos et al (2013) about connectivity of graph skeletonization method are discussed and shown to be quite difficult to decide in general case.
翻訳日:2022-10-18 00:31:12 公開日:2020-09-16
# Twitterの新しい長さ制限を採用:280は新140か?

Adoption of Twitter's New Length Limit: Is 280 the New 140? ( http://arxiv.org/abs/2009.07661v1 )

ライセンス: Link先を確認
Kristina Gligori\'c, Ashton Anderson, Robert West(参考訳) 2017年11月、Twitterは最大ツイート長を140文字から280文字に倍増させた。 Twitterユーザーが新しい長さ制限をどのように採用したかに関する最初の長期的な研究で、私たちは次のように質問した。 それとも、制限の2倍は、Twitterの投稿コンテンツの長さの制限によって、根本的に変わったのか? 約3年間にTwitterが公開している1%のサンプルを分析することで、140文字から280文字までの長さ制限が引き上げられたとき、140文字のツイートの頻度はすぐに低下し、280文字のツイートの頻度は約6ヶ月間着実に上昇したことがわかった。 この上昇にもかかわらず、長さ制限に近づいたツイートは、スイッチ前よりもはるかに少なかった。 言語とクライアントデバイスタイプで採用率は大きく異なります。 特定の言語で切り替える前の140文字前後のツイートの頻度は、同じ言語で切り替えた後の280文字前後のツイートの頻度と強く相関しており、非常に長いツイートはモバイルクライアントよりもwebクライアントで人気が高い。 さらに、スイッチ後の約280文字のつぶやきは、スイッチ前の約140文字のつぶやきと構文上および意味的に類似しており、両方のケースでメッセージのスクイーズパターンが現れる。 これらの結果は、新しい280文字制限が、古い140文字制限の新しい、侵入性の低いバージョンであることを示唆している。 長さ制限は、Twitterデータを用いたすべての研究で考慮すべき重要な要素である。

In November 2017, Twitter doubled the maximum allowed tweet length from 140 to 280 characters, a drastic switch on one of the world's most influential social media platforms. In the first long-term study of how the new length limit was adopted by Twitter users, we ask: Does the effect of the new length limit resemble that of the old one? Or did the doubling of the limit fundamentally change how Twitter is shaped by the limited length of posted content? By analyzing Twitter's publicly available 1% sample over a period of around 3 years, we find that, when the length limit was raised from 140 to 280 characters, the prevalence of tweets around 140 characters dropped immediately, while the prevalence of tweets around 280 characters rose steadily for about 6 months. Despite this rise, tweets approaching the length limit have been far less frequent after than before the switch. We find widely different adoption rates across languages and client-device types. The prevalence of tweets around 140 characters before the switch in a given language is strongly correlated with the prevalence of tweets around 280 characters after the switch in the same language, and very long tweets are vastly more popular on Web clients than on mobile clients. Moreover, tweets of around 280 characters after the switch are syntactically and semantically similar to tweets of around 140 characters before the switch, manifesting patterns of message squeezing in both cases. Taken together, these findings suggest that the new 280-character limit constitutes a new, less intrusive version of the old 140-character limit. The length limit remains an important factor that should be considered in all studies using Twitter data.
翻訳日:2022-10-18 00:30:32 公開日:2020-09-16
# ビデオ物体検出のためのデュアルセマンティクス融合ネットワーク

Dual Semantic Fusion Network for Video Object Detection ( http://arxiv.org/abs/2009.07498v1 )

ライセンス: Link先を確認
Lijian Lin, Haosheng Chen, Honglun Zhang, Jun Liang, Yu Li, Ying Shan, Hanzi Wang(参考訳) 複雑な環境下で撮影された映像の画質が劣化するため,映像物体検出は難しい課題である。 現在, この領域は, 複数のフレームから有意義な意味情報を抽出し, 蒸留した情報を融合することで, 機能強化手法によって支配されている。 しかし、蒸留と核融合の操作は通常、光学フローや特徴記憶などの追加情報を用いた外部ガイダンスを用いてフレームレベルまたはインスタンスレベルで実行される。 本研究では,外部ガイダンスを伴わない統合融合フレームワークにおいて,フレームレベルとインスタンスレベルのセマンティクスを完全に活用する2つのセマンティクス・フュージョン・ネットワーク(DSFNet)を提案する。 さらに,音による情報歪みの影響を軽減するため,融合過程に幾何学的類似性尺度を導入する。 その結果,提案するdsfnetはマルチグラニュラリティ融合によりより堅牢な特徴を生成でき,外部誘導の不安定性の影響を回避できる。 提案するDSFNetを評価するために,ImageNet VIDデータセットについて広範な実験を行った。 特に,提案したデュアルセマンティックフュージョンネットワークは,処理後のステップを使わずに,ResNet-101とResNeXt-101を用いた現在の最先端ビデオオブジェクト検出器の84.1\% mAPと85.4\% mAPの最高の性能を実現する。

Video object detection is a tough task due to the deteriorated quality of video sequences captured under complex environments. Currently, this area is dominated by a series of feature enhancement based methods, which distill beneficial semantic information from multiple frames and generate enhanced features through fusing the distilled information. However, the distillation and fusion operations are usually performed at either frame level or instance level with external guidance using additional information, such as optical flow and feature memory. In this work, we propose a dual semantic fusion network (abbreviated as DSFNet) to fully exploit both frame-level and instance-level semantics in a unified fusion framework without external guidance. Moreover, we introduce a geometric similarity measure into the fusion process to alleviate the influence of information distortion caused by noise. As a result, the proposed DSFNet can generate more robust features through the multi-granularity fusion and avoid being affected by the instability of external guidance. To evaluate the proposed DSFNet, we conduct extensive experiments on the ImageNet VID dataset. Notably, the proposed dual semantic fusion network achieves, to the best of our knowledge, the best performance of 84.1\% mAP among the current state-of-the-art video object detectors with ResNet-101 and 85.4\% mAP with ResNeXt-101 without using any post-processing steps.
翻訳日:2022-10-18 00:23:40 公開日:2020-09-16
# UXNet:3次元医用画像セグメンテーションのためのマルチレベル特徴集約検索

UXNet: Searching Multi-level Feature Aggregation for 3D Medical Image Segmentation ( http://arxiv.org/abs/2009.07501v1 )

ライセンス: Link先を確認
Yuanfeng Ji, Ruimao Zhang, Zhen Li, Jiamin Ren, Shaoting Zhang, Ping Luo(参考訳) 多レベル特徴表現の集約は, 診断・治療において重要な, 堅牢なボリューム画像分割の実現に重要な役割を果たしている。 本稿では,各ネットワーク層における最適演算子を探索する最近のニューラルアーキテクチャ探索法と異なり,エンコーダ・デコーダネットワークにおける大規模特徴集合戦略とブロックワイド演算子の両方を探索するUXNetという,3次元医用画像分割のためのNAS手法を提案する。 UXNetにはいくつかの魅力的な利点がある。 1) エンコーダとデコーダの特徴表現のみを等価解像度で集約する古典的UNetアーキテクチャの柔軟性を著しく向上させる。 2)UXNetの連続的な緩和を慎重に設計し,その探索方式を効率よく微分可能とした。 3)医療画像分割における最近のNAS法と比較して,UXNetの有効性を実証した。 uxnetによって発見されたアーキテクチャは、いくつかのパブリックな3d医療画像セグメンテーションベンチマーク、特に境界位置と小さな組織において、diceの観点から、既存の最先端モデルよりも優れています。 UXNetの検索計算複雑性は安価で、2つのTitanXP GPU上で1.5日以内のパフォーマンスでネットワークを検索できる。

Aggregating multi-level feature representation plays a critical role in achieving robust volumetric medical image segmentation, which is important for the auxiliary diagnosis and treatment. Unlike the recent neural architecture search (NAS) methods that typically searched the optimal operators in each network layer, but missed a good strategy to search for feature aggregations, this paper proposes a novel NAS method for 3D medical image segmentation, named UXNet, which searches both the scale-wise feature aggregation strategies as well as the block-wise operators in the encoder-decoder network. UXNet has several appealing benefits. (1) It significantly improves flexibility of the classical UNet architecture, which only aggregates feature representations of encoder and decoder in equivalent resolution. (2) A continuous relaxation of UXNet is carefully designed, enabling its searching scheme performed in an efficient differentiable manner. (3) Extensive experiments demonstrate the effectiveness of UXNet compared with recent NAS methods for medical image segmentation. The architecture discovered by UXNet outperforms existing state-of-the-art models in terms of Dice on several public 3D medical image segmentation benchmarks, especially for the boundary locations and tiny tissues. The searching computational complexity of UXNet is cheap, enabling to search a network with the best performance less than 1.5 days on two TitanXP GPUs.
翻訳日:2022-10-18 00:23:14 公開日:2020-09-16
# 不確実性を伴う階層的脳機能解析

Hierarchical brain parcellation with uncertainty ( http://arxiv.org/abs/2009.07573v1 )

ライセンス: Link先を確認
Mark S. Graham, Carole H. Sudre, Thomas Varsavsky, Petru-Daniel Tudosiu, Parashkev Nachev, Sebastien Ourselin, and M. Jorge Cardoso(参考訳) 多くのアトラスは階層的に構成され、徐々に脳を小さな部分領域に分割する。 しかし、最先端のパーセレーション手法はこの構造を無視し、ラベルを「フラット」のように扱う傾向がある。 本稿では,ラベルツリーの各枝における決定を予測して機能する階層的な脳解析手法を提案する。 さらに,この手法を用いて,ラベルツリーの各分岐に対する不確かさを別々にモデル化する方法を示す。 また, ラベル階層の任意のレベルにおいて, 自己整合性パーセレーションと不確実性マップが得られるような, 分解された不確実性推定値も提供する。 これらの決定固有の不確実性マップを,ラベルツリーの任意のレベルで不確実性保持された組織マップを提供するための簡単な方法を示す。

Many atlases used for brain parcellation are hierarchically organised, progressively dividing the brain into smaller sub-regions. However, state-of-the-art parcellation methods tend to ignore this structure and treat labels as if they are `flat'. We introduce a hierarchically-aware brain parcellation method that works by predicting the decisions at each branch in the label tree. We further show how this method can be used to model uncertainty separately for every branch in this label tree. Our method exceeds the performance of flat uncertainty methods, whilst also providing decomposed uncertainty estimates that enable us to obtain self-consistent parcellations and uncertainty maps at any level of the label hierarchy. We demonstrate a simple way these decision-specific uncertainty maps may be used to provided uncertainty-thresholded tissue maps at any level of the label tree.
翻訳日:2022-10-18 00:21:52 公開日:2020-09-16
# レッドカーペット・トゥ・ファイト・クラブ:暴力ビデオにおける顔認識のための部分教師付きドメイン転送

Red Carpet to Fight Club: Partially-supervised Domain Transfer for Face Recognition in Violent Videos ( http://arxiv.org/abs/2009.07576v1 )

ライセンス: Link先を確認
Yunus Can Bilge, Mehmet Kerim Yucel, Ramazan Gokberk Cinbis, Nazli Ikizler-Cinbis, Pinar Duygulu(参考訳) 多くの実世界の問題では、トレーニングで使用されるデータとデプロイメントで使用されるデータには大きな違いがあります。 犯罪発生率において、一般的に容疑者は、以前のビデオ録音ではなく、きれいなポートレートのような写真に基づいて特定する必要がある。 これにより、暴力ビデオとID写真の間の大きなドメインの相違、ほとんどの個人に対するビデオ例の欠如、限られたトレーニングデータ可用性の3つの大きな課題が生じる。 このようなシナリオを模倣するために、我々は、クリーンポーズ画像に基づいて訓練された認識モデルを暴力的ビデオのターゲット領域に転送することを目的として、現実的なドメイン転送問題を定式化する。 この目的のために、さまざまな有害条件下でのクロスドメイン認識の研究に適したWildestFacesデータセットを紹介した。 認識モデルをクリーンな画像の領域から暴力的なビデオへ移行するタスクを2つのサブプロブレムに分割し,それらに取り組む。 (i)分類子変換のためのアフィン変換の積み重ね (II)時間適応のための注意駆動プール ドメイン・トランスファーのための自己注意に基づくモデルも定式化する。 本稿では,このクリーン・トゥ・バイオレント認識タスクのための厳密な評価プロトコルを確立し,提案するデータセットと手法の詳細な分析を行う。 実験では、WildestFacesデータセットで導入されたユニークな課題と、提案したアプローチの利点を強調した。

In many real-world problems, there is typically a large discrepancy between the characteristics of data used in training versus deployment. A prime example is the analysis of aggression videos: in a criminal incidence, typically suspects need to be identified based on their clean portrait-like photos, instead of their prior video recordings. This results in three major challenges; large domain discrepancy between violence videos and ID-photos, the lack of video examples for most individuals and limited training data availability. To mimic such scenarios, we formulate a realistic domain-transfer problem, where the goal is to transfer the recognition model trained on clean posed images to the target domain of violent videos, where training videos are available only for a subset of subjects. To this end, we introduce the WildestFaces dataset, tailored to study cross-domain recognition under a variety of adverse conditions. We divide the task of transferring a recognition model from the domain of clean images to the violent videos into two sub-problems and tackle them using (i) stacked affine-transforms for classifier-transfer, (ii) attention-driven pooling for temporal-adaptation. We additionally formulate a self-attention based model for domain-transfer. We establish a rigorous evaluation protocol for this clean-to-violent recognition task, and present a detailed analysis of the proposed dataset and the methods. Our experiments highlight the unique challenges introduced by the WildestFaces dataset and the advantages of the proposed approach.
翻訳日:2022-10-18 00:21:36 公開日:2020-09-16
# 航空画像からの交通認識

Perceiving Traffic from Aerial Images ( http://arxiv.org/abs/2009.07611v1 )

ライセンス: Link先を確認
George Adaimi, Sven Kreiss, Alexandre Alahi(参考訳) 異なるセンサーを備えたドローンやUAVは、特に都市交通監視やラストマイル配送のために、多くの場所に配備されている。 それは、交通とスマートシティの将来にとって重要な柱であるリアルタイムの観測によって、トラフィックのさまざまな側面を制御する機能を提供する。 このような機械の使用の増加に伴い、前面カメラで高い性能を達成した多くの最先端の物体検出器がUAVデータセットで使用されている。 このようなデータセットから取得した高解像度の空中画像に適用すると、それらは広範囲のオブジェクトのスケールに一般化できない。 そこで本研究では,この制限に対処するために,空中画像の物体検出に適したバタフライ検出器というオブジェクト検出手法を提案する。 フィールドの概念を拡張し,検出対象の規模だけでなく,出力特徴の空間的情報を記述する複合場の一種であるバタフライフィールドを導入する。 局所化の妨げとなるオクルージョンと視角の変動を克服するため, 対象中心を指すバタフライベクトル間の投票機構を用いる。 我々はバタフライ検出器を2つのuavデータセット(uavdtとvisdrone2019)上で評価し、リアルタイムのままで従来の最先端の手法よりも優れていることを示した。

Drones or UAVs, equipped with different sensors, have been deployed in many places especially for urban traffic monitoring or last-mile delivery. It provides the ability to control the different aspects of traffic given real-time obeservations, an important pillar for the future of transportation and smart cities. With the increasing use of such machines, many previous state-of-the-art object detectors, who have achieved high performance on front facing cameras, are being used on UAV datasets. When applied to high-resolution aerial images captured from such datasets, they fail to generalize to the wide range of objects' scales. In order to address this limitation, we propose an object detection method called Butterfly Detector that is tailored to detect objects in aerial images. We extend the concept of fields and introduce butterfly fields, a type of composite field that describes the spatial information of output features as well as the scale of the detected object. To overcome occlusion and viewing angle variations that can hinder the localization process, we employ a voting mechanism between related butterfly vectors pointing to the object center. We evaluate our Butterfly Detector on two publicly available UAV datasets (UAVDT and VisDrone2019) and show that it outperforms previous state-of-the-art methods while remaining real-time.
翻訳日:2022-10-18 00:21:13 公開日:2020-09-16
# エゴセントリックフォトストリームにおける食事習慣の発見

Eating Habits Discovery in Egocentric Photo-streams ( http://arxiv.org/abs/2009.07646v1 )

ライセンス: Link先を確認
Estefania Talavera, Andreea Glavan, Alina Matei, Petia Radeva(参考訳) 食事習慣は、私たちの人生の初期段階を通して学習されます。 しかし、食品関連のルーチンが健康的な生活にどう影響するかを知ることは容易ではない。 本研究では,エゴ中心のフォトストリームからの栄養習慣の無監督発見に対処する。 食品関連行動パターン発見モデルを構築し,その日を通して実施した行動から栄養状態を明らかにする。 そのため、収集された日間の類似性を評価するために、動的時間ワーピングに頼る。 この枠組みでは,食品関連画像の分類において,重み付け精度が70%,f-scoreが63%,簡易かつ堅牢で高速な分類パイプラインが提案されている。 その後、隔離林法により、利用者の日常生活における生活習慣を異常として記述しない栄養活動からなる日を同定した。 さらに,カメラ装着者が単独で食事をする場合の食品関連シーンの識別の応用例を示す。 その結果, 提案モデルの有効性と, 個人の栄養習慣を可視化する妥当性が示された。

Eating habits are learned throughout the early stages of our lives. However, it is not easy to be aware of how our food-related routine affects our healthy living. In this work, we address the unsupervised discovery of nutritional habits from egocentric photo-streams. We build a food-related behavioural pattern discovery model, which discloses nutritional routines from the activities performed throughout the days. To do so, we rely on Dynamic-Time-Warping for the evaluation of similarity among the collected days. Within this framework, we present a simple, but robust and fast novel classification pipeline that outperforms the state-of-the-art on food-related image classification with a weighted accuracy and F-score of 70% and 63%, respectively. Later, we identify days composed of nutritional activities that do not describe the habits of the person as anomalies in the daily life of the user with the Isolation Forest method. Furthermore, we show an application for the identification of food-related scenes when the camera wearer eats in isolation. Results have shown the good performance of the proposed model and its relevance to visualize the nutritional habits of individuals.
翻訳日:2022-10-18 00:20:52 公開日:2020-09-16
# Human-in-the-loop Artificial Intelligence を用いた患者治療

Optimal Sepsis Patient Treatment using Human-in-the-loop Artificial Intelligence ( http://arxiv.org/abs/2009.07963v1 )

ライセンス: Link先を確認
Akash Gupta, Michael T. Lash, Senthil K. Nachimuthu(参考訳) 敗血症は集中治療室(icu)の主要な死因の一つである。 敗血症の治療戦略は、静脈内(iv)液の注入と抗生物質の投与である。 IV液の最適な量を決定することは、患者の生理学の複雑さのために難しい問題である。 本研究では,個々の患者に対して最適なiv流体量を求めるデータ駆動最適化ソリューションを開発した。 提案手法は,iv流体の所定量を制御することで重症度を最小化し,ループ内人工知能を利用する。 MIMIC-IIIデータセットから抽出した敗血症診断患者1122例を対象に,本モデルの有効性を実証した。 その結果,我々のモデルでは死亡率を22%削減できることがわかった。 この研究は、医師が最適な患者固有の治療戦略を合成するのに役立つ可能性がある。

Sepsis is one of the leading causes of death in Intensive Care Units (ICU). The strategy for treating sepsis involves the infusion of intravenous (IV) fluids and administration of antibiotics. Determining the optimal quantity of IV fluids is a challenging problem due to the complexity of a patient's physiology. In this study, we develop a data-driven optimization solution that derives the optimal quantity of IV fluids for individual patients. The proposed method minimizes the probability of severe outcomes by controlling the prescribed quantity of IV fluids and utilizes human-in-the-loop artificial intelligence. We demonstrate the performance of our model on 1122 ICU patients with sepsis diagnosis extracted from the MIMIC-III dataset. The results show that, on average, our model can reduce mortality by 22%. This study has the potential to help physicians synthesize optimal, patient-specific treatment strategies.
翻訳日:2022-10-18 00:13:52 公開日:2020-09-16
# EfficientNet-eLite:ネットワーク候補探索によるエッジデバイスのための超軽量かつ効率的なCNNモデル

EfficientNet-eLite: Extremely Lightweight and Efficient CNN Models for Edge Devices by Network Candidate Search ( http://arxiv.org/abs/2009.07409v1 )

ライセンス: Link先を確認
Ching-Chen Wang, Ching-Te Chiu, Jheng-Yi Chang(参考訳) 畳み込みニューラルネットワーク(cnn)をエッジデバイスに組み込んで推論するのは非常に難しい作業です。なぜなら、このような軽量なハードウェアは、このヘビーウェイトなソフトウェアを扱うために生まれていないからです。 本稿では,精度を極力下げてオーバーヘッドを削減することを目的としたネットワーク候補探索(ncs)を提案する。 さらに、NASは任意のニューラルネットワークで一般化することもできる。 実験では,提案するCNNモデルを,幅,深さ,入力解像度,複合スケールダウンなど,多種多様な方法でスケールダウンし,スケールダウントレードオフの研究にNCSを適用した。 一方、非常に軽量な efficientnet ファミリーが efficientnet-elite と呼ばれる。 Application-Specific Integrated Circuit (ASIC)でCNNエッジアプリケーションをさらに採用するために、EfficientNet-eLiteのアーキテクチャを調整し、よりハードウェアフレンドリなバージョンであるEfficientNet-HFを構築します。 ImageNetデータセットの評価では、提案したEfficientNet-eLiteとEfficientNet-HFは、従来のCNNよりも優れたパラメータ使用率と精度を示す。 特に、EfficientNet-eLiteの最小メンバーは、最大かつ最小のMnasNetよりも軽量で、パラメータは1.46倍少なく、精度は0.56%高い。 コードはhttps://github.com/Ching-Chen-Wang/EfficientNet-eLiteで入手できる。

Embedding Convolutional Neural Network (CNN) into edge devices for inference is a very challenging task because such lightweight hardware is not born to handle this heavyweight software, which is the common overhead from the modern state-of-the-art CNN models. In this paper, targeting at reducing the overhead with trading the accuracy as less as possible, we propose a novel of Network Candidate Search (NCS), an alternative way to study the trade-off between the resource usage and the performance through grouping concepts and elimination tournament. Besides, NCS can also be generalized across any neural network. In our experiment, we collect candidate CNN models from EfficientNet-B0 to be scaled down in varied way through width, depth, input resolution and compound scaling down, applying NCS to research the scaling-down trade-off. Meanwhile, a family of extremely lightweight EfficientNet is obtained, called EfficientNet-eLite. For further embracing the CNN edge application with Application-Specific Integrated Circuit (ASIC), we adjust the architectures of EfficientNet-eLite to build the more hardware-friendly version, EfficientNet-HF. Evaluation on ImageNet dataset, both proposed EfficientNet-eLite and EfficientNet-HF present better parameter usage and accuracy than the previous start-of-the-art CNNs. Particularly, the smallest member of EfficientNet-eLite is more lightweight than the best and smallest existing MnasNet with 1.46x less parameters and 0.56% higher accuracy. Code is available at https://github.com/Ching-Chen-Wang/EfficientNet-eLite
翻訳日:2022-10-18 00:13:14 公開日:2020-09-16
# シーンテキスト認識のためのフォント非依存機能探索

Exploring Font-independent Features for Scene Text Recognition ( http://arxiv.org/abs/2009.07447v1 )

ライセンス: Link先を確認
Yizhi Wang and Zhouhui Lian(参考訳) 近年,Scene Text Recognition (STR) が広く研究されている。 最近提案された多くの手法は、シーンテキストの任意の形状、レイアウト、方向を許容するように特別に設計されているが、様々なフォント(または文字)スタイルがSTRに深刻な課題をもたらすことも無視している。 フォントの特徴や文字のコンテンツ特徴が絡み合っているこれらの方法は、新しいフォントスタイルでテキストを含むシーン画像のテキスト認識が不十分である。 この問題に対処するために,多数のフォントスタイルにおけるグリフの注意深い生成を通じて,シーンテキストのフォントに依存しない特徴を探索する。 具体的には、生成したグリフのフォントスタイルを形成するためのトレーニング可能なフォント埋め込みを導入する。 生成プロセスは空間的注意機構によって指示され、不規則なテキストを効果的に処理し、既存の画像から画像への翻訳方法よりも高品質なグリフを生成する。 いくつかのSTRベンチマークで実施した実験は,本手法の最先端性を示すものである。

Scene text recognition (STR) has been extensively studied in last few years. Many recently-proposed methods are specially designed to accommodate the arbitrary shape, layout and orientation of scene texts, but ignoring that various font (or writing) styles also pose severe challenges to STR. These methods, where font features and content features of characters are tangled, perform poorly in text recognition on scene images with texts in novel font styles. To address this problem, we explore font-independent features of scene texts via attentional generation of glyphs in a large number of font styles. Specifically, we introduce trainable font embeddings to shape the font styles of generated glyphs, with the image feature of scene text only representing its essential patterns. The generation process is directed by the spatial attention mechanism, which effectively copes with irregular texts and generates higher-quality glyphs than existing image-to-image translation methods. Experiments conducted on several STR benchmarks demonstrate the superiority of our method compared to the state of the art.
翻訳日:2022-10-18 00:12:02 公開日:2020-09-16
# 文脈的相互ブースティングによるロバストな人物再同定

Robust Person Re-Identification through Contextual Mutual Boosting ( http://arxiv.org/abs/2009.07491v1 )

ライセンス: Link先を確認
Zhikang Wang, Lihuo He, Xinbo Gao, Jane Shen(参考訳) 人物再同定(Re-ID)は、深層学習の発展によって大きく進歩した。 しかし、現代の人物再識別は、実際には一般的である背景クラッタや咬合、大きな姿勢変化によってもなお挑戦されている。 従来の手法では、外部の手がかり(ポーズ推定、人間の解析など)や注意機構を通じて歩行者を局所化したり、高い計算コストとモデルの複雑さに苦しめたりすることで、これらの課題に取り組む。 本稿では,CMBN(Contextual Mutual Boosting Network)を提案する。 歩行者をローカライズし、文脈情報と統計推論を効果的に活用することで特徴を再調整する。 まず,前景と背景特徴をそれぞれ学習するために,共用畳み込みフロントエンドを持つ2つのブランチを構築した。 これら2つの分岐間の相互作用を可能にすることにより、空間的局所化の精度を相互に向上させる。 次に,統計学的観点から,トランスフォーメーションマトリックスの活性化分布を利用して静的チャネルマスクを生成するマスク生成器を提案する。 マスクは特徴を再調整し、価値ある特徴を増幅し、ノイズを減少させる。 最後に,2つのブランチを相互に独立に最適化するコンテキスト分割戦略を提案し,局所化精度をさらに向上させる。 ベンチマークの実験は、最先端のアーキテクチャと比較してアーキテクチャの優位性を示している。

Person Re-Identification (Re-ID) has witnessed great advance, driven by the development of deep learning. However, modern person Re-ID is still challenged by background clutter, occlusion and large posture variation which are common in practice. Previous methods tackle these challenges by localizing pedestrians through external cues (e.g., pose estimation, human parsing) or attention mechanism, suffering from high computation cost and increased model complexity. In this paper, we propose the Contextual Mutual Boosting Network (CMBN). It localizes pedestrians and recalibrates features by effectively exploiting contextual information and statistical inference. Firstly, we construct two branches with a shared convolutional frontend to learn the foreground and background features respectively. By enabling interaction between these two branches, they boost the accuracy of the spatial localization mutually. Secondly, starting from a statistical perspective, we propose the Mask Generator that exploits the activation distribution of the transformation matrix for generating the static channel mask to the representations. The mask recalibrates the features to amplify the valuable characteristics and diminish the noise. Finally, we propose the Contextual-Detachment Strategy to optimize the two branches jointly and independently, which further enhances the localization precision. Experiments on the benchmarks demonstrate the superiority of the architecture compared the state-of-the-art.
翻訳日:2022-10-18 00:11:44 公開日:2020-09-16
# 多言語翻訳・生成のための知識グラフ

Knowledge Graphs for Multilingual Language Translation and Generation ( http://arxiv.org/abs/2009.07715v1 )

ライセンス: Link先を確認
Diego Moussallem(参考訳) 自然言語処理(NLP)コミュニティは最近、異なるニューラルネットワーク(NN)アーキテクチャのリリースを背景として、目覚ましい進歩を遂げている。 ニューラルネットワークアプローチは、NLPタスクのための多数の自動化ソリューション(Belinkov and Glass, 2019)の出力品質を大幅に向上させることで、効果的に証明されている。 こうした顕著な進歩にもかかわらず、トレーニングデータにはほとんど見られないため、エンティティの扱いは依然として難しい課題である。 エンティティは、固有名詞と共通名詞の2つのグループに分類できる。 固有名詞はnamed Entities (NE)としても知られ、人、組織、場所、例えばジョン、WHO、カナダの名前に対応している。 一般的な名詞は、スプーンやがんなどのオブジェクトのクラスを記述する。 どちらのタイプのエンティティも知識グラフ(KG)で見ることができる。 最近の研究は、自然言語推論 (NLI) (KM et al., 2018) や質問回答 (QA) (Sorokin and Gurevych, 2018) など、NLPタスクにおけるKGの貢献をうまく活用している。 神経機械翻訳(neural machine translation, nmt)におけるkgsの利点を生かした作品はわずかである。 さらに、自然言語生成(nlg)タスクへのkgsの貢献を研究した作品はほとんどなかった。 さらに、多言語性はこれらのタスク(Young et al., 2018)においてオープンな研究領域として残っていた。 本稿では,機械翻訳におけるKGsの利用と,エンティティによる問題に対処するテキスト生成に着目し,それによって自動生成テキストの品質を向上させる。

The Natural Language Processing (NLP) community has recently seen outstanding progress, catalysed by the release of different Neural Network (NN) architectures. Neural-based approaches have proven effective by significantly increasing the output quality of a large number of automated solutions for NLP tasks (Belinkov and Glass, 2019). Despite these notable advancements, dealing with entities still poses a difficult challenge as they are rarely seen in training data. Entities can be classified into two groups, i.e., proper nouns and common nouns. Proper nouns are also known as Named Entities (NE) and correspond to the name of people, organizations, or locations, e.g., John, WHO, or Canada. Common nouns describe classes of objects, e.g., spoon or cancer. Both types of entities can be found in a Knowledge Graph (KG). Recent work has successfully exploited the contribution of KGs in NLP tasks, such as Natural Language Inference (NLI) (KM et al.,2018) and Question Answering (QA) (Sorokin and Gurevych, 2018). Only a few works had exploited the benefits of KGs in Neural Machine Translation (NMT) when the work presented herein began. Additionally, few works had studied the contribution of KGs to Natural Language Generation (NLG) tasks. Moreover, the multilinguality also remained an open research area in these respective tasks (Young et al., 2018). In this thesis, we focus on the use of KGs for machine translation and the generation of texts to deal with the problems caused by entities and consequently enhance the quality of automatically generated texts.
翻訳日:2022-10-18 00:05:34 公開日:2020-09-16
# 文書埋め込みを用いた文書レベルのニューラルマシン翻訳

Document-level Neural Machine Translation with Document Embeddings ( http://arxiv.org/abs/2009.08775v1 )

ライセンス: Link先を確認
Shu Jiang, Hai Zhao, Zuchao Li, Bao-Liang Lu(参考訳) standard neural machine translation (nmt) は文書レベルのコンテキスト独立の仮定に基づいている。 既存の文書レベルのNMT手法の多くは、簡潔な文書レベルの情報で満たされているが、本研究は、より深くリッチな文書レベルのコンテキストを十分にモデル化できる複数の形式の文書埋め込みの観点から、詳細な文書レベルのコンテキストを活用することに焦点を当てている。 提案する文書認識nmtは、ソースエンドにグローバルおよびローカルの文書レベルの手がかりを導入することでトランスフォーマティブベースラインを強化するために実装されている。 実験の結果,提案手法は強いベースラインや関連する研究よりも翻訳性能を著しく向上させることがわかった。

Standard neural machine translation (NMT) is on the assumption of document-level context independent. Most existing document-level NMT methods are satisfied with a smattering sense of brief document-level information, while this work focuses on exploiting detailed document-level context in terms of multiple forms of document embeddings, which is capable of sufficiently modeling deeper and richer document-level context. The proposed document-aware NMT is implemented to enhance the Transformer baseline by introducing both global and local document-level clues on the source end. Experiments show that the proposed method significantly improves the translation performance over strong baselines and other related studies.
翻訳日:2022-10-18 00:03:57 公開日:2020-09-16
# クレダル集合に基づく抽象議論における不正確な確率的アプローチ

An Imprecise Probability Approach for Abstract Argumentation based on Credal Sets ( http://arxiv.org/abs/2009.07405v1 )

ライセンス: Link先を確認
Mariela Morveli-Espinoza, Juan Carlos Nieves, and Cesar Augusto Tacla(参考訳) 抽象的議論のアプローチのいくつかは、議論には不確実性の程度があり、これは意味論の下で抽象的議論フレームワーク(aaf)から得られる拡張の不確実性の程度に影響を与える。 これらのアプローチでは、引数の不確かさと拡張のどちらも正確な確率値によってモデル化される。 しかし、多くの実生活では正確な確率値が不明であり、時には異なる情報源の確率値を集約する必要がある。 本稿では,議論の確率値が不正確であることを考慮し,拡張の不確かさの程度を計算する問題に取り組む。 我々は、引数の不確実性値をモデル化するためにクレダル集合を使用し、これらのクレダル集合から拡張の下限と上限を計算する。 提案手法のいくつかの特性を考察し、意思決定のシナリオで説明する。

Some abstract argumentation approaches consider that arguments have a degree of uncertainty, which impacts on the degree of uncertainty of the extensions obtained from a abstract argumentation framework (AAF) under a semantics. In these approaches, both the uncertainty of the arguments and of the extensions are modeled by means of precise probability values. However, in many real life situations the exact probabilities values are unknown and sometimes there is a need for aggregating the probability values of different sources. In this paper, we tackle the problem of calculating the degree of uncertainty of the extensions considering that the probability values of the arguments are imprecise. We use credal sets to model the uncertainty values of arguments and from these credal sets, we calculate the lower and upper bounds of the extensions. We study some properties of the suggested approach and illustrate it with an scenario of decision making.
翻訳日:2022-10-18 00:03:46 公開日:2020-09-16
# Job2Vec: 集合的マルチビュー表現学習によるジョブタイトルベンチマーク

Job2Vec: Job Title Benchmarking with Collective Multi-View Representation Learning ( http://arxiv.org/abs/2009.07429v1 )

ライセンス: Link先を確認
Denghui Zhang, Junming Liu, Hengshu Zhu, Yanchi Liu, Lichen Wang, Pengyang Wang, Hui Xiong(参考訳) Job Title Benchmarking (JTB) は、様々な企業で同様の専門知識を持つ職種をマッチングすることを目的としている。 JTBは、人材募集と求職者のポジションと給与の調整・予測の両方に正確なガイダンスと利便性を提供することができる。 従来のjtbアプローチは、主に高価で労働集約的な手動市場調査に依存している。 最近、Online Professional Graphの急速な開発が、大量のタレントキャリア記録を蓄積し、データ駆動型ソリューションに有望なトレンドをもたらしている。 しかし、(1)肩書とジョブトランジション(job-hopping)のデータは同じ位置(プログラマ、ソフトウェア開発エンジニア、sde、実装エンジニアなど)に多くの主観的および非標準的な命名規則を含む乱雑なデータであり、(2)タイトル/トランジション情報が不足していること、(3)ある才能が不完全さと無作為性モデリングのジョブトランジションパターンをもたらす限られた仕事だけを求めること、など、依然として困難な課題である。 これらの課題を克服するために、我々はすべてのレコードを集約して、特定の企業に関連付けられたジョブタイトルと、ジョブ間の相関を示す大規模なジョブタイトルベンチマークグラフ(Job-Graph)を構築する。 我々はJTBをジョブ-グラフ上のリンク予測のタスクとして再構成し、ジョブタイトルにマッチするリンクを持つべきである。 本稿では,(1)グラフトポロジビュー,(2)セマンティックビュー,(3)ジョブ遷移バランスビュー,(4)ジョブ遷移期間ビューにおいて,ジョブグラフを併用して総合的な多視点表現学習手法(Job2Vec)を提案する。 我々は,エンコード・デコードパラダイムの多視点表現を融合して,リンク予測タスクのための統一された最適表現を得る。 最後に,提案手法の有効性を検証するための実験を行った。

Job Title Benchmarking (JTB) aims at matching job titles with similar expertise levels across various companies. JTB could provide precise guidance and considerable convenience for both talent recruitment and job seekers for position and salary calibration/prediction. Traditional JTB approaches mainly rely on manual market surveys, which is expensive and labor-intensive. Recently, the rapid development of Online Professional Graph has accumulated a large number of talent career records, which provides a promising trend for data-driven solutions. However, it is still a challenging task since (1) the job title and job transition (job-hopping) data is messy which contains a lot of subjective and non-standard naming conventions for the same position (e.g., Programmer, Software Development Engineer, SDE, Implementation Engineer), (2) there is a large amount of missing title/transition information, and (3) one talent only seeks limited numbers of jobs which brings the incompleteness and randomness modeling job transition patterns. To overcome these challenges, we aggregate all the records to construct a large-scale Job Title Benchmarking Graph (Job-Graph), where nodes denote job titles affiliated with specific companies and links denote the correlations between jobs. We reformulate the JTB as the task of link prediction over the Job-Graph that matched job titles should have links. Along this line, we propose a collective multi-view representation learning method (Job2Vec) by examining the Job-Graph jointly in (1) graph topology view, (2)semantic view, (3) job transition balance view, and (4) job transition duration view. We fuse the multi-view representations in the encode-decode paradigm to obtain a unified optimal representation for the task of link prediction. Finally, we conduct extensive experiments to validate the effectiveness of our proposed method.
翻訳日:2022-10-18 00:03:32 公開日:2020-09-16
# 罪悪感を伴う心の理論は協調強化学習を促進する

Theory of Mind with Guilt Aversion Facilitates Cooperative Reinforcement Learning ( http://arxiv.org/abs/2009.07445v1 )

ライセンス: Link先を確認
Dung Nguyen, Svetha Venkatesh, Phuoc Nguyen, Truyen Tran(参考訳) 罪悪感回避は、他人を失望させたと信じていれば、人々のユーティリティ損失の経験を誘発し、これは人間の協調行動を促進する。 心理的ゲーム理論において、罪悪感回避は、他のエージェントがどう考えるかの理論を持つエージェントのモデリングを必要とする。 我々は,自己利益ではなく他者の幸福について考える能力を備えた,罪悪感回避型マインドエージェント(tomaga)と呼ばれる新しいタイプの情緒強化学習エージェントの構築を目指している。 エージェント設計を検証するため,テストベッドとしてスタッグハントと呼ばれる汎用ゲームを用いた。 標準的な強化学習エージェントは,Stag Huntのような社会的ジレンマの最適下方策を学習できるため,報酬形成機構として信念に基づく罪悪感の回避を提案する。 我らの信念に基づく罪悪感回避エージェントは,スタッグハントゲームにおいて協調行動を効率的に学習できることを実証する。

Guilt aversion induces experience of a utility loss in people if they believe they have disappointed others, and this promotes cooperative behaviour in human. In psychological game theory, guilt aversion necessitates modelling of agents that have theory about what other agents think, also known as Theory of Mind (ToM). We aim to build a new kind of affective reinforcement learning agents, called Theory of Mind Agents with Guilt Aversion (ToMAGA), which are equipped with an ability to think about the wellbeing of others instead of just self-interest. To validate the agent design, we use a general-sum game known as Stag Hunt as a test bed. As standard reinforcement learning agents could learn suboptimal policies in social dilemmas like Stag Hunt, we propose to use belief-based guilt aversion as a reward shaping mechanism. We show that our belief-based guilt averse agents can efficiently learn cooperative behaviours in Stag Hunt Games.
翻訳日:2022-10-18 00:02:57 公開日:2020-09-16
# テキスト上の数値推論のための質問方向グラフ注意ネットワーク

Question Directed Graph Attention Network for Numerical Reasoning over Text ( http://arxiv.org/abs/2009.07448v1 )

ライセンス: Link先を確認
Kunlong Chen, Weidi Xu, Xingyi Cheng, Zou Xiaochuan, Yuyu Zhang, Le Song, Taifeng Wang, Yuan Qi, Wei Chu(参考訳) 追加、減算、ソート、カウントなどのテキストに対する数値推論は、自然言語の理解と算術計算の両方を必要とするため、機械読解の難しい課題である。 この課題に対処するために,このような推論に必要な経過と質問の文脈に対する不均質なグラフ表現を提案し,このコンテキストグラフ上で多段階の数値推論を駆動する質問指向グラフアテンションネットワークを設計する。

Numerical reasoning over texts, such as addition, subtraction, sorting and counting, is a challenging machine reading comprehension task, since it requires both natural language understanding and arithmetic computation. To address this challenge, we propose a heterogeneous graph representation for the context of the passage and question needed for such reasoning, and design a question directed graph attention network to drive multi-step numerical reasoning over this context graph.
翻訳日:2022-10-18 00:02:40 公開日:2020-09-16
# Mimic and Conquer:Syntactic NLPのための不均一木構造蒸留

Mimic and Conquer: Heterogeneous Tree Structure Distillation for Syntactic NLP ( http://arxiv.org/abs/2009.07411v1 )

ライセンス: Link先を確認
Hao Fei and Yafeng Ren and Donghong Ji(参考訳) 構文は様々なnlpタスクに有用であることが示されているが、既存の作業では1つの階層的ニューラルネットワークを使用してシングルトン構文木をエンコードしている。 本稿では,多種構造知識を一貫した逐次LSTMエンコーダに統合する,シンプルで効果的な知識蒸留法について検討する。 4つの典型的な構文依存タスクの実験結果から,本手法は木エンコーダの効率と精度の両方において,誤り伝播を低減しつつ,構造構文を効率的に統合することにより,木エンコーダよりも優れることがわかった。

Syntax has been shown useful for various NLP tasks, while existing work mostly encodes singleton syntactic tree using one hierarchical neural network. In this paper, we investigate a simple and effective method, Knowledge Distillation, to integrate heterogeneous structure knowledge into a unified sequential LSTM encoder. Experimental results on four typical syntax-dependent tasks show that our method outperforms tree encoders by effectively integrating rich heterogeneous structure syntax, meanwhile reducing error propagation, and also outperforms ensemble methods, in terms of both the efficiency and accuracy.
翻訳日:2022-10-17 23:56:07 公開日:2020-09-16
# 共同抽出文とキーワードによる教師なし要約

Unsupervised Summarization by Jointly Extracting Sentences and Keywords ( http://arxiv.org/abs/2009.07481v1 )

ライセンス: Link先を確認
Zongyi Li and Xiaoqing Zheng(参考訳) 本稿では, 単語, 文, 単語と文間の類似性を, ベクトル空間内のベクトル表現間の距離によって推定できる, 抽出多文書要約のための教師なしグラフベースランキングモデルRepRankを提案する。 適切な表現を得るために,単語埋め込みの重み付け和で文を表現する自己注意に基づく学習手法を提案し,文書の内容をよりよく反映して重みを集中させることが望まれる。 学習した表現を用いて,有能な文やキーワードを相互強化プロセスで抽出できることを示し,この処理が常に,性能の向上につながるユニークな解に収束することを証明する。 吸収ランダムウォークの変種とそれに対応するサンプリングベースアルゴリズムについても記述し、冗長性を避け、要約の多様性を高める。 複数のベンチマークデータセットを用いた実験の結果、reprankはrougeで最高の性能または同等のパフォーマンスを達成した。

We present RepRank, an unsupervised graph-based ranking model for extractive multi-document summarization in which the similarity between words, sentences, and word-to-sentence can be estimated by the distances between their vector representations in a unified vector space. In order to obtain desirable representations, we propose a self-attention based learning method that represent a sentence by the weighted sum of its word embeddings, and the weights are concentrated to those words hopefully better reflecting the content of a document. We show that salient sentences and keywords can be extracted in a joint and mutual reinforcement process using our learned representations, and prove that this process always converges to a unique solution leading to improvement in performance. A variant of absorbing random walk and the corresponding sampling-based algorithm are also described to avoid redundancy and increase diversity in the summaries. Experiment results with multiple benchmark datasets show that RepRank achieved the best or comparable performance in ROUGE.
翻訳日:2022-10-17 23:55:33 公開日:2020-09-16
# グラフからシーケンスへのニューラルマシン翻訳

Graph-to-Sequence Neural Machine Translation ( http://arxiv.org/abs/2009.07489v1 )

ライセンス: Link先を確認
Sufeng Duan, Hai Zhao and Rui Wang(参考訳) ニューラルマシン翻訳(nmt)は通常、ソースまたはターゲット文のいずれかを単語の線形列として見ることで、seq2seq学習方法で動作し、グラフの特別な場合と見なすことができ、シーケンス内の単語をノードとして、単語間の関係をエッジとして取り込むことができる。 現在のnmtモデルに照らし合わせると、シーケンス間のグラフ情報を潜伏的にキャプチャし、明示的なグラフ情報のキャプチャを容易にするグラフツーシーケンスモデルを提案する。 具体的には,各層で異なる順序のサブグラフの情報を取得することにより,グラフベースのsanベースのnmtモデルであるgraph-transformerを提案する。 サブグラフは順番に応じて異なるグループに分類され、各サブグラフは単語間の依存度をそれぞれ異なるレベルに反映する。 サブグラフ表現を用いるために、異なる順序のサブグラフのグループを重み付けする3つの手法を経験的に検討する。 WMT14英語-ドイツ語とIWSLT14ドイツ語-英語の実験結果から,WMT14英語-ドイツ語データセットの1.1BLEU点,IWSLT14ドイツ語-英語データセットの1.0BLEU点を改良することにより,トランスフォーマーを効果的に向上させることができることが示された。

Neural machine translation (NMT) usually works in a seq2seq learning way by viewing either source or target sentence as a linear sequence of words, which can be regarded as a special case of graph, taking words in the sequence as nodes and relationships between words as edges. In the light of the current NMT models more or less capture graph information among the sequence in a latent way, we present a graph-to-sequence model facilitating explicit graph information capturing. In detail, we propose a graph-based SAN-based NMT model called Graph-Transformer by capturing information of subgraphs of different orders in every layers. Subgraphs are put into different groups according to their orders, and every group of subgraphs respectively reflect different levels of dependency between words. For fusing subgraph representations, we empirically explore three methods which weight different groups of subgraphs of different orders. Results of experiments on WMT14 English-German and IWSLT14 German-English show that our method can effectively boost the Transformer with an improvement of 1.1 BLEU points on WMT14 English-German dataset and 1.0 BLEU points on IWSLT14 German-English dataset.
翻訳日:2022-10-17 23:55:18 公開日:2020-09-16
# UNION: オープンなストーリー生成を評価するための非参照メトリック

UNION: An Unreferenced Metric for Evaluating Open-ended Story Generation ( http://arxiv.org/abs/2009.07602v1 )

ライセンス: Link先を確認
Jian Guan, Minlie Huang(参考訳) 既存の参照メトリクス(例: bleu と moverscore)の成功にもかかわらず、それらは悪名高い一対多の問題のために、ストーリーや対話生成を含むオープンエンドテキスト生成のための人間の判断に乏しい相関関係にある。 この問題を軽減するために,オープンエンドなストーリー生成を評価するための,学習可能な未参照メトリックであるUNIONを提案する。 BERT上に構築されたUNIONは、人書きのストーリーとネガティブなサンプルを区別し、ネガティブなストーリーの摂動を回復するように訓練されている。 提案手法は,繰り返しプロット,矛盾論理,長距離不整合など,既存のNLGモデルでよく見られる誤りを模倣して,負のサンプルを構築する手法である。 2つのストーリーデータセットの実験は、UNIONが生成したストーリーの品質を評価するための信頼性の高い尺度であることを示した。

Despite the success of existing referenced metrics (e.g., BLEU and MoverScore), they correlate poorly with human judgments for open-ended text generation including story or dialog generation because of the notorious one-to-many issue: there are many plausible outputs for the same input, which may differ substantially in literal or semantics from the limited number of given references. To alleviate this issue, we propose UNION, a learnable unreferenced metric for evaluating open-ended story generation, which measures the quality of a generated story without any reference. Built on top of BERT, UNION is trained to distinguish human-written stories from negative samples and recover the perturbation in negative stories. We propose an approach of constructing negative samples by mimicking the errors commonly observed in existing NLG models, including repeated plots, conflicting logic, and long-range incoherence. Experiments on two story datasets demonstrate that UNION is a reliable measure for evaluating the quality of generated stories, which correlates better with human judgments and is more generalizable than existing state-of-the-art metrics.
翻訳日:2022-10-17 23:54:35 公開日:2020-09-16
# ソナーATRシステムのオンラインドメイン適応のための類似性に基づくデータマイニング

Similarity-based data mining for online domain adaptation of a sonar ATR system ( http://arxiv.org/abs/2009.07560v1 )

ライセンス: Link先を確認
Jean de Bodinat, Thomas Guerneve, Jose Vazquez, Marija Jegorova(参考訳) フィールドデータ収集の高価さのため、トレーニングデータの欠如により、自動ターゲット認識(ATR)システムの性能が制限されることがしばしばある。 この問題は、しばしばドメイン適応技術によって解決されるが、既存の手法ではリソースや時間制限のある水中システムの制約を満たすことができない。 本稿では,新しいデータ選択手法を用いて,ATRアルゴリズムのオンライン微調整によりこの問題に対処することを提案する。 提案したデータマイニング手法は視覚的類似性に依存し,従来のハードマイニング手法よりも優れている。 そこで本研究では, シミュレーション環境における性能比較を行い, 従来の未知環境への高速適応に本手法を用いることの利点を強調する。

Due to the expensive nature of field data gathering, the lack of training data often limits the performance of Automatic Target Recognition (ATR) systems. This problem is often addressed with domain adaptation techniques, however the currently existing methods fail to satisfy the constraints of resource and time-limited underwater systems. We propose to address this issue via an online fine-tuning of the ATR algorithm using a novel data-selection method. Our proposed data-mining approach relies on visual similarity and outperforms the traditionally employed hard-mining methods. We present a comparative performance analysis in a wide range of simulated environments and highlight the benefits of using our method for the rapid adaptation to previously unseen environments.
翻訳日:2022-10-17 23:46:19 公開日:2020-09-16
# 深層学習による悪意のあるネットワークトラフィック検出:情報理論的視点

Malicious Network Traffic Detection via Deep Learning: An Information Theoretic View ( http://arxiv.org/abs/2009.07753v1 )

ライセンス: Link先を確認
Erick Galinkin(参考訳) ディープラーニングが学術コミュニティや業界から注目されていることは、年々成長を続けており、私たちは人工知能研究の新しい黄金時代にあると言われている。 しかし、ニューラルネットワークは、学習が行われるが、人間の解釈可能な方法では理解できない「ブラックボックス」と見なされることが多い。 これらの機械学習システムは、ますますセキュリティコンテキストで採用されているため、これらの解釈を探求することが重要である。 この問題に対処するためのAndroidマルウェアトラフィックデータセットを検討する。 そして、情報平面を用いて、同相性が学習したデータの表現と、そのデータ上のパラメータによって捕捉された相互情報の不変性にどのように影響するかを検討する。 学習した表現の類似性の2番目の尺度として精度を用いて,これらの結果を実証的に検証した。 以上より,すべてのパラメータの多様体上で定義された学習表現の詳細と特定の座標系はわずかに異なるが,関数近似は同じであることが示唆された。 さらに,同相写像の下で相互情報が不変であることから,ニューラルネットワークの結果を変えるのは,データセットのエントロピーを変化させる工学的手法のみであることを示す。 つまり、いくつかのデータセットやタスクでは、ニューラルネットワークが十分な統計データを生成するのに十分な情報を提供するために、有意義な人間主導の機能エンジニアリングやアーキテクチャの変更が必要です。 この結果を適用することで、機械学習エンジニアの分析方法のガイドが可能になり、畳み込み定理を活用可能なニューラルネットワークは、標準畳み込みニューラルネットワークと同等に正確であり、より計算効率が良いことを示唆する。

The attention that deep learning has garnered from the academic community and industry continues to grow year over year, and it has been said that we are in a new golden age of artificial intelligence research. However, neural networks are still often seen as a "black box" where learning occurs but cannot be understood in a human-interpretable way. Since these machine learning systems are increasingly being adopted in security contexts, it is important to explore these interpretations. We consider an Android malware traffic dataset for approaching this problem. Then, using the information plane, we explore how homeomorphism affects learned representation of the data and the invariance of the mutual information captured by the parameters on that data. We empirically validate these results, using accuracy as a second measure of similarity of learned representations. Our results suggest that although the details of learned representations and the specific coordinate system defined over the manifold of all parameters differ slightly, the functional approximations are the same. Furthermore, our results show that since mutual information remains invariant under homeomorphism, only feature engineering methods that alter the entropy of the dataset will change the outcome of the neural network. This means that for some datasets and tasks, neural networks require meaningful, human-driven feature engineering or changes in architecture to provide enough information for the neural network to generate a sufficient statistic. Applying our results can serve to guide analysis methods for machine learning engineers and suggests that neural networks that can exploit the convolution theorem are equally accurate as standard convolutional neural networks, and can be more computationally efficient.
翻訳日:2022-10-17 23:45:57 公開日:2020-09-16
# 光音響トモグラフィにおける深層学習 : 現状と今後の方向性

Deep Learning in Photoacoustic Tomography: Current approaches and future directions ( http://arxiv.org/abs/2009.07608v1 )

ライセンス: Link先を確認
Andreas Hauptmann and Ben Cox(参考訳) 光吸収に基づく高分解能3次元軟組織像を提供するバイオメディカル・フォト音響トモグラフィは, 実験室から臨床現場への翻訳が可能となる段階に進んだ。 早期画像形成の必要性と臨床ワークフローの制約から生じるデータ取得の実践的制約が,新たな画像再構成課題を呈している。 画像再構成には多くの古典的なアプローチがあるが、正確な事前化によって不完全または不完全なデータの効果を改善することは困難であり、アルゴリズムが遅くなる。 近年、ディープラーニング(Deep Learning)やディープニューラルネットワーク(Deep Neural Network)のこの問題への応用に大きな注目を集めている。 本稿では,学習画像再構成に関する文献を概観し,現在の傾向を概説するとともに,これらのアプローチが古典的再構築手法を包含する枠組みとして,どのように内部,あるいはある程度発生したかを説明する。 特に、これらの新しいテクニックがベイズの視点からどのように理解され、有益な洞察を提供するかを示している。 また,学習画像再構成のための3つの原型的アプローチの簡潔なチュートリアルも提供する。 これらのデモのためのコードとデータセットは研究者が利用できる。 データはスパースで、高速イメージングが重要で、手作業で構築するのが難しい、Deep Learningが最も影響を与える可能性がある、生体内アプリケーションである、と期待されている。 このことを念頭に置いて、論文は将来の研究の方向性を示唆する形で締めくくっている。

Biomedical photoacoustic tomography, which can provide high resolution 3D soft tissue images based on the optical absorption, has advanced to the stage at which translation from the laboratory to clinical settings is becoming possible. The need for rapid image formation and the practical restrictions on data acquisition that arise from the constraints of a clinical workflow are presenting new image reconstruction challenges. There are many classical approaches to image reconstruction, but ameliorating the effects of incomplete or imperfect data through the incorporation of accurate priors is challenging and leads to slow algorithms. Recently, the application of Deep Learning, or deep neural networks, to this problem has received a great deal of attention. This paper reviews the literature on learned image reconstruction, summarising the current trends, and explains how these new approaches fit within, and to some extent have arisen from, a framework that encompasses classical reconstruction methods. In particular, it shows how these new techniques can be understood from a Bayesian perspective, providing useful insights. The paper also provides a concise tutorial demonstration of three prototypical approaches to learned image reconstruction. The code and data sets for these demonstrations are available to researchers. It is anticipated that it is in in vivo applications - where data may be sparse, fast imaging critical and priors difficult to construct by hand - that Deep Learning will have the most impact. With this in mind, the paper concludes with some indications of possible future research directions.
翻訳日:2022-10-17 23:45:30 公開日:2020-09-16
# ハイブリッド・レコメンデータ・システムによるアラビア語意見のマイニング

Arabic Opinion Mining Using a Hybrid Recommender System Approach ( http://arxiv.org/abs/2009.07397v1 )

ライセンス: Link先を確認
Fouzi Harrag, Abdulmalik Salman Al-Salman and Alaa Alquahtani(参考訳) 現在、レコメンダシステムは、サービスや情報をユーザに届ける上で重要な役割を担っている。 センチメント分析(英: Sentiment analysis)または意見マイニング(英: opinion mining)は、文章による意見の態度を決定する過程である。 データスパーシティ(data sparsity)は,ユーザレーティングの不足やユーザやアイテムのデータ不足などにより,レコメンダシステムにとって大きな問題となっている。 本研究では,テキストマイニングとnlp手法を用いて,ユーザレビューから製品評価を予測し,データスパーシティ問題に対処するための感情分析とレコメンダシステムを組み合わせた手法を提案する。 本研究は、特にアラビア語のレビューに焦点を当て、オピニオンコーパスを用いてアラビア(OCA)データセットを用いてモデルを評価する。 私たちのシステムは効率的で、レビューから評価を予測するのに85%近い精度を示しました。

Recommender systems nowadays are playing an important role in the delivery of services and information to users. Sentiment analysis (also known as opinion mining) is the process of determining the attitude of textual opinions, whether they are positive, negative or neutral. Data sparsity is representing a big issue for recommender systems because of the insufficiency of user rating or absence of data about users or items. This research proposed a hybrid approach combining sentiment analysis and recommender systems to tackle the problem of data sparsity problems by predicting the rating of products from users reviews using text mining and NLP techniques. This research focuses especially on Arabic reviews, where the model is evaluated using Opinion Corpus for Arabic (OCA) dataset. Our system was efficient, and it showed a good accuracy of nearly 85 percent in predicting rating from reviews
翻訳日:2022-10-17 23:45:08 公開日:2020-09-16
# エンドタスクのための構造認識型トランスフォーマー言語モデル

Retrofitting Structure-aware Transformer Language Model for End Tasks ( http://arxiv.org/abs/2009.07408v1 )

ライセンス: Link先を確認
Hao Fei and Yafeng Ren and Donghong Ji(参考訳) 本稿では,構文的距離を利用して言語モデルに係り受け関係をエンコードし,構造を意識したトランスフォーマーに基づく言語モデルを提案する。 中層構造学習戦略は構造統合に活用され,マルチタスク学習方式下でのメインセマンティックタスクトレーニングによって実現される。 実験結果から, 構造認識型トランスフォーマー言語モデルでは, 精度が向上する一方, 正確な構文的フレーズが誘導されることがわかった。 構造を意識した微調整を行うことで,意味的タスクと構文的タスクの両方において大幅な改善が達成される。

We consider retrofitting structure-aware Transformer-based language model for facilitating end tasks by proposing to exploit syntactic distance to encode both the phrasal constituency and dependency connection into the language model. A middle-layer structural learning strategy is leveraged for structure integration, accomplished with main semantic task training under multi-task learning scheme. Experimental results show that the retrofitted structure-aware Transformer language model achieves improved perplexity, meanwhile inducing accurate syntactic phrases. By performing structure-aware fine-tuning, our model achieves significant improvements for both semantic- and syntactic-dependent tasks.
翻訳日:2022-10-17 23:44:52 公開日:2020-09-16
# 深層ニューラルネットワークにおける有限時間収束の事前保証

A priori guarantees of finite-time convergence for Deep Neural Networks ( http://arxiv.org/abs/2009.07509v1 )

ライセンス: Link先を確認
Anushree Rankawat, Mansi Rankawat, Harshal B. Oza(参考訳) 本稿では,損失関数のリアプノフに基づく解析を行い,深層ニューラルネットワークの沈降時間に基づく事前上限を導出する。 従来の研究は制御理論フレームワークを用いたディープラーニングの理解を試みたが、事前有限時間収束解析には限定的な研究がある。 非線形システムの有限時間制御解析の進歩から,決定論的制御論的設定における有限時間収束の事前保証を提供する。 ネットワークの重みが制御入力であり、学習が追跡問題となる制御問題として教師付き学習フレームワークを定式化する。 定置時間における有限時間上界の解析式は、入力の有界性の仮定の下で事前計算される。 最後に,入力摂動に対する損失関数のロバスト性と感度を示す。

In this paper, we perform Lyapunov based analysis of the loss function to derive an a priori upper bound on the settling time of deep neural networks. While previous studies have attempted to understand deep learning using control theory framework, there is limited work on a priori finite time convergence analysis. Drawing from the advances in analysis of finite-time control of non-linear systems, we provide a priori guarantees of finite-time convergence in a deterministic control theoretic setting. We formulate the supervised learning framework as a control problem where weights of the network are control inputs and learning translates into a tracking problem. An analytical formula for finite-time upper bound on settling time is computed a priori under the assumptions of boundedness of input. Finally, we prove the robustness and sensitivity of the loss function against input perturbations.
翻訳日:2022-10-17 23:38:08 公開日:2020-09-16
# ネットワークにおける階層的コミュニティの検出可能性

Detectability of hierarchical communities in networks ( http://arxiv.org/abs/2009.07525v1 )

ライセンス: Link先を確認
Leto Peel and Michael T. Schaub(参考訳) 本研究では,ネットワーク内の分割の植込み階層を復元する問題について検討する。 単一の植被分割の検出性は以前にも詳細に解析されており、その分割を検出できない下では相転移が特定されている。 ここで、階層的な設定では、複数の一貫性のある分割の存在が検出を助長するか妨害する追加のフェーズが存在することを示す。 したがって、非階層的な分割に対する検出可能性の限界は、通常、完全な階層構造の検出可能性に関する不十分な情報を提供する。

We study the problem of recovering a planted hierarchy of partitions in a network. The detectability of a single planted partition has previously been analysed in detail and a phase transition has been identified below which the partition cannot be detected. Here we show that, in the hierarchical setting, there exist additional phases in which the presence of multiple consistent partitions can either help or hinder detection. Accordingly, the detectability limit for non-hierarchical partitions typically provides insufficient information about the detectability of the complete hierarchical structure, as we highlight with several constructive examples.
翻訳日:2022-10-17 23:37:56 公開日:2020-09-16
# ARIMAモデルを用いたクレジットカード取引における異常・不正検出

Anomaly and Fraud Detection in Credit Card Transactions Using the ARIMA Model ( http://arxiv.org/abs/2009.07578v1 )

ライセンス: Link先を確認
Giulia Moschini, R\'egis Houssou, J\'er\^ome Bovay, Stephan Robert-Nicoud(参考訳) 本稿では、ARIMAモデルを用いたアンバランスデータセットにおけるクレジットカード不正検出の教師なしアプローチの問題に対処する。 ARIMAモデルは、顧客の通常の支出行動に適合し、偏差や不一致が生じた場合に不正を検出するために使用される。 本モデルはクレジットカードデータに適用され,K-Means, Box-Plot, Local Outlier Factor, isolated Forestなどの4つの異常検出手法と比較された。 その結果,ARIMAモデルの方がベンチマークモデルよりも優れた検出能力を示すことがわかった。

This paper addresses the problem of unsupervised approach of credit card fraud detection in unbalanced dataset using the ARIMA model. The ARIMA model is fitted on the regular spending behaviour of the customer and is used to detect fraud if some deviations or discrepancies appear. Our model is applied to credit card datasets and is compared to 4 anomaly detection approaches such as K-Means, Box-Plot, Local Outlier Factor and Isolation Forest. The results show that the ARIMA model presents a better detecting power than the benchmark models.
翻訳日:2022-10-17 23:37:46 公開日:2020-09-16
# kaggleの予測競争:見過ごされた学習機会

Kaggle forecasting competitions: An overlooked learning opportunity ( http://arxiv.org/abs/2009.07701v1 )

ライセンス: Link先を確認
Casper Solheim Bojer and Jens Peder Meldgaard(参考訳) 最近のM4コンペティションで実証されたように、競争は予測分野において重要な役割を果たす。 このコンペは、学者と実践者の両方から注目を集め、ビジネス予測のためのデータの代表性に関する議論を引き起こした。 しかし、Kaggleプラットフォーム上での実際のビジネス予測タスクを含むいくつかのコンペは、学術界からは無視されている。 これらのコンペティションからの学習は、予測コミュニティに多くのものを提供し、Kaggleの6つのコンペティションの結果のレビューを提供すると信じています。 カグルデータセットのほとんどは、m競合よりも高い間欠性とエントロピーによって特徴づけられ、グローバルアンサンブルモデルは局所的な単一モデルを上回る傾向がある。 さらに,勾配強化決定木の強力な性能,予測のためのニューラルネットワークの成功の増大,予測タスクに機械学習モデルを適用するための様々な手法を見出した。

Competitions play an invaluable role in the field of forecasting, as exemplified through the recent M4 competition. The competition received attention from both academics and practitioners and sparked discussions around the representativeness of the data for business forecasting. Several competitions featuring real-life business forecasting tasks on the Kaggle platform has, however, been largely ignored by the academic community. We believe the learnings from these competitions have much to offer to the forecasting community and provide a review of the results from six Kaggle competitions. We find that most of the Kaggle datasets are characterized by higher intermittence and entropy than the M-competitions and that global ensemble models tend to outperform local single models. Furthermore, we find the strong performance of gradient boosted decision trees, increasing success of neural networks for forecasting, and a variety of techniques for adapting machine learning models to the forecasting task.
翻訳日:2022-10-17 23:37:12 公開日:2020-09-16
# マルチアクションmdpにおけるポリシーイテレーションの下限

Lower Bounds for Policy Iteration on Multi-action MDPs ( http://arxiv.org/abs/2009.07842v1 )

ライセンス: Link先を確認
Kumar Ashutosh, Sarthak Consul, Bhishma Dedhia, Parthasarathi Khirwadkar, Sahil Shah, Shivaram Kalyanakrishnan(参考訳) ポリシー反復 (pi) は、任意のマルコフ決定問題 (mdp) に対して最適なポリシーを計算する古典的なアルゴリズム群である。 PIの基本的な考え方は、いくつかの初期方針から始まり、最適な方針に到達するまで、改善セットから繰り返しポリシーを更新することである。 PIの異なる変種は、改善に使用される(スイッチング)規則から生じる。 重要な理論的疑問は、特定のPI変種が入力MDPにおける状態数$n$とアクション数$k$の関数として終了するのに要する回数である。 この数の上限は相当な進歩があったが、下限では結果が少ない。 特に、既存の下界は主に$k = 2$アクションの特別な場合に焦点を当てている。 我々は、k \geq 3$ で下限を考案する。 主な結果は、piの特定のバリエーションが$\omega(k^{n/2})$イテレーションで終了できるということです。 また、作用 MDP 上の既存の構成を一般化して下界をスケールし、PI のいくつかの共通決定論的変種に対して$k$、対応するランダム化された変種に対して$\log(k)$ で表す。

Policy Iteration (PI) is a classical family of algorithms to compute an optimal policy for any given Markov Decision Problem (MDP). The basic idea in PI is to begin with some initial policy and to repeatedly update the policy to one from an improving set, until an optimal policy is reached. Different variants of PI result from the (switching) rule used for improvement. An important theoretical question is how many iterations a specified PI variant will take to terminate as a function of the number of states $n$ and the number of actions $k$ in the input MDP. While there has been considerable progress towards upper-bounding this number, there are fewer results on lower bounds. In particular, existing lower bounds primarily focus on the special case of $k = 2$ actions. We devise lower bounds for $k \geq 3$. Our main result is that a particular variant of PI can take $\Omega(k^{n/2})$ iterations to terminate. We also generalise existing constructions on $2$-action MDPs to scale lower bounds by a factor of $k$ for some common deterministic variants of PI, and by $\log(k)$ for corresponding randomised variants.
翻訳日:2022-10-17 23:36:15 公開日:2020-09-16
# betweenness centralityを用いたネットワークベース高レベルデータ分類アルゴリズム

A Network-Based High-Level Data Classification Algorithm Using Betweenness Centrality ( http://arxiv.org/abs/2009.07971v1 )

ライセンス: Link先を確認
Esteban Vilca, Liang Zhao(参考訳) データ分類は機械学習の主要なパラダイムであり、多くの現実世界の問題を解決するために広く応用されてきた。 従来のデータ分類技術では、入力データの物理的特徴(距離、類似性、分布など)のみを考慮する。 そのため、これらは \textit{low-level} 分類と呼ばれる。 一方、ヒト(動物)脳は、低次の学習と高次の学習の両方を行い、入力データの意味的意味に応じてパターンを識別する能力を有する。 物理的属性だけでなく、パターン形成も考慮したデータ分類を「textit{high-level}」分類と呼ぶ。 複雑なネットワークを用いてデータパターンを特徴付ける高レベルの分類手法が開発され,有望な結果を得た。 本稿では,その間性中心性尺度を用いた純粋ネットワークベースハイレベル分類手法を提案する。 このモデルを9つの実際のデータセットでテストし、他の9つの従来型およびよく知られた分類モデルと比較します。 その結果,有能な分類性能が得られた。

Data classification is a major machine learning paradigm, which has been widely applied to solve a large number of real-world problems. Traditional data classification techniques consider only physical features (e.g., distance, similarity, or distribution) of the input data. For this reason, those are called \textit{low-level} classification. On the other hand, the human (animal) brain performs both low and high orders of learning and it has a facility in identifying patterns according to the semantic meaning of the input data. Data classification that considers not only physical attributes but also the pattern formation is referred to as \textit{high-level} classification. Several high-level classification techniques have been developed, which make use of complex networks to characterize data patterns and have obtained promising results. In this paper, we propose a pure network-based high-level classification technique that uses the betweenness centrality measure. We test this model in nine different real datasets and compare it with other nine traditional and well-known classification models. The results show us a competent classification performance.
翻訳日:2022-10-17 23:35:38 公開日:2020-09-16
# ディープニューラルネットワークにおけるポーリング手法の概観

Pooling Methods in Deep Neural Networks, a Review ( http://arxiv.org/abs/2009.07485v1 )

ライセンス: Link先を確認
Hossein Gholamalinezhad and Hossein Khosravi(参考訳) 現在、ディープニューラルネットワークは様々な科学で使われている主要なツールの1つである。 畳み込みニューラルネットワーク(英: Convolutional Neural Network)は、複数の畳み込み層からなる特殊なタイプのDNNであり、それぞれにアクティベーション機能とプール層がある。 プーリング層は重要なレイヤであり、前のレイヤからのフィーチャーマップのダウンサンプリングを実行し、凝縮された解像度で新機能マップを生成する。 この層は入力の空間次元を大幅に減少させる。 主な目的は2つある。 1つ目はパラメータや重みの数を減らし、計算コストを下げることである。 2つ目はネットワークのオーバーフィットを制御することです。 理想的なプーリング法は有用な情報のみを抽出し、無関係な詳細を破棄することが期待される。 ディープニューラルネットワークにおけるプーリング操作の実装には、多くの方法がある。 本稿では,有名なプールプーリング手法のいくつかについて概説する。

Nowadays, Deep Neural Networks are among the main tools used in various sciences. Convolutional Neural Network is a special type of DNN consisting of several convolution layers, each followed by an activation function and a pooling layer. The pooling layer is an important layer that executes the down-sampling on the feature maps coming from the previous layer and produces new feature maps with a condensed resolution. This layer drastically reduces the spatial dimension of input. It serves two main purposes. The first is to reduce the number of parameters or weights, thus lessening the computational cost. The second is to control the overfitting of the network. An ideal pooling method is expected to extract only useful information and discard irrelevant details. There are a lot of methods for the implementation of pooling operation in Deep Neural Networks. In this paper, we reviewed some of the famous and useful pooling methods.
翻訳日:2022-10-17 23:29:00 公開日:2020-09-16
# 効果的なクロスリンガル音楽項目アノテーションのための多言語音楽ジャンル埋め込み

Multilingual Music Genre Embeddings for Effective Cross-Lingual Music Item Annotation ( http://arxiv.org/abs/2009.07755v1 )

ライセンス: Link先を確認
Elena V. Epure and Guillaume Salha and Romain Hennequin(参考訳) 音楽ジャンルの注釈付けは音楽推薦や情報検索に不可欠であるが、音楽ジャンルが主観的概念であることを考えると困難である。 近年、この主観性を明確に考慮するために、音楽項目の注釈を翻訳タスクとしてモデル化し、対象とする語彙内で楽曲のジャンルを予測したり、他のタグシステムから派生した音楽ジャンルタグのセットから分類(タグシステム)を行った。 しかし、並列コーパスがなければ、以前のソリューションでは他の言語のタグシステムを扱えず、英語のみに限られていた。 ここでは,多言語音楽ジャンルの組込みを学習することにより,並列コーパスに頼らずに,多言語音楽ジャンルの翻訳を可能にする。 まず,複数単語タグを表すために事前学習した単語埋め込みに合成関数を適用し,修正された再適合アルゴリズムを用いて多言語音楽ジャンルグラフを活用することで,タグ表現を音楽領域に適用する。 実験によると この手法は 1) 複数の言語(英語,フランス語,スペイン語)のタグシステム間の音楽ジャンルの翻訳に有効である。 2) 英語の複数ソース翻訳タスクでは, 以前のベースラインよりも優れていた。 新しい多言語データとコードを公開しています。

Annotating music items with music genres is crucial for music recommendation and information retrieval, yet challenging given that music genres are subjective concepts. Recently, in order to explicitly consider this subjectivity, the annotation of music items was modeled as a translation task: predict for a music item its music genres within a target vocabulary or taxonomy (tag system) from a set of music genre tags originating from other tag systems. However, without a parallel corpus, previous solutions could not handle tag systems in other languages, being limited to the English-language only. Here, by learning multilingual music genre embeddings, we enable cross-lingual music genre translation without relying on a parallel corpus. First, we apply compositionality functions on pre-trained word embeddings to represent multi-word tags.Second, we adapt the tag representations to the music domain by leveraging multilingual music genres graphs with a modified retrofitting algorithm. Experiments show that our method: 1) is effective in translating music genres across tag systems in multiple languages (English, French and Spanish); 2) outperforms the previous baseline in an English-language multi-source translation task. We publicly release the new multilingual data and code.
翻訳日:2022-10-17 23:28:07 公開日:2020-09-16
# 3次元高密度U-netを用いた脳腫瘍切除

Brain tumour segmentation using cascaded 3D densely-connected U-net ( http://arxiv.org/abs/2009.07563v1 )

ライセンス: Link先を確認
Mina Ghaffari, Arcot Sowmya, and Ruth Oliver(参考訳) 脳腫瘍の正確なセグメンテーションは、疾患の診断と適切な治療計画を改善するための重要なステップである。 本稿では,脳腫瘍をそのサブリージョン(全腫瘍,腫瘍コア,造影腫瘍)に分割する深層学習手法を提案する。 提案アーキテクチャは,RonnebergerらによるU-Netアーキテクチャの変種に基づく,3次元畳み込みニューラルネットワークである。 [17] 主な3つの変更点 (i)ヘビーエンコーダ、残余ブロックを用いた光デコーダ構造 (ii)接続先をスキップする代わりに、密集ブロックを雇用すること、 (iii)ネットワークのデコーダ部における自己センシングの利用 ネットワークは2つの異なるアプローチで訓練され、テストされた: すべての腫瘍のサブリージョンを同時に分割するマルチタスクフレームワークと、一度に1つのサブリージョンを分割する3段階のカスケードフレームワークである。 両方のフレームワークによる結果のアンサンブルも計算された。 クラス不均衡問題に対処するために,事前処理ステップにおいて適切なパッチ抽出を行った。 連結成分分析は, 偽陽性予測を減らすために, 後処理工程で利用した。 BraTS20バリデーションデータセットの実験結果から, 提案したモデルでは, 全腫瘍, 腫瘍コア, 造影腫瘍の平均Diceスコアが0.90, 0.82, 0.78に達した。

Accurate brain tumour segmentation is a crucial step towards improving disease diagnosis and proper treatment planning. In this paper, we propose a deep-learning based method to segment a brain tumour into its subregions: whole tumour, tumour core and enhancing tumour. The proposed architecture is a 3D convolutional neural network based on a variant of the U-Net architecture of Ronneberger et al. [17] with three main modifications: (i) a heavy encoder, light decoder structure using residual blocks (ii) employment of dense blocks instead of skip connections, and (iii) utilization of self-ensembling in the decoder part of the network. The network was trained and tested using two different approaches: a multitask framework to segment all tumour subregions at the same time and a three-stage cascaded framework to segment one sub-region at a time. An ensemble of the results from both frameworks was also computed. To address the class imbalance issue, appropriate patch extraction was employed in a pre-processing step. The connected component analysis was utilized in the post-processing step to reduce false positive predictions. Experimental results on the BraTS20 validation dataset demonstrates that the proposed model achieved average Dice Scores of 0.90, 0.82, and 0.78 for whole tumour, tumour core and enhancing tumour respectively.
翻訳日:2022-10-17 23:27:07 公開日:2020-09-16
# FedSmart: 自動更新型フェデレーション学習最適化メカニズム

FedSmart: An Auto Updating Federated Learning Optimization Mechanism ( http://arxiv.org/abs/2009.07455v1 )

ライセンス: Link先を確認
Anxun He, Jianzong Wang, Zhangcheng Huang and Jing Xiao(参考訳) フェデレーション学習は、データのプライバシ保存に重要な貢献をした。 多くの先行研究は、データが独立に分散(IID)されているという仮定に基づいている。 その結果,非ID独立分散(非IID)データのモデル性能は,具体的な状況である期待を超えている。 データ共有戦略や事前トレーニングなど、非iidデータのモデルロバスト性を保証する既存の方法が、プライバシリークにつながる可能性がある。 さらに、低品質のデータでモデルに毒を盛ろうとする参加者もいます。 本稿では,FedSmart(FedSmart)と呼ぶ,最適化のための性能に基づくパラメータ戻り手法を提案する。 グローバルな勾配を共有することでクライアント毎に異なるモデルを最適化し、各クライアントからローカルな検証セットとしてデータを抽出し、ラウンドtでモデルが達成する精度が次のラウンドの重みを決定する。 実験の結果,feedsmartでは,同様のデータ分布を持つ参加者に対して,より重みを割り当てることができることがわかった。

Federated learning has made an important contribution to data privacy-preserving. Many previous works are based on the assumption that the data are independently identically distributed (IID). As a result, the model performance on non-identically independently distributed (non-IID) data is beyond expectation, which is the concrete situation. Some existing methods of ensuring the model robustness on non-IID data, like the data-sharing strategy or pretraining, may lead to privacy leaking. In addition, there exist some participants who try to poison the model with low-quality data. In this paper, a performance-based parameter return method for optimization is introduced, we term it FederatedSmart (FedSmart). It optimizes different model for each client through sharing global gradients, and it extracts the data from each client as a local validation set, and the accuracy that model achieves in round t determines the weights of the next round. The experiment results show that FedSmart enables the participants to allocate a greater weight to the ones with similar data distribution.
翻訳日:2022-10-17 23:26:45 公開日:2020-09-16
# 活性化関数:ニューラルネットワークのモジュール性とタスクパフォーマンスのトレードオフを表現するか

Activation Functions: Do They Represent A Trade-Off Between Modular Nature of Neural Networks And Task Performance ( http://arxiv.org/abs/2009.07793v1 )

ライセンス: Link先を確認
Himanshu Pradeep Aswani, Amit Sethi(参考訳) 現在の研究によると、ニューラルネットワークアーキテクチャを設計する上で重要な要因は、畳み込み層ごとにフィルタの数、完全連結層ごとに隠れたニューロンの数、ドロップアウト、プルーニングである。 ほとんどの場合、デフォルトのアクティベーション関数はReLUであり、試験的に高速なトレーニング収束を示している。 ニューラルネットワーク内のモジュール構造の改善を望むならば,reluが最善の選択であるかどうかを検討する。

Current research suggests that the key factors in designing neural network architectures involve choosing number of filters for every convolution layer, number of hidden neurons for every fully connected layer, dropout and pruning. The default activation function in most cases is the ReLU, as it has empirically shown faster training convergence. We explore whether ReLU is the best choice if one is aiming to desire better modularity structure within a neural network.
翻訳日:2022-10-17 23:19:59 公開日:2020-09-16
# マルチラベルf測定のための凸キャリブレーションサーロゲート

Convex Calibrated Surrogates for the Multi-Label F-Measure ( http://arxiv.org/abs/2009.07801v1 )

ライセンス: Link先を確認
Mingyuan Zhang, Harish G. Ramaswamy, Shivani Agarwal(参考訳) f-measureはマルチラベル分類において広く使われているパフォーマンス指標であり、複数のラベルを同時にインスタンスで動作させることができる(例えば、画像タグ付けでは、任意のイメージで複数のタグがアクティブになる)。 特に、F尺度は、リコール(アクティブであると予測されるアクティブラベルの区切り)と精度(実際にアクティブであると予測されるラベルの区切り)を明示的にバランスさせ、どちらもマルチラベル分類器の全体的な性能を評価する上で重要である。 しかし、ほとんどの離散予測問題と同様に、f-測定を直接最適化することは計算的に難しい。 本稿では,f-measureに最適化された凸サーロゲート損失の設計の問題,具体的には,f-measureに対するベイズ最適マルチラベル分類器(baies optimal multi-label classifier)のサーロゲート損失を最小化する特性について検討する。 損失行列を2^s \times 2^s$とみなす場合の$s$-label問題に対するF測度は、最大で$s^2+1$であり、F測度に対する凸校正サロゲートの族を設計するためにRamaswamy et al. (2014) の結果を適用する。 結果として生じるリスク最小化アルゴリズムは、マルチラベルf-測定学習問題を$s^2+1$バイナリクラス確率推定問題に分解すると見なすことができる。 また,f-measure問題全体に対する後悔保証を行うために,バイナリ問題の後悔保証を行うことができるサロゲートの量的後悔伝達バウンドを提供し,dembczynski et al. (2013) のアルゴリズムとの関連について考察した。 我々の実験は理論的な結果を確認する。

The F-measure is a widely used performance measure for multi-label classification, where multiple labels can be active in an instance simultaneously (e.g. in image tagging, multiple tags can be active in any image). In particular, the F-measure explicitly balances recall (fraction of active labels predicted to be active) and precision (fraction of labels predicted to be active that are actually so), both of which are important in evaluating the overall performance of a multi-label classifier. As with most discrete prediction problems, however, directly optimizing the F-measure is computationally hard. In this paper, we explore the question of designing convex surrogate losses that are calibrated for the F-measure -- specifically, that have the property that minimizing the surrogate loss yields (in the limit of sufficient data) a Bayes optimal multi-label classifier for the F-measure. We show that the F-measure for an $s$-label problem, when viewed as a $2^s \times 2^s$ loss matrix, has rank at most $s^2+1$, and apply a result of Ramaswamy et al. (2014) to design a family of convex calibrated surrogates for the F-measure. The resulting surrogate risk minimization algorithms can be viewed as decomposing the multi-label F-measure learning problem into $s^2+1$ binary class probability estimation problems. We also provide a quantitative regret transfer bound for our surrogates, which allows any regret guarantees for the binary problems to be transferred to regret guarantees for the overall F-measure problem, and discuss a connection with the algorithm of Dembczynski et al. (2013). Our experiments confirm our theoretical findings.
翻訳日:2022-10-17 23:19:51 公開日:2020-09-16
# Comparison Lift: オンライン広告のためのバンドベース実験システム

Comparison Lift: Bandit-based Experimentation System for Online Advertising ( http://arxiv.org/abs/2009.07899v1 )

ライセンス: Link先を確認
Tong Geng, Xiliang Lin, Harikesh S. Nair, Jun Hao, Bin Xiang, Shurui Fan(参考訳) Comparison Liftは、JD.comのオンライン広告オーディエンスとクリエイティブをテストするための実験用アズ・ア・サービス(EaaS)アプリケーションである。 主に固定サンプルa/bテストにフォーカスした他のeaasツールとは異なり、compute liftは独自のbanditベースの実験アルゴリズムをデプロイする。 banditベースのアプローチの利点は2つあります。 まず、テストで引き起こされるランダム化と、テストによる広告主の目標を一致させる。 第2に、試験中に取得した情報に実験設計を適用することにより、広告主に対する実験のコストを大幅に削減する。 2019年5月の打ち上げ以来、比較リフトは1500以上の実験で使用されている。 このプロダクトの利用は、広告キャンペーンのクリックスルー率を平均46%向上させるのに役立ったと推定している。 製品における適応設計は, 固定サンプルA/B設計と比較して, 平均クリック数が27%増加したと推定した。 どちらも、製品から広告主に重要な価値生成とコスト削減を示唆している。

Comparison Lift is an experimentation-as-a-service (EaaS) application for testing online advertising audiences and creatives at JD.com. Unlike many other EaaS tools that focus primarily on fixed sample A/B testing, Comparison Lift deploys a custom bandit-based experimentation algorithm. The advantages of the bandit-based approach are two-fold. First, it aligns the randomization induced in the test with the advertiser's goals from testing. Second, by adapting experimental design to information acquired during the test, it reduces substantially the cost of experimentation to the advertiser. Since launch in May 2019, Comparison Lift has been utilized in over 1,500 experiments. We estimate that utilization of the product has helped increase click-through rates of participating advertising campaigns by 46% on average. We estimate that the adaptive design in the product has generated 27% more clicks on average during testing compared to a fixed sample A/B design. Both suggest significant value generation and cost savings to advertisers from the product.
翻訳日:2022-10-17 23:19:17 公開日:2020-09-16
# matrix profile xxii: dtw下での時系列モチーフの正確な発見

Matrix Profile XXII: Exact Discovery of Time Series Motifs under DTW ( http://arxiv.org/abs/2009.07907v1 )

ライセンス: Link先を確認
Sara Alaee, Kaveh Kamgar, Eamonn Keogh(参考訳) 過去10年間で、時系列モチーフ発見は、クラスタリング、分類、ルール発見、セグメンテーション、要約を含む多くの下流分析タスクに有用なプリミティブとして登場した。 並行して、Dynamic Time Warping(DTW)が一連の設定において最高の時系列類似度尺度であるという理解が高まっている。 しかし、驚くべきことに、DTWを使ってモチーフを発見する作業はほとんど行われていない。 このことの最も明白な説明は、モチーフ発見とDTWの使用の両方が計算的に困難であり、それらのレジャーギーに対処するための現在の最良のメカニズムは互いに相容れないことである。 本稿では,DTWの下で時系列モチーフを発見するための,最初のスケーラブルな正確な手法を提案する。 提案手法は,我々が導入する下限表現の新たな階層に対して,計算時間と下限の厳密性との間の最善のトレードオフを自動実行する。 現実的な設定では、我々のアルゴリズムはDTW計算の99.99%を許容できる。

Over the last decade, time series motif discovery has emerged as a useful primitive for many downstream analytical tasks, including clustering, classification, rule discovery, segmentation, and summarization. In parallel, there has been an increased understanding that Dynamic Time Warping (DTW) is the best time series similarity measure in a host of settings. Surprisingly however, there has been virtually no work on using DTW to discover motifs. The most obvious explanation of this is the fact that both motif discovery and the use of DTW can be computationally challenging, and the current best mechanisms to address their lethargy are mutually incompatible. In this work, we present the first scalable exact method to discover time series motifs under DTW. Our method automatically performs the best trade-off between time-to-compute and tightness-of-lower-bounds for a novel hierarchy of lower bounds representation we introduce. We show that under realistic settings, our algorithm can admissibly prune up to 99.99% of the DTW computations.
翻訳日:2022-10-17 23:19:03 公開日:2020-09-16
# テキスト行からの手書きスクリプト識別

Handwritten Script Identification from Text Lines ( http://arxiv.org/abs/2009.07433v1 )

ライセンス: Link先を確認
Pawan Kumar Singh, Iman Chatterjee, Ram Sarkar, Mita Nasipuri(参考訳) 12の異なる公式スクリプトが使用されているインドのような多言語国では、手書きスクリプトの自動識別は、多言語文書の自動書き起こし、特定のスクリプトを含むウェブ/デジタルアーカイブ上の文書検索、多言語環境におけるスクリプト固有の光学文字認識(OCR)システムの選択など、多くの重要な応用を促進する。 本稿では,テキスト行レベルで手書き文書からスクリプトを識別する堅牢な手法を提案する。 この認識はチェインコードヒストグラム(cch)と離散フーリエ変換(dft)を用いて抽出された特徴に基づいている。 提案手法は, グジャラート, カナダ, マラヤラム, オリヤ, タミル, テルグ, ウルドゥの7文字で書かれた800行の手書きテキストに対して, ローマ文字とともに実験を行い, サポートベクトルマシン(SVM)分類器を用いて平均識別率95.14%を得た。

In a multilingual country like India where 12 different official scripts are in use, automatic identification of handwritten script facilitates many important applications such as automatic transcription of multilingual documents, searching for documents on the web/digital archives containing a particular script and for the selection of script specific Optical Character Recognition (OCR) system in a multilingual environment. In this paper, we propose a robust method towards identifying scripts from the handwritten documents at text line-level. The recognition is based upon features extracted using Chain Code Histogram (CCH) and Discrete Fourier Transform (DFT). The proposed method is experimented on 800 handwritten text lines written in seven Indic scripts namely, Gujarati, Kannada, Malayalam, Oriya, Tamil, Telugu, Urdu along with Roman script and yielded an average identification rate of 95.14% using Support Vector Machine (SVM) classifier.
翻訳日:2022-10-17 23:18:08 公開日:2020-09-16
# クワッドツリー分解を用いたブロックレベルのテクスチャベーススクリプト識別のための新しいアプローチ

A New Approach for Texture based Script Identification At Block Level using Quad Tree Decomposition ( http://arxiv.org/abs/2009.07435v1 )

ライセンス: Link先を確認
Pawan Kumar Singh, Supratim Das, Ram Sarkar, Mita Nasipuri(参考訳) Indicスクリプトのための単言語OCRシステムの開発でかなりの成功を収めた。 しかし、複数のスクリプトシナリオが一般的であるインドのような国では、事前にスクリプトを識別することが義務付けられます。 本稿では,バングラ,デバナガリ,グジャラティ,グルムクヒ,カンナダ,マラヤラム,オリヤ,タミル,テルグ,ウルドゥー,ローマという11の公式手書き文字の方向エネルギーとエントロピー分布の抽出におけるガボルウェーブレットフィルタの重要性について述べる。 実験はクワッドツリー分解法に基づいてブロックレベルで行われ、6つのよく知られた分類器を用いて評価される。 最後に、96.86%の最良の識別精度は、レベル2分解における3次元クロス検証のためのマルチ層パーセプトロン(mlp)分類器によって達成された。 その結果,手書き文字の分類における現在の手法の有効性の確立に寄与する。

A considerable amount of success has been achieved in developing monolingual OCR systems for Indic scripts. But in a country like India, where multi-script scenario is prevalent, identifying scripts beforehand becomes obligatory. In this paper, we present the significance of Gabor wavelets filters in extracting directional energy and entropy distributions for 11 official handwritten scripts namely, Bangla, Devanagari, Gujarati, Gurumukhi, Kannada, Malayalam, Oriya, Tamil, Telugu, Urdu and Roman. The experimentation is conducted at block level based on a quad-tree decomposition approach and evaluated using six different well-known classifiers. Finally, the best identification accuracy of 96.86% has been achieved by Multi Layer Perceptron (MLP) classifier for 3-fold cross validation at level-2 decomposition. The results serve to establish the efficacy of the present approach to the classification of handwritten Indic scripts
翻訳日:2022-10-17 23:17:46 公開日:2020-09-16
# Meta-AAD: 深層強化学習によるアクティブ異常検出

Meta-AAD: Active Anomaly Detection with Deep Reinforcement Learning ( http://arxiv.org/abs/2009.07415v1 )

ライセンス: Link先を確認
Daochen Zha, Kwei-Herng Lai, Mingyang Wan, Xia Hu(参考訳) 高偽陽性率は、特に高精度なアプリケーションにおいて、異常検出アルゴリズムの長年の課題である。 真の異常を特定するために、実際には、アナリストまたはドメインの専門家が、異常検出システムによって特定された異常のランクリストの上位インスタンスを1つずつ調査するために使用される。 この検証手順は、時間予算が与えられたより真の異常を発見するのに役立つように、異常を再ランクするために活用できる情報ラベルを生成する。 上記の決定過程を近似するために、いくつかの再分類戦略が提案されている。 具体的には、既存の戦略は、フィードバックに基づいて上位のインスタンスが異常になる可能性を高めることに重点を置いている。 そして、クエリー用のトップ1インスタンスを選択します。 しかし、これらの欲望戦略は、低ランクのインスタンスが長期的にはより役に立つため、最適ではないかもしれない。 本研究では,クエリ選択のためのメタポリシーを学習する新しいフレームワークであるMeta-AAD(Active Anomaly Detection with Meta-Policy)を提案する。 具体的には、meta-aadはディープ強化学習を利用してメタポリシーを訓練し、最も適切なインスタンスを選択し、クエリプロセス全体で発見された異常の数を明示的に最適化する。 Meta-AADは、トレーニングされたメタポリシを、さらなるチューニングなしで、新しいデータセットに直接適用できるため、デプロイが容易である。 24のベンチマークデータセットに対する大規模な実験は、Meta-AADが最先端の再評価戦略と教師なしベースラインを大幅に上回っていることを示している。 経験的分析は、訓練されたメタ政治は移行可能であり、本質的に長期報酬と短期報酬のバランスを達成していることを示している。

High false-positive rate is a long-standing challenge for anomaly detection algorithms, especially in high-stake applications. To identify the true anomalies, in practice, analysts or domain experts will be employed to investigate the top instances one by one in a ranked list of anomalies identified by an anomaly detection system. This verification procedure generates informative labels that can be leveraged to re-rank the anomalies so as to help the analyst to discover more true anomalies given a time budget. Some re-ranking strategies have been proposed to approximate the above sequential decision process. Specifically, existing strategies have been focused on making the top instances more likely to be anomalous based on the feedback. Then they greedily select the top-1 instance for query. However, these greedy strategies could be sub-optimal since some low-ranked instances could be more helpful in the long-term. In this work, we propose Active Anomaly Detection with Meta-Policy (Meta-AAD), a novel framework that learns a meta-policy for query selection. Specifically, Meta-AAD leverages deep reinforcement learning to train the meta-policy to select the most proper instance to explicitly optimize the number of discovered anomalies throughout the querying process. Meta-AAD is easy to deploy since a trained meta-policy can be directly applied to any new datasets without further tuning. Extensive experiments on 24 benchmark datasets demonstrate that Meta-AAD significantly outperforms the state-of-the-art re-ranking strategies and the unsupervised baseline. The empirical analysis shows that the trained meta-policy is transferable and inherently achieves a balance between long-term and short-term rewards.
翻訳日:2022-10-17 23:11:35 公開日:2020-09-16
# 情報が多すぎると情報がなくなる:クラスタリングの視点

Too Much Information Kills Information: A Clustering Perspective ( http://arxiv.org/abs/2009.07417v1 )

ライセンス: Link先を確認
Yicheng Xu, Vincent Chau, Chenchen Wu, Yong Zhang, Vassilis Zissimopoulos, Yifei Zou(参考訳) クラスタリングは人工知能分野、特にパターン認識と学習理論における最も基本的なツールの1つである。 本稿では,k-meansクラスタリングが広く知られている分散に基づくk-clusteringタスクに対する,単純だが斬新なアプローチを提案する。 提案手法は、与えられたデータセットからサンプリングサブセットを選択し、サブセット内のデータ情報のみに基づいて決定する。 ある仮定では、結果のクラスタリングは、高い確率で分散に基づく目的の最適度を推定するのに十分である。 合成データセットと実世界のデータセットに関する大規模な実験により、k-means法(Llyod 1982)やk-means++法(Arthur and Vassilvitskii 2007)と比較すると、データセットの7%の情報しか必要としないことがわかった。 データセットの最大15%の情報がある場合、クラスタリングの品質の観点から、我々のアルゴリズムはクラスタリングタスクの少なくとも80%において、k-meansメソッドとk-means++メソッドの両方より優れている。 また、同じアイデアに基づく拡張アルゴリズムにより、バランスの取れたkクラスタリング結果が保証される。

Clustering is one of the most fundamental tools in the artificial intelligence area, particularly in the pattern recognition and learning theory. In this paper, we propose a simple, but novel approach for variance-based k-clustering tasks, included in which is the widely known k-means clustering. The proposed approach picks a sampling subset from the given dataset and makes decisions based on the data information in the subset only. With certain assumptions, the resulting clustering is provably good to estimate the optimum of the variance-based objective with high probability. Extensive experiments on synthetic datasets and real-world datasets show that to obtain competitive results compared with k-means method (Llyod 1982) and k-means++ method (Arthur and Vassilvitskii 2007), we only need 7% information of the dataset. If we have up to 15% information of the dataset, then our algorithm outperforms both the k-means method and k-means++ method in at least 80% of the clustering tasks, in terms of the quality of clustering. Also, an extended algorithm based on the same idea guarantees a balanced k-clustering result.
翻訳日:2022-10-17 23:11:10 公開日:2020-09-16
# 準自己回帰残留流(QuAR)

Quasi-Autoregressive Residual (QuAR) Flows ( http://arxiv.org/abs/2009.07419v1 )

ライセンス: Link先を確認
Achintya Gopal(参考訳) 正規化フローは、それらの分布から与えられたサンプルの確率分布を学習し、モデル化するための強力な技術である。 現在の技術結果は、結合層よりも大きな仮説空間をモデル化できるため、残留フローの上に構築されている。 しかし、残留フローは訓練と使用の両方に非常に計算コストがかかるため、実際の適用性が制限される。 本稿では,Quasi-Autoregressive (QuAR) アプローチによる残留流の簡易化について述べる。 従来の残留流法と比較して、この単純化は残流の利点の多くを保ちながら、計算時間とメモリの要求を劇的に減らし、フローベースのモデリングアプローチをはるかにトラクタブルにし、潜在的な適用可能性を広げる。

Normalizing Flows are a powerful technique for learning and modeling probability distributions given samples from those distributions. The current state of the art results are built upon residual flows as these can model a larger hypothesis space than coupling layers. However, residual flows are extremely computationally expensive both to train and to use, which limits their applicability in practice. In this paper, we introduce a simplification to residual flows using a Quasi-Autoregressive (QuAR) approach. Compared to the standard residual flow approach, this simplification retains many of the benefits of residual flows while dramatically reducing the compute time and memory requirements, thus making flow-based modeling approaches far more tractable and broadening their potential applicability.
翻訳日:2022-10-17 23:10:50 公開日:2020-09-16
# 教師なしシーケンス選択のためのトンプソンサンプリング

Thompson Sampling for Unsupervised Sequential Selection ( http://arxiv.org/abs/2009.07554v1 )

ライセンス: Link先を確認
Arun Verma, Manjesh K. Hanawal, Nandyala Hemachandra(参考訳) トンプソンサンプリングは、高信頼のバウンドベースアルゴリズムよりも優れた経験的性能のために大きな関心を集めている。 本稿では,教師なしシーケンス選択(USS)問題に対するトンプソンサンプリングに基づくアルゴリズムについて検討する。 USS問題は、観測されたフィードバックから腕の喪失を推測できない確率的マルチアームバンディット問題の変種である。 USSセットアップでは、アームは固定コストと関連付けられ、カスケードを形成する。 各ラウンドで、学習者は腕を選択し、選択した腕までの腕からのフィードバックを観察する。 学習者の目標は、期待される総損失を最小限に抑えるアームを見つけることである。 総損失は、アームの選択に要するコストと、選択されたアームに関連する確率的損失の合計である。 平均損失を知らずに、選択したアームの総損失を計算することができないため、問題は難しい。 明らかに、学習は最適な腕が問題構造から推測できる場合にのみ実現可能である。 先行研究で示されているように、問題インスタンスがいわゆる「弱支配」(wd)特性を満たすと学習が可能になる。 WDの下では,我々のトンプソンサンプリングに基づくUSS問題に対するアルゴリズムは,ほぼ最適に後悔し,既存のアルゴリズムよりも優れた数値性能を有することを示す。

Thompson Sampling has generated significant interest due to its better empirical performance than upper confidence bound based algorithms. In this paper, we study Thompson Sampling based algorithm for Unsupervised Sequential Selection (USS) problem. The USS problem is a variant of the stochastic multi-armed bandits problem, where the loss of an arm can not be inferred from the observed feedback. In the USS setup, arms are associated with fixed costs and are ordered, forming a cascade. In each round, the learner selects an arm and observes the feedback from arms up to the selected arm. The learner's goal is to find the arm that minimizes the expected total loss. The total loss is the sum of the cost incurred for selecting the arm and the stochastic loss associated with the selected arm. The problem is challenging because, without knowing the mean loss, one cannot compute the total loss for the selected arm. Clearly, learning is feasible only if the optimal arm can be inferred from the problem structure. As shown in the prior work, learning is possible when the problem instance satisfies the so-called `Weak Dominance' (WD) property. Under WD, we show that our Thompson Sampling based algorithm for the USS problem achieves near optimal regret and has better numerical performance than existing algorithms.
翻訳日:2022-10-17 23:10:00 公開日:2020-09-16
# 構造制約を考慮したカーネルベースL_2ブースティング

Kernel-based L_2-Boosting with Structure Constraints ( http://arxiv.org/abs/2009.07558v1 )

ライセンス: Link先を確認
Yao Wang, Xin Guo, Shao-Bo Lin(参考訳) 回帰のための効率的なカーネルメソッドの開発は、ここ10年で非常に人気がある。 本稿では、カーネルベースの弱い学習者に対する強化を利用して、カーネルベースの再スケール強化と呼ばれる新しい学習アルゴリズムを提案する。 提案したKReBooTは, 推定器の構造を制御し, スパース推定を行い, ほぼオーバーフィッティング耐性を有する。 我々はKReBooTのパワーを説明するために理論的解析と数値シミュレーションの両方を行う。 理論的には、KReBooTは非線形近似に対するほぼ最適な数値収束率を達成できる。 さらに,最近開発された積分演算子法とtalagrandの濃度不等式の変種を用いて,ブースティング型アルゴリズムの新記録であるkrebootに対して,高速な学習率を提供する。 数値的に, krebootの優れた一般化, 過フィッティング耐性, 構造制約の観点から, 有望な性能を示す一連のシミュレーションを行った。

Developing efficient kernel methods for regression is very popular in the past decade. In this paper, utilizing boosting on kernel-based weaker learners, we propose a novel kernel-based learning algorithm called kernel-based re-scaled boosting with truncation, dubbed as KReBooT. The proposed KReBooT benefits in controlling the structure of estimators and producing sparse estimate, and is near overfitting resistant. We conduct both theoretical analysis and numerical simulations to illustrate the power of KReBooT. Theoretically, we prove that KReBooT can achieve the almost optimal numerical convergence rate for nonlinear approximation. Furthermore, using the recently developed integral operator approach and a variant of Talagrand's concentration inequality, we provide fast learning rates for KReBooT, which is a new record of boosting-type algorithms. Numerically, we carry out a series of simulations to show the promising performance of KReBooT in terms of its good generalization, near over-fitting resistance and structure constraints.
翻訳日:2022-10-17 23:09:40 公開日:2020-09-16
# 特徴の新たな定義によるより良いモデル選択

Better Model Selection with a new Definition of Feature Importance ( http://arxiv.org/abs/2009.07708v1 )

ライセンス: Link先を確認
Fan Fang, Carmine Ventre, Lingbo Li, Leslie Kanthan, Fan Wu, Michail Basios(参考訳) 特徴の重要性は、各入力特徴がモデル予測にとってどれほど重要かを測定することである。 特徴工学、モデル選択、説明可能な人工知能(XAI)で広く使われている。 本稿では,モデル選択のための新しいツリーモデル説明手法を提案する。 提案する新しい概念は, 特徴量の変動係数(特徴量の予測への寄与の観点から測る)を利用して, 試料よりも重要度の分散を捉える。 広範な実験結果から,本手法は時間効率と精度の両面で,モデル選択における一般的なクロス検証法よりも優れた性能を示す。

Feature importance aims at measuring how crucial each input feature is for model prediction. It is widely used in feature engineering, model selection and explainable artificial intelligence (XAI). In this paper, we propose a new tree-model explanation approach for model selection. Our novel concept leverages the Coefficient of Variation of a feature weight (measured in terms of the contribution of the feature to the prediction) to capture the dispersion of importance over samples. Extensive experimental results show that our novel feature explanation performs better than general cross validation method in model selection both in terms of time efficiency and accuracy performance.
翻訳日:2022-10-17 23:09:07 公開日:2020-09-16
# 知識ベース上の関係リンクのための意味解析の活用

Leveraging Semantic Parsing for Relation Linking over Knowledge Bases ( http://arxiv.org/abs/2009.07726v1 )

ライセンス: Link先を確認
Nandana Mihindukulasooriya, Gaetano Rossiello, Pavan Kapanipathi, Ibrahim Abdelaziz, Srinivas Ravishankar, Mo Yu, Alfio Gliozzo, Salim Roukos and Alexander Gray(参考訳) 知識ベース質問応答システムは関係抽出とリンクモジュールに大きく依存する。 しかし、テキストから知識ベースへ関係を抽出・関連付ける作業は、自然言語の曖昧さとトレーニングデータの欠如という2つの主な課題に直面している。 これらの課題を克服するために,抽象的意味表現(AMR)と遠隔監視を用いた意味解析を利用した関係リンクフレームワークSlingを提案する。 Slingは複数の関係リンクアプローチを統合し、言語的手がかり、豊かな意味表現、知識ベースからの情報などの補完的な信号をキャプチャする。 QALD-7, QALD-9, LC-QuAD 1.0の3つのKBQAデータセットを用いた関係リンク実験により, 提案手法がすべてのベンチマークで最先端の性能を達成することを示す。

Knowledgebase question answering systems are heavily dependent on relation extraction and linking modules. However, the task of extracting and linking relations from text to knowledgebases faces two primary challenges; the ambiguity of natural language and lack of training data. To overcome these challenges, we present SLING, a relation linking framework which leverages semantic parsing using Abstract Meaning Representation (AMR) and distant supervision. SLING integrates multiple relation linking approaches that capture complementary signals such as linguistic cues, rich semantic representation, and information from the knowledgebase. The experiments on relation linking using three KBQA datasets; QALD-7, QALD-9, and LC-QuAD 1.0 demonstrate that the proposed approach achieves state-of-the-art performance on all benchmarks.
翻訳日:2022-10-17 23:02:13 公開日:2020-09-16
# マルチホップ回答型推論による複雑な質問

Asking Complex Questions with Multi-hop Answer-focused Reasoning ( http://arxiv.org/abs/2009.07402v1 )

ライセンス: Link先を確認
Xiyao Ma, Qile Zhu, Yanlin Zhou, Xiaolin Li, Dapeng Wu(参考訳) 近年,自然言語テキストから質問を求めることが注目され,適切な質問語を問うことで有望な結果を得たいくつかのスキームが提案されている。 しかし、最先端の手法のほとんどは、シングルホップ関係に関わる単純な質問に焦点をあてている。 本稿では、文書の集合と対応する回答1を与えられた複数のエンティティとその意味関係を発見しモデル化することにより、複雑かつ意味的に関連する質問を問う、マルチホップ質問生成と呼ばれる新しいタスクを提案する。 そこで本研究では,接地された回答中心のエンティティグラフ上で,単語レベルの意味や文書レベルの意味論,それらの意味関係など,意味情報の粒度レベルが異なるマルチホップの回答中心の推論を提案する。 HOTPOTQAデータセットに関する広範な実験を通じて,提案モデルが今後の作業の動機付けのベースラインとなることの優位性と有効性を示す。

Asking questions from natural language text has attracted increasing attention recently, and several schemes have been proposed with promising results by asking the right question words and copy relevant words from the input to the question. However, most state-of-the-art methods focus on asking simple questions involving single-hop relations. In this paper, we propose a new task called multihop question generation that asks complex and semantically relevant questions by additionally discovering and modeling the multiple entities and their semantic relations given a collection of documents and the corresponding answer 1. To solve the problem, we propose multi-hop answer-focused reasoning on the grounded answer-centric entity graph to include different granularity levels of semantic information including the word-level and document-level semantics of the entities and their semantic relations. Through extensive experiments on the HOTPOTQA dataset, we demonstrate the superiority and effectiveness of our proposed model that serves as a baseline to motivate future work.
翻訳日:2022-10-17 23:01:36 公開日:2020-09-16
# 解釈は公平に評価されているか? ポストホック解釈のための定義駆動パイプライン

Are Interpretations Fairly Evaluated? A Definition Driven Pipeline for Post-Hoc Interpretability ( http://arxiv.org/abs/2009.07494v1 )

ライセンス: Link先を確認
Ninghao Liu, Yunsong Meng, Xia Hu, Tie Wang, Bo Long(参考訳) 近年,NLPモデルの透明性向上のために,解釈手法の開発が進んでいる。 一方、研究者たちは、得られた解釈がモデル予測の背後にあるメカニズムの説明に忠実かどうかという疑問にも答えようとしている。 特に (Jain and Wallace, 2019) では、注意の解釈と勾配の代替品を比較して「注意は説明できない」と提案している。 しかし、新たな疑問が浮かび上がっており、1つの解釈法を土台として安全に選択できるだろうか? もしそうでなければ、異なる解釈法を比較することができるだろうか? 本研究では,解釈の忠実性を評価するためには,解釈の具体的定義が不可欠であることを示す。 この定義は、解釈を得るためにアルゴリズムと、さらに重要なことに、評価に使用されるメトリクスの両方に影響する。 理論的および実験的な分析により、解釈法は特定の評価基準の下で異なる性能を示すが、そのような差は解釈の質や忠実さによって生じるものではなく、むしろ評価基準の固有のバイアスによって生じる。

Recent years have witnessed an increasing number of interpretation methods being developed for improving transparency of NLP models. Meanwhile, researchers also try to answer the question that whether the obtained interpretation is faithful in explaining mechanisms behind model prediction? Specifically, (Jain and Wallace, 2019) proposes that "attention is not explanation" by comparing attention interpretation with gradient alternatives. However, it raises a new question that can we safely pick one interpretation method as the ground-truth? If not, on what basis can we compare different interpretation methods? In this work, we propose that it is crucial to have a concrete definition of interpretation before we could evaluate faithfulness of an interpretation. The definition will affect both the algorithm to obtain interpretation and, more importantly, the metric used in evaluation. Through both theoretical and experimental analysis, we find that although interpretation methods perform differently under a certain evaluation metric, such a difference may not result from interpretation quality or faithfulness, but rather the inherent bias of the evaluation metric.
翻訳日:2022-10-17 23:01:19 公開日:2020-09-16
# 協調蒸留と核分解による顔のメイクアップ転移ネットワークの圧縮

Compressing Facial Makeup Transfer Networks by Collaborative Distillation and Kernel Decomposition ( http://arxiv.org/abs/2009.07604v1 )

ライセンス: Link先を確認
Bianjiang Yang, Zi Hui, Haoji Hu, Xinyi Hu, Lu Yu(参考訳) 顔のメイクアップ転送ネットワークは、知覚的にメイクアップ画像を生成することで高品質な性能を達成しているが、その能力はネットワークアーキテクチャの膨大な計算とストレージによって制限されている。 我々は,協調蒸留と核分解により顔のメイクアップ転送ネットワークを圧縮することでこの問題に対処した。 共同蒸留の主な考え方は、エンコーダとデコーダのペアが排他的な協調関係を構築することであり、これは低レベルの視覚タスクのための新しい種類の知識であると考えられている。 カーネルの分解には、畳み込みカーネルの深さワイド分離を適用し、元のネットワークから軽量畳み込みニューラルネットワーク(CNN)を構築する。 大規模な実験により,最先端の顔化粧ネットワーク -BeautyGAN に適用した場合の圧縮法の有効性が示された。

Although the facial makeup transfer network has achieved high-quality performance in generating perceptually pleasing makeup images, its capability is still restricted by the massive computation and storage of the network architecture. We address this issue by compressing facial makeup transfer networks with collaborative distillation and kernel decomposition. The main idea of collaborative distillation is underpinned by a finding that the encoder-decoder pairs construct an exclusive collaborative relationship, which is regarded as a new kind of knowledge for low-level vision tasks. For kernel decomposition, we apply the depth-wise separation of convolutional kernels to build a light-weighted Convolutional Neural Network (CNN) from the original network. Extensive experiments show the effectiveness of the compression method when applied to the state-of-the-art facial makeup transfer network -- BeautyGAN.
翻訳日:2022-10-17 23:00:23 公開日:2020-09-16
# トランスフォーマーを用いたマルチソースドメイン適応

Transformer Based Multi-Source Domain Adaptation ( http://arxiv.org/abs/2009.07806v1 )

ライセンス: Link先を確認
Dustin Wright and Isabelle Augenstein(参考訳) 実用的な機械学習環境では、モデルが予測しなければならないデータは、トレーニングされたデータとは異なる分布から生じることが多い。 本稿では、複数のソースドメインからラベル付きデータに基づいてモデルを訓練し、ラベル付きデータが見られないドメイン上で予測を行う、教師なしマルチソースドメイン適応の問題について検討する。 CNNやRNNとの以前の研究は、複数のドメインエキスパート分類器の予測を組み合わせ、ドメイン非依存の表現空間を誘導するドメイン逆行訓練という、専門家の混合の利点を実証してきた。 そこで本研究では,この手法を大規模予習変圧器モデルに効果的に適用する方法について検討する。 ドメインの敵対的トレーニングは、これらのモデルの学習表現に影響を及ぼすが、性能にはほとんど影響を与えないことが判明し、大きなトランスフォーマーベースのモデルは、ドメイン間で既に比較的堅牢であることが示唆された。 さらに,専門家の混合は,注意に基づく新しい混合を含む複数の混合関数の変種を比較することにより,大幅な性能向上をもたらすことを示す。 最後に, 大規模事前学習されたトランスフォーマティブ・ドメイン・エキスパートの予測は非常に均質であり, それらの予測を混合する効果的な関数の習得が困難であることを示す。

In practical machine learning settings, the data on which a model must make predictions often come from a different distribution than the data it was trained on. Here, we investigate the problem of unsupervised multi-source domain adaptation, where a model is trained on labelled data from multiple source domains and must make predictions on a domain for which no labelled data has been seen. Prior work with CNNs and RNNs has demonstrated the benefit of mixture of experts, where the predictions of multiple domain expert classifiers are combined; as well as domain adversarial training, to induce a domain agnostic representation space. Inspired by this, we investigate how such methods can be effectively applied to large pretrained transformer models. We find that domain adversarial training has an effect on the learned representations of these models while having little effect on their performance, suggesting that large transformer-based models are already relatively robust across domains. Additionally, we show that mixture of experts leads to significant performance improvements by comparing several variants of mixing functions, including one novel mixture based on attention. Finally, we demonstrate that the predictions of large pretrained transformer based domain experts are highly homogenous, making it challenging to learn effective functions for mixing their predictions.
翻訳日:2022-10-17 22:53:54 公開日:2020-09-16
# 部分的バンディットと半バンド: ユーザからのフィードバックを最大限に活用する

Partial Bandit and Semi-Bandit: Making the Most Out of Scarce Users' Feedback ( http://arxiv.org/abs/2009.07518v1 )

ライセンス: Link先を確認
Alexandre Letard, Tassadit Amghar, Olivier Camp, Nicolas Gutowski(参考訳) 近年のMultial Multi-Armed Bandits (MAB) と Combinatorial Multi-Armed Bandits (COM-MAB) の研究は、グローバルな精度測定において良い結果を示している。 これは、レコメンダシステムの場合、パーソナライゼーションによって実現できます。 しかし、組合せオンライン学習アプローチでは、パーソナライゼーションは大量のユーザフィードバックを意味する。 このようなフィードバックは、ユーザが直接頻繁に要求される必要がある場合、取得が困難になる可能性がある。 ビジネスのデジタル化を行う多くの活動分野において、オンライン学習は避けられない。 このように、暗黙的なユーザフィードバックを検索できるアプローチがいくつか実装されている。 それにもかかわらず、この暗黙のフィードバックはエージェントの学習において誤解を招くか非効率である。 本稿では, Combinatorial Multi Armed Bandit (COM-MAB) アルゴリズムが必要とする明示的なフィードバック数を削減し,グローバルな精度と学習効率を従来の競合手法と同等に向上させる手法を提案する。 本稿では,ユーザフィードバックを考察し,三つの戦略を用いて評価する新しい手法を提案する。 ユーザからのフィードバックが制限されているにも関わらず(全体の20%以下)、我々の手法は最先端のアプローチと同じような結果が得られる。

Recent works on Multi-Armed Bandits (MAB) and Combinatorial Multi-Armed Bandits (COM-MAB) show good results on a global accuracy metric. This can be achieved, in the case of recommender systems, with personalization. However, with a combinatorial online learning approach, personalization implies a large amount of user feedbacks. Such feedbacks can be hard to acquire when users need to be directly and frequently solicited. For a number of fields of activities undergoing the digitization of their business, online learning is unavoidable. Thus, a number of approaches allowing implicit user feedback retrieval have been implemented. Nevertheless, this implicit feedback can be misleading or inefficient for the agent's learning. Herein, we propose a novel approach reducing the number of explicit feedbacks required by Combinatorial Multi Armed bandit (COM-MAB) algorithms while providing similar levels of global accuracy and learning efficiency to classical competitive methods. In this paper we present a novel approach for considering user feedback and evaluate it using three distinct strategies. Despite a limited number of feedbacks returned by users (as low as 20% of the total), our approach obtains similar results to those of state of the art approaches.
翻訳日:2022-10-17 22:53:15 公開日:2020-09-16
# Captum: PyTorch用の統一的で汎用的なモデル解釈可能性ライブラリ

Captum: A unified and generic model interpretability library for PyTorch ( http://arxiv.org/abs/2009.07896v1 )

ライセンス: Link先を確認
Narine Kokhlikyan, Vivek Miglani, Miguel Martin, Edward Wang, Bilal Alsallakh, Jonathan Reynolds, Alexander Melnikov, Natalia Kliushkina, Carlos Araya, Siqi Yan, Orion Reblitz-Richardson(参考訳) 本稿では,pytorch [12] 用の新しい統一的なオープンソースモデル解釈ライブラリを提案する。 このライブラリには、いくつかの勾配および摂動に基づく帰属アルゴリズム(機能、ニューロンおよび層重要アルゴリズムとしても知られている)の汎用実装と、これらのアルゴリズムの評価指標が含まれている。 ニューラルネットワーク(NN)上に構築されたグラフ構造化モデルを含む分類モデルと非分類モデルの両方に使用できる。 本稿では,サポート対象の属性アルゴリズムの高レベルな概要と,メモリ効率とスケーラブルな計算方法を示す。 このライブラリの主な特徴は、マルチモダリティ、拡張性、使いやすさである。 マルチモダリティは、画像、テキスト、オーディオ、ビデオなどの入力の異なるモダリティをサポートする。 拡張性により、新しいアルゴリズムと機能を追加できる。 ライブラリは理解と使用を容易にするように設計されている。 さらに,captumライブラリ上に構築されたcaptum insightsというインタラクティブなビジュアライゼーションツールも導入しています。

In this paper we introduce a novel, unified, open-source model interpretability library for PyTorch [12]. The library contains generic implementations of a number of gradient and perturbation-based attribution algorithms, also known as feature, neuron and layer importance algorithms, as well as a set of evaluation metrics for these algorithms. It can be used for both classification and non-classification models including graph-structured models built on Neural Networks (NN). In this paper we give a high-level overview of supported attribution algorithms and show how to perform memory-efficient and scalable computations. We emphasize that the three main characteristics of the library are multimodality, extensibility and ease of use. Multimodality supports different modality of inputs such as image, text, audio or video. Extensibility allows adding new algorithms and features. The library is also designed for easy understanding and use. Besides, we also introduce an interactive visualization tool called Captum Insights that is built on top of Captum library and allows sample-based model debugging and visualization using feature importance metrics.
翻訳日:2022-10-17 22:52:28 公開日:2020-09-16
# PANDA:配列情報を用いた変異によるタンパク質結合親和性の変化予測

PANDA: Predicting the change in proteins binding affinity upon mutations using sequence information ( http://arxiv.org/abs/2009.08869v1 )

ライセンス: Link先を確認
Wajid Arshad Abbasi, Syed Ali Abbas, Saiqa Andleeb(参考訳) 変異によるタンパク質結合親和性の変化を正確に決定することは、新しい治療法の発見と設計、および変異形成研究を支援するために重要である。 突然変異に対する結合親和性の変化を決定するには、複雑で高価で時間を要するウェットラブ実験が必要である。 計算予測技術の多くは、既知の構造を持つタンパク質複合体に適用性を制限するタンパク質構造を必要とする。 本研究では,変異によるタンパク質結合親和性の変化の配列に基づく予測について検討する。 我々は、タンパク質構造の代わりにタンパク質配列情報と機械学習技術を用いて、突然変異によるタンパク質結合親和性の変化を正確に予測した。 提案するパンダと呼ばれるタンパク質結合親和性予測装置の新規な配列変化は,外部の独立テストデータセットと同様に,既存の手法よりも精度が向上する。 提案手法は,Pearson の最大相関係数を 0.52 とし,その最大相関係数を 0.59 とする MutaBind という,最先端のタンパク質構造に基づく手法と比較した。 変異に対する結合親和性の変化を予測するために提案したタンパク質配列に基づく手法は,既存のタンパク質構造に基づく手法と比較して広い適用性と同等の性能を有する。 PANDAのクラウドベースのWebサーバ実装とそのpythonコードはhttps://sites.google.com/view/wajidarshad/softwareとhttps://github.com/wajidarshad/pandaで入手できる。

Accurately determining a change in protein binding affinity upon mutations is important for the discovery and design of novel therapeutics and to assist mutagenesis studies. Determination of change in binding affinity upon mutations requires sophisticated, expensive, and time-consuming wet-lab experiments that can be aided with computational methods. Most of the computational prediction techniques require protein structures that limit their applicability to protein complexes with known structures. In this work, we explore the sequence-based prediction of change in protein binding affinity upon mutation. We have used protein sequence information instead of protein structures along with machine learning techniques to accurately predict the change in protein binding affinity upon mutation. Our proposed sequence-based novel change in protein binding affinity predictor called PANDA gives better accuracy than existing methods over the same validation set as well as on an external independent test dataset. On an external test dataset, our proposed method gives a maximum Pearson correlation coefficient of 0.52 in comparison to the state-of-the-art existing protein structure-based method called MutaBind which gives a maximum Pearson correlation coefficient of 0.59. Our proposed protein sequence-based method, to predict a change in binding affinity upon mutations, has wide applicability and comparable performance in comparison to existing protein structure-based methods. A cloud-based webserver implementation of PANDA and its python code is available at https://sites.google.com/view/wajidarshad/software and https://github.com/wajidarshad/panda.
翻訳日:2022-10-17 22:52:14 公開日:2020-09-16
# m-arcsinh: scikit-learnにおけるsvmおよびmlpの効率的かつ信頼性の高い機能

m-arcsinh: An Efficient and Reliable Function for SVM and MLP in scikit-learn ( http://arxiv.org/abs/2009.07530v1 )

ライセンス: Link先を確認
Luca Parisi(参考訳) 本稿では,逆双曲型正弦関数 ('arcsinh') の修飾('m-')版である'm-arcsinh'について述べる。 カーネルとアクティベーション機能は、SVM(Support Vector Machine)やMLP(Multi-Layer Perceptron)といった機械学習(ML)ベースのアルゴリズムを、教師付き方法でデータから学習可能にする。 オープンソースのPythonライブラリ'scikit-learn'に実装されているm-arcsinhは、それぞれSVMとMLPの、効率的で信頼性の高いカーネルとアクティベーション関数として提示される。 シンキットラーンとUCI(University California Irvine)機械学習レポジトリから利用可能な15(N = 15)データセットの分類タスクにおける信頼性の向上と収束速度について論じる。 実験の結果,SVMとMLPの総合的な競合分類性能が,提案関数を用いて達成された。 この関数はゴールド標準カーネルやアクティベーション関数と比較され、関連する分類タスクの複雑さに関わらず、全体的な競合信頼性を示す。

This paper describes the 'm-arcsinh', a modified ('m-') version of the inverse hyperbolic sine function ('arcsinh'). Kernel and activation functions enable Machine Learning (ML)-based algorithms, such as Support Vector Machine (SVM) and Multi-Layer Perceptron (MLP), to learn from data in a supervised manner. m-arcsinh, implemented in the open source Python library 'scikit-learn', is hereby presented as an efficient and reliable kernel and activation function for SVM and MLP respectively. Improvements in reliability and speed to convergence in classification tasks on fifteen (N = 15) datasets available from scikit-learn and the University California Irvine (UCI) Machine Learning repository are discussed. Experimental results demonstrate the overall competitive classification performance of both SVM and MLP, achieved via the proposed function. This function is compared to gold standard kernel and activation functions, demonstrating its overall competitive reliability regardless of the complexity of the classification tasks involved.
翻訳日:2022-10-17 22:51:51 公開日:2020-09-16
# Tag and correct: 2段階復号によるオープン情報抽出に関する質問

Tag and Correct: Question aware Open Information Extraction with Two-stage Decoding ( http://arxiv.org/abs/2009.07406v1 )

ライセンス: Link先を確認
Martin Kuo, Yaobo Liang, Lei Ji, Nan Duan, Linjun Shou, Ming Gong, Peng Chen(参考訳) 質問認識オープン情報抽出(質問認識オープンie)は、質問と回答を入力として、主語と述語と1つ以上の引数を含む回答タプルを出力する。 各答えのフィールドは自然言語の単語シーケンスであり、そのパスから抽出される。 半構造化された答えには2つの利点がある。 この問題を解決する方法は2つある。 一つは、Open IEモデルによるパスから候補回答を抽出し、質問にマッチしてランク付けする抽出方法である。 抽出ステップで通路情報を完全に使用するが、抽出は質問とは独立している。 もうひとつは、シーケンスからシーケンスモデルを使用して直接回答を生成するジェネレーティブメソッドである。 問合せと問合せを同時に入力として組み合わせるが、解答をゼロから生成するので、解答の大部分が文中に出てくるという事実は使用しない。 そこで,提案手法では,タグ付きデコーダと補正型デコーダを含む2段階のデコーダモデルを提案する。 最初の段階では、タグ付けデコーダがパスからキーワードをタグ付けする。 第2段階では、補正デコーダがタグ付きキーワードに基づいて回答を生成する。 我々のモデルは2段階あるが、エンドツーエンドで訓練することができる。 従来の生成モデルと比較して,粗さを微妙に生成することで,より良い解が得られる。 私たちは、オープンieデータセットを意識した質問であるwebassertions(yan et al., 2018)のモデルを評価します。 本モデルは,従来の生成法よりも優れたBLEUスコア59.32を達成する。

Question Aware Open Information Extraction (Question aware Open IE) takes question and passage as inputs, outputting an answer tuple which contains a subject, a predicate, and one or more arguments. Each field of answer is a natural language word sequence and is extracted from the passage. The semi-structured answer has two advantages which are more readable and falsifiable compared to span answer. There are two approaches to solve this problem. One is an extractive method which extracts candidate answers from the passage with the Open IE model, and ranks them by matching with questions. It fully uses the passage information at the extraction step, but the extraction is independent to the question. The other one is the generative method which uses a sequence to sequence model to generate answers directly. It combines the question and passage as input at the same time, but it generates the answer from scratch, which does not use the facts that most of the answer words come from in the passage. To guide the generation by passage, we present a two-stage decoding model which contains a tagging decoder and a correction decoder. At the first stage, the tagging decoder will tag keywords from the passage. At the second stage, the correction decoder will generate answers based on tagged keywords. Our model could be trained end-to-end although it has two stages. Compared to previous generative models, we generate better answers by generating coarse to fine. We evaluate our model on WebAssertions (Yan et al., 2018) which is a Question aware Open IE dataset. Our model achieves a BLEU score of 59.32, which is better than previous generative methods.
翻訳日:2022-10-17 22:51:29 公開日:2020-09-16
# SemEval-2020 Task 11: Ensemble Architecture for Fine-Tuned Propaganda Detection in News Articles

Solomon at SemEval-2020 Task 11: Ensemble Architecture for Fine-Tuned Propaganda Detection in News Articles ( http://arxiv.org/abs/2009.07473v1 )

ライセンス: Link先を確認
Mayank Raj, Ajay Jaiswal, Rohit R.R, Ankita Gupta, Sudeep Kumar Sahoo, Vertika Srivastava, Yeon Hyang Kim(参考訳) 本稿では,SemEval 2020 Task 11"Propaganda Techniques in News Articles"\cite{DaSanMartinoSemeval20task11} に参加する際のシステム(ソロモン)の詳細と結果について述べる。 我々は,多クラス分類タスクであるタスク"技術分類"(TC)に参加した。 TCタスクに対処するために、プロパガンダデータセットの微調整にRoBERTaベースのトランスフォーマーアーキテクチャを使用しました。 RoBERTaの予測はクラス依存マイノリティクラス分類器によってさらに微調整された。 動的に適応したLast Common Sub-Sequenceアルゴリズムを利用する特殊分類器は、繰り返しクラスの複雑度に適応するために使用される。 他の参加システムと比較して、私たちの応募はリーダーボードで4位です。

This paper describes our system (Solomon) details and results of participation in the SemEval 2020 Task 11 "Detection of Propaganda Techniques in News Articles"\cite{DaSanMartinoSemeval20task11}. We participated in Task "Technique Classification" (TC) which is a multi-class classification task. To address the TC task, we used RoBERTa based transformer architecture for fine-tuning on the propaganda dataset. The predictions of RoBERTa were further fine-tuned by class-dependent-minority-class classifiers. A special classifier, which employs dynamically adapted Least Common Sub-sequence algorithm, is used to adapt to the intricacies of repetition class. Compared to the other participating systems, our submission is ranked 4th on the leaderboard.
翻訳日:2022-10-17 22:51:06 公開日:2020-09-16
# SciBERTを用いたオープンリサーチ知識グラフにおけるバイオアッセイのセマンティフィケーション

SciBERT-based Semantification of Bioassays in the Open Research Knowledge Graph ( http://arxiv.org/abs/2009.08801v1 )

ライセンス: Link先を確認
Marco Anteghini, Jennifer D'Souza, Vitor A. P. Martins dos Santos, S\"oren Auer(参考訳) 本稿では,生物アッセイの分離問題への新たな貢献として,構造的,非構造的なバイオアッセイテキスト記述を自動的に分離するニューラルネットワークに基づくアプローチを提案する。 この結果から, ニューラルベースセマンティフィケーションによるセマンティフィケーションは, 有意な周波数ベースのベースラインアプローチよりも優れていることを示す。 具体的には、周波数ベース法からF1が72%、F1が47%に達する。

As a novel contribution to the problem of semantifying biological assays, in this paper, we propose a neural-network-based approach to automatically semantify, thereby structure, unstructured bioassay text descriptions. Experimental evaluations, to this end, show promise as the neural-based semantification significantly outperforms a naive frequency-based baseline approach. Specifically, the neural method attains 72% F1 versus 47% F1 from the frequency-based method.
翻訳日:2022-10-17 22:44:52 公開日:2020-09-16
# 決定境界の複雑度に基づくディープニューラルネットワークの一般化可能性の解析

Analysis of Generalizability of Deep Neural Networks Based on the Complexity of Decision Boundary ( http://arxiv.org/abs/2009.07974v1 )

ライセンス: Link先を確認
Shuyue Guan, Murray Loew(参考訳) 教師あり学習モデルでは,一般化能力(一般化可能性)の分析が不可欠である。 VC次元のような従来の一般化法はディープニューラルネットワーク(DNN)モデルには適用されない。 したがって、DNNの一般化可能性を説明する新しい理論が必要である。 本研究では,より単純な決定境界を持つDNNがパシモニー法則(Occam's Razor)によりより一般化可能であることを仮定する。 決定境界複雑性(DBC)スコアを作成し、DNNの意思決定境界の複雑さを定義し測定する。 DBCスコアの考え方は、決定境界の前後でデータポイント(逆例と呼ばれる)を生成することである。 我々の新しいアプローチは、これらのデータの固有値のエントロピーを用いて境界の複雑さを測定する。 この方法は高次元データに対しても等しく機能する。 dbcスコアの計算にはトレーニングデータとトレーニングモデルを使用します。 そして、モデルの一般化可能性の基本的な真実は、そのテスト精度である。 dbcスコアに基づく実験が本仮説を検証した。 DBCは決定境界の複雑さを測定する効果的な方法を提供し、DNNの一般化可能性の定量的尺度を提供する。

For supervised learning models, the analysis of generalization ability (generalizability) is vital because the generalizability expresses how well a model will perform on unseen data. Traditional generalization methods, such as the VC dimension, do not apply to deep neural network (DNN) models. Thus, new theories to explain the generalizability of DNNs are required. In this study, we hypothesize that the DNN with a simpler decision boundary has better generalizability by the law of parsimony (Occam's Razor). We create the decision boundary complexity (DBC) score to define and measure the complexity of decision boundary of DNNs. The idea of the DBC score is to generate data points (called adversarial examples) on or near the decision boundary. Our new approach then measures the complexity of the boundary using the entropy of eigenvalues of these data. The method works equally well for high-dimensional data. We use training data and the trained model to compute the DBC score. And, the ground truth for model's generalizability is its test accuracy. Experiments based on the DBC score have verified our hypothesis. The DBC is shown to provide an effective method to measure the complexity of a decision boundary and gives a quantitative measure of the generalizability of DNNs.
翻訳日:2022-10-17 22:44:43 公開日:2020-09-16
# 分類アルゴリズムを推薦する自動機械学習手法の広範な実験的検討(拡張版)

An Extensive Experimental Evaluation of Automated Machine Learning Methods for Recommending Classification Algorithms (Extended Version) ( http://arxiv.org/abs/2009.07430v1 )

ライセンス: Link先を確認
M\'arcio P. Basgalupp, Rodrigo C. Barros, Alex G. C. de S\'a, Gisele L. Pappa, Rafael G. Mantovani, Andr\'e C. P. L. F. de Carvalho, Alex A. Freitas(参考訳) 本稿では、与えられた入力データセットに対して最適な分類アルゴリズムを推奨する4つのAutomated Machine Learning(AutoML)手法の実験的比較を示す。 これら3つの手法は進化的アルゴリズム(eas)に基づいており、もう1つはアルゴリズム選択とハイパーパラメータ最適化(cash)アプローチを組み合わせた、よく知られたautomlメソッドであるauto-wekaである。 EAベースの手法は、決定木誘導、ルール誘導、ベイズネットワーク分類という、単一の機械学習パラダイムから分類アルゴリズムを構築する。 Auto-WEKAはアルゴリズム選択とハイパーパラメータ最適化を組み合わせて、複数のパラダイムからの分類アルゴリズムを推奨する。 我々は,これらの4つのAutoMLメソッドに,この制限の異なる値に対して,同じランタイム制限を付与する制御実験を行った。 一般に,3つの最良のAutoML手法の予測精度の差は統計的に有意ではなかった。 しかし、EAの進化する決定ツリー帰納アルゴリズムは、Auto-WEKAによって推奨される他の学習パラダイムの多くのアルゴリズムと比較して、解釈可能な分類モデルを生成し、大規模なデータセットに対してよりスケーラブルなアルゴリズムを作成するという利点がある。 また,auto-wekaは,ベース学習レベルではなく,メタ学習レベルでのオーバーフィットの形式であるメタオーバーフィッティングを示した。

This paper presents an experimental comparison among four Automated Machine Learning (AutoML) methods for recommending the best classification algorithm for a given input dataset. Three of these methods are based on Evolutionary Algorithms (EAs), and the other is Auto-WEKA, a well-known AutoML method based on the Combined Algorithm Selection and Hyper-parameter optimisation (CASH) approach. The EA-based methods build classification algorithms from a single machine learning paradigm: either decision-tree induction, rule induction, or Bayesian network classification. Auto-WEKA combines algorithm selection and hyper-parameter optimisation to recommend classification algorithms from multiple paradigms. We performed controlled experiments where these four AutoML methods were given the same runtime limit for different values of this limit. In general, the difference in predictive accuracy of the three best AutoML methods was not statistically significant. However, the EA evolving decision-tree induction algorithms has the advantage of producing algorithms that generate interpretable classification models and that are more scalable to large datasets, by comparison with many algorithms from other learning paradigms that can be recommended by Auto-WEKA. We also observed that Auto-WEKA has shown meta-overfitting, a form of overfitting at the meta-learning level, rather than at the base-learning level.
翻訳日:2022-10-17 22:44:26 公開日:2020-09-16
# 知覚時間キューを用いた教師なしマルチモーダルメタラーニング

Using Sensory Time-cue to enable Unsupervised Multimodal Meta-learning ( http://arxiv.org/abs/2009.07879v1 )

ライセンス: Link先を確認
Qiong Liu, Yanxia Zhang(参考訳) IoT(Internet of Things)センサーからのデータがユビキタスになると、最先端の機械学習アルゴリズムは、センサデータを直接使用する上で多くの課題に直面します。 これらの課題を克服するには、手動のアノテーションなしでセンサーから直接学習するように設計する必要がある。 本稿では,教師なしメタラーニング(STUM)のための感覚タイムキューを提案する。 ガウス分布の特徴など、ラベルや時間に依存しない特徴抽出の仮定に大きく依存する従来の学習手法とは異なり、STUMシステムは入力の時間関係を利用して特徴空間の形成をモダリティ内およびモダリティ間で導く。 STUMが様々な小さなタスクから学習しているという事実は、メタラーニングのキャンプにこの方法を置くかもしれない。 既存のMeta-Learningアプローチとは異なり、STUM学習タスクはIoTストリーミングデータと共存するタイムキューに基づいて、複数のモード内で構成される。 聴覚学習の例では、連続した視覚的フレームが通常同じオブジェクトで構成されているため、このアプローチは同一オブジェクトから特徴をまとめるユニークな方法を提供する。 同じ方法では、オブジェクトにほぼ同時に音声名が表示される場合、オブジェクトの音声名の特徴を伴う視覚的オブジェクトの特徴をまとめることもできる。 このクロスモダリティ機能組織は、類似のオブジェクトに属するが、異なる位置と時間で取得される視覚的特徴の組織化をさらに助けるかもしれない。 結果は評価によって達成される。

As data from IoT (Internet of Things) sensors become ubiquitous, state-of-the-art machine learning algorithms face many challenges on directly using sensor data. To overcome these challenges, methods must be designed to learn directly from sensors without manual annotations. This paper introduces Sensory Time-cue for Unsupervised Meta-learning (STUM). Different from traditional learning approaches that either heavily depend on labels or on time-independent feature extraction assumptions, such as Gaussian distribution features, the STUM system uses time relation of inputs to guide the feature space formation within and across modalities. The fact that STUM learns from a variety of small tasks may put this method in the camp of Meta-Learning. Different from existing Meta-Learning approaches, STUM learning tasks are composed within and across multiple modalities based on time-cue co-exist with the IoT streaming data. In an audiovisual learning example, because consecutive visual frames usually comprise the same object, this approach provides a unique way to organize features from the same object together. The same method can also organize visual object features with the object's spoken-name features together if the spoken name is presented with the object at about the same time. This cross-modality feature organization may further help the organization of visual features that belong to similar objects but acquired at different location and time. Promising results are achieved through evaluations.
翻訳日:2022-10-17 22:43:44 公開日:2020-09-16