このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20210114となっている論文です。

PDF登録状況(公開日: 20210114)

TitleAuthorsAbstract論文公表日・翻訳日
# 量子鍵分布におけるベルchsh違反と局所フィルタリングの役割

Role of Bell-CHSH violation and local filtering in quantum key distribution ( http://arxiv.org/abs/2002.12080v2 )

ライセンス: Link先を確認
Jaskaran Singh, Sibasish Ghosh, Arvind, Sandeep K. Goyal(参考訳) 本稿では,ベル違反とエンタングルメント支援量子鍵分散(qkd)プロトコルのセキュア鍵レートとの関係について解析する。 具体的には,ベル違反が必要か,あるいはセキュアな通信に十分かという疑問に対処する。 しかし,ベル違反を示さない状態のクラスを構築し,局所フィルタリング後のセキュアな通信に使用できる。 同様に、ベル違反を示すが、局所フィルタリング後にもセキュアな鍵を生成するために使用できない別の種類の状態を特定する。 これら2種類の状態の存在は、ベルが初期資源として違反する必要がなく、QKDに十分でないことを示している。 我々の研究は、ベル違反の程度が量子通信の重要な資源であり、局所的なフィルタリングの役割をもたらすという従来の考え方から逸脱する。

In this article, we analyse the relationship between the Bell violation and the secure key rate of entanglement assisted quantum key distribution (QKD) protocols. Specifically, we address the question whether Bell violation is necessary or sufficient for secure communication. We construct a class of states which do not show Bell violation, however, which can be used for secure communication after local filtering. Similarly, we identify another class of states which show Bell violation but can not be used for generating secure key even after local filtering. The existence of these two classes of states demonstrates that Bell violation as an initial resource is neither necessary nor sufficient for QKD. Our work therefore forces a departure from traditional thinking that the degree of Bell violation is a key resource for quantum communication and brings out the role of local filtering.
翻訳日:2023-06-01 12:36:47 公開日:2021-01-14
# 公理的原理に基づく自律チクシング時計

Autonomous Ticking Clocks from Axiomatic Principles ( http://arxiv.org/abs/2005.04628v3 )

ライセンス: Link先を確認
Mischa P. Woods(参考訳) 時間保存デバイスにはさまざまな種類がある。 ほぼ一定間隔で - 単に "tick" と呼ぶものを記述するために,Ticking clockというフレーズを使用します。 クロックをチクシングするために様々な重要な結果が導出され、さらに多くの結果がパイプライン内にある。 したがって、これらの結果の基盤となるモデルを理解することが重要である。 本研究の目的は,以前のモデルにおける仮定の物理性に関するコミュニティの懸念を克服する,公理的原理に基づく新しい時計モデルの導入である。 aXiv:1806.00491] のタイピングクロックモデルは高い精度を達成するが、[10.1103/PhysRevX.7.031022] の精度の低いモデルの自律性には欠ける。 ここで紹介するモデルは、[10.1103/PhysRevX.7.031022]の自律性を保ちながら、[arXiv:1806.00491]の高精度を実現しています。 さらに[10.1103/PhysRevX.7.031022]は、新しいタイピングクロックモデルの特別なケースであることが判明した。

There are many different types of time keeping devices. We use the phrase ticking clock to describe those which -- simply put -- "tick" at approximately regular intervals. Various important results have been derived for ticking clocks, and more are in the pipeline. It is thus important to understand the underlying models on which these results are founded. The aim of this paper is to introduce a new ticking clock model from axiomatic principles that overcomes concerns in the community about the physicality of the assumptions made in previous models. The ticking clock model in [arXiv:1806.00491] achieves high accuracy, yet lacks the autonomy of the less accurate model in [10.1103/PhysRevX.7.031022]. Importantly, the model we introduce here achieves the best of both models: it retains the autonomy of [10.1103/PhysRevX.7.031022] while allowing for the high accuracies of [arXiv:1806.00491]. What is more, [10.1103/PhysRevX.7.031022] is revealed to be a special case of the new ticking clock model.
翻訳日:2023-05-20 16:15:38 公開日:2021-01-14
# 量子誤差緩和のためのディジタルゼロノイズ補間

Digital zero noise extrapolation for quantum error mitigation ( http://arxiv.org/abs/2005.10921v2 )

ライセンス: Link先を確認
Tudor Giurgica-Tiron, Yousef Hindy, Ryan LaRose, Andrea Mari, and William J. Zeng(参考訳) ゼロノイズ外挿 (zero-noise extrapolation, zne) は、ノイズ量子計算において、追加の量子リソースを使わずにエラーを緩和する手法である。 本稿では、ZNEの基礎を概観し、この技術における2つの重要な要素であるノイズスケーリングと外挿に関するいくつかの改善を提案する。 単体折り畳みとパラメータ化ノイズスケーリングを導入する。 これらはデジタルノイズスケーリングフレームワークであり、ほとんどの量子命令セットに共通するゲートレベルアクセスのみを使用してそれらを適用できる。 また,統計推論フレームワークを用いた新しい適応プロトコルなど,異なる外挿法についても検討した。 提案手法のベンチマークでは、非緩和回路上での18Xから24Xの誤差低減を示し、従来よりも大きな量子ビット数でのZNEの有効性を示した。 この研究は、新しい結果の提示に加えて、量子プログラマによるZNEの実践的利用の自己完結した紹介である。

Zero-noise extrapolation (ZNE) is an increasingly popular technique for mitigating errors in noisy quantum computations without using additional quantum resources. We review the fundamentals of ZNE and propose several improvements to noise scaling and extrapolation, the two key components in the technique. We introduce unitary folding and parameterized noise scaling. These are digital noise scaling frameworks, i.e. one can apply them using only gate-level access common to most quantum instruction sets. We also study different extrapolation methods, including a new adaptive protocol that uses a statistical inference framework. Benchmarks of our techniques show error reductions of 18X to 24X over non-mitigated circuits and demonstrate ZNE effectiveness at larger qubit numbers than have been tested previously. In addition to presenting new results, this work is a self-contained introduction to the practical use of ZNE by quantum programmers.
翻訳日:2023-05-19 03:30:02 公開日:2021-01-14
# ナノフォトニック導波路における単一量子ドットからの数光子非線形散乱行列の実験的再構成

Experimental reconstruction of the few-photon nonlinear scattering matrix from a single quantum dot in a nanophotonic waveguide ( http://arxiv.org/abs/2006.00258v2 )

ライセンス: Link先を確認
Hanna Le Jeannic, Tom\'as Ramos, Signe F. Simonsen, Tommaso Pregnolato, Zhe Liu, R\"udiger Schott, Andreas D. Wieck, Arne Ludwig, Nir Rotenberg, Juan Jos\'e Garc\'ia-Ripoll, Peter Lodahl(参考訳) コヒーレント光子-エミッタ界面は、量子情報処理に必要な効率的な非線形光子-光子相互作用を媒介する方法を提供する。 ここでは、ナノフォトニック導波路の単一光モードと結合した2レベルエミッタ量子ドットのケースを実験的に検討する。 少数の光子輸送実験を行い、光の統計を記録し、1-および2-光子成分の散乱行列要素を再構成する。 これはリッチ多体物理学を含む複雑な非線形光子相互作用の直接的な洞察を与える。

Coherent photon-emitter interfaces offer a way to mediate efficient nonlinear photon-photon interactions, much needed for quantum information processing. Here we experimentally study the case of a two-level emitter, a quantum dot, coupled to a single optical mode in a nanophotonic waveguide. We carry out few-photon transport experiments and record the statistics of the light to reconstruct the scattering matrix elements of 1- and 2-photon components. This provides direct insight to the complex nonlinear photon interaction that contains rich many-body physics.
翻訳日:2023-05-17 22:47:50 公開日:2021-01-14
# 精密ホログラフィを目指して

Towards precision holography ( http://arxiv.org/abs/2007.00010v2 )

ライセンス: Link先を確認
Niko Jokela and Arttu P\"onni(参考訳) 古典的な双対バルク重力記述を持つような強結合ゲージ場理論の最小限の要件は、原理上、時空の漸近に符号化されたような全幾何学を回復できるべきであることである。 この要件でさえ、境界データが本質的にノイズの多いため、任意の精度で達成できない。 本稿では,自然に騒音の存在を処理し,絡み合いエントロピー測定からバルク再構成への統計的アプローチを提案する。 それゆえ,本手法は精密ホログラフィのための新しいゲートウェイを開く。

A minimal requirement for any strongly coupled gauge field theory to have a classical dual bulk gravity description is that one should in principle be able to recover the full geometry as encoded on the asymptotics of the spacetime. Even this requirement cannot be fulfilled with arbitrary precision simply due to the fact that the boundary data is inherently noisy. We present a statistical approach to bulk reconstruction from entanglement entropy measurements, which handles the presence of noise in a natural way. Our approach therefore opens up a novel gateway for precision holography.
翻訳日:2023-05-12 01:05:35 公開日:2021-01-14
# 電場による中性粒子のねじれ

Twisting Neutral Particles with Electric Fields ( http://arxiv.org/abs/2007.03345v3 )

ライセンス: Link先を確認
Niels Geerits and Stephan Sponar(参考訳) スピン軌道結合状態は、中性スピン1/2粒子が電場を移動するときに生じることを示す。 軌道角運動量の量子化軸は電場と平行なので、縦および横の軌道角運動量を生成することができる。 さらに,粒子の全角運動量は保存されていることを示す。 最後に、横効果を測定するための中性子光学実験を提案する。

We demonstrate that spin-orbit coupled states are generated in neutral magnetic spin 1/2 particles travelling through an electric field. The quantization axis of the orbital angular momentum is parallel to the electric field, hence both longitudinal and transverse orbital angular momentum can be created. Furthermore we show that the total angular momentum of the particle is conserved. Finally we propose a neutron optical experiment to measure the transverse effect.
翻訳日:2023-05-11 01:59:26 公開日:2021-01-14
# 凸最適化による量子発散の定義

Defining quantum divergences via convex optimization ( http://arxiv.org/abs/2007.12576v2 )

ライセンス: Link先を確認
Hamza Fawzi and Omar Fawzi(参考訳) 我々は、凸最適化プログラムで定義された$\alpha \in (1,\infty)$に対して、新しい量子r\'enyi divergence $d^{\#}_{\alpha}$を導入する。 この発散は、状態とチャネルの効率的な半定値プログラミング表現や連鎖規則特性など、いくつかの望ましい計算および演算特性を持つ。 この新たな発散の重要な性質は、その正則化がサンドイッチ化された(最小の)量子R'enyi発散と等しいことである。 これにより、いくつかの結果が証明できます。 まず、正規化された$\alpha$-R'enyi の量子チャネル間の分岐を$\alpha > 1$ とすることで、上界の収束階層を得る。 第二に、サンドイッチ化された$\alpha$-R\enyi divergence for $\alpha > 1$ の連鎖則特性を証明し、チャンネル識別のための強い逆指数を特徴付けることができる。 最後に、量子チャネル容量のバウンダリを改善することができる。

We introduce a new quantum R\'enyi divergence $D^{\#}_{\alpha}$ for $\alpha \in (1,\infty)$ defined in terms of a convex optimization program. This divergence has several desirable computational and operational properties such as an efficient semidefinite programming representation for states and channels, and a chain rule property. An important property of this new divergence is that its regularization is equal to the sandwiched (also known as the minimal) quantum R\'enyi divergence. This allows us to prove several results. First, we use it to get a converging hierarchy of upper bounds on the regularized sandwiched $\alpha$-R\'enyi divergence between quantum channels for $\alpha > 1$. Second it allows us to prove a chain rule property for the sandwiched $\alpha$-R\'enyi divergence for $\alpha > 1$ which we use to characterize the strong converse exponent for channel discrimination. Finally it allows us to get improved bounds on quantum channel capacities.
翻訳日:2023-05-08 08:30:15 公開日:2021-01-14
# 非平衡グリーン関数(NEGF)法

The Non-Equilibrium Green Function (NEGF) Method ( http://arxiv.org/abs/2008.01275v2 )

ライセンス: Link先を確認
Kerem Y. Camsari, Shuvro Chowdhury and Supriyo Datta(参考訳) 非平衡グリーン関数 (negf) 法は1960年代にシュウィンガー、カダノフ、ベイム、ケルディッシュらによって、多体摂動理論(mbpt)と非平衡過程のダイアグラム理論を用いて確立された。 文献の多くはMBPTベースのアプローチに基づいているため、高度な量子統計力学に精通していない人にはアクセスできない。 We obtain the NEGF equations directly from a one-electron Schr\"odinger equation using relatively elementary arguments. These equations have been used to discuss many problems of great interest such as quantized conductance, (integer) quantum Hall effect, Anderson localization, resonant tunneling and spin transport without a systematic treatment of many-body effects. But it goes beyond purely coherent transport allowing us to include phase-breaking interactions (both momentum-relaxing and momentum-conserving as well as spin-conserving and spin-relaxing) within a self-consistent Born approximation. We believe that the scope and utility of the NEGF equations transcend the MBPT-based approach originally used to derive it. NEGF teaches us how to combine quantum dynamics with "contacts" much as Boltzmann taught us how to combine classical dynamics with "contacts", using the word contacts in a broad, figurative sense to denote all kinds of entropy-driven processes. We believe that this approach to "contact-ing" the Schr\"odinger equation should be of broad interest to anyone working on device physics or non-equilibrium statistical mechanics in general.

The Non-Equilibrium Green Function (NEGF) method was established in the 1960's through the classic work of Schwinger, Kadanoff, Baym, Keldysh and others using many-body perturbation theory (MBPT) and the diagrammatic theory for non-equilibrium processes. Much of the literature is based on the original MBPT-based approach and this makes it inaccessible to those unfamiliar with advanced quantum statistical mechanics. We obtain the NEGF equations directly from a one-electron Schr\"odinger equation using relatively elementary arguments. These equations have been used to discuss many problems of great interest such as quantized conductance, (integer) quantum Hall effect, Anderson localization, resonant tunneling and spin transport without a systematic treatment of many-body effects. But it goes beyond purely coherent transport allowing us to include phase-breaking interactions (both momentum-relaxing and momentum-conserving as well as spin-conserving and spin-relaxing) within a self-consistent Born approximation. We believe that the scope and utility of the NEGF equations transcend the MBPT-based approach originally used to derive it. NEGF teaches us how to combine quantum dynamics with "contacts" much as Boltzmann taught us how to combine classical dynamics with "contacts", using the word contacts in a broad, figurative sense to denote all kinds of entropy-driven processes. We believe that this approach to "contact-ing" the Schr\"odinger equation should be of broad interest to anyone working on device physics or non-equilibrium statistical mechanics in general.
翻訳日:2023-05-07 04:41:23 公開日:2021-01-14
# 超対称量子力学からの一般化otoc:相関関数の固有状態表現によるランダムゆらぎの研究

The Generalized OTOC from Supersymmetric Quantum Mechanics: Study of Random Fluctuations from Eigenstate Representation of Correlation Functions ( http://arxiv.org/abs/2008.03280v2 )

ライセンス: Link先を確認
Kaushik Y. Bhagat, Baibhab Bose, Sayantan Choudhury, Satyaki Chowdhury, Rathindra N. Das, Saptarshhi G. Dastider, Nitin Gupta, Archana Maji, Gabriel D. Pasquino, Swaraj Paul(参考訳) 時間外相関(OTOC)関数の概念は、量子統計力学の文脈においてカオス現象と非カオス現象の両方を研究することができる非常に強力な量子ランダム性の理論的プローブとして扱われる。 本稿では、量子ランダム性現象をよりよく捉えることができるOTOCの一般クラスを定義する。 さらに,超対称量子系に対する固有状態表現を十分に定義した一般時間独立ハミルトニアンを用いて計算の等価な形式性を示す。 完全な量子記述を持つためには、通常のものとは別に2つの新しい相関子を考える必要がある。 与えられた形式の影響を視覚化するために、よく知られた2つのモデルvizを考える。 超対称性の枠組みにおける高調波発振器と1次元ポテンシャル 調和振動子の場合、超対称性を持たない量子力学におけるマイクロカノニカルアンサンブルとカノニカルアンサンブルの両方の結果と比較すると、同様の周期時間依存が得られるが、異なるパラメータ依存が得られる。 一方, 1次元ポテンシャル井戸問題では, 非超対称性量子力学の結果と比較して, 時間スケールとパラメータ依存性が大きく異なることがわかった。 最後に、古典的極限における所定の形式主義の整合性を確立するために、上記のよく引用されたモデルとともにモデル独立ハミルトニアンから古典バージョンのOTOCsの位相空間平均化バージョンを示す。

The concept of out-of-time-ordered correlation (OTOC) function is treated as a very strong theoretical probe of quantum randomness, using which one can study both chaotic and non-chaotic phenomena in the context of quantum statistical mechanics. In this paper, we define a general class of OTOC, which can perfectly capture quantum randomness phenomena in a better way. Further we demonstrate an equivalent formalism of computation using a general time independent Hamiltonian having well defined eigenstate representation for integrable supersymmetric quantum systems. We found that one needs to consider two new correlators apart from the usual one to have a complete quantum description. To visualize the impact of the given formalism we consider the two well known models viz. Harmonic Oscillator and one dimensional potential well within the framework of supersymmetry. For the Harmonic Oscillator case we obtain similar periodic time dependence but dissimilar parameter dependences compared to the results obtained from both micro-canonical and canonical ensembles in quantum mechanics without supersymmetry. On the other hand, for one dimensional potential well problem we found significantly different time scale and the other parameter dependence compared to the results obtained from non-supersymmetric quantum mechanics. Finally, to establish the consistency of the prescribed formalism in the classical limit, we demonstrate the phase space averaged version of the classical version of OTOCs from a model independent Hamiltonian along with the previously mentioned these well cited models.
翻訳日:2023-05-06 23:50:37 公開日:2021-01-14
# 量子ラビモデルにおける断熱のショートカット:パラメトリック増幅による巨大密閉猫状態の効率的な生成

Shortcuts to Adiabaticity for the Quantum Rabi Model: Efficient Generation of Giant Entangled cat States via Parametric Amplification ( http://arxiv.org/abs/2008.04078v3 )

ライセンス: Link先を確認
Ye-Hong Chen, Wei Qin, Xin Wang, Adam Miranowicz, and Franco Nori(参考訳) 近距離-断熱(sta)ダイナミクスを用いた超強結合系におけるrabiモデルの非古典的基底状態の高速生成法を提案する。 時間依存量子ラビモデルは、jaynes-cummingsモデルにパラメトリック増幅を適用することでシミュレートされる。 実験的に実現可能なパラメトリックドライブを用いることで、このSTAプロトコルは、断熱プロトコルの10倍高速なプロセスによって、大規模なSchr\"{o}dinger cat stateを生成することができる。 このような急速な進化は、散逸に対する我々のプロトコルの堅牢性を高める。 本手法では,パラメトリックドライブを自由に設計できるので,実験室内でターゲット状態を生成することができる。 主に調整された光マッター結合は、実験における動作時間の不完全さに対してプロトコルを堅牢にする。

We propose a method for the fast generation of nonclassical ground states of the Rabi model in the ultrastrong and deep-strong coupling regimes via the shortcuts-to-adiabatic (STA) dynamics. The time-dependent quantum Rabi model is simulated by applying parametric amplification to the Jaynes-Cummings model. Using experimentally feasible parametric drive, this STA protocol can generate large-size Schr\"{o}dinger cat states, through a process that is 10 times faster compared to adiabatic protocols. Such fast evolution increases the robustness of our protocol against dissipation. Our method enables one to freely design the parametric drive, so that the target state can be generated in the lab frame. A largely detuned light-matter coupling makes the protocol robust against imperfections of the operation times in experiments.
翻訳日:2023-05-06 15:58:21 公開日:2021-01-14
# 重み付きz次グラフ上のハミルトン系、トダ格子、ソリトン、ラックス対

Hamiltonian systems, Toda lattices, Solitons, Lax Pairs on weighted Z-graded graphs ( http://arxiv.org/abs/2008.04897v2 )

ライセンス: Link先を確認
Gamal Mograby, Maxim Derevyagin, Gerald V. Dunne, Alexander Teplyaev(参考訳) 離散1次元非線形方程式を考察し、それらをZ階グラフに持ち上げる手順を示す。 グラフ上の解に対して1次元の解を持ち上げることができる条件を同定する。 特に、階数付きフラクタルグラフ上のソリトン {for static potentials} の存在を証明する。 また、位相的に興味深いグラフの簡単な例であっても、対応する非自明なラックス対と関連するユニタリ変換は、Z階グラフ上のラックス対に持ち上げないことを示す。

We consider discrete one dimensional nonlinear equations and present the procedure of lifting them to Z-graded graphs. We identify conditions which allow one to lift one dimensional solutions to solutions on graphs. In particular, we prove the existence of solitons {for static potentials} on graded fractal graphs. We also show that even for a simple example of a topologically interesting graph the corresponding non-trivial Lax pairs and associated unitary transformations do not lift to a Lax pair on the Z-graded graph.
翻訳日:2023-05-06 13:50:24 公開日:2021-01-14
# COVID-19パンデミック時の人的ニーズの集団規模調査 : 分析と意義

Population-Scale Study of Human Needs During the COVID-19 Pandemic: Analysis and Implications ( http://arxiv.org/abs/2008.07045v2 )

ライセンス: Link先を確認
Jina Suh, Eric Horvitz, Ryen W. White, Tim Althoff(参考訳) 新型コロナウイルスのパンデミックを緩和する取り組みの多くは、バイオメディシンと疫学に緊急に集中している。 しかし、パンデミック関連の政策決定は健康情報だけではできない。 意思決定は、人々とそのニーズに対する幅広い影響を考慮する必要がある。 人口全体における人間の要求の定量化は、高い時空間的粒度、人口全体の高い範囲、季節的およびその他の外部的影響の適切な調整を必要とするため、困難である。 本稿では,パンデミック後のニーズの相対的変化を,季節性や体積変動を補正する差分法を用いて総合的に捉えることができる,maslowのニーズ階層に基づく計算手法を提案する。 本研究では,アメリカにおける生理学,社会経済学,心理学領域における人的ニーズの変化を,14ヶ月間に36,000以上のZIPコードにまたがる35億以上の検索インタラクションに基づいて特徴付ける。 その結果,パンデミック前と比較して,高レベルの願望が減少する一方で,基本的人的ニーズの表現が指数関数的に増加したことが明らかとなった。 州全体の政策のタイミングとバリエーションを探究すると,避難所の指定期間が社会的・情緒的ニーズに大きく影響していることが分かる。 我々は、失業支援や家庭内暴力など、重要なニーズに対応するための潜在的な障壁が、Web検索のインタラクションを通じて特定できることを実証する。 本研究のアプローチと成果は,人的ニーズの変化の集団的モニタリングが,現在および期待されているニーズに対する政策や回復の取り組みを通知できることを示唆している。

Most work to date on mitigating the COVID-19 pandemic is focused urgently on biomedicine and epidemiology. Yet, pandemic-related policy decisions cannot be made on health information alone. Decisions need to consider the broader impacts on people and their needs. Quantifying human needs across the population is challenging as it requires high geo-temporal granularity, high coverage across the population, and appropriate adjustment for seasonal and other external effects. Here, we propose a computational methodology, building on Maslow's hierarchy of needs, that can capture a holistic view of relative changes in needs following the pandemic through a difference-in-differences approach that corrects for seasonality and volume variations. We apply this approach to characterize changes in human needs across physiological, socioeconomic, and psychological realms in the US, based on more than 35 billion search interactions spanning over 36,000 ZIP codes over a period of 14 months. The analyses reveal that the expression of basic human needs has increased exponentially while higher-level aspirations declined during the pandemic in comparison to the pre-pandemic period. In exploring the timing and variations in statewide policies, we find that the durations of shelter-in-place mandates have influenced social and emotional needs significantly. We demonstrate that potential barriers to addressing critical needs, such as support for unemployment and domestic violence, can be identified through web search interactions. Our approach and results suggest that population-scale monitoring of shifts in human needs can inform policies and recovery efforts for current and anticipated needs.
翻訳日:2023-05-06 01:17:37 公開日:2021-01-14
# 平均忠実度に基づく操舵基準

Averaged fidelity-based steering criteria ( http://arxiv.org/abs/2008.07407v3 )

ライセンス: Link先を確認
Xiaohua Wu, Bo You, and Tao Zhou(参考訳) 本研究では, ステアリングパラメータとして平均忠実度を導入する。 Alice から Bob へのステアリングの定義によれば、高次元システムに対して線形ステアリング基準を設計するための一般的なスキームが開発されている。 ボブ側で与えられた一連の測定値に対して、いわゆる非ステアリング閾値と呼ばれる2つの量を定義することができる。 測定された平均忠実度がこれらのしきい値を超えると、アリスとボブが共有する状態はアリスからボブに制御可能であり、アリスが行った測定も非互換であることが確かめられる。 一般スキーム内では、ボブによる測定の集合が連続的な設定を持つとき、線形ステアリングの不等式も構成する。 アプリケーションもいくつか用意されている。

In the present work, the averaged fidelity is introduced as the steering parameter. According to the definitions of steering from Alice to Bob, a general scheme for designing linear steering criteria is developed for a high-dimensional system. For a given set of measurements on Bob's side, two quantities, the so-called nonsteering thresholds, can be defined. If the measured averaged fidelity exceeds these thresholds, the state shared by Alice and Bob is steerable from Alice to Bob, and the measurements performed by Alice are also verified to be incompatible. Within the general scheme, we also construct a linear steering inequality when the set of measurements performed by Bob has a continuous setting. Some applications are also provided.
翻訳日:2023-05-06 01:09:36 公開日:2021-01-14
# 長いイオン弦を持つ量子コンピューティングのためのスケーラブルで並列なツイーザーゲート

Scalable and Parallel Tweezer Gates for Quantum Computing with Long Ion Strings ( http://arxiv.org/abs/2008.11389v2 )

ライセンス: Link先を確認
Tobias Olsacher, Lukas Postler, Philipp Schindler, Thomas Monz, Peter Zoller and Lukas M. Sieberer(参考訳) トラップイオン量子コンピュータは、約10量子ビットのレジスタにおける高性能ゲート演算を実証している。 しかし、長い1次元(1D)イオン弦による量子計算のスケールアップと並列化は、量子ビットと量子ビットのカップリングを媒介するイオンの運動モードのグローバルな性質のため、顕著な課題である。 本稿では,局所化フォノンモードを用いて,スケーラブルで並列な絡み合いゲートを実現する手法を考案する。 個々のイオンの局所ポテンシャルをプログラム可能な光トワイザーで調整することにより,そのような局所化モードを調整することを提案する。 量子ビットの小さな部分集合の局所化モードは、これらの部分集合に並列に絡み合うゲートを実行する基礎を形成する。 長い1次元イオン鎖および一様間隔のイオン鎖の無限鎖に対して解析的および数値的結果を示し,本手法の固有スケーラビリティを示す。 さらに,本手法を最適コヒーレント制御手法と組み合わせることで,最大密度の並列化量子回路を実現することができることを示す。

Trapped-ion quantum computers have demonstrated high-performance gate operations in registers of about ten qubits. However, scaling up and parallelizing quantum computations with long one-dimensional (1D) ion strings is an outstanding challenge due to the global nature of the motional modes of the ions which mediate qubit-qubit couplings. Here, we devise methods to implement scalable and parallel entangling gates by using engineered localized phonon modes. We propose to tailor such localized modes by tuning the local potential of individual ions with programmable optical tweezers. Localized modes of small subsets of qubits form the basis to perform entangling gates on these subsets in parallel. We demonstrate the inherent scalability of this approach by presenting analytical and numerical results for long 1D ion chains and even for infinite chains of uniformly spaced ions. Furthermore, we show that combining our methods with optimal coherent control techniques allows to realize maximally dense universal parallelized quantum circuits.
翻訳日:2023-05-04 21:57:32 公開日:2021-01-14
# 光浮揚センサを用いた新しい物理の探索

Searching for new physics using optically levitated sensors ( http://arxiv.org/abs/2008.13197v2 )

ライセンス: Link先を確認
David C. Moore, Andrew A. Geraci(参考訳) 本稿では,高真空下での光学浮揚質量の利用により,今後数年間に実現される粒子物理学の標準モデルを超えて,新しい物理学の様々な探索について述べる。 このようなシステムは、次の10年間で標準量子限界に近づく(そして最終的には超える)力と加速感度に達することが期待されている。 質量に結合する新しい力や現象のために、fg-ng範囲の質量を持つ物体を用いた高精度なセンシングは、新しい物理学において重要な発見可能性を持っている。 そのような応用には、基本力の法則の試験、物質の非中立性の探索、高周波重力波検出器、ダークマター探索、巨大な物体を用いた量子基礎の試験が含まれる。

We describe a variety of searches for new physics beyond the Standard Model of particle physics which may be enabled in the coming years by the use of optically levitated masses in high vacuum. Such systems are expected to reach force and acceleration sensitivities approaching (and possibly eventually exceeding) the standard quantum limit over the next decade. For new forces or phenomena that couple to mass, high precision sensing using objects with masses in the fg-ng range have significant discovery potential for new physics. Such applications include tests of fundamental force laws, searches for non-neutrality of matter, high-frequency gravitational wave detectors, dark matter searches, and tests of quantum foundations using massive objects.
翻訳日:2023-05-04 07:26:36 公開日:2021-01-14
# 慣性フレームドラッグングの量子検出

Quantum Detection of Inertial Frame Dragging ( http://arxiv.org/abs/2009.10584v3 )

ライセンス: Link先を確認
Wan Cong, Jiri Bicak, David Kubiznak and Robert B. Mann(参考訳) 一般相対性理論のような相対論的重力理論はニュートンの理論とは根本的に異なる現象を生み出す。 電磁誘導に類似した例として、重力磁性、あるいは質量エネルギー電流による慣性フレームの引きずりがある。 これらの効果は近年、古典的観測によって確認されている。 ここでは、量子検出器によって観測できることを初めて示す。 ゆっくり回転するシェルに置かれたunruh de-witt検出器の応答関数について検討した。 応答関数は, 殻内部の時空が平坦であり, 検出器が局所慣性であるにもかかわらず, 回転の存在を拾い上げることを示す。 検出器は、シェルが回転していないときの静的状況と、シェルが回転するときの定常状況と、慣性フレーム、すなわち重力磁気効果の引きずりとを区別することができる。 さらに、光信号がシェルやバックに移動できない有限の時間間隔で検出器をオンにすると、回転の存在を伝えることができる。

A relativistic theory of gravity like general relativity produces phenomena differing fundamentally from Newton's theory. An example, analogous to electromagnetic induction, is gravitomagnetism, or the dragging of inertial frames by mass-energy currents. These effects have recently been confirmed by classical observations. Here we show, for the first time, that they can be observed by a quantum detector. We study the response function of Unruh De-Witt detectors placed in a slowly rotating shell. We show that the response function picks up the presence of rotation even though the spacetime inside the shell is flat and the detector is locally inertial. The detector can distinguish between the static situation when the shell is non-rotating and the stationary case when the shell rotates and the dragging of inertial frames, i.e. gravitomagnetic effects, arise. Moreover, it can do so when the detector is switched on for a finite time interval within which a light signal cannot travel to the shell and back to convey the presence of rotation.
翻訳日:2023-05-01 06:56:55 公開日:2021-01-14
# 基底および励起状態の民主的記述のための平均軌道最適化ハイブリッド量子古典アルゴリズム

A state-averaged orbital-optimized hybrid quantum-classical algorithm for a democratic description of ground and excited states ( http://arxiv.org/abs/2009.11417v2 )

ライセンス: Link先を確認
Saad Yalouz, Bruno Senjean, Jakob G\"unther, Francesco Buda, Thomas E. O'Brien, Lucas Visscher(参考訳) 雑音中間スケール量子(NISQ)時代には、化学から電子構造問題を解くことは、短期量子デバイスにおける「キラー応用」と見なされている。 小分子の正確なエネルギープロファイルを提供するための変分的ハイブリッド量子/古典アルゴリズムの成功にもかかわらず、ポテンシャルエネルギー曲面の複雑な特徴を記述するには注意が必要である。 現在の量子資源は非常に限られているため、ヒルベルト空間の制限部分(アクティブな軌道の集合によって決定される)に集中するのが一般的である。 物理的に動機づけられる一方で、この近似はこれらの複雑な特徴の記述に大きな影響を与える可能性がある。 完璧な例としては円錐交叉(電子状態間の特異点)があり、多くの顕著な反応を理解する上で最も重要なものである。 量子コンピュータによる精度の向上が役に立たないようにアクティブな空間を設計することは、化学の分野でこれらの有望なデバイスの有用な応用を見つけるための鍵となる。 この問題に対処するため,我々は,(1)平均軌道最適化器,(2)平均VQEの2つのアルゴリズムを組み合わせたNISQフレンドリーなSA-OO-VQE(State-Averaged Orbital-Optimized Variational Quantum Eigensolver)を提案する。 本手法の成功を実証するために,ロドプシンの光異性化にも関係する最小シフ塩基モデル(ホルムジミン分子CH2NH)を用いて古典的にシミュレートした。 両アルゴリズムの融合は、分子の円錐交差を記述するために必要な条件を満たすこと、すなわち、同じ足場で縮退状態(または準退化状態)を処理できることを示す。

In the Noisy Intermediate-Scale Quantum (NISQ) era, solving the electronic structure problem from chemistry is considered as the "killer application" for near-term quantum devices. In spite of the success of variational hybrid quantum/classical algorithms in providing accurate energy profiles for small molecules, careful considerations are still required for the description of complicated features of potential energy surfaces. Because the current quantum resources are very limited, it is common to focus on a restricted part of the Hilbert space (determined by the set of active orbitals). While physically motivated, this approximation can severely impact the description of these complicated features. A perfect example is that of conical intersections (i.e. a singular point of degeneracy between electronic states), which are of primary importance to understand many prominent reactions. Designing active spaces so that the improved accuracy from a quantum computer is not rendered useless is key to finding useful applications of these promising devices within the field of chemistry. To answer this issue, we introduce a NISQ-friendly method called "State-Averaged Orbital-Optimized Variational Quantum Eigensolver" (SA-OO-VQE) which combines two algorithms: (1) a state-averaged orbital-optimizer, and (2) a state-averaged VQE. To demonstrate the success of the method, we classically simulate it on a minimal Schiff base model (namely the formaldimine molecule CH2NH) relevant also for the photoisomerization in rhodopsin -- a crucial step in the process of vision mediated by the presence of a conical intersection. We show that merging both algorithms fulfil the necessary condition to describe the molecule's conical intersection, i.e. the ability to treat degenerate (or quasi-degenerate) states on the same footing.
翻訳日:2023-05-01 04:38:14 公開日:2021-01-14
# Squeezed comb state

Squeezed comb states ( http://arxiv.org/abs/2009.12888v2 )

ライセンス: Link先を確認
Namrata Shukla, Stefan Nimmrichter, Barry C. Sanders(参考訳) 連続変数符号は、光ネットワークを含む量子情報処理と量子通信の即応解である。 ここでは、直線上の等値圧縮コヒーレント状態の有限重ね合わせであるシュイーズドコームと、その性質を論理キュービットに対する連続変数符号化選択として特徴づける。 圧縮されたコムは、Gottesman, Kitaev, and Preskill [Phys. Rev. A 64, 012310 (2001)]によって提案された理想符号の現実的な近似である。 これはもはや有限圧縮コムの符号空間の場合ではなく、ノイズロバスト性は符号化パラメータに依存する。 位相空間における有限圧縮コム状態を分析し,その複雑な干渉特性を浮き彫りにして,振幅減衰およびガウス拡散雑音過程に曝露した場合の運動特性を特徴付ける。 加圧されたコーム状態は減衰に曝されるとより適度で誤差が小さくなり、線形増幅を用いて減衰を記述しやすい等方性拡散ノイズに変換する標準的な誤差補正戦略に逆らうことが判明した。

Continuous-variable codes are an expedient solution for quantum information processing and quantum communication involving optical networks. Here we characterize the squeezed comb, a finite superposition of equidistant squeezed coherent states on a line, and its properties as a continuous-variable encoding choice for a logical qubit. The squeezed comb is a realistic approximation to the ideal code proposed by Gottesman, Kitaev, and Preskill [Phys. Rev. A 64, 012310 (2001)], which is fully protected against errors caused by the paradigmatic types of quantum noise in continuous-variable systems: damping and diffusion. This is no longer the case for the code space of finite squeezed combs, and noise robustness depends crucially on the encoding parameters. We analyze finite squeezed comb states in phase space, highlighting their complicated interference features and characterizing their dynamics when exposed to amplitude damping and Gaussian diffusion noise processes. We find that squeezed comb state are more suitable and less error-prone when exposed to damping, which speaks against standard error correction strategies that employ linear amplification to convert damping into easier-to-describe isotropic diffusion noise.
翻訳日:2023-04-30 20:40:46 公開日:2021-01-14
# 間欠確率信号の量子センシング

Quantum Sensing of Intermittent Stochastic Signals ( http://arxiv.org/abs/2010.03678v3 )

ライセンス: Link先を確認
Sara Mouradian, Neil Glikin, Eli Megidish, Kai-Isaak Ellers, Hartmut Haeffner(参考訳) リアルな量子センサーは、並列で測定されるセンサーの数と、アンサンブル全体の制御と読み出しフィリティ(F$)のトレードオフに直面している。 連続的および間欠的信号に対するセンサ数と忠実度が感度に与える影響について検討する。 連続信号の場合、$F<1$で1/F^2$のセンサ数の増加は、常に$F=1$の感度を回復させる。 しかし、信号が断続的な場合、1つの完全な量子センサーで実現可能な感度を回復するには、より多くのセンサーが必要である。 また,単一捕捉イオンセンサを用いた確率的間欠信号の周波数成分を推定することにより,量子投射ノイズ限界における近単位制御の忠実性と読み出しの重要性を実証する。 量子センシングは歴史的に標準量子限界から遠く離れた範囲で作動するセンサーの大規模なアンサンブルに焦点を合わせてきた。 この本で示した結果は、断続的な信号の量子センシングには不十分であり、固有状態近傍の量子投影ノイズのユニークなスケーリングの重要性を再強調していることを示している。

Realistic quantum sensors face a trade-off between the number of sensors measured in parallel and the control and readout fidelity ($F$) across the ensemble. We investigate how the number of sensors and fidelity affect sensitivity to continuous and intermittent signals. For continuous signals, we find that increasing the number of sensors by $1/F^2$ for $F<1$ always recovers the sensitivity achieved when $F=1$. However, when the signal is intermittent, more sensors are needed to recover the sensitivity achievable with one perfect quantum sensor. We also demonstrate the importance of near-unity control fidelity and readout at the quantum projection noise limit by estimating the frequency components of a stochastic, intermittent signal with a single trapped ion sensor. Quantum sensing has historically focused on large ensembles of sensors operated far from the standard quantum limit. The results presented in this manuscript show that this is insufficient for quantum sensing of intermittent signals and re-emphasizes the importance of the unique scaling of quantum projection noise near an eigenstate.
翻訳日:2023-04-29 17:38:23 公開日:2021-01-14
# jxフォトニック格子の非古典光

Non classical light in Jx photonic lattice ( http://arxiv.org/abs/2012.14326v2 )

ライセンス: Link先を確認
Manoranjan Swain and Amit Rai(参考訳) jxフォトニック格子として知られる放物型カップリング分布を有するフォトニック格子における非古典光の研究を報告する。 2つのフォトンフォック状態、2つのフォトンN00N状態、および格子への入力としてコヒーレント状態とともにシングルモード圧縮状態に焦点を当てた。 本研究では、平均光子数と量子状態の1つの導波路モードから他のモードへの完全移動の可能性について検討する。 2つの光子N00N状態に対する光子-光子相関について検討した。 単モード圧縮状態については,スケザリング係数の進化と導波路モード間の絡み合いについて詳細に検討する。 本研究は, 励起状態とコヒーレント状態に限らず, 2光子フォック状態と2光子N00N状態に限って, 平均光子数の完全転送と量子状態の完全転送を示唆するものである。 この結果は,フォトニック連続可変量子情報処理の物理的実装に応用できるはずである。

We report the study of non-classical light in a photonic lattice having parabolic coupling distribution, also known as Jx photonic lattice. We focus on two photon Fock state, two photon N00N state, and single mode squeezed state along with coherent state as input to the lattice. We investigate the possibility of perfect transfer of mean photon number as well as quantum state from one waveguide mode to other. We study photon-photon correlation for two photon N00N state. For single mode squeezed state we study in detail, the evolution of squeezing factor and entanglement between the waveguide modes. Our findings suggest perfect transfer of average photon number for all cases and perfect transfer of quantum state in case of two photon Fock state and two photon N00N state only and not in the case of squeezed and coherent state. Our results should have applications in physical implementation of photonic continuous variable quantum information processing.
翻訳日:2023-04-19 01:49:13 公開日:2021-01-14
# シングルベースによる相互認証による量子セキュアな直接通信

Quantum Secure Direct Communication with Mutual Authentication using a Single Basis ( http://arxiv.org/abs/2101.03577v2 )

ライセンス: Link先を確認
Nayana Das, Goutam Paul, Ritajit Majumdar(参考訳) 本稿では,ユーザ認証を用いた量子セキュアダイレクト通信(qsdc)のための新しい理論スキームを提案する。 従来のqsdcプロトコルとは異なり、現在のプロトコルは秘密メッセージをエンコードするためにシングルキュービット状態の直交基底のみを使用する。 さらに、ランダムに選択された任意の方法で準備されたキュービットを使用して秘密メッセージを送信するワンタイムおよびワンウェイ通信プロトコルである。 提案プロトコルのいくつかの共通攻撃に対する安全性について論じ,eaves-dropperが量子チャネルや古典チャネルから情報を得ることができないことを示す。 また,本プロトコルの性能を現実的なデバイスノイズ下で検討した。 我々は、IBMQ Armonkデバイスでプロトコルを実行し、最小限のオーバーヘッドを必要とする繰り返しコードに基づく保護スキームを提案している。

In this paper, we propose a new theoretical scheme for quantum secure direct communication (QSDC) with user authentication. Different from the previous QSDC protocols, the present protocol uses only one orthogonal basis of single-qubit states to encode the secret message. Moreover, this is a one-time and one-way communication protocol, which uses qubits prepared in a randomly chosen arbitrary basis, to transmit the secret message. We discuss the security of the proposed protocol against some common attacks and show that no eaves-dropper can get any information from the quantum and classical channels. We have also studied the performance of this protocol under realistic device noise. We have executed the protocol in IBMQ Armonk device and proposed a repetition code based protection scheme that requires minimal overhead.
翻訳日:2023-04-17 04:44:24 公開日:2021-01-14
# ゼロノイズ外挿による量子力学における誤差緩和

Error mitigation in quantum metrology via zero noise extrapolation ( http://arxiv.org/abs/2101.03766v2 )

ライセンス: Link先を確認
Zhuo Zhao and Kok Chuan Tan(参考訳) 我々は、ゼロノイズ外挿(ZNE)を量子力学における誤差緩和戦略とみなす。 一般マルコフ雑音モデルにおいて, 雑音拡大は十分短い時間スケールで系統的に行うことが可能であり, 時間均質なリンドブラドマスター方程式によって記述できることを示した。 このことは、完全な量子誤り訂正符号を用いる戦略が利用できない場合、ZNEは効果的でリソース効率のよいエラー軽減代替手段になり得ることを示唆している。 ZNE法は、光子損失を受けるマッハ・ツェンダー干渉計において量子位相推定を適用する。 数値シミュレーションでは、第1次ZNE補正を用いることで、測定感度の顕著な回復を示す。

We consider Zero Noise Extrapolation (ZNE) as an error mitigation strategy in quantum metrology. It is shown that noise expansion can be systematically performed over sufficiently short time scales for general Markovian noise models described by the time homogeneous Lindblad master equation. This suggests that ZNE can be an effective, resource efficient error mitigation alternative when strategies employing full quantum error correcting codes are unavailable. The ZNE method is then applied quantum phase estimation in a Mach-Zehnder interferometer subject to photon losses. Numerical simulations show a significant recovery of measurement sensitivity by employing first order ZNE corrections, which can be further improved upon using higher order corrections at the cost of additional measurements.
翻訳日:2023-04-17 02:51:42 公開日:2021-01-14
# 出版パターンはニュースメディアにおける政治的分極を反映する

Publishing patterns reflect political polarization in news media ( http://arxiv.org/abs/2101.05044v2 )

ライセンス: Link先を確認
Nick Hagar, Johannes Wachs, Em\H{o}ke-\'Agnes Horv\'at(参考訳) デジタルニュースメディアは、フリーランスジャーナリスト、政治コメンテーター、幹部や政治家など、さまざまな外部貢献者に依存している。 これらの外部依存関係は、共有するコントリビュータに沿ってトレースされたニュースメディア間のネットワークを生成する。 コンセント間のつながりを利用して、コントリビュータの出版軌道がアウトレットの政治的傾向とどのように一致しているかを示す。 また,メディアの分極化クラスタリングがニュースの話題や記事のスタイルやトーンの違いにどのように影響するかを示す。 さらに、パルチザンの分裂を横切るコントリビュータが、より明確な政治的トピックに注目する傾向を示す。 この研究は、メディアの偏極化文学における重要なギャップに対処し、メディアの制作側の構造的要素が、誰一人や組織の優先順位にもよらず、政治的傾きによって形成されたエコシステムをいかに生み出すかを強調する。

Digital news outlets rely on a variety of outside contributors, from freelance journalists, to political commentators, to executives and politicians. These external dependencies create a network among news outlets, traced along the contributors they share. Using connections between outlets, we demonstrate how contributors' publishing trajectories tend to align with outlet political leanings. We also show how polarized clustering of outlets translates to differences in the topics of news covered and the style and tone of articles published. In addition, we demonstrate how contributors who cross partisan divides tend to focus on less explicitly political topics. This work addresses an important gap in the media polarization literature, by highlighting how structural factors on the production side of news media create an ecosystem shaped by political leanings, independent of the priorities of any one person or organization.
翻訳日:2023-04-15 17:42:02 公開日:2021-01-14
# 相変化材料を用いた再構成可能な準曲面による可変量子2光子干渉

Tunable quantum two-photon interference with reconfigurable metasurfaces using phase-change materials ( http://arxiv.org/abs/2101.05454v1 )

ライセンス: Link先を確認
Nooshin M. Estakhri, Theodore B. Norris(参考訳) 相変化材料が2つの安定相を可逆的かつ迅速に切り換える能力は、データストレージや光変調器などの多くのアプリケーションで使用されている。 このような物質を準曲面に組み込むことで、光学場制御の新しいアプローチが可能になる。 本稿では、非古典的2光子量子干渉の制御を可能にする新しいスイッチタブルなメタサーフェスの設計について述べる。 これらの構造は静的な電力消費を必要とせず、室温で動作し、高いスイッチング速度を持つ。 本論文で示した最初の適応型メタサーフェスについて,-97.7% (反共) から 75.48% (反共) までの波長可変非古典的2光子干渉を予測した。 第2の適応幾何学では、量子干渉は-59.42% (反共役) から 86.09% (共役) に熱駆動の結晶相転移によって変化する。 コンパクトで高速に制御可能な量子デバイスの開発は、新しい量子応用への有望な道を開き、自由空間量子論理ゲート、線形光学ベル実験、量子位相推定システムを改善する可能性も開けている。

The ability of phase-change materials to reversibly and rapidly switch between two stable phases has driven their use in a number of applications such as data storage and optical modulators. Incorporating such materials into metasurfaces enables new approaches to the control of optical fields. In this article we present the design of novel switchable metasurfaces that enable the control of the nonclassical two-photon quantum interference. These structures require no static power consumption, operate at room temperature, and have high switching speed. For the first adaptive metasurface presented in this article, tunable nonclassical two-photon interference from -97.7% (anti-coalescence) to 75.48% (coalescence) is predicted. For the second adaptive geometry, the quantum interference switches from -59.42% (anti-coalescence) to 86.09% (coalescence) upon a thermally driven crystallographic phase transition. The development of compact and rapidly controllable quantum devices is opening up promising paths to brand-new quantum applications as well as the possibility of improving free space quantum logic gates, linear-optics bell experiments, and quantum phase estimation systems.
翻訳日:2023-04-15 05:29:45 公開日:2021-01-14
# 曲面背景における重力誘起不確かさ関係

Gravitationally induced uncertainty relations in curved backgrounds ( http://arxiv.org/abs/2101.05552v1 )

ライセンス: Link先を確認
Luciano Petruzziello and Fabian Wagner(参考訳) 本稿では,不確実性関係に対する時空曲率の影響を調べることを目的とした。 特に、これまでの知見に依拠して、量子波動関数は、半径が位置の不確かさの測度である与えられた空間のような超曲面上の測地線球に閉じ込められると仮定する。 一方、運動量作用素の実行可能な物理的定義と、3+1形式主義の非相対論的極限における標準偏差を同時に検討する。 最後に, 2階への不確実性関係を, 有効3次元のリッチスカラーとシフトベクトルの共変微分に依存する不確実性関係を評価する。 図解のために、一般相対性理論と拡張重力理論の両方の文脈で生じる多くの例に一般的な結果を適用する。

This paper aims at investigating the influence of space-time curvature on the uncertainty relation. In particular, relying on previous findings, we assume the quantum wave function to be confined to a geodesic ball on a given space-like hypersurface whose radius is a measure of the position uncertainty. On the other hand, we concurrently work out a viable physical definition of the momentum operator and its standard deviation in the non-relativistic limit of the 3+1 formalism. Finally, we evaluate the uncertainty relation which to second order depends on the Ricci scalar of the effective 3-metric and the corresponding covariant derivative of the shift vector. For the sake of illustration, we apply our general result to a number of examples arising in the context of both general relativity and extended theories of gravity.
翻訳日:2023-04-15 05:26:26 公開日:2021-01-14
# cyber taxi:対話型サイバートレーニングと教育システムの分類法

Cyber Taxi: A Taxonomy of Interactive Cyber Training and Education Systems ( http://arxiv.org/abs/2101.05538v1 )

ライセンス: Link先を確認
Marcus Kn\"upfer, Tore Bierwirth, Lars Stiemert, Matthias Schopp, Sebastian Seeber, Daniela P\"ohn, Peter Hillmann(参考訳) 実践的な方法でサイバーセキュリティを学ぶための指導的なエクササイズと実践的な機会の欠如は、セキュリティ専門家の能力向上を困難にしている。 Flagイベントのキャプチャとサイバーレンジは、サイバーセキュリティトレーニングに最適です。 そのため、参加者は通常、チームで互いに競い合うか、特定のシナリオで自身を守らなければならない。 年次イベントの主催者として、インタラクティブなサイバートレーニングと教育のための分類を提示する。 提案する分類学は, 技術的設定, 聴衆, 訓練環境, 訓練環境の異なる要因を含む。 包括的分類法では,対話的訓練の異なる側面が考慮される。 これは、トレーニングの改善と確立を成功させるのに役立つ。 提供された分類は拡張可能であり、新たなセキュリティ技術の研究として、さらなる応用領域で使用できる。

The lack of guided exercises and practical opportunities to learn about cybersecurity in a practical way makes it difficult for security experts to improve their proficiency. Capture the Flag events and Cyber Ranges are ideal for cybersecurity training. Thereby, the participants usually compete in teams against each other, or have to defend themselves in a specific scenario. As organizers of yearly events, we present a taxonomy for interactive cyber training and education. The proposed taxonomy includes different factors of the technical setup, audience, training environment, and training setup. By the comprehensive taxonomy, different aspects of interactive training are considered. This can help trainings to improve and to be established successfully. The provided taxonomy is extendable and can be used in further application areas as research on new security technologies.
翻訳日:2023-04-15 05:26:13 公開日:2021-01-14
# 相互相関によるヘテロダイン検出量子雑音限界の破断の可能性について

On the possibility of breaking the heterodyne detection quantum noise limit with cross-correlation ( http://arxiv.org/abs/2101.05533v1 )

ライセンス: Link先を確認
E.A. Michael and F.E. Besser(参考訳) 2つの同一平衡フォトダイオードヘテロダイン受信機の相互相関感度を特徴とする。 両方のバランスの取れたフォトダイオードは、天文学的な空間干渉計に相当する、同じ弱いシグナルを均等に分割する。 共通局所発振器(LO)も等分され、両受信機間の位相差が安定化される。 半古典的光子除去理論により、両受信機におけるレーザー照射ノイズの寄与は、この3つのパワースプリッターを通過させる場合、完全に非相関であることを示す。 信号パワーの弱さ(システムノイズ温度測定)の関数として自己相関と相互相関の出力を測定し,各受信機の自己相関系ノイズ温度の最大20倍の相関系ノイズ温度を得る。 これは、相互相関標準偏差が自己相関の30倍低いことを示すアランプロット測定によって支持される。 電源電力の慎重な校正は、単一平衡受信機の自己相関(正則)ノイズ温度が期待通り量子限界に非常に近いことを示しており、これは量子限界以下のクロス相関系ノイズ温度を示唆している。 さらに検証すれば、この実験的に明らかな発見は、天文学的な計測だけでなく、通信や医療画像といった他の分野にも関係する。

The cross-correlation sensitivity of two identical balanced photodiode heterodyne receivers is characterized. Both balanced photodiodes receive the same weak signal split up equally, a situation equivalent to an astronomical spatial interferometer. A common local oscillator (LO) is also split up equally and its phase difference between both receivers is stabilized. We show by semi-classical photon deletion theory that the post-detection laser shot noise contributions on both receivers must be completely uncorrelated in this case of passing three power splitters. We measured the auto- and cross-correlation outputs as a function of weak signal power (system noise temperature measurement), and obtain a cross-correlation system noise temperature up to 20 times lower than for the auto-correlation system noise temperature of each receiver separately. This is supported by Allan plot measurements showing cross-correlation standard deviations 30 times lower than in auto-correlation. Careful calibration of the source power shows that the auto-correlation (regular) noise temperature of the single balanced receivers is already very near to the quantum limit as expected, which suggests a cross-correlation system noise temperature below the quantum limit. If validated further, this experimentally clear finding will not only be relevant for astronomical instrumentation but also for other fields like telecommunications and medical imaging.
翻訳日:2023-04-15 05:26:02 公開日:2021-01-14
# ブール代数に近い量子論理

Quantum logics close to Boolean algebras ( http://arxiv.org/abs/2101.05501v1 )

ライセンス: Link先を確認
Mirko Navara and Pavel Pt\'ak(参考訳) 対称な差を付与した交叉交叉ポゼットを考える。 私たちはそれらをODPと呼びます。 量子論理言語で表現され、xor型連結子を持つ量子論理を考える。 3種類の「ほぼブール」 odp について検討し,その内2つはインフィマの特異な振る舞いを,もう1つはフリクイデアルのブール的振舞いによって定義される。 我々は,これら3つのクラス間の包含性(驚くべき)を確立し,それらの固有の性質に光を当てる。 (後述の序文に詳細が記されている。) ここで追求された正則ポジェットは、ブール代数(つまり標準量子論理に近い)に近いが、それでも任意に高い非可換性を持つ可能性があり、従って量子力学の数学的基礎の研究を豊かにすることができる。

We consider orthomodular posets endowed with a symmetric difference. We call them ODPs. Expressed in the quantum logic language, we consider quantum logics with an XOR-type connective. We study three classes of "almost Boolean" ODPs, two of them defined by requiring rather specific behaviour of infima and the third by a Boolean-like behaviour of Frink ideals. We establish a (rather surprising) inclusion between the three classes, shadding thus light on their intrinsic properties. (More details can be found in the Introduction that follows.) Let us only note that the orthomodular posets pursued here, though close to Boolean algebras (i.e., close to standard quantum logics), still have a potential for an arbitrarily high degree of non-compatibility and hence they may enrich the studies of mathematical foundations of quantum mechanics.
翻訳日:2023-04-15 05:24:34 公開日:2021-01-14
# ブロックチェーンにおける選択的削除

Selective Deletion in a Blockchain ( http://arxiv.org/abs/2101.05495v1 )

ライセンス: Link先を確認
Peter Hillmann, Marcus Kn\"upfer, Erik Heiland, Andreas Karcher(参考訳) ブロックチェーンのサイズが常に大きくなることは、使用量の増加に課題となる。 特にブロックチェーンに不要なデータの保存は、自然に削除できないため、問題になります。 この問題に対処するため、ブロックチェーンにおける単一エントリの選択的削除に関する最初の概念を提示する。 この目的のために、一般的なコンセンサスアルゴリズムは、定期的に要約ブロックを作成する機能によって拡張される。 チェーンの以前のデータは集約され、新しいブロックに再び格納され、不要な情報を残す。 genesisブロックのシフトマーカーによって、データはブロックチェーンの開始時から削除できる。 このように、ブロックチェーンの技術は完全にトランザクショナルになる。 この概念は特定のブロック構造、ネットワーク構造、あるいはコンセンサスアルゴリズムとは独立している。 さらに、この機能を現在のブロックチェーンに適用して、スケーラビリティに関する複数の問題を解決することもできる。 このアプローチにより、産業4.0や製品ライフサイクル管理など、ブロックチェーン技術のアプリケーション分野への移行が可能になる。

The constantly growing size of blockchains becomes a challenge with the increasing usage. Especially the storage of unwanted data in a blockchain is an issue, because it cannot be removed naturally. In order to counteract this problem, we present the first concept for the selective deletion of single entries in a blockchain. For this purpose, the general consensus algorithm is extended by the functionality of regularly creating summary blocks. Previous data of the chain are summarized and stored again in a new block, leaving out unwanted information. With a shifting marker of the Genesis Block, data can be deleted from the beginning of a blockchain. In this way, the technology of the blockchain becomes fully transactional. The concept is independent of a specific block structure, network structure, or consensus algorithm. Moreover, this functionality can be adapted to current blockchains to solve multiple problems related to scalability. This approach enables the transfer of blockchain technology to further fields of application, among others in the area of Industry 4.0 and Product Life-cycle Management.
翻訳日:2023-04-15 05:24:09 公開日:2021-01-14
# 動的デカップリング保護非線形ホロノミック量子計算

Dynamical-decoupling-protected nonadiabatic holonomic quantum computation ( http://arxiv.org/abs/2101.05492v1 )

ライセンス: Link先を確認
P. Z. Zhao, X. Wu, D. M. Tong(参考訳) 高忠実度量子ゲートの実現の主な障害は、量子システムの不正確な操作に起因する制御誤差と、量子システムと環境の間の相互作用に起因するデコヒーレンスである。 非断熱ホロノミック量子計算は、全幾何量子ゲートの高速実装を可能にし、量子計算を制御エラーに対して堅牢にする。 動的デカップリングは、集合的デコヒーレンスや独立的デコヒーレンスに関係なく、量子ゲートを環境誘起デコヒーレンスから保護する効果的な方法を提供する。 本稿では,動的デカップリングによって保護される非線形ホロノミック量子計算のプロトコルを提案する。 非線形ホロノミック量子計算と動的デカップリングの組み合わせにより,本プロトコルは制御誤差に対する本質的な堅牢性を持つだけでなく,環境によるデコヒーレンスから量子ゲートを保護する。

The main obstacles to the realization of high-fidelity quantum gates are the control errors arising from inaccurate manipulation of a quantum system and the decoherence caused by the interaction between the quantum system and its environment. Nonadiabatic holonomic quantum computation allows for high-speed implementation of whole-geometric quantum gates, making quantum computation robust against control errors. Dynamical decoupling provides an effective method to protect quantum gates against environment-induced decoherence, regardless of collective decoherence or independent decoherence. In this paper, we put forward a protocol of nonadiabatic holonomic quantum computation protected by dynamical decoupling . Due to the combination of nonadiabatic holonomic quantum computation and dynamical decoupling, our protocol not only possesses the intrinsic robustness against control errors but also protects quantum gates against environment-induced decoherence.
翻訳日:2023-04-15 05:23:47 公開日:2021-01-14
# 大きな運動インダクタンスを持つジョセフソン接合並列アレイにおける単一フラッションの量子力学

Quantum dynamics of a single fluxon in Josephson junctions parallel arrays with large kinetic inductances ( http://arxiv.org/abs/2101.05693v1 )

ライセンス: Link先を確認
S. S. Seidov and M. V. Fistul(参考訳) 本稿では、ジョセフソン接合並列アレイ(JJPA)に閉じ込められた1つの磁束(MF)のコヒーレント量子力学と大きな運動インダクタンスについて理論的研究を行う。 MFは、磁気フラックスの1つの量子、$\Phi_0$のトポロジカル励起である。 MFはジョゼフソン相の分布における$2\pi$-kinkと定量的に説明され、JJPAsの運動インダクタンスが高い場合、そのような分布(MFのサイズ)の特性は劇的に減少する。 このようなMFを3つの連続ジョセフソン接合のジョセフソン位相で特徴づけることで、MF量子力学における様々なコヒーレントなマクロ量子効果を分析する。 特に、JJPAsの隣接セル間の1つのMFのコヒーレント量子トンネルに由来するMFエネルギーバンドを得る。 ジョセフソン結合エネルギー$E_J$、充電エネルギー$E_C$およびセルの誘導エネルギー$E_L$に対する帯域幅$\Delta$の依存性を詳細に研究する。 長い線形 JJPA MF のコヒーレント量子力学は、特性周波数 $f_{qb}=\Delta/h$ で崩壊する量子振動を示す。 短い環状JJPA MFのコヒーレント量子力学は、Aharonov-Casher相$\chi \propto V_g$で制御される複雑な振動を表示する。 外部応用dcバイアスの存在下では、量子MFの弱い非コヒーレントダイナミクスがマクロ的ブロッホ振動の形で実現され、JJPAsの典型的な「ノイズ」電流電圧特性が実現される。 周波数$f$の交流電流を印加すると、電流電圧特性は、等価な電流ステップのセットを$I_n=2enf$とする。

We present a theoretical study of coherent quantum dynamics of a single magnetic fluxon (MF) trapped in Josephson junction parallel arrays (JJPAs) with large kinetic inductances. The MF is the topological excitation carrying one quantum of magnetic flux, $\Phi_0$. The MF is quantitatively described as the $2\pi$-kink in the distribution of Josephson phases, and for JJPAs with high kinetic inductances the characteristic length of such distribution ("the size" of MF) is drastically reduced. Characterizing such MFs by the Josephson phases of three consecutive Josephson junctions we analyse the various coherent macroscopic quantum effects in the MF quantum dynamics. In particular, we obtain the MF energy band originating from the coherent quantum tunnelling of a single MF between adjacent cells of JJPAs. The dependencies of the band width $\Delta$ on the Josephson coupling energy $E_J$, charging energy $E_C$ and the inductive energy of a cell $E_L$, are studied in detail. In long linear JJPAs the coherent quantum dynamics of MF demonstrates decaying quantum oscillations with characteristic frequency $f_{qb}=\Delta/h$. In short annular JJPAs the coherent quantum dynamics of MF displays complex oscillations controlled by the Aharonov-Casher phase $\chi \propto V_g$, where $V_g$ is an externally applied gate voltage. In the presence of externally applied dc bias, $I$, a weakly incoherent dynamics of quantum MF is realized in the form of macroscopic Bloch oscillations leading to a typical "nose" current-voltage characteristics of JJPAs. As ac current with frequency $f$ is applied the current-voltage characteristics displays a set of equidistant current steps at $I_n=2en f$.
翻訳日:2023-04-15 05:16:21 公開日:2021-01-14
# ユニタリt設計による量子物理非植民地関数の効率的な構成

Efficient Construction of Quantum Physical Unclonable Functions with Unitary t-designs ( http://arxiv.org/abs/2101.05692v1 )

ライセンス: Link先を確認
Niraj Kumar, Rawad Mezher and Elham Kashefi(参考訳) qpuf(quantum physical unclonable function)は、鍵交換、メッセージ認証、エンティティ識別などのセキュアな暗号機能を提供するための理論的ハードウェアソリューションとして急速に登場している。 近年の研究では、これらの解を任意の量子多項式時間反転に対して証明可能なセキュリティを提供するために、QPUFはハール測度から一様にランダムにサンプリングされることが示されている。 しかし、これは指数的な量の資源を必要とすることが知られている。 そこで本研究では,qpuf_tと呼ばれる一元的t設計を用いた効率的なデバイス構成を提案する。 その過程で、QPUFの既存のセキュリティ定義を変更し、効率的な構成を含むことを示し、QPUF_tが、デバイスへのTクエリアクセスを持つ有界量子多項式対向に対する証明可能なセキュリティ保証を維持していることを示す。 これはまた、t のいくつかの(相対的に低い)値があるタスクの実行に有用であることが知られている t-設計の以前の応用とは対照的に、任意の t に対するユニタリ t-設計の構成の最初のユースケースを提供する。 本稿では,qpuf_tの特定種類の雑音,ユニタリノイズに対する耐雑音性について検討し,システムサイズが大きくなるにつれて個々の量子ビットに影響を及ぼす誤差率が小さくなると,回復性が向上することを示す。 雑音耐性をより現実的で有意義なものにするために,誤差緩和や補正という概念を導入するべきである。

Quantum physical unclonable functions, or QPUFs, are rapidly emerging as theoretical hardware solutions to provide secure cryptographic functionalities such as key-exchange, message authentication, entity identification among others. Recent works have shown that in order to provide provable security of these solutions against any quantum polynomial time adversary, QPUFs are required to be a unitary sampled uniformly randomly from the Haar measure. This however is known to require an exponential amount of resources. In this work, we propose an efficient construction of these devices using unitary t-designs, called QPUF_t. Along the way, we modify the existing security definitions of QPUFs to include efficient constructions and showcase that QPUF_t still retains the provable security guarantees against a bounded quantum polynomial adversary with t-query access to the device. This also provides the first use case of unitary t-design construction for arbitrary t, as opposed to previous applications of t-designs where usually a few (relatively low) values of t are known to be useful for performing some task. We study the noise-resilience of QPUF_t against specific types of noise, unitary noise, and show that some resilience can be achieved particularly when the error rates affecting individual qubits become smaller as the system size increases. To make the noise-resilience more realistic and meaningful, we conclude that some notion of error mitigation or correction should be introduced.
翻訳日:2023-04-15 05:15:47 公開日:2021-01-14
# スマートシティ導入プロセスの探求:ベルギーの都市環境からの証拠

Exploring the Smart City Adoption Process: Evidence from the Belgian urban context ( http://arxiv.org/abs/2101.05670v1 )

ライセンス: Link先を確認
Emanuele Gabriel Margherita, Giovanni Esposito, Stefania Denise Escobar, Nathalie Crutzen(参考訳) 本稿では,社会技術の観点から,スマートシティの採用について考察する。 スマートシティは変革的な技術プロセスであり、既存の都市体制とインフラコンポーネントの大幅な変更につながっている。 本研究では, スマートシティを, 技術と利用者の相互作用によって, 生活の質を向上し, 重要な社会経済的問題を解決するスマートシティイニシアチブの持続的発展が保証される社会技術的システムと考える。 スマートシティの採用には,両システムを共同で最適化する導入プロセスにおいて,ユーザが関与する参加型アプローチが必要だった。 そこで我々は,自治体と市民の情報交換を促進するためのメディア関係に基づく参加的アプローチが,スマートシティ導入の成功要因となっていることを示す社会技術研究に貢献する。 このアプローチの限界についても論じる。

In this position paper, we explore the adoption of a Smart City with a socio-technical perspective. A Smart city is a transformational technological process leading to profound modifications of existing urban regimes and infrastructure components. In this study, we consider a Smart City as a socio-technical system where the interplay between technologies and users ensures the sustainable development of smart city initiatives that improve the quality of life and solve important socio-economic problems. The adoption of a Smart City required a participative approach where users are involved during the adoption process to joint optimise both systems. Thus, we contribute to socio-technical research showing how a participative approach based on press relationships to facilitate information exchange between municipal actors and citizens worked as a success factor for the smart city adoption. We also discuss the limitations of this approach.
翻訳日:2023-04-15 05:14:55 公開日:2021-01-14
# 産業の社会技術的相互作用を探る 4.0 イタリアの製造業組織を事例として

Exploring the socio-technical interplay of Industry 4.0: a single case study of an Italian manufacturing organisation ( http://arxiv.org/abs/2101.05665v1 )

ライセンス: Link先を確認
Emanuele Gabriel Margherita and Alessio Maria Braccini(参考訳) 本稿では,産業4.0の社会技術的相互作用を考察する。 産業4.0は、先進的な先端技術の導入による生産プロセスの自動化を目的とした産業計画である。 研究の多くは、さまざまなテクノロジを統合する方法と、結果として組織に利益をもたらす方法を研究することに焦点を当てた、技術的な視点を採用している。 対照的に、社会技術的観点から産業4.0を用いる研究は少ない。 このギャップは、産業4.0技術を効果的に採用した製造業組織の詳細な事例研究に社会技術レンズを取り入れている。 研究の成果は、労働者と技術の間の社会技術的相互作用と、労働者の新たな役割の両方に光を当てた。 産業4.0における社会技術枠組みを提案する。

In this position paper, we explore the socio-technical interplay of Industry 4.0. Industry 4.0 is an industrial plan that aims at automating the production process by the adoption of advanced leading-edge technologies down the assembly line. Most of the studies employ a technical perspective that is focused on studying how to integrate various technologies and the resulting benefits for organisations. In contrast, few studies use a socio-technical perspective of Industry 4.0. We close this gap employs the socio-technical lens on an in-depth single case study of a manufacturing organisation that effectively adopted Industry 4.0 technologies. The findings of our studies shed light both on the socio-technical interplay between workers and technologies and the novel role of workers. We conclude proposing a socio-technical framework for an Industry 4.0 context.
翻訳日:2023-04-15 05:14:40 公開日:2021-01-14
# マルチパーティ量子絡み合いの形成とモノガミーの絡み合い

Entanglement of formation and monogamy of multi-party quantum entanglement ( http://arxiv.org/abs/2101.05590v1 )

ライセンス: Link先を確認
Jeong San Kim(参考訳) 任意次元の多次元量子絡み合わせのモノガミー不等式に対して、生成の絡み合わせの観点から十分条件を与える。 古典古典的量子状態(ccq)状態において、量子部分が3次元量子状態の2次元還元密度行列から得られることから、ccq状態の相互情報の付加性は3次元純状態のモノガミー不等式をEoFの観点から保証することを示す。 実例で結果を例示した後、任意の次元の任意の多人数システムへ、三者システムの結果を一般化する。

We provide a sufficient condition for the monogamy inequality of multi-party quantum entanglement of arbitrary dimensions in terms of entanglement of formation. Based on the classical-classical-quantum(ccq) states whose quantum parts are obtained from the two-party reduced density matrices of a three-party quantum state, we show the additivity of the mutual information of the ccq states guarantees the monogamy inequality of the three-party pure state in terms of EoF. After illustrating the result with some examples, we generalize our result of three-party systems into any multi-party systems of arbitrary dimensions.
翻訳日:2023-04-15 05:14:29 公開日:2021-01-14
# セキュアなマルチパーティ量子会議とXor計算

Secure Multi-Party Quantum Conference and Xor Computation ( http://arxiv.org/abs/2101.05560v1 )

ライセンス: Link先を確認
Nayana Das, Goutam Paul(参考訳) 量子会議(Quantum conference)は、3つ以上のパーティ間でセキュアにメッセージを交換するプロセスである。 情報漏洩に対して安全である測定デバイス独立量子対話(MDI-QD)プロトコル(Quantum Information Processing 16.12 (2017): 305)が2017年に提案された。 まず、このプロトコルを修正し、mdi-qdをサードパーティの量子会議に、次にマルチパーティの量子会議に一般化します。 また,量子マルチパーティXOR計算のためのプロトコルを提案する。 これら3つのプロトコルはいずれもリソースとして絡み合いを使用せず,提案プロトコルの正しさと安全性を実証する。

Quantum conference is a process of securely exchanging messages between three or more parties, using quantum resources. A Measurement Device Independent Quantum Dialogue (MDI-QD) protocol, which is secure against information leakage, has been proposed (Quantum Information Processing 16.12 (2017): 305) in 2017, is proven to be insecure against intercept-and-resend attack strategy. We first modify this protocol and generalize this MDI-QD to a three-party quantum conference and then to a multi-party quantum conference. We also propose a protocol for quantum multi-party XOR computation. None of these three protocols proposed here use entanglement as a resource and we prove the correctness and security of our proposed protocols.
翻訳日:2023-04-15 05:13:58 公開日:2021-01-14
# 半古典重力における粒子の変形と運動

Disformal transformations and the motion of a particle in semi-classical gravity ( http://arxiv.org/abs/2101.05745v1 )

ライセンス: Link先を確認
Sandip Chowdhury, Kunal Pal, Kuntal Pal, Tapobrata Sarkar(参考訳) 自由粒子測地線をボヘミア非測地軌道に置き換えることで重力に量子効果を組み込むアプローチは、運動が非力的であり、等角係数の内部の量子効果、すなわち幾何学自体において、共形関係の幾何学という観点で等価な記述を持つ。 重力幾何学と物理幾何学に関するより一般的な変形変換に対しては、量子効果を変形の自由度の中に取り込むことで、この等価性を確立する方法を示す。 また,共形バージョンに関連する通常の問題,すなわち不連続方程式,量子質量の不定性,特異性解決論における無質量粒子の誤記述を,適切な変形変換を用いて解く方法を示す。

The approach to incorporate quantum effects in gravity by replacing free particle geodesics with Bohmian non-geodesic trajectories has an equivalent description in terms of a conformally related geometry, where the motion is force free, with the quantum effects inside the conformal factor, i.e., in the geometry itself. For more general disformal transformations relating gravitational and physical geometries, we show how to establish this equivalence by taking the quantum effects inside the disformal degrees of freedom. We also show how one can solve the usual problems associated with the conformal version, namely the wrong continuity equation, indefiniteness of the quantum mass, and wrong description of massless particles in the singularity resolution argument, by using appropriate disformal transformations.
翻訳日:2023-04-15 05:05:53 公開日:2021-01-14
# エンジニアのためのデータサイエンス: 教育エコシステム

Data Science for Engineers: A Teaching Ecosystem ( http://arxiv.org/abs/2101.06119v1 )

ライセンス: Link先を確認
Felipe Tobar, Felipe Bravo-Marquez, Jocelyn Dunstan, Joaquin Fontbona, Alejandro Maass, Daniel Remenik, Jorge F. Silva(参考訳) 本稿では,過去3年間にチリ・ユニバーシダド・デ・チリの物理・数理学部で開発された,理論,手法,応用を融合する技術者にデータサイエンス(ds)を教えるためのエコシステムについて述べる。 このイニシアチブは、学術的および専門的な環境からのds資格の需要の増加に動機づけられている。 生態系は、上記の学部の3つの学部にまたがって共同で分布し、大学院プログラム、コース、専門学位、データリポジトリ、研究室、研修プログラム、インターンシップを含む。 DS教育の原則と我々のアプローチの革新的な構成要素を共有することで、私たちの体験が独自のDSプログラムやエコシステムを開発する人々にとって役に立つことを願っています。 記事の最後には、オープンな課題とエコシステムの将来計画についても論じている。

We describe an ecosystem for teaching data science (DS) to engineers which blends theory, methods, and applications, developed at the Faculty of Physical and Mathematical Sciences, Universidad de Chile, over the last three years. This initiative has been motivated by the increasing demand for DS qualifications both from academic and professional environments. The ecosystem is distributed in a collaborative fashion across three departments in the above Faculty and includes postgraduate programmes, courses, professional diplomas, data repositories, laboratories, trainee programmes, and internships. By sharing our teaching principles and the innovative components of our approach to teaching DS, we hope our experience can be useful to those developing their own DS programmes and ecosystems. The open challenges and future plans for our ecosystem are also discussed at the end of the article.
翻訳日:2023-04-15 04:57:59 公開日:2021-01-14
# 時間依存高調波発振器のbohmポテンシャル

Bohm potential for the time dependent harmonic oscillator ( http://arxiv.org/abs/2101.05907v1 )

ライセンス: Link先を確認
Francisco Soto-Eguibar, Felipe A. Asenjo, Sergio A. Hojman, H\'ector M. Moya-Cessa(参考訳) マドルング・ボームの量子力学へのアプローチでは、時間依存的な位相は位置に二次的に依存し、位相の時間依存項がエルマコフ方程式に従うと、時間依存の高調波発振器に対応するボームポテンシャルにつながることを示す。

In the Madelung-Bohm approach to quantum mechanics, we consider a (time dependent) phase that depends quadratically on position and show that it leads to a Bohm potential that corresponds to a time dependent harmonic oscillator, provided the time dependent term in the phase obeys an Ermakov equation.
翻訳日:2023-04-15 04:57:45 公開日:2021-01-14
# リンドープダイヤモンドの室温および高温における窒素空白およびシリコン空白色中心の発光

Photoluminescence of nitrogen-vacancy and silicon-vacancy color centers in phosphorus-doped diamond at room and higher temperatures ( http://arxiv.org/abs/2101.05904v1 )

ライセンス: Link先を確認
F. Sledz, S. Piccolomo, A. M. Flatae, S. Lagomarsino, R. Rechenberg, M. F. Becker, S. Sciortino, N. Gelli, I. A. Khramtsov, D. Yu. Fedyanin, G. Speranza, L. Giuntini, M. Agio(参考訳) 蛍光体ドープダイヤモンドは、蛍光体を含むことで得られるn型伝導度と、ダイヤモンド中の色中心のユニークな光学的性質を組み合わせることができるため、センシング、光電子学、量子フォトニクスの応用に有用である。 本稿では,0フォノン線(ZPL)に着目し,周囲条件から約100ドル^\circ$ Celsiusまでの温度関数として,リンドープダイヤモンド中の窒素空孔およびシリコン空孔色中心の発光信号について検討した。 2つの色中心のZPLの波長と幅は、発光スペクトルの強い差にもかかわらず、温度に匹敵する依存性を示す。 また, シリコン空孔中心のzplの温度感度は, 電子グレード単結晶ダイヤモンドのシリコン空孔中心と比較して, リンドーピングの影響を受けないことがわかった。

Phosphorus-doped diamond is relevant for applications in sensing, optoelectronics and quantum photonics, since the unique optical properties of color centers in diamond can be combined with the n-type conductivity attained by the inclusion of phosphorus. Here, we investigate the photoluminescence signal of the nitrogen-vacancy and silicon-vacancy color centers in phosphorus-doped diamond as a function of temperature starting from ambient conditions up to about 100$^\circ$ Celsius, focusing on the zero-phonon line (ZPL). We find that the wavelength and width of the ZPL of the two color centers exhibit a comparable dependence on temperature, despite the strong difference in the photoluminescence spectra. Moreover, the temperature sensitivity of the ZPL of the silicon-vacancy center is not significantly affected by phosphorus-doping, as we infer by comparison with silicon-vacancy centers in electronic-grade single-crystal diamond.
翻訳日:2023-04-15 04:57:38 公開日:2021-01-14
# 半古典的高速フォワードショートカットと断熱性

Semiclassical fast-forward shortcuts to adiabaticity ( http://arxiv.org/abs/2101.05901v1 )

ライセンス: Link先を確認
Ayoti Patra and Christopher Jarzynski(参考訳) 高速フォワード量子ショートカットから断熱までにおいて、設計されたポテンシャル$U_{FF}(q,t)$は、初期ハミルトンの$\hat H(0)$の$n$'番目の固有状態から最終ハミルトンの$\hat H(\tau)$の$n$'番目の固有状態へ有限時間$\tau$で進化するように波動関数を操縦する。 従来提案されていた$U_{FF}$の構築戦略は、(特別な対称性がない場合は)基底状態、$n=0$に制限される。 我々は,この制限を克服し,このショートカットの適用性を大幅に拡張する手法を開発し,その効果を数値シミュレーションで示す。 半古典解析は洞察を与え、類似の古典的高速前進法と密接な対応を確立する。

In fast forward quantum shortcuts to adiabaticity, a designed potential $U_{FF}(q,t)$ steers a wavefunction to evolve from the $n$'th eigenstate of an initial Hamiltonian $\hat H(0)$ to the $n$'th eigenstate of a final Hamiltonian $\hat H(\tau)$, in finite time $\tau$. Previously proposed strategies for constructing $U_{FF}$ are (in the absence of special symmetries) limited to the ground state, $n=0$. We develop a method that overcomes this limitation, thereby substantially expanding the applicability of this shortcut to adiabaticity, and we illustrate its effectiveness with numerical simulations. Semiclassical analysis provides insight and establishes a close correspondence with the analogous classical fast forward method.
翻訳日:2023-04-15 04:57:19 公開日:2021-01-14
# トロイダルモーメント演算子互換のObservables

Observables compatible to the toroidal moment operator ( http://arxiv.org/abs/2101.05889v1 )

ライセンス: Link先を確認
Dragos-Victor Anghel and Amanda Teodora Preda(参考訳) z$軸上のトロイダルモーメントの射影に対応する量子作用素 $\hat{T}_3$ は、すべての $\mathbb{R}^3$ 空間上で定義されるとき、いくつかの自己随伴拡張を許容する。 $\hat{t}_3$ は$\hat{l}_3$ (z$ 軸上の角運動量作用素の射影) で可換であり、それらは \textit{natural set of coordinates} $(k,u,\phi)$ ここで$\phi$ は方位角である。 第二集合 \textit{natural coordinates} は $(k_1,k_2,u)$ であり、ここで $k_1 = k\cos\phi$, $k_2 = k\sin\phi$ である。 両方の集合において、$\hat{T}_3 = -i\hbar\partial/\partial u$ であるので、$k$ の関数である任意の作用素と \textit{natural variables} $(k, u, \phi)$ commute with $\hat{T}_3$ および $\hat{L}_3$ に関する部分微分が成り立つ。 同様に、$k_1$、$k_2$、および$k_1$、$k_2$、および$u$の偏微分関数である演算子は、$\hat{t}_3$である。 したがって、ここでは演算子 $\hat{p}_{k} \equiv -i \hbar \partial/\partial k$, $\hat{p}^{(k1)} \equiv -i \hbar \partial/\partial k_1$, $\hat{p}^{(k2)} \equiv -i \hbar \partial/\partial k_2$ を導入し、$(x,y,z)$座標で表現する。 例えば、運動量 $\hat{\bf p} \equiv -i\hbar {\bf \nabla}$ や運動エネルギー $\hat{h}_0 \equiv -\hbar^2\delta/(2m)$ といった「トロイダル」演算子 $\hat{t}_3$, $\hat{p}^{(k)}$, $\hat{p}^{(k1)}$, $\hat{p}^{(k2)}$, $\hat{p}^{(k2)}$, $\hat{l}_3$, そして、最終的に $\hat{l}_3$ である。 形式論は、核、凝縮物系、メタマテリアルなどの特定の物理系に適用することができる。 我々は、運動量作用素と自由粒子ハミルトニアンを薄いトーラスの「textit{natural coordinates}」で計算することでこれを例示し、一般関係は大幅に単純化される。

The quantum operator $\hat{T}_3$, corresponding to the projection of the toroidal moment on the $z$ axis, admits several self-adjoint extensions, when defined on the whole $\mathbb{R}^3$ space. $\hat{T}_3$ commutes with $\hat{L}_3$ (the projection of the angular momentum operator on the $z$ axis) and they have a \textit{natural set of coordinates} $(k,u,\phi)$ where $\phi$ is the azimuthal angle. The second set of \textit{natural coordinates} is $(k_1,k_2,u)$, where $k_1 = k\cos\phi$, $k_2 = k\sin\phi$. In both sets, $\hat{T}_3 = -i\hbar\partial/\partial u$, so any operator that is a function of $k$ and the partial derivatives with respect to the \textit{natural variables} $(k, u, \phi)$ commute with $\hat{T}_3$ and $\hat{L}_3$. Similarly, operators that are functions of $k_1$, $k_2$, and the partial derivatives with respect to $k_1$, $k_2$, and $u$ commute with $\hat{T}_3$. Therefore, we introduce here the operators $\hat{p}_{k} \equiv -i \hbar \partial/\partial k$, $\hat{p}^{(k1)} \equiv -i \hbar \partial/\partial k_1$, and $\hat{p}^{(k2)} \equiv -i \hbar \partial/\partial k_2$ and express them in the $(x,y,z)$ coordinates. One may also invert the relations and write the typical operators, like the momentum $\hat{\bf p} \equiv -i\hbar {\bf \nabla}$ or the kinetic energy $\hat{H}_0 \equiv -\hbar^2\Delta/(2m)$ in terms of the "toroidal" operators $\hat{T}_3$, $\hat{p}^{(k)}$, $\hat{p}^{(k1)}$, $\hat{p}^{(k2)}$, and, eventually, $\hat{L}_3$. The formalism may be applied to specific physical systems, like nuclei, condensed matter systems, or metamaterials. We exemplify it by calculating the momentum operator and the free particle Hamiltonian in terms of \textit{natural coordinates} in a thin torus, where the general relations get considerably simplified.
翻訳日:2023-04-15 04:56:58 公開日:2021-01-14
# ブロッホ回転によるフーリエ型量子状態トモグラフィと多量子ビット系の純度測定

Fourier-style Quantum State Tomography and Purity Measurement of a Multi-qubit System from Bloch Rotations ( http://arxiv.org/abs/2101.05860v1 )

ライセンス: Link先を確認
Yariv Yanay, Charles Tahan(参考訳) 量子状態トモグラフィーやその他の量子状態のグローバルな性質の測定は、多くの体物理学を量子シミュレータを通して理解するのに不可欠である。 残念ながら、これらのグローバルな量の推定に必要なシステムの実験的な測定回数は、システムのサイズと指数関数的にスケールする。 ここでは、量子状態トモグラフィーと状態純度推定にランダム軸測定を用いることを検討する。 任意のアルゴリズムに対して,そのような手法における統計的偏差の一般解析を行う。 次に,単パルスX/Y回転のみに依存する単純なプロトコルを提案する。 指数的成長の基礎を減らし、スケールする統計的分散を$\sum_{a,b}\left\lvert\Delta\rho_{ab}\right\rvert^{2}\sim 5^{N}/N_{\rm tot}$ for full tomography, $\left(\Delta\mu\right)^{2}\sim 7^{N}/N_{\rm tot}^{2}$ for purity estimation, for $N$ qubits and $N_{\rm tot}$ measuredとして計算する。

Quantum state tomography and other measures of the global properties of a quantum state are indispensable tools in understanding many body physics through quantum simulators. Unfortunately, the number of experimental measurements of the system required to estimate these global quantities scales exponentially with system size. Here, we consider the use of random-axis measurements for quantum state tomography and state purity estimation. We perform a general analysis of the statistical deviation in such methods for any given algorithm. We then propose a simple protocol which relies on single-pulse X/Y rotations only. We find that it reduces the basis of the exponential growth, calculating the statistical variance to scale as $\sum_{a,b}\left\lvert\Delta\rho_{ab}\right\rvert^{2}\sim 5^{N}/N_{\rm tot}$ for full tomography, and $\left(\Delta\mu\right)^{2}\sim 7^{N}/N_{\rm tot}^{2}$ for purity estimation, for $N$ qubits and $N_{\rm tot}$ measurements performed.
翻訳日:2023-04-15 04:55:42 公開日:2021-01-14
# ロス光子による超高分解能化

Lost photon enhances superresolution ( http://arxiv.org/abs/2101.05849v1 )

ライセンス: Link先を確認
A. Mikhalychev, P. Novik, I. Karuseichyk, D. A. Lyakhov, D. L. Michels, and D. Mogilevtsev(参考訳) 量子イメージングは、光の回折によって課される古典的な解像度限界を超えることができる。 特に、光を絡めて物体を照らし、光子の偶然を測ることで、画像のぼやけを低減し、達成可能な解像度を高めることが知られている。 n$-photon の絡み合った状態を使い、n$th-order 相関関数が測定されると、ポイントスプレッド関数 (psf) は古典コヒーレントイメージングに比べて実質的に$\sqrt n$ 倍狭くなる。 驚くべきことに、n$-photon の相関を計測することは、n$-photon の絡み合った状態が利用可能であればベストな選択ではない。 我々は、$(n-1)$- Photonの一致(つまり、利用可能な光子の1つを無視する)を測るために、PSFをさらに狭めることができることを示した。 この観察は、撮像領域の外側の光子の1つを登録することにより、強い条件分解能向上の道を開く。 本研究は, 解像度向上に必要な条件を分析し, 効果の観察と活用に適した実用的な手法を提案する。

Quantum imaging can beat classical resolution limits, imposed by diffraction of light. In particular, it is known that one can reduce the image blurring and increase the achievable resolution by illuminating an object by entangled light and measuring coincidences of photons. If an $n$-photon entangled state is used and the $n$th-order correlation function is measured, the point-spread function (PSF) effectively becomes $\sqrt n$ times narrower relatively to classical coherent imaging. Quite surprisingly, measuring $n$-photon correlations is not the best choice if an $n$-photon entangled state is available. We show that for measuring $(n-1)$-photon coincidences (thus, ignoring one of the available photons), PSF can be made even narrower. This observation paves a way for a strong conditional resolution enhancement by registering one of the photons outside the imaging area. We analyze the conditions necessary for the resolution increase and propose a practical scheme, suitable for observation and exploitation of the effect.
翻訳日:2023-04-15 04:55:17 公開日:2021-01-14
# 表面重力水波パケットの射影運動:量子力学の類似性

Projectile motion of surface gravity water wave packets: An analogy to quantum mechanics ( http://arxiv.org/abs/2101.05839v1 )

ライセンス: Link先を確認
Georgi Gary Rozenman, Matthias Zimmermann, Maxim A. Efremov, Wolfgang P. Schleich, William B. Case, Daniel M. Greenberger, Lev Shemer, and Ady Arie(参考訳) 本研究では, ガウス表面重力波パケットと非ゼロ初期モータの進化に生じる波動関数の位相寄与について, 有効外部線形ポテンシャルの存在と存在下での伝播について検討した。 我々のアプローチは物質波とは対照的に、水波は振幅と位相の両方を測定することができるという事実を生かしている。

We study phase contributions of wave functions that occur in the evolution of Gaussian surface gravity water wave packets with nonzero initial momenta propagating in the presence and absence of an effective external linear potential. Our approach takes advantage of the fact that in contrast to matter waves, water waves allow us to measure both their amplitudes and phases.
翻訳日:2023-04-15 04:54:57 公開日:2021-01-14
# Stacked DeBERT: テキスト分類のための不完全データのすべての注意

Stacked DeBERT: All Attention in Incomplete Data for Text Classification ( http://arxiv.org/abs/2001.00137v2 )

ライセンス: Link先を確認
Gwenaelle Cunha Sergio and Minho Lee(参考訳) 本稿では,変換器からの双方向エンコーダ表現を省略したStacked DeBERTを提案する。 この新しいモデルは、アテンション機構のみに基づく強力な言語表現モデルであるBERTにおける新しい符号化方式を設計することにより、既存のシステムと比較して不完全データのロバスト性を向上させる。 自然言語処理における不完全なデータは、欠落または不正確な単語を持つテキストを参照し、その存在は、そのようなノイズに耐えるべく実装されなかったが、デュストレス下でもうまく機能しなくてはならない現在のモデルの性能を妨げる可能性がある。 これは、現在のアプローチがクリーンで完全なデータで構築され、訓練されているため、不完全なデータを適切に表現できる特徴を抽出できないためである。 提案手法は,入力トークンに埋め込み層を適用し,バニラトランスを用いて中間入力表現を得る手法である。 これらの中間的な特徴は、よりリッチな入力表現を得る責任を持つ新規なデノイジン変換器への入力として与えられる。 提案手法では,より抽象的かつ有意義な特徴ベクトルを抽出し,多層パーセプトロンの積み重ねを利用して単語の埋め込みを再構成し,埋め込み表現を改善するための双方向トランスフォーマーを提案する。 本稿では,Chatbot Natural Language Understanding Evaluation CorpusとKaggleのTwitter Sentiment Corpusの2つのデータセットについて検討する。 本モデルでは, 感情と意図の分類作業において, 音声テキスト誤りのあるツイートやテキストに現れる非公式/不正テキストにおいて, F1スコアの改善とロバスト性の向上を示す。

In this paper, we propose Stacked DeBERT, short for Stacked Denoising Bidirectional Encoder Representations from Transformers. This novel model improves robustness in incomplete data, when compared to existing systems, by designing a novel encoding scheme in BERT, a powerful language representation model solely based on attention mechanisms. Incomplete data in natural language processing refer to text with missing or incorrect words, and its presence can hinder the performance of current models that were not implemented to withstand such noises, but must still perform well even under duress. This is due to the fact that current approaches are built for and trained with clean and complete data, and thus are not able to extract features that can adequately represent incomplete data. Our proposed approach consists of obtaining intermediate input representations by applying an embedding layer to the input tokens followed by vanilla transformers. These intermediate features are given as input to novel denoising transformers which are responsible for obtaining richer input representations. The proposed approach takes advantage of stacks of multilayer perceptrons for the reconstruction of missing words' embeddings by extracting more abstract and meaningful hidden feature vectors, and bidirectional transformers for improved embedding representation. We consider two datasets for training and evaluation: the Chatbot Natural Language Understanding Evaluation Corpus and Kaggle's Twitter Sentiment Corpus. Our model shows improved F1-scores and better robustness in informal/incorrect texts present in tweets and in texts with Speech-to-Text error in the sentiment and intent classification tasks.
翻訳日:2023-01-16 09:09:56 公開日:2021-01-14
# トレース速度を用いたグローバーアルゴリズムの計算能力の定量化

Quantifying Computational Advantage of Grover's Algorithm with the Trace Speed ( http://arxiv.org/abs/2001.04486v2 )

ライセンス: Link先を確認
Valentin Gebhart, Luca Pezz\`e, Augusto Smerzi(参考訳) 集中的な研究にもかかわらず、量子アルゴリズムによって提供されるスピードアップの物理的起源は謎のままである。 例えば、絡み合いのような一般的な物理量は、必須の有用な資源として除外できない。 本稿では,Groverの探索アルゴリズムにおけるトレース速度と量子スピードアップの密接な関係について報告する。 雑音のないアルゴリズムでは、量子速度アップと疑似純状態の分極の間に1対1の対応があり、これは幅広い量子統計速度と接続できる。 時間依存部分分極および割り込みグロバー探索の場合、スピードアップはアルゴリズム操作中に発生する最大トレース速度によって明確に制限される。 実験により測定可能な物理資源を用いて量子スピードアップを定量化し,マルチパーティントエンタングルメントと量子コヒーレンスと関連づけた。

Despite intensive research, the physical origin of the speed-up offered by quantum algorithms remains mysterious. No general physical quantity, like, for instance, entanglement, can be singled out as the essential useful resource. Here we report a close connection between the trace speed and the quantum speed-up in Grover's search algorithm implemented with pure and pseudo-pure states. For a noiseless algorithm, we find a one-to-one correspondence between the quantum speed-up and the polarization of the pseudo-pure state, which can be connected to a wide class of quantum statistical speeds. For time-dependent partial depolarization and for interrupted Grover searches, the speed-up is specifically bounded by the maximal trace speed that occurs during the algorithm operations. Our results quantify the quantum speed-up with a physical resource that is experimentally measurable and related to multipartite entanglement and quantum coherence.
翻訳日:2023-01-11 23:32:42 公開日:2021-01-14
# Gesticulator: 意味認識型音声駆動ジェスチャー生成フレームワーク

Gesticulator: A framework for semantically-aware speech-driven gesture generation ( http://arxiv.org/abs/2001.09326v5 )

ライセンス: Link先を確認
Taras Kucherenko, Patrik Jonell, Sanne van Waveren, Gustav Eje Henter, Simon Alexanderson, Iolanda Leite, Hedvig Kjellstr\"om(参考訳) 発話中、人々は自発的に身振りで示し、情報伝達において重要な役割を果たす。 同様に、ソーシャルエージェントとの自然な、スムーズな対話を可能にするために、現実的な共同音声ジェスチャーが不可欠である。 現在のエンド・ツー・エンドのジェスチャー生成システムは、音声を表すために単一のモダリティ(音声またはテキスト)を使用する。 したがって、これらのシステムは音響的に連結されたビートジェスチャまたは意味的に連結されたジェスチャ(例えば「高い」と言うときに手を上げる)を生成することに限定されている。 任意のビートとセマンティックなジェスチャーを同時に生成するモデルを提案する。 深層学習に基づくモデルでは,音声の音響表現と意味表現の両方を入力とし,関節角度回転の列を出力としてジェスチャを生成する。 その結果得られるジェスチャーは、仮想エージェントとヒューマノイドロボットの両方に適用できる。 主観的・客観的評価は,アプローチの成功を確認する。 コードとビデオはプロジェクトページ https://svito-zar.github.io/gesticulator で公開されている。

During speech, people spontaneously gesticulate, which plays a key role in conveying information. Similarly, realistic co-speech gestures are crucial to enable natural and smooth interactions with social agents. Current end-to-end co-speech gesture generation systems use a single modality for representing speech: either audio or text. These systems are therefore confined to producing either acoustically-linked beat gestures or semantically-linked gesticulation (e.g., raising a hand when saying "high"): they cannot appropriately learn to generate both gesture types. We present a model designed to produce arbitrary beat and semantic gestures together. Our deep-learning based model takes both acoustic and semantic representations of speech as input, and generates gestures as a sequence of joint angle rotations as output. The resulting gestures can be applied to both virtual agents and humanoid robots. Subjective and objective evaluations confirm the success of our approach. The code and video are available at the project page https://svito-zar.github.io/gesticulator .
翻訳日:2023-01-07 00:24:25 公開日:2021-01-14
# 条件付き正規化流れによる多変量確率時系列予測

Multivariate Probabilistic Time Series Forecasting via Conditioned Normalizing Flows ( http://arxiv.org/abs/2002.06103v3 )

ライセンス: Link先を確認
Kashif Rasul, Abdul-Saboor Sheikh, Ingmar Schuster, Urs Bergmann, Roland Vollgraf(参考訳) 時系列予測はしばしば科学的・工学的な問題の基本であり、意思決定を可能にする。 データセットのサイズが大きくなるにつれて、予測をスケールアップするための簡単な解決策は、相互作用する時系列間の独立性を仮定することだ。 しかし、統計的依存関係のモデリングは精度を向上し、相互作用効果の分析を可能にする。 深層学習法はこの問題によく適合するが、多変量モデルはしばしば単純なパラメトリック分布を仮定し、高次元にスケールしない。 本研究では,データ分布を条件付き正規化フローで表す自己回帰的深層学習モデルを用いて時系列の多変量時間ダイナミクスをモデル化する。 この組み合わせは、将来の補間における優れた性能などの自己回帰モデルと、汎用的な高次元分布モデルとしてのフローの柔軟性を保ちながら、計算的に抽出可能なままである。 数千の対話型時系列を持つ実世界の多くのデータセットにおける標準メトリクスの最先端よりも改善されていることを示す。

Time series forecasting is often fundamental to scientific and engineering problems and enables decision making. With ever increasing data set sizes, a trivial solution to scale up predictions is to assume independence between interacting time series. However, modeling statistical dependencies can improve accuracy and enable analysis of interaction effects. Deep learning methods are well suited for this problem, but multivariate models often assume a simple parametric distribution and do not scale to high dimensions. In this work we model the multivariate temporal dynamics of time series via an autoregressive deep learning model, where the data distribution is represented by a conditioned normalizing flow. This combination retains the power of autoregressive models, such as good performance in extrapolation into the future, with the flexibility of flows as a general purpose high-dimensional distribution model, while remaining computationally tractable. We show that it improves over the state-of-the-art for standard metrics on many real-world data sets with several thousand interacting time-series.
翻訳日:2023-01-01 04:03:51 公開日:2021-01-14
# 複数点の訓練後の量子化:混合精度のない混合精度

Post-training Quantization with Multiple Points: Mixed Precision without Mixed Precision ( http://arxiv.org/abs/2002.09049v3 )

ライセンス: Link先を確認
Xingchao Liu, Mao Ye, Dengyong Zhou, Qiang Liu(参考訳) モデルを再学習することなく、事前学習したディープニューラルネットワークの重みを識別するポストトレーニング量子化問題を考える。 低ビット数の複数ベクトルの線形結合を用いて全精度重みベクトルを近似する量子化法であるマルチポイント量子化法を提案する。 計算上,多点量子化を効率的なグリーディ選択手順で構築し,その出力誤差に基づいて,各量子化された重みベクトル上の低精度点数を適応的に決定する。 これにより、出力に大きな影響を与える重要な重みに対する高い精度レベルを達成でき、「混合精度の影響」をもたらすが、物理的な混合精度実装(特別なハードウェアアクセラレータを必要とする)は不要である。 経験的に、このメソッドは共通オペランドによって実装でき、ほとんどメモリと計算のオーバーヘッドがなくなる。 提案手法は,ImageNet分類における最先端手法よりも優れており,PASCAL VOCオブジェクト検出などの課題に一般化可能であることを示す。

We consider the post-training quantization problem, which discretizes the weights of pre-trained deep neural networks without re-training the model. We propose multipoint quantization, a quantization method that approximates a full-precision weight vector using a linear combination of multiple vectors of low-bit numbers; this is in contrast to typical quantization methods that approximate each weight using a single low precision number. Computationally, we construct the multipoint quantization with an efficient greedy selection procedure, and adaptively decides the number of low precision points on each quantized weight vector based on the error of its output. This allows us to achieve higher precision levels for important weights that greatly influence the outputs, yielding an 'effect of mixed precision' but without physical mixed precision implementations (which requires specialized hardware accelerators). Empirically, our method can be implemented by common operands, bringing almost no memory and computation overhead. We show that our method outperforms a range of state-of-the-art methods on ImageNet classification and it can be generalized to more challenging tasks like PASCAL VOC object detection.
翻訳日:2022-12-30 06:21:42 公開日:2021-01-14
# 非パラメトリック2サンプルテストのためのディープカーネルの学習

Learning Deep Kernels for Non-Parametric Two-Sample Tests ( http://arxiv.org/abs/2002.09116v3 )

ライセンス: Link先を確認
Feng Liu, Wenkai Xu, Jie Lu, Guangquan Zhang, Arthur Gretton, Danica J. Sutherland(参考訳) 2つのサンプルセットが同一分布から引き出されたかどうかを判定するカーネルベースの2つのサンプルテストのクラスを提案する。 私たちのテストは、テストパワーを最大化するためにトレーニングされたディープニューラルネットワークによってパラメータ化されたカーネルから構築されます。 これらの試験は空間上の分布の滑らかさと形状の変化に適応し、特に高次元や複雑なデータに適している。 対照的に、以前のカーネルテストで使われた単純なカーネルは空間的に均質であり、長さスケールでしか適応しない。 本手法は, 一般的な分類器を用いた2サンプル試験を特別な事例として含むが, 一般に改良されている。 提案手法の整合性の最初の証明として,より深い特徴を持つカーネルと,より単純なラジアルベースカーネル,あるいはマルチカーネル学習の両方に適用する。 実験では,ベンチマークおよび実世界のデータを用いた仮説テストにおいて,ディープカーネルの優れた性能を確立する。 ディープカーネルベースの2つのサンプルテストのコードはhttps://github.com/fengliu90/DK-for-TSTで公開されています。

We propose a class of kernel-based two-sample tests, which aim to determine whether two sets of samples are drawn from the same distribution. Our tests are constructed from kernels parameterized by deep neural nets, trained to maximize test power. These tests adapt to variations in distribution smoothness and shape over space, and are especially suited to high dimensions and complex data. By contrast, the simpler kernels used in prior kernel testing work are spatially homogeneous, and adaptive only in lengthscale. We explain how this scheme includes popular classifier-based two-sample tests as a special case, but improves on them in general. We provide the first proof of consistency for the proposed adaptation method, which applies both to kernels on deep features and to simpler radial basis kernels or multiple kernel learning. In experiments, we establish the superior performance of our deep kernels in hypothesis testing on benchmark and real-world data. The code of our deep-kernel-based two sample tests is available at https://github.com/fengliu90/DK-for-TST.
翻訳日:2022-12-30 01:02:44 公開日:2021-01-14
# VMLOC:学習型マルチモーダルカメラローカライゼーションのための変分融合

VMLoc: Variational Fusion For Learning-Based Multimodal Camera Localization ( http://arxiv.org/abs/2003.07289v4 )

ライセンス: Link先を確認
Kaichen Zhou, Changhao Chen, Bing Wang, Muhamad Risqi U. Saputra, Niki Trigoni, Andrew Markham(参考訳) 近年の学習に基づくアプローチは、シングルショットカメラのローカライゼーションの分野で大きな成果を上げている。 しかし、複数のモダリティ(画像や深度など)を融合し、劣化した入力や不足した入力に対処する最善の方法は、あまり研究されていない。 特に、ディープフュージョンに対する従来のアプローチは、単一のモダリティを用いたモデルよりも大幅に改善されないことに留意する。 これは、各モダリティの異なる強さを考慮に入れない和や連結による特徴空間の融合に対するナイーブなアプローチによるものであると推測する。 そこで本稿では,様々なセンサ入力を,poe(variational product-of-experts)と注意に基づく融合によって共通の潜在空間に融合する,vmlocと呼ばれるエンドツーエンドフレームワークを提案する。 従来のマルチモーダル変分法ではバニラ変分オートエンコーダの目的関数を直接適応させるのと異なり,重要重み付けに基づく偏りのない対象関数を用いてカメラの定位を正確に推定できることを示す。 提案モデルはRGB-Dデータセット上で広範囲に評価され,本モデルの有効性が証明された。 ソースコードはhttps://github.com/zalex97/vmlocで入手できる。

Recent learning-based approaches have achieved impressive results in the field of single-shot camera localization. However, how best to fuse multiple modalities (e.g., image and depth) and to deal with degraded or missing input are less well studied. In particular, we note that previous approaches towards deep fusion do not perform significantly better than models employing a single modality. We conjecture that this is because of the naive approaches to feature space fusion through summation or concatenation which do not take into account the different strengths of each modality. To address this, we propose an end-to-end framework, termed VMLoc, to fuse different sensor inputs into a common latent space through a variational Product-of-Experts (PoE) followed by attention-based fusion. Unlike previous multimodal variational works directly adapting the objective function of vanilla variational auto-encoder, we show how camera localization can be accurately estimated through an unbiased objective function based on importance weighting. Our model is extensively evaluated on RGB-D datasets and the results prove the efficacy of our model. The source code is available at https://github.com/Zalex97/VMLoc.
翻訳日:2022-12-24 15:45:36 公開日:2021-01-14
# ポーズ拡張:オブジェクト認識のためのクラス非依存オブジェクトポーズ変換

Pose Augmentation: Class-agnostic Object Pose Transformation for Object Recognition ( http://arxiv.org/abs/2003.08526v4 )

ライセンス: Link先を確認
Yunhao Ge, Jiaping Zhao and Laurent Itti(参考訳) オブジェクトポーズはクラス内のオブジェクト分散を増加させ、2d画像からのオブジェクト認識を困難にする。 分類器を頑健にレンダリングするために、ほとんどのディープニューラルネットワークは、各クラスに多くのポーズを持つ大きなデータセットを使用することで、ポーズの影響を排除しようとする。 本稿では,3次元ヨーとピッチ軸に沿って画像を変換して連続的に追加のポーズを合成する,クラス非依存のオブジェクトポーズ変換ネットワーク(OPT-Net)を提案する。 合成画像はオブジェクト分類器のより良いトレーニングにつながる。 まず、入力された画像のポーズ情報を排除し、ターゲットのポーズ情報を(連続変数として正規化)追加して、ターゲットのポーズを合成する。 我々は、iLab-20Mデータセットからターンテーブルで撮影されたおもちゃの車両の画像に基づいてOPT-Netを訓練した。 不均衡な個別ポーズ(オブジェクトインスタンス毎に6つのポーズを持つ5クラスと2つのポーズを持つ5クラス)をトレーニングした後、OPT-Netはヤウとピッチ軸に沿ったバランスの取れた連続的な新しいポーズを高品質に合成できることを示す。 resnet-18分類器をオリジナルプラス合成ポーズで訓練することで、マップ精度が9%向上する。 さらに、事前学習されたPT-Netは、iLab-20MとRGB-Dの両方で、新しいオブジェクトクラスに一般化することができる。 また、学習した機能がimagenetに一般化できることも示します。

Object pose increases intraclass object variance which makes object recognition from 2D images harder. To render a classifier robust to pose variations, most deep neural networks try to eliminate the influence of pose by using large datasets with many poses for each class. Here, we propose a different approach: a class-agnostic object pose transformation network (OPT-Net) can transform an image along 3D yaw and pitch axes to synthesize additional poses continuously. Synthesized images lead to better training of an object classifier. We design a novel eliminate-add structure to explicitly disentangle pose from object identity: first eliminate pose information of the input image and then add target pose information (regularized as continuous variables) to synthesize any target pose. We trained OPT-Net on images of toy vehicles shot on a turntable from the iLab-20M dataset. After training on unbalanced discrete poses (5 classes with 6 poses per object instance, plus 5 classes with only 2 poses), we show that OPT-Net can synthesize balanced continuous new poses along yaw and pitch axes with high quality. Training a ResNet-18 classifier with original plus synthesized poses improves mAP accuracy by 9% overtraining on original poses only. Further, the pre-trained OPT-Net can generalize to new object classes, which we demonstrate on both iLab-20M and RGB-D. We also show that the learned features can generalize to ImageNet.
翻訳日:2022-12-22 04:14:24 公開日:2021-01-14
# ニューロン線形変換: 集団カウントのためのドメインシフトのモデル化

Neuron Linear Transformation: Modeling the Domain Shift for Crowd Counting ( http://arxiv.org/abs/2004.02133v2 )

ライセンス: Link先を確認
Qi Wang, Tao Han, Junyu Gao, Yuan Yuan(参考訳) 公共の安全の重要性から、クロスドメインの群衆数(cdcc)はホットな話題である。 CDCCの目的は、ソースとターゲットドメイン間のドメインシフトを軽減することである。 近年,画像翻訳と逆学習によるドメイン不変な特徴抽出が試みられている。 特定のタスクに関しては、ドメインシフトがモデルパラメータの違いに反映されていることが分かります。 パラメータレベルでドメインギャップを直接記述するために、ドメイン因子とバイアス重みを利用してドメインシフトを学ぶニューロン線形変換(nlt)法を提案する。 具体的には、ソースモデルの特定のニューロンに対して、nltはラベル付きターゲットデータを使用してドメインシフトパラメータを学習する。 最後に、ターゲットニューロンは線形変換によって生成される。 6つの実世界のデータセットに関する広範囲な実験と分析は、nltが他のドメイン適応法と比較して最高性能を達成することを検証している。 アブレーション研究では、NLTは教師付きおよび微調整訓練よりも堅牢で効果的であることが示されている。 コードは \url{https://github.com/taohan10200/nlt} で入手できる。

Cross-domain crowd counting (CDCC) is a hot topic due to its importance in public safety. The purpose of CDCC is to alleviate the domain shift between the source and target domain. Recently, typical methods attempt to extract domain-invariant features via image translation and adversarial learning. When it comes to specific tasks, we find that the domain shifts are reflected on model parameters' differences. To describe the domain gap directly at the parameter-level, we propose a Neuron Linear Transformation (NLT) method, exploiting domain factor and bias weights to learn the domain shift. Specifically, for a specific neuron of a source model, NLT exploits few labeled target data to learn domain shift parameters. Finally, the target neuron is generated via a linear transformation. Extensive experiments and analysis on six real-world datasets validate that NLT achieves top performance compared with other domain adaptation methods. An ablation study also shows that the NLT is robust and more effective than supervised and fine-tune training. Code is available at: \url{https://github.com/taohan10200/NLT}.
翻訳日:2022-12-16 13:02:52 公開日:2021-01-14
# LOCA: 標準化データ座標のためのローカルコンフォーマルオートエンコーダ

LOCA: LOcal Conformal Autoencoder for standardized data coordinates ( http://arxiv.org/abs/2004.07234v2 )

ライセンス: Link先を確認
Erez Peterfreund, Ofir Lindenbaum, Felix Dietrich, Tom Bertalan, Matan Gavish, Ioannis G. Kevrekidis, Ronald R. Coifman(参考訳) 本稿では,科学的な測定から標準化されたデータ座標を得るための深層学習に基づく手法を提案する。データ観測は,数個の正規化潜在変数によってパラメータ化される基底リーマン多様体の未知の非線形変形からサンプルとしてモデル化される。 繰り返し測定サンプリング戦略を活用することで、多様体の潜伏変数に等長な$\mathbb{R}^d$の埋め込みを学習する手法を提案する。 これらのデータ座標は、変数の滑らかな変化の下で不変であり、同じ現象の異なる観測機器間のマッチングを可能にする。 埋め込みは,局所的なz-scoring法を用いて,関連する幾何情報を保持しながら変形を補正するアルゴリズムであるLOCA(Local Conformal Autoencoder)を用いて得られる。 様々なモデル設定におけるlocaの等尺埋め込み特性を実証し、相互補間および補間能力を示すことを確かめる。 最後に, LOCAを単一サイトWi-Fiローカライゼーションデータに適用し, 2 次元投影に基づく3 次元曲面推定を行う。

We propose a deep-learning based method for obtaining standardized data coordinates from scientific measurements.Data observations are modeled as samples from an unknown, non-linear deformation of an underlying Riemannian manifold, which is parametrized by a few normalized latent variables. By leveraging a repeated measurement sampling strategy, we present a method for learning an embedding in $\mathbb{R}^d$ that is isometric to the latent variables of the manifold. These data coordinates, being invariant under smooth changes of variables, enable matching between different instrumental observations of the same phenomenon. Our embedding is obtained using a LOcal Conformal Autoencoder (LOCA), an algorithm that constructs an embedding to rectify deformations by using a local z-scoring procedure while preserving relevant geometric information. We demonstrate the isometric embedding properties of LOCA on various model settings and observe that it exhibits promising interpolation and extrapolation capabilities. Finally, we apply LOCA to single-site Wi-Fi localization data, and to $3$-dimensional curved surface estimation based on a $2$-dimensional projection.
翻訳日:2022-12-13 02:55:04 公開日:2021-01-14
# 点線視覚慣性オドメトリーにおける平面規則の活用

Leveraging Planar Regularities for Point Line Visual-Inertial Odometry ( http://arxiv.org/abs/2004.11969v2 )

ライセンス: Link先を確認
Xin Li, Yijia He, Jinlong Lin, Xiao Liu(参考訳) モノクルな視覚-慣性オドメトリー(VIO)システムでは、3Dポイントクラウドとカメラモーションを同時に推定することができる。 純粋なスパース3dポイントは環境の無構造表現を提供するため、スパースポイントから3dメッシュを生成することで、環境トポロジーをさらにモデル化し、密接なマッピングを生成することができる。 3Dメッシュの生成とローカライゼーションの精度向上を目的として,平面規則性に加えて点特徴と線特徴を利用する密結合型単分子VIOシステム PLP-VIO を提案する。 共平面性制約は、状態推定器における3次元点と空間線をより正確に推定するために追加構造情報を利用する。 平面および3次元メッシュを頑健に検出するために,検出法において線特徴と点特徴を併用する。 提案手法の有効性を合成データと公開データセットの両方で検証し,他の最先端アルゴリズムと比較した。

With monocular Visual-Inertial Odometry (VIO) system, 3D point cloud and camera motion can be estimated simultaneously. Because pure sparse 3D points provide a structureless representation of the environment, generating 3D mesh from sparse points can further model the environment topology and produce dense mapping. To improve the accuracy of 3D mesh generation and localization, we propose a tightly-coupled monocular VIO system, PLP-VIO, which exploits point features and line features as well as plane regularities. The co-planarity constraints are used to leverage additional structure information for the more accurate estimation of 3D points and spatial lines in state estimator. To detect plane and 3D mesh robustly, we combine both the line features with point features in the detection method. The effectiveness of the proposed method is verified on both synthetic data and public datasets and is compared with other state-of-the-art algorithms.
翻訳日:2022-12-12 22:14:40 公開日:2021-01-14
# ロバストMDPのスケーラブル1次法

Scalable First-Order Methods for Robust MDPs ( http://arxiv.org/abs/2005.05434v5 )

ライセンス: Link先を確認
Julien Grand-Cl\'ement, Christian Kroer(参考訳) Robust Markov Decision Processs (MDPs) は、モデル不確実性を伴うシーケンシャルな意思決定問題をモデル化するための強力なフレームワークである。 本稿では,堅牢なMDPを解くための第1次フレームワークを提案する。 提案手法は初等二次一階更新と近似値反復更新をインターリーブする。 反復更新の精度とコストのトレードオフを慎重に制御することにより、エルゴード収束率は$o \left(a^{2} s^{3}\log(s)\log(\epsilon^{-1}) \epsilon^{-1} \right)$ となる。 我々の状態と行動の数への依存は、純粋な値反復アルゴリズムよりもはるかに良い($O(A^{1.5}S^{1.5})$)。 楕円型不確かさ集合に関する数値実験において,本アルゴリズムは最先端手法よりもかなりスケーラブルであることを示した。 我々のフレームワークはまた、$s$-rectangular KL不確実集合で堅牢なMDPを解く最初のフレームワークである。

Robust Markov Decision Processes (MDPs) are a powerful framework for modeling sequential decision-making problems with model uncertainty. This paper proposes the first first-order framework for solving robust MDPs. Our algorithm interleaves primal-dual first-order updates with approximate Value Iteration updates. By carefully controlling the tradeoff between the accuracy and cost of Value Iteration updates, we achieve an ergodic convergence rate of $O \left( A^{2} S^{3}\log(S)\log(\epsilon^{-1}) \epsilon^{-1} \right)$ for the best choice of parameters on ellipsoidal and Kullback-Leibler $s$-rectangular uncertainty sets, where $S$ and $A$ is the number of states and actions, respectively. Our dependence on the number of states and actions is significantly better (by a factor of $O(A^{1.5}S^{1.5})$) than that of pure Value Iteration algorithms. In numerical experiments on ellipsoidal uncertainty sets we show that our algorithm is significantly more scalable than state-of-the-art approaches. Our framework is also the first one to solve robust MDPs with $s$-rectangular KL uncertainty sets.
翻訳日:2022-12-04 20:57:34 公開日:2021-01-14
# 感性分析:テキストからヴァレンス、感情、その他の感情状態を自動的に検出する

Sentiment Analysis: Automatically Detecting Valence, Emotions, and Other Affectual States from Text ( http://arxiv.org/abs/2005.11882v2 )

ライセンス: Link先を確認
Saif M. Mohammad(参考訳) 機械学習の最近の進歩は、人間の行動に類似したコンピュータシステムへとつながった。 感情をテキストで自動決定する感覚分析は、商取引、公衆衛生、政府の政策、社会科学、芸術において、これまで実現不可能だったような機会に乗じることができる。 さらに、ニュースからソーシャルメディアへの投稿まで、テキスト中の感情の分析は、人々が言語を通して感情を伝える方法だけでなく、感情が行動を形成する方法に対する理解を改善しています。 本稿では,フィールドの起源,タスクの豊かな景観,課題,使用方法とリソースのサーベイ,アプリケーションなどを含む感情分析研究の概要を紹介する。 また,感情分析が有害な結果をもたらす可能性について,慎重に考えることなく議論する。 本稿では,感情分析における公平性を追求する最新の研究動向について概説する。

Recent advances in machine learning have led to computer systems that are human-like in behaviour. Sentiment analysis, the automatic determination of emotions in text, is allowing us to capitalize on substantial previously unattainable opportunities in commerce, public health, government policy, social sciences, and art. Further, analysis of emotions in text, from news to social media posts, is improving our understanding of not just how people convey emotions through language but also how emotions shape our behaviour. This article presents a sweeping overview of sentiment analysis research that includes: the origins of the field, the rich landscape of tasks, challenges, a survey of the methods and resources used, and applications. We also discuss discuss how, without careful fore-thought, sentiment analysis has the potential for harmful outcomes. We outline the latest lines of research in pursuit of fairness in sentiment analysis.
翻訳日:2022-11-29 05:57:57 公開日:2021-01-14
# 社会的帰属による忠実な解釈の調整

Aligning Faithful Interpretations with their Social Attribution ( http://arxiv.org/abs/2006.01067v3 )

ライセンス: Link先を確認
Alon Jacovi, Yoav Goldberg(参考訳) モデル解釈が忠実であることの要求は曖昧で不完全である。 テキストハイライトによる解釈をケーススタディとして,いくつかの障害事例を示す。 社会科学から概念を借用し、その問題は因果関係(因果帰属)と解釈(社会帰属)に対する人間の行動の帰属(社会帰属)の相違であると認識する。 我々は、モデルに対する因果関係の正確な帰属として忠実性を再定式化し、その期待された社会的行動と整合する忠実な因果連鎖の概念を導入する。 因果帰属と社会的帰属の2つのステップは、行動を説明するプロセスを完成させる。 この形式化により、不整合なハイライト解釈の様々な失敗を特徴づけ、問題を治療するための代替因果連鎖を提案する。 最後に,提案する因果形式の強調説明を対比説明を用いて実装する。

We find that the requirement of model interpretations to be faithful is vague and incomplete. With interpretation by textual highlights as a case-study, we present several failure cases. Borrowing concepts from social science, we identify that the problem is a misalignment between the causal chain of decisions (causal attribution) and the attribution of human behavior to the interpretation (social attribution). We re-formulate faithfulness as an accurate attribution of causality to the model, and introduce the concept of aligned faithfulness: faithful causal chains that are aligned with their expected social behavior. The two steps of causal attribution and social attribution together complete the process of explaining behavior. With this formalization, we characterize various failures of misaligned faithful highlight interpretations, and propose an alternative causal chain to remedy the issues. Finally, we implement highlight explanations of the proposed causal format using contrastive explanations.
翻訳日:2022-11-26 05:55:15 公開日:2021-01-14
# 一様収束と低ノルム補間学習について

On Uniform Convergence and Low-Norm Interpolation Learning ( http://arxiv.org/abs/2006.05942v3 )

ライセンス: Link先を確認
Lijia Zhou and Danica J. Sutherland and Nathan Srebro(参考訳) 最小ノルム補間予測器が一貫していることが知られている、不定のノイズ線形回帰モデルを考える。ノルムボール内の一様収束や、アルゴリズムが典型的な入力セットで選択するノルムボールのサブセット(ナガラジャンとコルターに続く)は、この成功を説明することができるか? 経験的誤差と人口的誤差の差を均一に有界化することは、標準球における学習を示さず、正確なアルゴリズムや分布に依存しても、任意の集合に対して一貫性を示すことができないことを示す。 しかし、最小限のノルム補間器の整合性はわずかに弱いが標準的概念で説明できる:標準球におけるゼロエラー予測器の一様収束である。 これを低(しかし最小ではない)ノルム補間予測器の一般化誤差に限定するために使う。

We consider an underdetermined noisy linear regression model where the minimum-norm interpolating predictor is known to be consistent, and ask: can uniform convergence in a norm ball, or at least (following Nagarajan and Kolter) the subset of a norm ball that the algorithm selects on a typical input set, explain this success? We show that uniformly bounding the difference between empirical and population errors cannot show any learning in the norm ball, and cannot show consistency for any set, even one depending on the exact algorithm and distribution. But we argue we can explain the consistency of the minimal-norm interpolator with a slightly weaker, yet standard, notion: uniform convergence of zero-error predictors in a norm ball. We use this to bound the generalization error of low- (but not minimal-) norm interpolating predictors.
翻訳日:2022-11-23 04:49:19 公開日:2021-01-14
# 代替ルート計画手法の比較:メルボルン、ダッカ、コペンハーゲンの道路網の比較ユーザー調査

Comparing Alternative Route Planning Techniques: A Comparative User Study on Melbourne, Dhaka and Copenhagen Road Networks ( http://arxiv.org/abs/2006.08475v2 )

ライセンス: Link先を確認
Lingxiao Li, Muhammad Aamir Cheema, Hua Lu, Mohammed Eunus Ali, Adel N. Toosi(参考訳) 現代のナビゲーションシステムや地図ベースのサービスの多くは、ソース位置 s からターゲット位置 t への最速ルートを提供するだけでなく、選択可能な選択肢としていくつかの代替ルートを提供する。 その結果、代替経路の計算は大きな研究の注目を集めている。 しかしながら、これらの代替品の品質が主に主観的であるため、既存のアプローチのどれがより良い品質の代替経路を生成するのかは明らかではない。 そこで本研究では,メルボルン,ダッカ,コペンハーゲンの道路ネットワーク上で,Googleマップの提供するルートを含む,既存の4つのアプローチのうち,利用者が認識するような代替ルートの質(品質)を比較したユーザスタディを提案する。 また、インターネット対応デバイスでアクセス可能なWebベースのデモシステムを提案し、ユーザが選択したソースとターゲットのペアに対して、4つのアプローチによって生成された代替ルートを見ることができるようにした。 我々は,4つのアプローチが受ける平均評価を報告し,統計分析により,4つのアプローチが平均的に異なる評価を受けるという確証はないことが示された。 また,このユーザスタディの限界についても議論し,参加者の評価に影響を及ぼす要因があるため,読者に注意してこれらの結果を解釈するよう勧める。

Many modern navigation systems and map-based services do not only provide the fastest route from a source location s to a target location t but also provide a few alternative routes to the users as more options to choose from. Consequently, computing alternative paths has received significant research attention. However, it is unclear which of the existing approaches generates alternative routes of better quality because the quality of these alternatives is mostly subjective. Motivated by this, in this paper, we present a user study conducted on the road networks of Melbourne, Dhaka and Copenhagen that compares the quality (as perceived by the users) of the alternative routes generated by four of the most popular existing approaches including the routes provided by Google Maps. We also present a web-based demo system that can be accessed using any internet-enabled device and allows users to see the alternative routes generated by the four approaches for any pair of selected source and target. We report the average ratings received by the four approaches and our statistical analysis shows that there is no credible evidence that the four approaches receive different ratings on average. We also discuss the limitations of this user study and recommend the readers to interpret these results with caution because certain factors may have affected the participants' ratings.
翻訳日:2022-11-21 04:44:14 公開日:2021-01-14
# 共変量シフト下におけるロバストネス予測時間バッチ正規化の評価

Evaluating Prediction-Time Batch Normalization for Robustness under Covariate Shift ( http://arxiv.org/abs/2006.10963v3 )

ライセンス: Link先を確認
Zachary Nado, Shreyas Padhy, D. Sculley, Alexander D'Amour, Balaji Lakshminarayanan, Jasper Snoek(参考訳) 共変量シフトは、予測精度と深層学習モデルの不確実性推定の校正の両方を著しく低下させることが示されている。 covariateシフトは、現実世界のさまざまなデプロイメント設定で広く使われているため、これは心配です。 しかし,本論文では,予測直前に移動したデータの小さなラベルのないバッチにアクセスできる可能性が頻繁に存在することに留意する。 この興味深い観察により、予測時間バッチ正規化と呼ばれる単純だが驚くほど効果的な手法が可能となり、共変量シフト下でのモデルの精度と校正が大幅に向上する。 この1行のコード変更により、最近のcovariate shiftベンチマークと挑戦的なimagenet-cデータセットのmceが60.28\%という最先端の成果を達成しました。 予測時間バッチ正規化は、ロバスト性(例えばディープアンサンブル)を改善するための既存の最先端のアプローチに補完的な利点を与え、この2つを組み合わせることでパフォーマンスがさらに向上することを示す。 本研究は, この戦略が多種多様なデータセットに対する厳密なアブリケーションのモデル行動に与える影響を詳細に測定した結果から裏付けるものである。 しかし,本手法は,事前学習と併用した場合に混在し,より自然なデータセットシフトの下では性能が良くないと考えられるため,さらなる研究に値する。 例えば、Pythonノートブックはhttps://colab.research.google.com/drive/11N0wDZnMQQuLrRwRoumDCrhSaIhkjof.comで簡単に分析を変更できます。

Covariate shift has been shown to sharply degrade both predictive accuracy and the calibration of uncertainty estimates for deep learning models. This is worrying, because covariate shift is prevalent in a wide range of real world deployment settings. However, in this paper, we note that frequently there exists the potential to access small unlabeled batches of the shifted data just before prediction time. This interesting observation enables a simple but surprisingly effective method which we call prediction-time batch normalization, which significantly improves model accuracy and calibration under covariate shift. Using this one line code change, we achieve state-of-the-art on recent covariate shift benchmarks and an mCE of 60.28\% on the challenging ImageNet-C dataset; to our knowledge, this is the best result for any model that does not incorporate additional data augmentation or modification of the training pipeline. We show that prediction-time batch normalization provides complementary benefits to existing state-of-the-art approaches for improving robustness (e.g. deep ensembles) and combining the two further improves performance. Our findings are supported by detailed measurements of the effect of this strategy on model behavior across rigorous ablations on various dataset modalities. However, the method has mixed results when used alongside pre-training, and does not seem to perform as well under more natural types of dataset shift, and is therefore worthy of additional study. We include links to the data in our figures to improve reproducibility, including a Python notebooks that can be run to easily modify our analysis at https://colab.research.google.com/drive/11N0wDZnMQQuLrRwRoumDCrhSaIhkqjof.
翻訳日:2022-11-19 03:48:59 公開日:2021-01-14
# エネルギー分布マッチングによる厳密なバッチ模倣学習

Strictly Batch Imitation Learning by Energy-based Distribution Matching ( http://arxiv.org/abs/2006.14154v2 )

ライセンス: Link先を確認
Daniel Jarrett, Ioana Bica, Mihaela van der Schaar(参考訳) つまり、強化信号へのアクセスがなく、遷移ダイナミクスに関する知識がなく、環境とのさらなる相互作用もない。 この*厳密にバッチ模倣学習*問題は、医療など、ライブ実験がコストがかかる場所で発生する。 1つの解決策は、既存のアルゴリズムをオフライン環境での学習に適合させることだ。 しかし、このようなアプローチは、非政治評価やオフラインモデル推定に大きく依存しており、間接的かつ非効率である可能性がある。 優れたソリューションは、ポリシー(すなわちアクション条件の尊重)を明示的にパラメータ化し、ロールアウトダイナミクス(すなわち状態境界の活用)から暗黙的に学習し、そして(決定的に)完全にオフラインで操作できるべきである、と我々は主張する。 この課題に対処するために、我々は*エネルギーベースの分布マッチング* (EDM): 状態分布の(生成的な)エネルギー関数を持つポリシーの(識別的な)モデルのパラメータ化を同定することにより、EDMは、デモンストレータの占有測度と模倣器のモデルとのばらつきを同等に最小化する、単純で効果的な解を得る。 アプリケーションによる制御と医療設定の実験を通じて、厳密なバッチ模倣学習のための既存のアルゴリズムよりも一貫したパフォーマンス向上を示す。

Consider learning a policy purely on the basis of demonstrated behavior -- that is, with no access to reinforcement signals, no knowledge of transition dynamics, and no further interaction with the environment. This *strictly batch imitation learning* problem arises wherever live experimentation is costly, such as in healthcare. One solution is simply to retrofit existing algorithms for apprenticeship learning to work in the offline setting. But such an approach leans heavily on off-policy evaluation or offline model estimation, and can be indirect and inefficient. We argue that a good solution should be able to explicitly parameterize a policy (i.e. respecting action conditionals), implicitly learn from rollout dynamics (i.e. leveraging state marginals), and -- crucially -- operate in an entirely offline fashion. To address this challenge, we propose a novel technique by *energy-based distribution matching* (EDM): By identifying parameterizations of the (discriminative) model of a policy with the (generative) energy function for state distributions, EDM yields a simple but effective solution that equivalently minimizes a divergence between the occupancy measure for the demonstrator and a model thereof for the imitator. Through experiments with application to control and healthcare settings, we illustrate consistent performance gains over existing algorithms for strictly batch imitation learning.
翻訳日:2022-11-17 02:53:41 公開日:2021-01-14
# ポイントワイズと集合異常検出のためのランダム分割森林 -侵入検知への応用-

Random Partitioning Forest for Point-Wise and Collective Anomaly Detection -- Application to Intrusion Detection ( http://arxiv.org/abs/2006.16801v2 )

ライセンス: Link先を確認
Pierre-Francois Marteau(参考訳) 本稿では,ランダム分割二分木からなるアンサンブルアプローチであるDiFF-RFを提案する。 この半教師付きアプローチは、木の葉の葉で使用される距離に基づくパラダイムのおかげで、孤立林(IF)アルゴリズムで同定された欠点を解消する。 さらに,無作為な木の葉への訪問頻度を考慮すると,集団異常の有無を考慮してDiFF-RFの性能を著しく向上させることができる。 DiFF-RFは訓練が比較的簡単で、簡単な半教師付き手順で導入したハイパーパラメータをセットアップすることで優れた性能を得ることができる。 まず、合成データセット上でDiFF-RFを評価する。 i) ifアルゴリズムの制限が克服されることを確認する。 二 集団的異常が実際にどのように検出され、 三 メタパラメータの効果を分析すること。 UCIレポジトリからの大きなデータセットと,侵入検出アプリケーションに関連する2つのベンチマークに基づいて,DiFF-RFアルゴリズムを評価する。 実験の結果,DiFF-RFはIFアルゴリズムをほぼ体系的に上回り,一級SVMベースラインとディープラーニング変分オートエンコーダアーキテクチャに挑戦していることがわかった。 さらに、私たちの経験から、DiFF-RFは、ディープラーニングアーキテクチャでは逆の難易度を持つ、小規模な学習データの存在下でうまく機能することを示す。 最後に、DiFF-RFは計算効率が良く、マルチコアアーキテクチャで容易に並列化できる。

In this paper, we propose DiFF-RF, an ensemble approach composed of random partitioning binary trees to detect point-wise and collective (as well as contextual) anomalies. Thanks to a distance-based paradigm used at the leaves of the trees, this semi-supervised approach solves a drawback that has been identified in the isolation forest (IF) algorithm. Moreover, taking into account the frequencies of visits in the leaves of the random trees allows to significantly improve the performance of DiFF-RF when considering the presence of collective anomalies. DiFF-RF is fairly easy to train, and excellent performance can be obtained by using a simple semi-supervised procedure to setup the extra hyper-parameter that is introduced. We first evaluate DiFF-RF on a synthetic data set to i) verify that the limitation of the IF algorithm is overcome, ii) demonstrate how collective anomalies are actually detected and iii) to analyze the effect of the meta-parameters it involves. We assess the DiFF-RF algorithm on a large set of datasets from the UCI repository, as well as two benchmarks related to intrusion detection applications. Our experiments show that DiFF-RF almost systematically outperforms the IF algorithm, but also challenges the one-class SVM baseline and a deep learning variational auto-encoder architecture. Furthermore, our experience shows that DiFF-RF can work well in the presence of small-scale learning data, which is conversely difficult for deep neural architectures. Finally, DiFF-RF is computationally efficient and can be easily parallelized on multi-core architectures.
翻訳日:2022-11-15 14:04:38 公開日:2021-01-14
# ディープニューラルネットワーク間の変換

Transformations between deep neural networks ( http://arxiv.org/abs/2007.05646v3 )

ライセンス: Link先を確認
Tom Bertalan and Felix Dietrich and Ioannis G. Kevrekidis(参考訳) 本稿では,2つの異なるニューラルネットワーク間の等価性を検証するために,多様体学習手法を用いてデータ駆動変換を構築することを提案する。 特に、マハラノビスのような計量を持つ拡散写像を用いる。 この構成が成功すると、2つのネットワークは同じ同値クラスに属すると考えることができる。 まず、2つのネットワークの出力のみ間の変換関数について論じ、次に各ネットワークの複数の内部ニューロンの出力(アクティベーション)を考慮した変換についても検討する。 一般に、ホイットニーの定理は、第2のネットワークの各特徴を再構築するのに必要なネットワークの1つからの測定数を決定する。 変換関数の構成は、ネットワーク入力空間の一貫性のある本質的な表現に依存している。 学習するために訓練されたニューラルネットワークペアをマッチングして (a)スカラー関数の観測 (b)二次元ベクトル場の観測,及び (c)動く3次元物体(回転馬)の画像の表現。 異なるネットワークインスタンス間の同値クラスの構築は、転送学習と明確に関連している。 また、異なる機器と異なる研究グループで観測された同じ現象の異なる機械学習ベースのモデル間の等価性を確立することにも価値があると期待している。

We propose to test, and when possible establish, an equivalence between two different artificial neural networks by attempting to construct a data-driven transformation between them, using manifold-learning techniques. In particular, we employ diffusion maps with a Mahalanobis-like metric. If the construction succeeds, the two networks can be thought of as belonging to the same equivalence class. We first discuss transformation functions between only the outputs of the two networks; we then also consider transformations that take into account outputs (activations) of a number of internal neurons from each network. In general, Whitney's theorem dictates the number of measurements from one of the networks required to reconstruct each and every feature of the second network. The construction of the transformation function relies on a consistent, intrinsic representation of the network input space. We illustrate our algorithm by matching neural network pairs trained to learn (a) observations of scalar functions; (b) observations of two-dimensional vector fields; and (c) representations of images of a moving three-dimensional object (a rotating horse). The construction of such equivalence classes across different network instantiations clearly relates to transfer learning. We also expect that it will be valuable in establishing equivalence between different Machine Learning-based models of the same phenomenon observed through different instruments and by different research groups.
翻訳日:2022-11-11 21:14:06 公開日:2021-01-14
# VINNAS: 変分推論に基づくニューラルネットワークアーキテクチャ探索

VINNAS: Variational Inference-based Neural Network Architecture Search ( http://arxiv.org/abs/2007.06103v5 )

ライセンス: Link先を確認
Martin Ferianc, Hongxiang Fan and Miguel Rodrigues(参考訳) 近年,ニューラル・アーキテクチャ・サーチ(nas)は,画像分類や物体検出などのさまざまな人工知能タスクにおいて,精度の高いニューラル・アーキテクチャを探索する能力から,科学的・工業的な関心を集めている。 特に、勾配に基づくNASアプローチは、探索中の計算効率により、より一般的なアプローチの1つとなっている。 しかし、これらの手法は、ネットワーク全体の単一の操作タイプを選択することや、様々なデータセットや検索空間のローカルミニマで停止することに依存するアルゴリズムによって、発見されたアーキテクチャの品質が低下するモード崩壊をしばしば経験する。 これらの欠陥に対処するために、スパース畳み込みニューラルネットワークを探索するための可変変分推論に基づくNAS法を提案する。 提案手法は,パラメータの過大なスーパーグラフにおいて,自動帰属決定に先立って変動的ドロップアウトを用いて候補演算を外すことで最適なニューラルアーキテクチャを見いだし,モード崩壊を危険にさらすことなく,不要な操作や接続を徐々に除去する。 異なる画像データセットを分類するために、ニューラルネットワークを形成する2種類の畳み込みセルを探索して評価を行う。 提案手法は,非ゼロパラメータの約2倍の精度で最先端の精度を示しながら,多様なネットワークセルを探索する。

In recent years, neural architecture search (NAS) has received intensive scientific and industrial interest due to its capability of finding a neural architecture with high accuracy for various artificial intelligence tasks such as image classification or object detection. In particular, gradient-based NAS approaches have become one of the more popular approaches thanks to their computational efficiency during the search. However, these methods often experience a mode collapse, where the quality of the found architectures is poor due to the algorithm resorting to choosing a single operation type for the entire network, or stagnating at a local minima for various datasets or search spaces. To address these defects, we present a differentiable variational inference-based NAS method for searching sparse convolutional neural networks. Our approach finds the optimal neural architecture by dropping out candidate operations in an over-parameterised supergraph using variational dropout with automatic relevance determination prior, which makes the algorithm gradually remove unnecessary operations and connections without risking mode collapse. The evaluation is conducted through searching two types of convolutional cells that shape the neural network for classifying different image datasets. Our method finds diverse network cells, while showing state-of-the-art accuracy with up to almost 2 times fewer non-zero parameters.
翻訳日:2022-11-11 05:10:52 公開日:2021-01-14
# Mirostat: 難易度を直接制御するニューラルテキスト復号アルゴリズム

Mirostat: A Neural Text Decoding Algorithm that Directly Controls Perplexity ( http://arxiv.org/abs/2007.14966v2 )

ライセンス: Link先を確認
Sourya Basu, Govardana Sachitanandam Ramachandran, Nitish Shirish Keskar, Lav R. Varshney(参考訳) 言語モデルを用いた高品質テキスト生成には, ニューラルテキストの復号化が重要である。 高品質なテキストを生成するために、トップk、トップp(核)、温度ベースサンプリングといった一般的な復号アルゴリズムが言語モデルの信頼できない低確率テールを切断または歪ませる。 これらの方法はパラメータチューニング後に高品質なテキストを生成するが、アドホックである。 最近の報告では、テキストの品質が特定の可能性の範囲で最も高いことが示されており、出力の統計に対する制御についてはあまり分かっていない。 本稿では,まず,トップk,トップp,温度サンプリングにおけるパープレキシティの理論的解析を行い,クロスエントロピーはトップpサンプリングにおけるpの関数としてほぼ線形に振る舞うが,トップkサンプリングではkの非線形関数である。 この分析手法を用いて,任意の長さのテキストを生成するミロスタットという,フィードバックに基づく適応型トップkテキスト復号アルゴリズムを設計する。 実験の結果,k と p の値が低い場合,k と p のサンプリングでは,テキストの長さが増加し,テキスト中の過剰な繰り返し(退屈トラップ)と相関することが明らかとなった。 一方, k と p の値が大きい場合には,テキストの非コヒーレンス(コンフュージョントラップ)と相関するテキスト長によってパープレキシティが増大することがわかった。 実験により、クロスエントロピーは生成されたテキストの繰り返しとほぼ直線的な関係を持つことが示された。 この関係はサンプリング法とほぼ独立であるが、使用したモデルに若干依存する。 したがって、ある言語モデルに対して、パープレキシティの制御もまた繰り返しの制御を与える。 人間のレーナーによる実験は、流布、コヒーレンス、品質がさらに検証される。

Neural text decoding is important for generating high-quality texts using language models. To generate high-quality text, popular decoding algorithms like top-k, top-p (nucleus), and temperature-based sampling truncate or distort the unreliable low probability tail of the language model. Though these methods generate high-quality text after parameter tuning, they are ad hoc. Not much is known about the control they provide over the statistics of the output, which is important since recent reports show text quality is highest for a specific range of likelihoods. Here, first we provide a theoretical analysis of perplexity in top-k, top-p, and temperature sampling, finding that cross-entropy behaves approximately linearly as a function of p in top-p sampling whereas it is a nonlinear function of k in top-k sampling, under Zipfian statistics. We use this analysis to design a feedback-based adaptive top-k text decoding algorithm called mirostat that generates text (of any length) with a predetermined value of perplexity, and thereby high-quality text without any tuning. Experiments show that for low values of k and p in top-k and top-p sampling, perplexity drops significantly with generated text length, which is also correlated with excessive repetitions in the text (the boredom trap). On the other hand, for large values of k and p, we find that perplexity increases with generated text length, which is correlated with incoherence in the text (confusion trap). Mirostat avoids both traps: experiments show that cross-entropy has a near-linear relation with repetition in generated text. This relation is almost independent of the sampling method but slightly dependent on the model used. Hence, for a given language model, control over perplexity also gives control over repetitions. Experiments with human raters for fluency, coherence, and quality further verify our findings.
翻訳日:2022-11-05 20:45:53 公開日:2021-01-14
# 限定レコードを用いた市場セグメント需要予測のための関係認識型メタラーニング

Relation-aware Meta-learning for Market Segment Demand Prediction with Limited Records ( http://arxiv.org/abs/2008.00181v2 )

ライセンス: Link先を確認
Jiatu Shi, Huaxiu Yao, Xian Wu, Tong Li, Zedong Lin, Tengfei Wang, Binqiang Zhao(参考訳) 電子商取引ビジネスは、便利で簡単なサービスを提供することで、ショッピング体験に革命をもたらしている。 最も根本的な問題の1つは、効率的なプラットフォームを構築するために市場セグメントの需要と供給のバランスをとる方法である。 従来型の機械学習モデルは、データ不足セグメントで大きな成功を収めてきたが、十分に訓練されたモデルを学習するのに十分なレコードがないeコマースプラットフォームでは、大量のセグメントで失敗する可能性がある。 本稿では,市場セグメント需要予測の文脈でこの問題に取り組む。 目標は、データに十分なソースセグメントから学習知識を活用することで、ターゲットセグメントでの学習プロセスを促進することである。 具体的には,マルチパターン融合ネットワーク(mpfn)をメタラーニングパラダイムに組み込む新しいアルゴリズムであるrmldpを提案する。 マルチパターン融合ネットワークは、セグメント需要予測のための局所パターンと季節パターンの両方を考慮する。 メタラーニングパラダイムでは、伝達可能な知識はMPFNのモデルパラメータ初期化と見なされ、様々なソースセグメントから学習される。 さらに,データ駆動セグメント表現とセグメントナレッジグラフ表現を組み合わせてセグメント関係を捉え,セグメント固有関係を調整して転送可能なモデルパラメータの初期化をカスタマイズする。 したがって、限られたデータであっても、ターゲットセグメントは、最も関連性の高い伝達知識を素早く見つけ、最適なパラメータに適応することができる。 2つの大規模産業データセットについて広範な実験を行った。 その結果、RMLDPは最先端のベースラインよりも優れています。 さらに、RMLDPは現実世界のEコマースプラットフォームであるTaobaoにデプロイされている。 オンラインA/Bテストの結果はさらにRMLDPの実用性を示している。

E-commerce business is revolutionizing our shopping experiences by providing convenient and straightforward services. One of the most fundamental problems is how to balance the demand and supply in market segments to build an efficient platform. While conventional machine learning models have achieved great success on data-sufficient segments, it may fail in a large-portion of segments in E-commerce platforms, where there are not sufficient records to learn well-trained models. In this paper, we tackle this problem in the context of market segment demand prediction. The goal is to facilitate the learning process in the target segments by leveraging the learned knowledge from data-sufficient source segments. Specifically, we propose a novel algorithm, RMLDP, to incorporate a multi-pattern fusion network (MPFN) with a meta-learning paradigm. The multi-pattern fusion network considers both local and seasonal temporal patterns for segment demand prediction. In the meta-learning paradigm, transferable knowledge is regarded as the model parameter initialization of MPFN, which are learned from diverse source segments. Furthermore, we capture the segment relations by combining data-driven segment representation and segment knowledge graph representation and tailor the segment-specific relations to customize transferable model parameter initialization. Thus, even with limited data, the target segment can quickly find the most relevant transferred knowledge and adapt to the optimal parameters. We conduct extensive experiments on two large-scale industrial datasets. The results justify that our RMLDP outperforms a set of state-of-the-art baselines. Besides, RMLDP has been deployed in Taobao, a real-world E-commerce platform. The online A/B testing results further demonstrate the practicality of RMLDP.
翻訳日:2022-11-04 01:14:37 公開日:2021-01-14
# E-Tree Learning:エッジAIのための新しい分散モデル学習フレームワーク

E-Tree Learning: A Novel Decentralized Model Learning Framework for Edge AI ( http://arxiv.org/abs/2008.01553v2 )

ライセンス: Link先を確認
Lei Yang, Yanyan Lu, Jiannong Cao, Jiaming Huang, Mingjin Zhang(参考訳) 従来、aiモデルは中央クラウドでトレーニングされ、エンドデバイスからデータを収集する。 これにより、通信コスト、応答時間、プライバシの懸念が高まる。 最近、エッジ強化AI、すなわちエッジAIは、データソースに近いネットワークエッジでのAIモデル学習とデプロイメントをサポートするために提案されている。 フェデレーション学習を含む既存の研究では、中央サーバがクライアント/労働者からモデル更新を集約するモデル学習のための集中型アーキテクチャを採用している。 集中型アーキテクチャには、パフォーマンスボトルネック、スケーラビリティの低下、単一障害点などの欠点がある。 本稿では,エッジデバイスによく設計された木構造を利用した分散モデル学習手法,すなわちE-Treeを提案する。 木構造と木上のアグリゲーションの位置と順序は、トレーニング収束性とモデルの精度を向上させるために最適に設計されている。 特に、デバイス上のデータ分布とネットワーク距離を考慮し、KMAによって命名された効率的なデバイスクラスタリングアルゴリズムをE-Tree向けに設計する。 評価結果から,E-Treeはモデル精度と収束度の観点から,非IIDデータ下でのフェデレーション学習やゴシップ学習などのベンチマーク手法よりも有意に優れていた。

Traditionally, AI models are trained on the central cloud with data collected from end devices. This leads to high communication cost, long response time and privacy concerns. Recently Edge empowered AI, namely Edge AI, has been proposed to support AI model learning and deployment at the network edge closer to the data sources. Existing research including federated learning adopts a centralized architecture for model learning where a central server aggregates the model updates from the clients/workers. The centralized architecture has drawbacks such as performance bottleneck, poor scalability and single point of failure. In this paper, we propose a novel decentralized model learning approach, namely E-Tree, which makes use of a well-designed tree structure imposed on the edge devices. The tree structure and the locations and orders of aggregation on the tree are optimally designed to improve the training convergency and model accuracy. In particular, we design an efficient device clustering algorithm, named by KMA, for E-Tree by taking into account the data distribution on the devices as well as the the network distance. Evaluation results show E-Tree significantly outperforms the benchmark approaches such as federated learning and Gossip learning under NonIID data in terms of model accuracy and convergency.
翻訳日:2022-11-03 01:06:30 公開日:2021-01-14
# 転校学習で何が移管されているのか?

What is being transferred in transfer learning? ( http://arxiv.org/abs/2008.11687v2 )

ライセンス: Link先を確認
Behnam Neyshabur and Hanie Sedghi and Chiyuan Zhang(参考訳) マシンの望ましい能力の1つは、あるドメインの知識を(通常)データが不足している別のドメインに転送する能力である。 各種深層学習アプリケーションにおける伝達学習の適応度は十分にあるものの,どの部分で転送が成功し,ネットワークのどの部分がそれに責任を持つのかは,まだ分かっていない。 本稿では,これらの基本的な問題に対処するための新しいツールと分析を提供する。 ブロックシャッフル画像への転送に関する一連の分析を通じて,特徴再利用の効果を低レベルのデータ統計の学習から切り離し,転送学習のメリットが後者にあることを示す。 事前学習した重みからトレーニングする場合、モデルは損失ランドスケープの同じ流域に留まり、そのようなモデルの異なるインスタンスは特徴空間と類似しており、パラメータ空間は近接している。

One desired capability for machines is the ability to transfer their knowledge of one domain to another where data is (usually) scarce. Despite ample adaptation of transfer learning in various deep learning applications, we yet do not understand what enables a successful transfer and which part of the network is responsible for that. In this paper, we provide new tools and analyses to address these fundamental questions. Through a series of analyses on transferring to block-shuffled images, we separate the effect of feature reuse from learning low-level statistics of data and show that some benefit of transfer learning comes from the latter. We present that when training from pre-trained weights, the model stays in the same basin in the loss landscape and different instances of such model are similar in feature space and close in parameter space.
翻訳日:2022-10-24 21:01:35 公開日:2021-01-14
# VR-Caps: カプセル内視鏡のための仮想環境

VR-Caps: A Virtual Environment for Capsule Endoscopy ( http://arxiv.org/abs/2008.12949v2 )

ライセンス: Link先を確認
Kagan Incetan, Ibrahim Omer Celik, Abdulhamid Obeid, Guliz Irem Gokceler, Kutsev Bengisu Ozyoruk, Yasin Almalioglu, Richard J. Chen, Faisal Mahmood, Hunter Gilbert, Nicholas J. Durr, Mehmet Turan(参考訳) 現在のカプセル内視鏡と消化器疾患の診断と治療のための次世代ロボットカプセルは複雑なサイバー物理プラットフォームであり、複雑なソフトウェアとハードウェアの機能を調整する必要がある。 これらのシステムの望ましいタスクには、視覚的位置決め、深度推定、3Dマッピング、疾患検出とセグメンテーション、自動ナビゲーション、能動制御、経路実現、標的薬物の送達や生検サンプリングなどの任意の治療モジュールが含まれる。 データ駆動アルゴリズムはカプセル内視鏡の多くの高度な機能を実現することを約束するが、現実のデータを得るのは難しい。 合成データを提供する物理的現実的シミュレーションは、データ駆動アルゴリズムの開発に対する解決策として登場した。 本稿では,カプセル内視鏡手術のための総合的なシミュレーションプラットフォームについて紹介するとともに,正常および異常な組織状態(例えば,膨らんだ,乾いた,濡れた,など)と様々な臓器タイプ,カプセル内視鏡設計(モノ,ステレオ,デュアル,360{\deg}カメラなど)をシミュレートする仮想アクティブカプセル環境vr-capsと,アクティブロコモーションを可能にする内部及び外部磁気源のタイプ,数,強度,配置について紹介する。 VR-Capsは、現在および次世代のカプセルシステムのための医療画像解析ソフトウェアを独立または共同開発、最適化、テストできる。 このアプローチを検証するために,vr-capsのシミュレーションデータを用いて,最先端の深層ニューラルネットワークを訓練し,様々な医用画像解析タスクを行い,実際の医用データを用いたモデルの性能評価を行う。 その結果,分数カバレッジ,カメラ軌跡,3次元地図再構成,疾患分類を定量化するアルゴリズムの開発において,提案する仮想プラットフォームの有用性と有効性を示した。

Current capsule endoscopes and next-generation robotic capsules for diagnosis and treatment of gastrointestinal diseases are complex cyber-physical platforms that must orchestrate complex software and hardware functions. The desired tasks for these systems include visual localization, depth estimation, 3D mapping, disease detection and segmentation, automated navigation, active control, path realization and optional therapeutic modules such as targeted drug delivery and biopsy sampling. Data-driven algorithms promise to enable many advanced functionalities for capsule endoscopes, but real-world data is challenging to obtain. Physically-realistic simulations providing synthetic data have emerged as a solution to the development of data-driven algorithms. In this work, we present a comprehensive simulation platform for capsule endoscopy operations and introduce VR-Caps, a virtual active capsule environment that simulates a range of normal and abnormal tissue conditions (e.g., inflated, dry, wet etc.) and varied organ types, capsule endoscope designs (e.g., mono, stereo, dual and 360{\deg}camera), and the type, number, strength, and placement of internal and external magnetic sources that enable active locomotion. VR-Caps makes it possible to both independently or jointly develop, optimize, and test medical imaging and analysis software for the current and next-generation endoscopic capsule systems. To validate this approach, we train state-of-the-art deep neural networks to accomplish various medical image analysis tasks using simulated data from VR-Caps and evaluate the performance of these models on real medical data. Results demonstrate the usefulness and effectiveness of the proposed virtual platform in developing algorithms that quantify fractional coverage, camera trajectory, 3D map reconstruction, and disease classification.
翻訳日:2022-10-23 17:03:24 公開日:2021-01-14
# SPAN:画像操作局所化のための空間ピラミッド注意ネットワーク

SPAN: Spatial Pyramid Attention Network forImage Manipulation Localization ( http://arxiv.org/abs/2009.00726v2 )

ライセンス: Link先を確認
Xuefeng Hu, Zhihan Zhang, Zhenye Jiang, Syomantak Chaudhuri, Zhenheng Yang, Ram Nevatia(参考訳) 本稿では,複数種類の画像操作の検出と位置決定のための空間ピラミッド注意ネットワーク(SPAN)を提案する。 提案するアーキテクチャは,局所的自己アテンションブロックのピラミッドを構築し,複数のスケールで画像パッチ間の関係を効率的かつ効果的にモデル化する。 この設計はパッチの空間的位置を符号化する新しい位置投影を含む。 SPANは汎用的な合成データセットに基づいてトレーニングされているが、特定のデータセットに対して微調整することもできる。

We present a novel framework, Spatial Pyramid Attention Network (SPAN) for detection and localization of multiple types of image manipulations. The proposed architecture efficiently and effectively models the relationship between image patches at multiple scales by constructing a pyramid of local self-attention blocks. The design includes a novel position projection to encode the spatial positions of the patches. SPAN is trained on a generic, synthetic dataset but can also be fine tuned for specific datasets; The proposed method shows significant gains in performance on standard datasets over previous state-of-the-art methods.
翻訳日:2022-10-23 01:38:00 公開日:2021-01-14
# MATS:計画と制御のための解釈可能な軌道予測表現

MATS: An Interpretable Trajectory Forecasting Representation for Planning and Control ( http://arxiv.org/abs/2009.07517v2 )

ライセンス: Link先を確認
Boris Ivanovic, Amine Elhafsi, Guy Rosman, Adrien Gaidon, Marco Pavone(参考訳) 人間の動きに関する推論は、現代の人間とロボットの対話システムの中核要素である。 特に、自律システムにおける行動予測の主な用途の1つは、ロボットの動作計画と制御を知らせることである。 しかし、計画と制御アルゴリズムの大多数は、予測されたエージェントトラックレット(すなわち、経路予測法によって一般的に出力される経路ポイントの順序セット)よりも、システムのダイナミクスを理由付けしている。 そこで本研究では,アフィン時間変動システム(mats)の混合を,下流計画や制御用途に適した軌道予測のための出力表現として提案する。 提案手法は, 確率的軌道予測から成功したアイデアを活用し, 計画と制御の文献でよく研究されている力学系表現を学習する。 提案するマルチモーダル計画手法と予測を統合し,大規模自律運転データセット上での計算効率の向上を実証する。

Reasoning about human motion is a core component of modern human-robot interactive systems. In particular, one of the main uses of behavior prediction in autonomous systems is to inform robot motion planning and control. However, a majority of planning and control algorithms reason about system dynamics rather than the predicted agent tracklets (i.e., ordered sets of waypoints) that are commonly output by trajectory forecasting methods, which can hinder their integration. Towards this end, we propose Mixtures of Affine Time-varying Systems (MATS) as an output representation for trajectory forecasting that is more amenable to downstream planning and control use. Our approach leverages successful ideas from probabilistic trajectory forecasting works to learn dynamical system representations that are well-studied in the planning and control literature. We integrate our predictions with a proposed multimodal planning methodology and demonstrate significant computational efficiency improvements on a large-scale autonomous driving dataset.
翻訳日:2022-10-18 00:55:43 公開日:2021-01-14
# 顔のスーパーレゾリューションと編集のためのマルチエクセプラーに基づく幻覚

Multiple Exemplars-based Hallucinationfor Face Super-resolution and Editing ( http://arxiv.org/abs/2009.07827v3 )

ライセンス: Link先を確認
Kaili Wang, Jose Oramas, Tinne Tuytelaars(参考訳) 超低解像度の入力画像(例えば16x16または8x8ピクセル)が与えられた場合、本稿の目標は高解像度版を再構築することである。 これはそれ自体は、低解像度入力に高周波情報が欠落しており、画像内容に関する事前の知識に基づいて幻覚する必要があるため、不適切な問題である。 本論文では,前もってジェネリックな顔に頼るのではなく,同じ人物の高解像度画像など,一組の模範的イメージの利用を探求する。 これらは、出力を条件としてニューラルネットワークをガイドします。 複数の例題は1つよりもうまく機能します。 複数の例からの情報を効果的に結合するために,画素単位の重み生成モジュールを導入する。 標準の超精細度に加えて, 顔特徴の異なる別のセットに置き換えるだけで, 微妙な顔編集を行うことができる。 ユーザ調査を行い、celebaデータセット上の実画像とスーパー解決画像とを区別できないことを示す。 定性的比較は,celeba と webface データセットの文献で提案されている手法を上回っていることを示す。

Given a really low-resolution input image of a face (say 16x16 or 8x8 pixels), the goal of this paper is to reconstruct a high-resolution version thereof. This, by itself, is an ill-posed problem, as the high-frequency information is missing in the low-resolution input and needs to be hallucinated, based on prior knowledge about the image content. Rather than relying on a generic face prior, in this paper, we explore the use of a set of exemplars, i.e. other high-resolution images of the same person. These guide the neural network as we condition the output on them. Multiple exemplars work better than a single one. To combine the information from multiple exemplars effectively, we introduce a pixel-wise weight generation module. Besides standard face super-resolution, our method allows to perform subtle face editing simply by replacing the exemplars with another set with different facial features. A user study is conducted and shows the super-resolved images can hardly be distinguished from real images on the CelebA dataset. A qualitative comparison indicates our model outperforms methods proposed in the literature on the CelebA and WebFace dataset.
翻訳日:2022-10-18 00:32:01 公開日:2021-01-14
# CNNを用いたポストプロセッシングによる映像圧縮

Video Compression with CNN-based Post Processing ( http://arxiv.org/abs/2009.07583v2 )

ライセンス: Link先を確認
Fan Zhang, Di Ma, Chen Feng and David R. Bull(参考訳) 近年,映像圧縮技術は,高品質で没入的な映像コンテンツに対する要求が急速に高まっているため,大きな課題となっている。 様々な圧縮ツールの中で、後処理が再構成された映像コンテンツに適用され、可視圧縮アーチファクトが軽減され、全体的な知覚品質が向上する。 ディープラーニングの進歩に触発されて,最新の2つのコーディング標準であるvvcとav1を統合した,cnnベースのポストプロセッシング手法を提案する。 これらの結果から,PSNRの評価値から,各テストシーケンスの平均ビットレートは4.0%,AV1に対して5.8%と,様々な空間解像度で一貫した符号ゲインを示した。 また、このネットワークは知覚にインスパイアされた損失関数で訓練されており、知覚品質評価(VMAF)に基づく再構築品質がさらに向上し、平均符号ゲインはVVCが13.9%、AV1が10.5%となった。

In recent years, video compression techniques have been significantly challenged by the rapidly increased demands associated with high quality and immersive video content. Among various compression tools, post-processing can be applied on reconstructed video content to mitigate visible compression artefacts and to enhance overall perceptual quality. Inspired by advances in deep learning, we propose a new CNN-based post-processing approach, which has been integrated with two state-of-the-art coding standards, VVC and AV1. The results show consistent coding gains on all tested sequences at various spatial resolutions, with average bit rate savings of 4.0% and 5.8% against original VVC and AV1 respectively (based on the assessment of PSNR). This network has also been trained with perceptually inspired loss functions, which have further improved reconstruction quality based on perceptual quality assessment (VMAF), with average coding gains of 13.9% over VVC and 10.5% against AV1.
翻訳日:2022-10-18 00:29:28 公開日:2021-01-14
# 不可分品による最大項目の特質の達成

Achieving Proportionality up to the Maximin Item with Indivisible Goods ( http://arxiv.org/abs/2009.09508v3 )

ライセンス: Link先を確認
Artem Baklanov, Pranav Garimidi, Vasilis Gkatzelis, Daniel Schoepflin(参考訳) 我々は,不可分な商品を公平に割る問題を研究し,古典的公平性概念である比例性に焦点をあてた。 商品の不可分性は、フェアネスを達成するために非常に非自明な障害となることが長く知られており、非常に活発な研究は、それらを近似フェアネスの適切な概念を用いて回避することを目的としている。 近年の研究では、比例性(PROPx)の近似バージョンでさえ、小さなインスタンスでも達成できないことが確認されているが、最もよく知られた達成可能な近似(PROP1)はより弱い。 本稿では,最大値項目(PROPm)に比例性の概念を導入し,最大5エージェントの付加的評価を含む場合において,この概念を満たすアロケーションにどのように到達するかを示す。 PROPm は PROP1 と PROPx の中間層として,十分に研究されたmaximin Share (MMS) ベンチマークのいくつかの要素も取得している。

We study the problem of fairly allocating indivisible goods and focus on the classic fairness notion of proportionality. The indivisibility of the goods is long known to pose highly non-trivial obstacles to achieving fairness, and a very vibrant line of research has aimed to circumvent them using appropriate notions of approximate fairness. Recent work has established that even approximate versions of proportionality (PROPx) may be impossible to achieve even for small instances, while the best known achievable approximations (PROP1) are much weaker. We introduce the notion of proportionality up to the maximin item (PROPm) and show how to reach an allocation satisfying this notion for any instance involving up to five agents with additive valuations. PROPm provides a well-motivated middle-ground between PROP1 and PROPx, while also capturing some elements of the well-studied maximin share (MMS) benchmark: another relaxation of proportionality that has attracted a lot of attention.
翻訳日:2022-10-16 13:10:51 公開日:2021-01-14
# 映像テキスト表現学習のためのサポートセットボトルネック

Support-set bottlenecks for video-text representation learning ( http://arxiv.org/abs/2010.02824v2 )

ライセンス: Link先を確認
Mandela Patrick, Po-Yao Huang, Yuki Asano, Florian Metze, Alexander Hauptmann, Jo\~ao Henriques, Andrea Vedaldi(参考訳) ビデオテキスト表現(ノイズコントラスト学習)を学ぶための支配的なパラダイムは、同じサンプルからテキストやビデオなど、関連があることが知られているサンプルのペアの表現の類似性を高め、他のすべてのペアの表現を排除している。 例えば、視覚的に類似したビデオや、同じ描写されたアクションを共有するサンプルであっても、この最後の行動は厳格すぎると仮定する。 本稿では,これらの関連標本を自然にプッシュするために生成モデルを用いることにより,これを緩和する新しい手法を提案する。 この単純なアイデアは、表現が個々のサンプルに過度に特殊化されていないことを保証し、データセット全体で再利用され、ノイズコントラスト学習とは異なり、サンプル間で共有されるセマンティクスを明示的にエンコードする表現をもたらす。 提案手法は,MSR-VTT,VATEX,ActivityNet,MSVDにおいて,ビデオ・テキスト・テキスト・ビデオ検索やテキスト・トゥ・ビデオ検索において,他よりも優れている。

The dominant paradigm for learning video-text representations -- noise contrastive learning -- increases the similarity of the representations of pairs of samples that are known to be related, such as text and video from the same sample, and pushes away the representations of all other pairs. We posit that this last behaviour is too strict, enforcing dissimilar representations even for samples that are semantically-related -- for example, visually similar videos or ones that share the same depicted action. In this paper, we propose a novel method that alleviates this by leveraging a generative model to naturally push these related samples together: each sample's caption must be reconstructed as a weighted combination of other support samples' visual representations. This simple idea ensures that representations are not overly-specialized to individual samples, are reusable across the dataset, and results in representations that explicitly encode semantics shared between samples, unlike noise contrastive learning. Our proposed method outperforms others by a large margin on MSR-VTT, VATEX and ActivityNet, and MSVD for video-to-text and text-to-video retrieval.
翻訳日:2022-10-10 07:32:30 公開日:2021-01-14
# 分布データを用いたロバスト半教師付き学習

Robust Semi-Supervised Learning with Out of Distribution Data ( http://arxiv.org/abs/2010.03658v2 )

ライセンス: Link先を確認
Xujiang Zhao, Killamsetty Krishnateja, Rishabh Iyer, Feng Chen(参考訳) 最近の半教師付き学習(SSL)研究は、より良いラベル付きデータ表現を用いてSSLアルゴリズムの性能を大幅に改善したことを示している。 しかし、最近の研究[Oliver et al., 2018]は、未ラベルセットが配布外例(OOD)を持つ場合、SSLアルゴリズムのパフォーマンスが低下する可能性があることを示している。 本研究は,OODがSSLアルゴリズムに負の影響を及ぼす重大な原因を最初に研究する。 その結果,(1) SSLアルゴリズムの性能に対するOODの効果は,決定境界までの距離が減少するにつれて増大し,(2) 人気モジュールである Batch Normalization (BN) は,ラベルなしセットがOODを含む場合に性能を低下させることなく,性能を劣化させることができた。 このような問題に対処するため,既存のSSLアルゴリズムに容易に拡張可能な新しい統一ロバストSSL手法を提案し,OODに対するロバスト性を向上した。 具体的には、BNのOODに対する堅牢性を改善するため、重み付けバッチ正規化と呼ばれるバッチ正規化の簡単な修正を提案する。 また,計算効率と精度のトレードオフが異なる2つの高パラメータ最適化アルゴリズムを開発した。 総合的および実世界のデータセットに関する広範囲な実験により,提案手法が4つの代表的なsslアルゴリズムのoodに対するロバスト性を大幅に向上していることが証明された。

Recent Semi-supervised learning (SSL) works show significant improvement in SSL algorithms' performance using better-unlabeled data representations. However, recent work [Oliver et al., 2018] shows that the SSL algorithm's performance could degrade when the unlabeled set has out-of-distribution examples (OODs). In this work, we first study the critical causes of OOD's negative impact on SSL algorithms. We found that (1) the OOD's effect on the SSL algorithm's performance increases as its distance to the decision boundary decreases, and (2) Batch Normalization (BN), a popular module, could degrade the performance instead of improving the performance when the unlabeled set contains OODs. To address the above causes, we proposed a novel unified-robust SSL approach that can be easily extended to many existing SSL algorithms, and improve their robustness against OODs. In particular, we propose a simple modification of batch normalization, called weighted batch normalization, that improves BN's robustness against OODs. We also developed two efficient hyper-parameter optimization algorithms that have different tradeoffs in computational efficiency and accuracy. Extensive experiments on synthetic and real-world datasets prove that our proposed approaches significantly improves the robustness of four representative SSL algorithms against OODs compared with four state-of-the-art robust SSL approaches.
翻訳日:2022-10-09 23:57:00 公開日:2021-01-14
# 多解像度畳み込みニューラルネットワークを用いた炎症・線維性肺のCT画像分割

CT Image Segmentation for Inflamed and Fibrotic Lungs Using a Multi-Resolution Convolutional Neural Network ( http://arxiv.org/abs/2010.08582v2 )

ライセンス: Link先を確認
Sarah E. Gerard and Jacob Herrmann and Yi Xin and Kevin T. Martin and Emanuele Rezoagli and Davide Ippolito and Giacomo Bellani and Maurizio Cereda and Junfeng Guo and Eric A. Hoffman and David W. Kaczka and Joseph M. Reinhardt(参考訳) 本研究の目的は,肺病変の種々の密度に頑健な完全自動分節法を開発し,ct画像の迅速定量化を容易にすることであった。 copdのあるヒトの左右の肺に特異的にラベルを付け、急性肺損傷のある動物の非特異的にラベル付けされた肺を単一のニューラルネットワークのトレーニングに組み込む多型訓練手法が提案されている。 結果として生じるネットワークは、ヒトの左右の肺領域を、びまん性オパーシフィケーションと凝縮を伴わずに予測することを目的としている。 提案した肺分画アルゴリズムの性能は, COPD, COVID-19, 肺癌, IPFの3つの疾患のトレーニングデータにラベルが付けられていないにもかかわらず, CTスキャンで広く評価された。 LobeNetアルゴリズムの入力として,左肺,右肺のセグメンテーションを用いてローバーセグメンテーションを得た。 地域ローバー分析を階層的クラスタリングを用いて行い,covid-19のx線サブタイプを同定した。 提案する肺分画アルゴリズムは, 87例のct画像において, 半自動的および手作業による分節化を用いて定量的に評価され, 平均対称表面距離0.495 \pm 0.309$mm, dice係数0.985 \pm 0.011$となった。 階層的クラスタリングにより、統合組織と低酸素組織のローバー分画に基づいて、covid-19の放射線学的表現型を4つ同定した。 右下葉と左下葉は, 通気性が低く, 統合性も良好であった。 しかし,最も重篤な症例は全葉の関与を示した。 ポリモーフィックトレーニングのアプローチは、新型コロナウイルスの患者を訓練に必要とせず、拡散凝縮で正確にセグメンテーションすることができた。

The purpose of this study was to develop a fully-automated segmentation algorithm, robust to various density enhancing lung abnormalities, to facilitate rapid quantitative analysis of computed tomography images. A polymorphic training approach is proposed, in which both specifically labeled left and right lungs of humans with COPD, and nonspecifically labeled lungs of animals with acute lung injury, were incorporated into training a single neural network. The resulting network is intended for predicting left and right lung regions in humans with or without diffuse opacification and consolidation. Performance of the proposed lung segmentation algorithm was extensively evaluated on CT scans of subjects with COPD, confirmed COVID-19, lung cancer, and IPF, despite no labeled training data of the latter three diseases. Lobar segmentations were obtained using the left and right lung segmentation as input to the LobeNet algorithm. Regional lobar analysis was performed using hierarchical clustering to identify radiographic subtypes of COVID-19. The proposed lung segmentation algorithm was quantitatively evaluated using semi-automated and manually-corrected segmentations in 87 COVID-19 CT images, achieving an average symmetric surface distance of $0.495 \pm 0.309$ mm and Dice coefficient of $0.985 \pm 0.011$. Hierarchical clustering identified four radiographical phenotypes of COVID-19 based on lobar fractions of consolidated and poorly aerated tissue. Lower left and lower right lobes were consistently more afflicted with poor aeration and consolidation. However, the most severe cases demonstrated involvement of all lobes. The polymorphic training approach was able to accurately segment COVID-19 cases with diffuse consolidation without requiring COVID-19 cases for training.
翻訳日:2022-10-06 20:57:38 公開日:2021-01-14
# 因果移動ランダムフォレスト:ロバスト予測のためのログデータとランダム化実験を組み合わせる

Causal Transfer Random Forest: Combining Logged Data and Randomized Experiments for Robust Prediction ( http://arxiv.org/abs/2010.08710v2 )

ライセンス: Link先を確認
Shuxi Zeng, Murat Ali Bayir, Joesph J.Pfeiffer III, Denis Charles, Emre Kiciman(参考訳) 予測モデルがトレーニングとテストデータ間の分散シフトに頑健であることは、しばしば重要である。 因果関係の観点からは、安定した因果関係とシフト間の不安定な急激な相関を区別することが課題である。 本稿では,既存のトレーニングデータとランダム化実験から得た少量のデータを組み合わせて,特徴シフトに頑健なモデルを訓練し,新たなターゲット分布へ移行する因果伝達ランダムフォレスト(CTRF)について述べる。 理論的には、因果学習の知識を用いて特徴シフトに対するアプローチの強固さを正当化する。 実験では,クリック予測タスクを含むbing adsプラットフォームにおける合成データ実験と実世界の実験の両方を用いてctrfを評価する。 提案したCTRFは,特徴シフトが存在する場合と比較して,ロバストな予測を行い,ほとんどのベースライン法より優れる。

It is often critical for prediction models to be robust to distributional shifts between training and testing data. From a causal perspective, the challenge is to distinguish the stable causal relationships from the unstable spurious correlations across shifts. We describe a causal transfer random forest (CTRF) that combines existing training data with a small amount of data from a randomized experiment to train a model which is robust to the feature shifts and therefore transfers to a new targeting distribution. Theoretically, we justify the robustness of the approach against feature shifts with the knowledge from causal learning. Empirically, we evaluate the CTRF using both synthetic data experiments and real-world experiments in the Bing Ads platform, including a click prediction task and in the context of an end-to-end counterfactual optimization system. The proposed CTRF produces robust predictions and outperforms most baseline methods compared in the presence of feature shifts.
翻訳日:2022-10-06 09:10:32 公開日:2021-01-14
# 連合学習におけるバックドア攻撃の緩和

Mitigating Backdoor Attacks in Federated Learning ( http://arxiv.org/abs/2011.01767v2 )

ライセンス: Link先を確認
Chen Wu, Xian Yang, Sencun Zhu, Prasenjit Mitra(参考訳) 悪意のあるクライアントは、トレーニングフェーズ中にバックドアサンプルを含む悪意のあるデータを使用して、連合学習システムを攻撃することができる。 妥協されたグローバルモデルは、タスク用に設計された検証データセットでうまく機能するが、バックドアパターンを持つデータの小さなサブセットが、モデルに誤った予測をさせる可能性がある。 攻撃を隠そうとするアタッカーと、サーバ側のトレーニングのアグリゲーション段階で攻撃を検知しようとするディフェンダーとの間には、武器競争があった。 本研究では,訓練後のバックドア攻撃を軽減するための新しい効果的な手法を提案する。 具体的には,ネットワーク内の冗長なニューロンを除去し,モデルの極端な重み値を調整するフェデレートプルーニング法を設計する。 分散ファッションマニストを用いた実験では,検証データセットで平均攻撃成功率を99.7%から1.9%に削減し,検証精度を5.5%低下させることができた。 プルーニングがテスト精度に与える影響を最小限に抑えるため、プルーニング後の微調整が可能であり、攻撃成功率は6.4%に低下し、テスト精度は1.7%に留まった。 cifar-10の分散バックドア攻撃によるさらなる実験では、平均攻撃成功率が70%以上低下し、検証データセットでテスト精度が2%未満低下するという有望な結果が得られた。

Malicious clients can attack federated learning systems using malicious data, including backdoor samples, during the training phase. The compromised global model will perform well on the validation dataset designed for the task, but a small subset of data with backdoor patterns may trigger the model to make a wrong prediction. There has been an arms race between attackers who tried to conceal attacks and defenders who tried to detect attacks during the aggregation stage of training on the server-side. In this work, we propose a new and effective method to mitigate backdoor attacks after the training phase. Specifically, we design a federated pruning method to remove redundant neurons in the network and then adjust the model's extreme weight values. Our experiments conducted on distributed Fashion-MNIST show that our method can reduce the average attack success rate from 99.7% to 1.9% with a 5.5% loss of test accuracy on the validation dataset. To minimize the pruning influence on test accuracy, we can fine-tune after pruning, and the attack success rate drops to 6.4%, with only a 1.7% loss of test accuracy. Further experiments under Distributed Backdoor Attacks on CIFAR-10 also show promising results that the average attack success rate drops more than 70% with less than 2% loss of test accuracy on the validation dataset.
翻訳日:2022-10-02 06:21:59 公開日:2021-01-14
# 分子動力学とサンプリングの不確かさ推定

Uncertainty estimation for molecular dynamics and sampling ( http://arxiv.org/abs/2011.08828v2 )

ライセンス: Link先を確認
Giulio Imbalzano, Yongbin Zhuang, Venkat Kapil, Kevin Rossi, Edgar A. Engel, Federico Grasselli, Michele Ceriotti(参考訳) 機械学習モデルは、時間を要する電子構造計算を回避し、サイズ、時間スケール、複雑さの正確なシミュレーションを可能にする、非常に効果的な戦略として登場した。 これらのモデルの補間的性質を考えると、予測の信頼性は位相空間における位置に依存し、モデルのトレーニング中に含まれる有限個の参照構造から導かれる誤差を推定することは非常に重要である。 機械学習ポテンシャルを用いて有限温度アンサンブルをサンプリングすると、個々の構成の不確かさは熱力学的平均の誤差に変換され、シミュレーションが以前未探索領域に入ったときの精度の低下を示す。 本稿では,不確実性定量化とベースラインエネルギーモデル,あるいはより強固な原子間ポテンシャル,よりレジリエントなシミュレーションの獲得,アクティブラーニング戦略のサポートについて論じる。 さらに,長軌跡から抽出した熱力学的平均値の不確かさを推定できるオンザフライリウィーディング方式を導入する。 本報告では, 水や液体ガリウムほど多様な構造特性と熱力学特性, システムについて述べる。

Machine learning models have emerged as a very effective strategy to sidestep time-consuming electronic-structure calculations, enabling accurate simulations of greater size, time scale and complexity. Given the interpolative nature of these models, the reliability of predictions depends on the position in phase space, and it is crucial to obtain an estimate of the error that derives from the finite number of reference structures included during the training of the model. When using a machine-learning potential to sample a finite-temperature ensemble, the uncertainty on individual configurations translates into an error on thermodynamic averages, and provides an indication for the loss of accuracy when the simulation enters a previously unexplored region. Here we discuss how uncertainty quantification can be used, together with a baseline energy model, or a more robust although less accurate interatomic potential, to obtain more resilient simulations and to support active-learning strategies. Furthermore, we introduce an on-the-fly reweighing scheme that makes it possible to estimate the uncertainty in the thermodynamic averages extracted from long trajectories. We present examples covering different types of structural and thermodynamic properties, and systems as diverse as water and liquid gallium.
翻訳日:2022-09-27 08:40:33 公開日:2021-01-14
# MultiStar: Star-Convexポリゴンによる重なり合う物体のインスタンスセグメンテーション

MultiStar: Instance Segmentation of Overlapping Objects with Star-Convex Polygons ( http://arxiv.org/abs/2011.13228v2 )

ライセンス: Link先を確認
Florin C. Walter, Sebastian Damrich, Fred A. Hamprecht(参考訳) 生体画像における重なり合う物体のインスタンスセグメンテーションは、ほとんど未解決の問題である。 この課題を取り上げ、人気のあるインスタンスセグメンテーションメソッドであるStarDistの拡張であるMultiStarを紹介します。 提案手法の重要な特徴は,オブジェクトが重なり合う画素を特定し,この情報を用いて提案サンプリングを改善し,真に重なり合うオブジェクトの提案を抑制することにある。 これにより、重ね合わされたオブジェクトのイメージにStarDistのアイデアを適用することができ、確立されたメソッドに比べてオーバーヘッドはわずかである。 MultiStarは、2つのデータセットで有望な結果を示し、ネットワークアーキテクチャをシンプルで簡単にトレーニングできるという利点がある。

Instance segmentation of overlapping objects in biomedical images remains a largely unsolved problem. We take up this challenge and present MultiStar, an extension to the popular instance segmentation method StarDist. The key novelty of our method is that we identify pixels at which objects overlap and use this information to improve proposal sampling and to avoid suppressing proposals of truly overlapping objects. This allows us to apply the ideas of StarDist to images with overlapping objects, while incurring only a small overhead compared to the established method. MultiStar shows promising results on two datasets and has the advantage of using a simple and easy to train network architecture.
翻訳日:2022-09-20 12:15:41 公開日:2021-01-14
# 類似度に基づくチャネルマッピングとユーザポジショニングの予測

Similarity-based prediction for channel mapping and user positioning ( http://arxiv.org/abs/2101.05217v2 )

ライセンス: Link先を確認
Luc Le Magoarou (IRT b-com, Hypermedia)(参考訳) 無線ネットワークでは,アップリンクチャネル計測のみに基づく移動体ユーザの基地局での情報収集が興味深い課題である。 実際、ユーザのロケーションへのアクセスとダウンリンクチャネルの予測は、ネットワーク効率を最適化するために特に有用でしょう。 本稿では,これらのタスクを統一的に処理する教師あり機械学習手法を提案する。 これは、ベースステーションが操作中に簡単に取得できるラベル付きデータベースに依存している。 提案手法は,非パラメトリック推定器で初期化した計算効率の良い2層ニューラルネットワークである。 位置決めとチャネルマッピングのタスクの両方において、現実的なチャネルデータで示され、以前提案されていたアプローチよりも低いコストでより良い結果が得られる。

In a wireless network, gathering information at the base station about mobile users based only on uplink channel measurements is an interesting challenge. Indeed, accessing the users locations and predicting their downlink channels would be particularly useful in order to optimize the network efficiency. In this paper, a supervised machine learning approach addressing these tasks in an unified way is proposed. It relies on a labeled database that can be acquired in a simple way by the base station while operating. The proposed regression method can be seen as a computationally efficient two layers neural network initialized with a non-parametric estimator. It is illustrated on realistic channel data, both for the positioning and channel mapping tasks, achieving better results than previously proposed approaches, at a lower cost.
翻訳日:2021-05-25 03:41:22 公開日:2021-01-14
# ロジスティック損失を伴う勾配降下は、いつ補間された2層ネットワークを見つけるのか?

When does gradient descent with logistic loss find interpolating two-layer networks? ( http://arxiv.org/abs/2012.02409v2 )

ライセンス: Link先を確認
Niladri S. Chatterji, Philip M. Long, Peter L. Bartlett(参考訳) ロジスティック損失を用いた二元分類のための有限幅2層平滑reluネットワークの学習について検討した。 勾配降下は,初期損失が十分に小さい場合,トレーニング損失をゼロにすることを示した。 あるクラスタと分離条件を満たし、ネットワークが十分に広い場合には、勾配降下の一段階が損失を十分に減少させ、最初の結果が適用できることを示す。

We study the training of finite-width two-layer smoothed ReLU networks for binary classification using the logistic loss. We show that gradient descent drives the training loss to zero if the initial loss is small enough. When the data satisfies certain cluster and separation conditions and the network is wide enough, we show that one step of gradient descent reduces the loss sufficiently that the first result applies.
翻訳日:2021-05-22 20:46:04 公開日:2021-01-14
# 話者認証と言語識別に関するwav2vec 2.0の探索

Exploring wav2vec 2.0 on speaker verification and language identification ( http://arxiv.org/abs/2012.06185v2 )

ライセンス: Link先を確認
Zhiyun Fan, Meng Li, Shiyu Zhou, Bo Xu(参考訳) Wav2vec 2.0は、音声表現学習のための自己教師型フレームワークである。 プリトレーニングと微調整の2段階のトレーニングプロセスに従い、音声認識タスク、特に超低リソースケースでよく機能する。 本研究では,話者検証と言語識別に自己教師付きフレームワークを拡張しようとする。 まず、wav2vec 2.0が話者と言語に関する情報をキャプチャできることを示す予備実験を行う。 次に,両タスクにおけるwav2vec 2.0の有効性を示す。 話者検証のために、VoxCeleb1データセット上で、EER(Equal Error Rate)の3.61%の新たな最先端結果を得る。 言語識別では,AP17-OLRデータセットの完全長条件で1秒条件で12.02%,EERで3.47%を得る。 最後に,2つのタスクに対するマルチタスク学習による統一モデリングを実現するために,1つのモデルを利用する。

Wav2vec 2.0 is a recently proposed self-supervised framework for speech representation learning. It follows a two-stage training process of pre-training and fine-tuning, and performs well in speech recognition tasks especially ultra-low resource cases. In this work, we attempt to extend self-supervised framework to speaker verification and language identification. First, we use some preliminary experiments to indicate that wav2vec 2.0 can capture the information about the speaker and language. Then we demonstrate the effectiveness of wav2vec 2.0 on the two tasks respectively. For speaker verification, we obtain a new state-of-the-art result, Equal Error Rate (EER) of 3.61% on the VoxCeleb1 dataset. For language identification, we obtain an EER of 12.02% on 1 second condition and an EER of 3.47% on full-length condition of the AP17-OLR dataset. Finally, we utilize one model to achieve the unified modeling by the multi-task learning for the two tasks.
翻訳日:2021-05-11 02:54:38 公開日:2021-01-14
# Friedrichs Learning:ディープラーニングによる部分微分方程式の弱解

Friedrichs Learning: Weak Solutions of Partial Differential Equations via Deep Learning ( http://arxiv.org/abs/2012.08023v2 )

ライセンス: Link先を確認
Fan Chen and Jianguo Huang and Chunmei Wang and Haizhao Yang(参考訳) 本稿では,PDE問題を最小限の最適化問題に変換し,弱解を同定する,PDEの弱解を最小限の定式化によって学習できる新しいディープラーニング手法として,Friedrichs Learningを提案する。 フリードリッヒ学習」という名前は、我々の学習戦略とPDEの対称系に関するフリードリヒス理論の密接な関係を強調するためのものである。 弱い解と弱い定式化におけるテスト関数は、メッシュフリーでディープニューラルネットワークとしてパラメータ化され、それぞれ弱解と最適試験関数を近似する最適解ネットワークにアプローチするように交互に更新される。 有限差分法や有限要素法といった古典的数値解法を適用すれば,様々な次元の正則領域や不規則領域で定義される広範囲のpdesに対して,メッシュフリー法が合理的に優れた解を与える可能性が示唆された。

This paper proposes Friedrichs learning as a novel deep learning methodology that can learn the weak solutions of PDEs via a minmax formulation, which transforms the PDE problem into a minimax optimization problem to identify weak solutions. The name "Friedrichs learning" is for highlighting the close relationship between our learning strategy and Friedrichs theory on symmetric systems of PDEs. The weak solution and the test function in the weak formulation are parameterized as deep neural networks in a mesh-free manner, which are alternately updated to approach the optimal solution networks approximating the weak solution and the optimal test function, respectively. Extensive numerical results indicate that our mesh-free method can provide reasonably good solutions to a wide range of PDEs defined on regular and irregular domains in various dimensions, where classical numerical methods such as finite difference methods and finite element methods may be tedious or difficult to be applied.
翻訳日:2021-05-07 05:07:51 公開日:2021-01-14
# ニューラルボリュームレンダリング:NeRFとそれ以上

Neural Volume Rendering: NeRF And Beyond ( http://arxiv.org/abs/2101.05204v2 )

ライセンス: Link先を確認
Frank Dellaert, Lin Yen-Chen(参考訳) 新型コロナウイルス(COVID-19)のパンデミックや米国での政治的混乱に加え、2020年はミルデンホールらによる印象的なNeRF論文がきっかけとなり、ニューラルボリュームのレンダリングが現場に爆発した年でもあった。 (2020). FrankはGithubのコレクション(Yen-Chen, 2020)で、ブログ投稿(Dellaert, 2020)とYen-Chen(Yen-Chen, 2020)でこう述べている。 本書は関連論文の注釈付き書誌であり,関連するbibtexファイルはリポジトリに掲載した。

Besides the COVID-19 pandemic and political upheaval in the US, 2020 was also the year in which neural volume rendering exploded onto the scene, triggered by the impressive NeRF paper by Mildenhall et al. (2020). Both of us have tried to capture this excitement, Frank on a blog post (Dellaert, 2020) and Yen-Chen in a Github collection (Yen-Chen, 2020). This note is an annotated bibliography of the relevant papers, and we posted the associated bibtex file on the repository.
翻訳日:2021-05-02 07:15:09 公開日:2021-01-14
# 戦略的非保持データを用いた分類

Classification with Strategically Withheld Data ( http://arxiv.org/abs/2012.10203v2 )

ライセンス: Link先を確認
Anilesh K. Krishnaswamy, Haoming Li, David Rein, Hanrui Zhang, and Vincent Conitzer(参考訳) 機械学習のテクニックは、クレジット承認や大学入学などのアプリケーションで有用である。 しかし、そのような文脈でより有利に分類するために、エージェントは、悪いテストスコアのようないくつかの特徴を戦略的に保持することを決定できる。 どのデータが欠けているかは、選択された分類器に依存する。なぜなら、特定の分類器は、特定の特徴値を保持するインセンティブを生み出す可能性があるからである。 我々は,この行動に頑健な分類器を訓練する問題に対処する。 我々は3つの分類法を設計する: {\sc Mincut}, {\sc Hill-Climbing} ({\sc HC}) およびIncentive-Compatible Logistic Regression ({\sc IC-LR})。 データの真の分布が完全に分かっている場合, {\sc Mincut} が最適であることを示す。 しかし、複雑な決定境界を生じさせるため、場合によってはオーバーフィットしがちである。 真理的な分類器(すなわち、戦略的に特徴を隠す動機を持たないもの)の特徴付けに基づいて、我々は収束していることを示す特別なヒルクライミング手順を用いて訓練された、既成の分類器の階層的なアンサンブルからなるより単純な選択肢である {\sc hc} を考案する。 いくつかの理由から、sc Mincut} と {\sc HC} は多くの相補的な情報的特徴を利用するには効果がない。 この目的のために、ロジスティック回帰の修正である {\sc IC-LR} を提示する。 また,本アルゴリズムは実世界のデータセット実験において良好な性能を示し,その相対的性能に関する知見を異なる設定で提示する。

Machine learning techniques can be useful in applications such as credit approval and college admission. However, to be classified more favorably in such contexts, an agent may decide to strategically withhold some of her features, such as bad test scores. This is a missing data problem with a twist: which data is missing {\em depends on the chosen classifier}, because the specific classifier is what may create the incentive to withhold certain feature values. We address the problem of training classifiers that are robust to this behavior. We design three classification methods: {\sc Mincut}, {\sc Hill-Climbing} ({\sc HC}) and Incentive-Compatible Logistic Regression ({\sc IC-LR}). We show that {\sc Mincut} is optimal when the true distribution of data is fully known. However, it can produce complex decision boundaries, and hence be prone to overfitting in some cases. Based on a characterization of truthful classifiers (i.e., those that give no incentive to strategically hide features), we devise a simpler alternative called {\sc HC} which consists of a hierarchical ensemble of out-of-the-box classifiers, trained using a specialized hill-climbing procedure which we show to be convergent. For several reasons, {\sc Mincut} and {\sc HC} are not effective in utilizing a large number of complementarily informative features. To this end, we present {\sc IC-LR}, a modification of Logistic Regression that removes the incentive to strategically drop features. We also show that our algorithms perform well in experiments on real-world data sets, and present insights into their relative performance in different settings.
翻訳日:2021-05-01 18:00:42 公開日:2021-01-14
# 横断歩道のエンド・ツー・エンドの深層構造モデル

End-to-End Deep Structured Models for Drawing Crosswalks ( http://arxiv.org/abs/2012.11585v3 )

ライセンス: Link先を確認
Justin Liang, Raquel Urtasun(参考訳) 本稿では,LiDARとカメラ画像から横断歩道を検出する問題に対処する。 この目標に向けて、複数のLiDARスイープと対応する画像が与えられた場合、両方の入力を地上に投影し、シーンのトップダウンビューを生成する。 次に,畳み込みニューラルネットワークを用いて横断歩道の位置に関する意味的手がかりを抽出する。 その後、これらは自由に利用できる地図(OpenStreetMapsなど)の道路中心線と組み合わせて、最終横断歩道の境界線を引く構造最適化問題を解く。 大都市の横断歩道における実験の結果,96.6%の自動化が達成できた。

In this paper we address the problem of detecting crosswalks from LiDAR and camera imagery. Towards this goal, given multiple LiDAR sweeps and the corresponding imagery, we project both inputs onto the ground surface to produce a top down view of the scene. We then leverage convolutional neural networks to extract semantic cues about the location of the crosswalks. These are then used in combination with road centerlines from freely available maps (e.g., OpenStreetMaps) to solve a structured optimization problem which draws the final crosswalk boundaries. Our experiments over crosswalks in a large city area show that 96.6% automation can be achieved.
翻訳日:2021-04-27 06:29:31 公開日:2021-01-14
# 科学出版における視覚的要約同定のための自己指導型学習

Self-Supervised Learning for Visual Summary Identification in Scientific Publications ( http://arxiv.org/abs/2012.11213v2 )

ライセンス: Link先を確認
Shintaro Yamamoto, Anne Lauscher, Simone Paolo Ponzetto, Goran Glava\v{s}, Shigeo Morishima(参考訳) 科学出版物の視覚的要約を提供することで、読者の情報アクセスが増加し、科学出版物の急増に対応することができる。 それでも、バイオメディカル分野を中心に、ビジュアル出版の要約を提供する努力はほとんど行われていない。 これは主に、堅牢で高パフォーマンスな教師付き学習技術の適用を阻害する、注釈付きゴールド標準の可用性が限られているためである。 これらの問題に対処するために、コンピュータ科学のいくつかの領域をカバーする、論文の要約を視覚的に要約するフィギュアを選択するための新しいベンチマークデータセットを作成する。 さらに,図形キャプション付き図形へのインライン参照のヒューリスティックマッチングに基づく自己教師型学習手法を開発した。 バイオメディカル領域とコンピュータサイエンス領域の両方の実験により、我々のモデルは自己監督されているにも関わらず、注釈付きトレーニングデータに頼らずに芸術の状態を上回り得ることが示された。

Providing visual summaries of scientific publications can increase information access for readers and thereby help deal with the exponential growth in the number of scientific publications. Nonetheless, efforts in providing visual publication summaries have been few and far apart, primarily focusing on the biomedical domain. This is primarily because of the limited availability of annotated gold standards, which hampers the application of robust and high-performing supervised learning techniques. To address these problems we create a new benchmark dataset for selecting figures to serve as visual summaries of publications based on their abstracts, covering several domains in computer science. Moreover, we develop a self-supervised learning approach, based on heuristic matching of inline references to figures with figure captions. Experiments in both biomedical and computer science domains show that our model is able to outperform the state of the art despite being self-supervised and therefore not relying on any annotated training data.
翻訳日:2021-04-27 06:28:10 公開日:2021-01-14
# 円グラフ畳み込みネットワークによる3次元点雲解析のためのロバストカーネルに基づく特徴表現

Robust Kernel-based Feature Representation for 3D Point Cloud Analysis via Circular Graph Convolutional Network ( http://arxiv.org/abs/2012.12215v4 )

ライセンス: Link先を確認
Seung Hwan Jung, Minyoung Chung, and Yeong-Gil Shin(参考訳) ポイントクラウドの特徴ディスクリプタは、3dポイントクラウドの登録や部分セグメンテーションなど、いくつかのアプリケーションで使用されている。 局所幾何学的特徴の識別表現の学習は、正確に点雲解析を行う上で最も重要なタスクである。 しかし、回転やスケール不変ディスクリプタの開発は困難である。 これまでのほとんどの研究では、ローテーションを無視したり、最適なスケールパラメータを経験的に研究している。 本稿では,回転,密度,スケールの変動に頑健な局所特徴記述法を提案する。 さらに,局所記述子の表現を改善するために,グローバルアグリゲーション手法を提案する。 まず、カーネルを各点の周りに通常の方向に配置する。 正規ベクトルの符号問題を避けるために、有界平面における対称核点分布を用いる。 各カーネルポイントから、まず、角度と距離に基づいて、複数のスケールと回転にロバストな空間空間から特徴空間への点を投影した。 その後,グローバルアグリゲーション法により得られた局所カーネル点構造と長距離グローバルコンテキストを考慮し,グラフ畳み込みを行う。 ベンチマークデータセット(modelnet40およびshapenetpart)上で提案する記述子を用いて,3dポイントクラウドにおける登録,分類,部分セグメンテーションの性能評価を行った。 提案手法は,登録タスクの回転と翻訳エラーの70$\%を削減し,最先端の手法と比較して優れた性能を示した。 また,単純で低次元のアーキテクチャを用いた分類と部分セグメンテーションにおいて同等の性能を示した。

Feature descriptors of point clouds are used in several applications, such as registration and part segmentation of 3D point clouds. Learning discriminative representations of local geometric features is unquestionably the most important task for accurate point cloud analyses. However, it is challenging to develop rotation or scale-invariant descriptors. Most previous studies have either ignored rotations or empirically studied optimal scale parameters, which hinders the applicability of the methods for real-world datasets. In this paper, we present a new local feature description method that is robust to rotation, density, and scale variations. Moreover, to improve representations of the local descriptors, we propose a global aggregation method. First, we place kernels aligned around each point in the normal direction. To avoid the sign problem of the normal vector, we use a symmetric kernel point distribution in the tangential plane. From each kernel point, we first projected the points from the spatial space to the feature space, which is robust to multiple scales and rotation, based on angles and distances. Subsequently, we perform graph convolutions by considering local kernel point structures and long-range global context, obtained by a global aggregation method. We experimented with our proposed descriptors on benchmark datasets (i.e., ModelNet40 and ShapeNetPart) to evaluate the performance of registration, classification, and part segmentation on 3D point clouds. Our method showed superior performances when compared to the state-of-the-art methods by reducing 70$\%$ of the rotation and translation errors in the registration task. Our method also showed comparable performance in the classification and part-segmentation tasks with simple and low-dimensional architectures.
翻訳日:2021-04-26 07:29:43 公開日:2021-01-14
# BaPipe: DNNトレーニングのためのバランスの取れたパイプライン並列性の探索

BaPipe: Exploration of Balanced Pipeline Parallelism for DNN Training ( http://arxiv.org/abs/2012.12544v2 )

ライセンス: Link先を確認
Letian Zhao, Rui Xu, Tianqi Wang, Teng Tian, Xiaotian Wang, Wei Wu, Chio-in Ieong, Xi Jin(参考訳) ディープラーニングアルゴリズムの複雑さが増大するにつれて、ディープニューラルネットワーク(DNN)のサイズは急速に大きくなる。 DNNトレーニングの計算と記憶の要求を満たすため、モデル並列性に基づく分散ディープラーニングが広く認識されている。 本稿では,dnn分散トレーニングのためのパイプライン並列化トレーニング手法とバランスの取れた分割戦略を自動的に探索する,パイプライン並列化トレーニングフレームワークbapipeを提案する。 bapipeでは、各アクセラレータがネットワークの異なる部分の前方伝播と後方伝播を計算し、バッチ内パイプライン並列化戦略を実行する。 BaPipeでは、DNNモデルのパラメータと、アクセラレータクラスタの計算、メモリ、通信リソースを考慮した、新たなロードバランシング自動探索戦略を採用している。 我々は、GPUクラスタ上でVGG-16、ResNet-50、GNMTなどの異なるDNNを訓練し、異なるFPGAクラスタのパフォーマンスをシミュレートした。 最先端のデータ並列性とパイプライン並列化フレームワークと比較して、BaPipeは様々なプラットフォームで最大3.2倍のスピードアップと4倍のメモリ削減を提供する。

The size of deep neural networks (DNNs) grows rapidly as the complexity of the machine learning algorithm increases. To satisfy the requirement of computation and memory of DNN training, distributed deep learning based on model parallelism has been widely recognized. We propose a new pipeline parallelism training framework, BaPipe, which can automatically explore pipeline parallelism training methods and balanced partition strategies for DNN distributed training. In BaPipe, each accelerator calculates the forward propagation and backward propagation of different parts of networks to implement the intra-batch pipeline parallelism strategy. BaPipe uses a new load balancing automatic exploration strategy that considers the parameters of DNN models and the computation, memory, and communication resources of accelerator clusters. We have trained different DNNs such as VGG-16, ResNet-50, and GNMT on GPU clusters and simulated the performance of different FPGA clusters. Compared with state-of-the-art data parallelism and pipeline parallelism frameworks, BaPipe provides up to 3.2x speedup and 4x memory reduction in various platforms.
翻訳日:2021-04-25 18:03:56 公開日:2021-01-14
# 確率論的推論・プログラミング・概念形成のための矛盾する基礎

Paraconsistent Foundations for Probabilistic Reasoning, Programming and Concept Formation ( http://arxiv.org/abs/2012.14474v2 )

ライセンス: Link先を確認
Ben Goertzel(参考訳) 4値のパラ一貫性真理値(ここでは「pビット」と呼ばれる)は、確率論的論理と確率的プログラミングと概念形成の高度AI関連形式の概念的、数学的、実践的な基礎として機能する。 まず,CD(Constructible Duality)論理に従って動作している4値のp-bitsの平均値と再正規化がPLN(Probabilistic Logic Networks)の強度と信頼性の真理値をもたらすことを示す。 次に、Curry-Howard対応のバリエーションを使用して、これらのパラ一貫性と確率論理を依存型ベースのプログラミング言語での使用に適した確率型にマッピングする。 ザック・ウェーバーのソライトパラドックスのパラ一貫性解析は、概念境界のパラ一貫性・確率的・ファジィ解析へと拡張され、形式的概念分析による概念形成のパラ一貫性バージョンが提示され、パラ一貫性確率分布の相対エントロピーの観点からファジィ特性値次数の定義に基づいている。 これらの一般的な点は、共通知識メタグラフの多元的更新を中心にしたOpenCog AGIフレームワークにおける確率論的推論とプログラミング、概念形成の実現を参照して、具体化される。

It is argued that 4-valued paraconsistent truth values (called here "p-bits") can serve as a conceptual, mathematical and practical foundation for highly AI-relevant forms of probabilistic logic and probabilistic programming and concept formation. First it is shown that appropriate averaging-across-situations and renormalization of 4-valued p-bits operating in accordance with Constructible Duality (CD) logic yields PLN (Probabilistic Logic Networks) strength-and-confidence truth values. Then variations on the Curry-Howard correspondence are used to map these paraconsistent and probabilistic logics into probabilistic types suitable for use within dependent type based programming languages. Zach Weber's paraconsistent analysis of the sorites paradox is extended to form a paraconsistent / probabilistic / fuzzy analysis of concept boundaries; and a paraconsistent version of concept formation via Formal Concept Analysis is presented, building on a definition of fuzzy property-value degrees in terms of relative entropy on paraconsistent probability distributions. These general points are fleshed out via reference to the realization of probabilistic reasoning and programming and concept formation in the OpenCog AGI framework which is centered on collaborative multi-algorithm updating of a common knowledge metagraph.
翻訳日:2021-04-19 11:05:27 公開日:2021-01-14
# 勾配重み付きノルムを用いた境界基底計算

Border Basis Computation with Gradient-Weighted Norm ( http://arxiv.org/abs/2101.00401v2 )

ライセンス: Link先を確認
Hiroshi Kera(参考訳) 多項式の正規化は、消滅するイデアルの近似基底計算において重要な役割を果たす。 コンピュータ代数において、多項式をその係数ノルムで正規化する係数正規化は最も一般的な方法である。 本研究では,機械学習の最近の成果に触発された,消滅するイデアルの近似境界基底計算のための勾配重み付き正規化を提案する。 勾配重み付き正規化のデータ依存的性質は、従来の係数正規化では達成できない入力点のスケーリングにおける摂動に対する安定性や一貫性の向上といった強力な性質をもたらす。 若干の修正を加えれば、係数正規化を伴うアルゴリズムの解析は勾配重み付き正規化で引き続き機能し、時間複雑性は変わらない。 また、勾配重み付きノルムに基づく係数ノルムの上界も提供し、係数ノルムの観点から、勾配重み付き正規化による近似境界ベースを議論することができる。

Normalization of polynomials plays an essential role in the approximate basis computation of vanishing ideals. In computer algebra, coefficient normalization, which normalizes a polynomial by its coefficient norm, is the most common method. In this study, we propose gradient-weighted normalization for the approximate border basis computation of vanishing ideals, inspired by the recent results in machine learning. The data-dependent nature of gradient-weighted normalization leads to powerful properties such as better stability against perturbation and consistency in the scaling of input points, which cannot be attained by the conventional coefficient normalization. With a slight modification, the analysis of algorithms with coefficient normalization still works with gradient-weighted normalization and the time complexity does not change. We also provide an upper bound on the coefficient norm based on the gradient-weighted norm, which allows us to discuss the approximate border bases with gradient-weighted normalization from the perspective of the coefficient norm.
翻訳日:2021-04-13 07:13:03 公開日:2021-01-14
# (参考訳) dame-flame: 因果推論の高速解釈可能なマッチングを提供するPythonライブラリ

dame-flame: A Python Library Providing Fast Interpretable Matching for Causal Inference ( http://arxiv.org/abs/2101.01867v2 )

ライセンス: CC BY-SA 4.0
Neha R. Gupta (1), Vittorio Orlandi (1), Chia-Rui Chang (2), Tianyu Wang (1), Marco Morucci (1), Pritam Dey (1), Thomas J. Howell (1), Xian Sun (1), Angikar Ghosal (1), Sudeepa Roy (1), Cynthia Rudin (1), Alexander Volfovsky (1) ((1) Duke University, (2) Harvard University)(参考訳) dame-flameは、離散共変量を含むデータセットで観測因果推論のマッチングを実行するpythonパッケージである。 このパッケージはDAME(Dynamic almost Matching Exactly)アルゴリズムとFLAME(Fast Large-Scale Near Matching Exactly)アルゴリズムを実装しており、コバリアイトのサブセットで処理と制御ユニットをマッチングする。 マッチしたグループは、マッチが共変量(例えば、確率スコアではなく)で作られ、高品質であることから解釈可能であり、機械学習は、マッチするべき共変量を決定するために使用される。 DAMEは、できるだけ多くの共変数上のユニットにマッチする最適化問題を解き、重要な共変数上のマッチを優先順位付けする。 FLAMEは、より高速な後方特徴選択手順により、DAMEが発見した解を近似する。 このパッケージは、アルゴリズムを特定のアプリケーションに適用するためのいくつかの調整可能なパラメータを提供し、マッチング後の治療効果を計算できる。 これらのパラメータの説明、治療効果の推定の詳細、その他の例は、https://almost-matching-exactly.github.io/DAME-FLAME-Python-Package/のドキュメントにある。

dame-flame is a Python package for performing matching for observational causal inference on datasets containing discrete covariates. This package implements the Dynamic Almost Matching Exactly (DAME) and Fast Large-Scale Almost Matching Exactly (FLAME) algorithms, which match treatment and control units on subsets of the covariates. The resulting matched groups are interpretable, because the matches are made on covariates (rather than, for instance, propensity scores), and high-quality, because machine learning is used to determine which covariates are important to match on. DAME solves an optimization problem that matches units on as many covariates as possible, prioritizing matches on important covariates. FLAME approximates the solution found by DAME via a much faster backward feature selection procedure. The package provides several adjustable parameters to adapt the algorithms to specific applications, and can calculate treatment effects after matching. Descriptions of these parameters, details on estimating treatment effects, and further examples, can be found in the documentation at https://almost-matching-exactly.github.io/DAME-FLAME-Python-Package/
翻訳日:2021-04-11 07:39:27 公開日:2021-01-14
# (参考訳) 3次元畳み込みニューラルネットワークによる精液運動の予測

Predicting Semen Motility using three-dimensional Convolutional Neural Networks ( http://arxiv.org/abs/2101.02888v2 )

ライセンス: CC BY 4.0
Priyansi, Biswaroop Bhattacharjee, Junaid Rahim(参考訳) 精液分析を行うための手動およびコンピュータ支援の手法は時間を要するため、広範囲のトレーニングが必要であり、人的ミスを起こしやすい。 ビデオを用いた古典的機械学習と深層学習を用いた精液分析は良好な結果を得た。 最先端の手法では、通常の畳み込みニューラルネットワークを使用して、提供されたサンプルのビデオの品質評価を行う。 本稿では,三次元畳み込みニューラルネットワークを用いて精液サンプルの微視的映像から精子の運動性を予測する,深層学習に基づくアプローチを提案する。 我々は85名の被験者から収集した精液の映像データと表表データからなるVISEMデータセットを利用する。 はるかに少ないデータポイントから良い結果を得ることができました。 本モデルにより, 深層学習に基づく自動精液分析は, 肥育とIVF実験室において有用かつ効果的なツールとなる可能性が示唆された。

Manual and computer aided methods to perform semen analysis are time-consuming, requires extensive training and prone to human error. The use of classical machine learning and deep learning based methods using videos to perform semen analysis have yielded good results. The state-of-the-art method uses regular convolutional neural networks to perform quality assessments on a video of the provided sample. In this paper we propose an improved deep learning based approach using three-dimensional convolutional neural networks to predict sperm motility from microscopic videos of the semen sample. We make use of the VISEM dataset that consists of video and tabular data of semen samples collected from 85 participants. We were able to achieve good results from significantly less data points. Our models indicate that deep learning based automatic semen analysis may become a valuable and effective tool in fertility and IVF labs.
翻訳日:2021-04-10 08:41:06 公開日:2021-01-14
# (参考訳) Pix2Pixアルゴリズムを用いた任意マスクからの合成氷河SAR画像の生成

Synthetic Glacier SAR Image Generation from Arbitrary Masks Using Pix2Pix Algorithm ( http://arxiv.org/abs/2101.03252v2 )

ライセンス: CC BY 4.0
Rosanna Dietrich-Sussner, Amirabbas Davari, Thorsten Seehaus, Matthias Braun, Vincent Christlein, Andreas Maier, Christian Riess(参考訳) 教師あり機械学習は、適切なテスト結果を得るために大量のラベル付きデータを必要とする。 しかし、合成開口レーダ(SAR)の画像を含むリモートセンシング画像上で正確なラベル付きセグメンテーションマップを生成するのは退屈で、非常に主観的である。 本研究では,Pix2pixアルゴリズムを用いて合成SAR画像を生成することにより,限られたトレーニングデータの問題を軽減することを提案する。 このアルゴリズムは、入力の構造を保ちながら、条件付き生成逆数ネットワーク(cGAN)を用いて人工画像を生成する。 この場合、入力はセグメンテーションマスクであり、そこから対応する合成SAR画像を生成する。 異なるモデルを示し,比較研究を行い,sar画像の説得力のある氷河を定性的・定量的に合成する手法を実証した。

Supervised machine learning requires a large amount of labeled data to achieve proper test results. However, generating accurately labeled segmentation maps on remote sensing imagery, including images from synthetic aperture radar (SAR), is tedious and highly subjective. In this work, we propose to alleviate the issue of limited training data by generating synthetic SAR images with the pix2pix algorithm. This algorithm uses conditional Generative Adversarial Networks (cGANs) to generate an artificial image while preserving the structure of the input. In our case, the input is a segmentation mask, from which a corresponding synthetic SAR image is generated. We present different models, perform a comparative study and demonstrate that this approach synthesizes convincing glaciers in SAR images with promising qualitative and quantitative results.
翻訳日:2021-04-10 05:28:08 公開日:2021-01-14
# ネットワークエッジにおける最適サービス配置のための拡張インデックスポリシーの学習

Learning Augmented Index Policy for Optimal Service Placement at the Network Edge ( http://arxiv.org/abs/2101.03641v2 )

ライセンス: Link先を確認
Guojun Xiong, Rahul Singh, Jian Li(参考訳) 私たちは、ネットワークエッジにおけるサービス配置の問題を考慮し、意思決定者は、顧客の要求を満たすためにエッジにホストするn$サービスを選択する必要があります。 当社の目標は、顧客に対する平均的なサービスデリバリレイテンシを最小化する、適応型アルゴリズムの設計です。 我々は,システム状態が各サービスに対して,現在エッジで待機している顧客数を説明することで,システム状態が付与されるマルコフ決定プロセス(MDP)として,この問題に対処する。 しかし、この$N$-services MDPの解決には次元の呪いがあるため計算コストがかかる。 この課題を克服するために、単一サービスMDPの最適ポリシーは、魅力的なしきい値構造を持ち、Whittleインデックスポリシーの理論に基づく顧客の要求数関数として、各サービスのWhittleインデックスを明示的に導出することを示した。 要求到着率とサービス提供率は通常不明であり、おそらく時間変化があるため、学習不足の少ない最適ポリシーの構造を完全に活用する効率的な学習拡張アルゴリズムを開発する。 そのうちの1つは UCB-Whittle であり、不確実性に直面した楽観主義の原理に依存している。 第2のアルゴリズムであるQ-learning-Whittleは、2時間スケール確率近似を用いて、各サービスのQ-learningイテレーションを利用する。 学習後悔を分析し,Q-learning-Whittleの収束特性を解析することにより, UCB-Whittleの非漸近性能を特徴付ける。 シミュレーションの結果,提案手法は優れた経験的性能を示した。

We consider the problem of service placement at the network edge, in which a decision maker has to choose between $N$ services to host at the edge to satisfy the demands of customers. Our goal is to design adaptive algorithms to minimize the average service delivery latency for customers. We pose the problem as a Markov decision process (MDP) in which the system state is given by describing, for each service, the number of customers that are currently waiting at the edge to obtain the service. However, solving this $N$-services MDP is computationally expensive due to the curse of dimensionality. To overcome this challenge, we show that the optimal policy for a single-service MDP has an appealing threshold structure, and derive explicitly the Whittle indices for each service as a function of the number of requests from customers based on the theory of Whittle index policy. Since request arrival and service delivery rates are usually unknown and possibly time-varying, we then develop efficient learning augmented algorithms that fully utilize the structure of optimal policies with a low learning regret. The first of these is UCB-Whittle, and relies upon the principle of optimism in the face of uncertainty. The second algorithm, Q-learning-Whittle, utilizes Q-learning iterations for each service by using a two time scale stochastic approximation. We characterize the non-asymptotic performance of UCB-Whittle by analyzing its learning regret, and also analyze the convergence properties of Q-learning-Whittle. Simulation results show that the proposed policies yield excellent empirical performance.
翻訳日:2021-04-08 08:19:27 公開日:2021-01-14
# 階層型Echo状態ネットワークにおける複数時間スケールのエクスプロイト

Exploiting Multiple Timescales in Hierarchical Echo State Networks ( http://arxiv.org/abs/2101.04223v2 )

ライセンス: Link先を確認
Luca Manneschi, Matthew O. A. Ellis, Guido Gigante, Andrew C. Lin, Paolo Del Giudice, Eleni Vasilaki(参考訳) エコー状態ネットワーク(esns)はリニア出力重みのトレーニングのみを必要とする強力なリザーバコンピューティング形態であり、内部リザーバはランダムに結合したニューロンで形成されている。 正しくスケールされた接続行列により、ニューロンの活動はエコー状態の性質を示し、特定の時間スケールで入力ダイナミクスに応答する。 ネットワークの時間スケールを調整することは特定のタスクを扱うのに必要であり、効率的な表現のために複数の時間スケールを必要とする環境もある。 ここでは、階層型ESNにおける時間スケールについて検討し、貯水池を異なる性質を持つ2つの小さな連結貯水池に分割する。 3つの異なるタスク (NARMA10, 揮発性環境における再構成タスク, psMNIST) に対して, 各パーティションのハイパーパラメータを選択して, 異なる時間スケールにフォーカスすることにより, 単一ESNよりも大幅な性能向上を実現する。 線形解析により、第1分割の時間スケールが第2のよりもはるかに短い(典型的には最適動作条件に対応する)という仮定の下で、第1分割から第2への入力信号の効果的な表現の観点から分割のフィードフォワード結合を解釈し、即時入力信号をその時間微分の重み付け結合に拡張する。 さらに,時間によるバックプロパゲーションのオンライン近似である勾配降下最適化手法を用いて,ハイパーパラメータを最適化するデータ駆動手法を提案する。 本研究は,オンライン学習規則の適用を,検討対象のすべてのタスクに適用した。

Echo state networks (ESNs) are a powerful form of reservoir computing that only require training of linear output weights whilst the internal reservoir is formed of fixed randomly connected neurons. With a correctly scaled connectivity matrix, the neurons' activity exhibits the echo-state property and responds to the input dynamics with certain timescales. Tuning the timescales of the network can be necessary for treating certain tasks, and some environments require multiple timescales for an efficient representation. Here we explore the timescales in hierarchical ESNs, where the reservoir is partitioned into two smaller linked reservoirs with distinct properties. Over three different tasks (NARMA10, a reconstruction task in a volatile environment, and psMNIST), we show that by selecting the hyper-parameters of each partition such that they focus on different timescales, we achieve a significant performance improvement over a single ESN. Through a linear analysis, and under the assumption that the timescales of the first partition are much shorter than the second's (typically corresponding to optimal operating conditions), we interpret the feedforward coupling of the partitions in terms of an effective representation of the input signal, provided by the first partition to the second, whereby the instantaneous input signal is expanded into a weighted combination of its time derivatives. Furthermore, we propose a data-driven approach to optimise the hyper-parameters through a gradient descent optimisation method that is an online approximation of backpropagation through time. We demonstrate the application of the online learning rule across all the tasks considered.
翻訳日:2021-04-04 14:34:43 公開日:2021-01-14
# Smooth Wasserstein Distance から Dual Sobolev Norm へ:実証近似と統計的応用

From Smooth Wasserstein Distance to Dual Sobolev Norm: Empirical Approximation and Statistical Applications ( http://arxiv.org/abs/2101.04039v2 )

ライセンス: Link先を確認
Sloan Nietert, Ziv Goldfeld, Kengo Kato(参考訳) 統計的距離、すなわち確率分布間の差測度は確率論、統計学、機械学習においてユビキタスである。 データから距離を推定する際の次元の呪いに対処するため、ガウス核との畳み込みによって測定された分布の局所的不規則性を平滑化することを提案した。 滑らかな枠組みの高次元への拡張性に動機づけられ、任意の $p\geq 1$ に対して、ガウスのスムースである $p$-wasserstein 距離 $\mathsf{w}_p^{(\sigma)}$ の構造的および統計的挙動を詳細に研究した。 まず、$\mathsf{w}_p^{(\sigma)}$ は、古典的な$\mathsf{w}_p$ と位相的に等価で、$\sigma$ の摂動に関して安定な計量構造を持つことを示すことから始める。 統計的な問題に移行して、$\hat{\mu}_n$ の漸近的性質を探索し、$\hat{\mu}_n$ は$n$ i.d の経験的分布である。 サンプルは$\mu$。 この目的のために、$\mathsf{W}_p^{(\sigma)}$が$p$2次滑らかな双対ソボレフノルム$\mathsf{d}_p^{(\sigma)}$で制御されていることを証明している。 {\mathsf{d}_p^{(\sigma)}(\hat{\mu}_n,\mu)$ はガウスの滑らかなソボレフ関数によってインデックスづけされた経験的過程の上限と一致するので、経験的過程理論による解析に有利である。 任意の次元$d$ において、$\sqrt{n}\mathsf{d}_p^{(\sigma)}(\hat{\mu}_n,\mu)$ の極限分布を導出する。 上記の境界を通じて、パラメトリックな経験的収束率は$n^{-1/2}$で$\mathsf{w}_p^{(\sigma)}$であり、$d \geq 3$のとき$n^{-1/d}$が$smoothed $\mathsf{w}_p$であるのとは対照的である。 アプリケーションとして、2サンプルテストと最小距離推定の漸近保証を提供する。 p=2$ の場合、さらに $\mathsf{d}_2^{(\sigma)}$ を最大平均不一致として表現できることを示す。

Statistical distances, i.e., discrepancy measures between probability distributions, are ubiquitous in probability theory, statistics and machine learning. To combat the curse of dimensionality when estimating these distances from data, recent work has proposed smoothing out local irregularities in the measured distributions via convolution with a Gaussian kernel. Motivated by the scalability of the smooth framework to high dimensions, we conduct an in-depth study of the structural and statistical behavior of the Gaussian-smoothed $p$-Wasserstein distance $\mathsf{W}_p^{(\sigma)}$, for arbitrary $p\geq 1$. We start by showing that $\mathsf{W}_p^{(\sigma)}$ admits a metric structure that is topologically equivalent to classic $\mathsf{W}_p$ and is stable with respect to perturbations in $\sigma$. Moving to statistical questions, we explore the asymptotic properties of $\mathsf{W}_p^{(\sigma)}(\hat{\mu}_n,\mu)$, where $\hat{\mu}_n$ is the empirical distribution of $n$ i.i.d. samples from $\mu$. To that end, we prove that $\mathsf{W}_p^{(\sigma)}$ is controlled by a $p$th order smooth dual Sobolev norm $\mathsf{d}_p^{(\sigma)}$. Since $\mathsf{d}_p^{(\sigma)}(\hat{\mu}_n,\mu)$ coincides with the supremum of an empirical process indexed by Gaussian-smoothed Sobolev functions, it lends itself well to analysis via empirical process theory. We derive the limit distribution of $\sqrt{n}\mathsf{d}_p^{(\sigma)}(\hat{\mu}_n,\mu)$ in all dimensions $d$, when $\mu$ is sub-Gaussian. Through the aforementioned bound, this implies a parametric empirical convergence rate of $n^{-1/2}$ for $\mathsf{W}_p^{(\sigma)}$, contrasting the $n^{-1/d}$ rate for unsmoothed $\mathsf{W}_p$ when $d \geq 3$. As applications, we provide asymptotic guarantees for two-sample testing and minimum distance estimation. When $p=2$, we further show that $\mathsf{d}_2^{(\sigma)}$ can be expressed as a maximum mean discrepancy.
翻訳日:2021-04-04 14:28:22 公開日:2021-01-14
# BERTの非線形性と通信性

Of Non-Linearity and Commutativity in BERT ( http://arxiv.org/abs/2101.04547v3 )

ライセンス: Link先を確認
Sumu Zhao, Damian Pascual, Gino Brunner, Roger Wattenhofer(参考訳) 本研究では、トランスフォーマーアーキテクチャ、特にその最も有名な変種BERTについて、新たな洞察を提供する。 まず,変圧器の異なる要素の非線形性の度合いを測定する手法を提案する。 次に,モデルパラメータの2/3を含むトランスフォーワード内のフィードフォワードネットワーク(ffn)に着目し,これまでにはあまり注目されていない。 FFNは非効率で重要なアーキテクチャ要素であり、性能の劣化なしには単に注目ブロックに置き換えることはできない。 さらに, BERT層間の相互作用について検討し, 階層構造を示す一方で, ファジィな方法で特徴を抽出することを示した。 以上の結果から,BERTは層可換性に対して帰納的偏りがあることが示唆された。 これは、リカレントおよび重み共有トランスモデルの性能向上の正当性を提供する。

In this work we provide new insights into the transformer architecture, and in particular, its best-known variant, BERT. First, we propose a method to measure the degree of non-linearity of different elements of transformers. Next, we focus our investigation on the feed-forward networks (FFN) inside transformers, which contain 2/3 of the model parameters and have so far not received much attention. We find that FFNs are an inefficient yet important architectural element and that they cannot simply be replaced by attention blocks without a degradation in performance. Moreover, we study the interactions between layers in BERT and show that, while the layers exhibit some hierarchical structure, they extract features in a fuzzy manner. Our results suggest that BERT has an inductive bias towards layer commutativity, which we find is mainly due to the skip connections. This provides a justification for the strong performance of recurrent and weight-shared transformer models.
翻訳日:2021-04-04 01:54:07 公開日:2021-01-14
# CityFlow-NL:自然言語記述による都市規模の自動車の追跡と検索

CityFlow-NL: Tracking and Retrieval of Vehicles at City Scale by Natural Language Descriptions ( http://arxiv.org/abs/2101.04741v2 )

ライセンス: Link先を確認
Qi Feng, Vitaly Ablavsky, Stan Sclaroff(参考訳) 自然言語(NL)の記述は、都市規模の交通パターンや車両関連の出来事を理解し、検出するために構築されたシステムと対話する最も便利または唯一の方法である。 本稿では,広く採用されているCityFlow Benchmarkを拡張し,車載目標の自然言語記述とCityFlow-NL Benchmarkの導入について述べる。 CityFlow-NLには5000以上のユニークかつ正確なNL記述が含まれており、私たちの知る限り、NL記述データセットによる最大規模のトラッキングを実現している。 さらに、データセットは、マルチオブジェクト追跡、nl記述による検索、イベントの時間的局在の交点の研究を容易にする。

Natural Language (NL) descriptions can be the most convenient or the only way to interact with systems built to understand and detect city scale traffic patterns and vehicle-related events. In this paper, we extend the widely adopted CityFlow Benchmark with natural language descriptions for vehicle targets and introduce the CityFlow-NL Benchmark. The CityFlow-NL contains more than 5,000 unique and precise NL descriptions of vehicle targets, making it the largest-scale tracking with NL descriptions dataset to our knowledge. Moreover, the dataset facilitates research at the intersection of multi-object tracking, retrieval by NL descriptions, and temporal localization of events.
翻訳日:2021-04-04 01:42:42 公開日:2021-01-14
# (参考訳) EEC:継続的な学習のための画像のエンコードと再生の学習

EEC: Learning to Encode and Regenerate Images for Continual Learning ( http://arxiv.org/abs/2101.04904v2 )

ライセンス: CC BY 4.0
Ali Ayub, Alan R. Wagner(参考訳) 継続的な学習に対する2つの障害は、データの保存における破滅的な忘れとメモリ制限である。 これらの課題に対処するため,ニューラルスタイルトランスファーを用いてオートエンコーダを訓練し,画像のエンコードと保存を行う,認知に触発された新しいアプローチを提案する。 新しいタスクのトレーニング中に、破滅的な忘れ物を避けるために、符号化されたエピソードからの再構成画像を再生する。 再構成画像の損失関数を重み付けし、分類器訓練時の効果を低減し、画像劣化に対処する。 システムがメモリが切れると、符号化されたエピソードはセンタロイドと共分散行列に変換され、分類器のトレーニング中に擬似画像を生成するために使用され、メモリを少なくして分類器の性能を安定させる。 ベンチマークデータセットの最先端手法に比べて,分類精度は13~17%向上し,ストレージスペースは78%削減した。

The two main impediments to continual learning are catastrophic forgetting and memory limitations on the storage of data. To cope with these challenges, we propose a novel, cognitively-inspired approach which trains autoencoders with Neural Style Transfer to encode and store images. During training on a new task, reconstructed images from encoded episodes are replayed in order to avoid catastrophic forgetting. The loss function for the reconstructed images is weighted to reduce its effect during classifier training to cope with image degradation. When the system runs out of memory the encoded episodes are converted into centroids and covariance matrices, which are used to generate pseudo-images during classifier training, keeping classifier performance stable while using less memory. Our approach increases classification accuracy by 13-17% over state-of-the-art methods on benchmark datasets, while requiring 78% less storage space.
翻訳日:2021-04-03 20:18:39 公開日:2021-01-14
# (参考訳) EventAnchor:ラケットスポーツビデオのイベントアノテーションにおけるヒューマンインタラクションの削減

EventAnchor: Reducing Human Interactions in Event Annotation of Racket Sports Videos ( http://arxiv.org/abs/2101.04954v2 )

ライセンス: CC BY 4.0
Dazhen Deng, Jiang Wu, Jiachen Wang, Yihong Wu, Xiao Xie, Zheng Zhou, Hui Zhang, Xiaolong Zhang, Yingcai Wu(参考訳) ラケットスポーツ(テニスや卓球など)の人気は、表記分析などのデータ分析に対する高い需要をプレイヤーのパフォーマンスにもたらしている。 スポーツビデオはそのような分析に多くの利点をもたらすが、スポーツビデオから正確な情報を取得することは困難である。 本稿では,コンピュータビジョンアルゴリズムをサポートしたラケットスポーツビデオのインタラクティブアノテーションを容易にするデータ分析フレームワークであるEventAnchorを提案する。 我々のアプローチでは、コンピュータビジョンにおける機械学習モデルを使用して、ユーザーがビデオ(例えば、コートのボールバウンシング)から重要なイベントを取得するのを助け、データアノテーションのためのインタラクティブなツールセットを提供する。 このフレームワークに基づくテーブルテニスアノテーションシステムの評価研究は、関心のあるオブジェクトに対する単純なアノテーションタスクとドメイン知識を必要とする複雑なアノテーションタスクでのユーザパフォーマンスが大幅に向上していることを示している。

The popularity of racket sports (e.g., tennis and table tennis) leads to high demands for data analysis, such as notational analysis, on player performance. While sports videos offer many benefits for such analysis, retrieving accurate information from sports videos could be challenging. In this paper, we propose EventAnchor, a data analysis framework to facilitate interactive annotation of racket sports video with the support of computer vision algorithms. Our approach uses machine learning models in computer vision to help users acquire essential events from videos (e.g., serve, the ball bouncing on the court) and offers users a set of interactive tools for data annotation. An evaluation study on a table tennis annotation system built on this framework shows significant improvement of user performances in simple annotation tasks on objects of interest and complex annotation tasks requiring domain knowledge.
翻訳日:2021-04-03 17:57:03 公開日:2021-01-14
# (参考訳) MRI画像、脳病変、ディープラーニング

MRI Images, Brain Lesions and Deep Learning ( http://arxiv.org/abs/2101.05091v2 )

ライセンス: CC BY 4.0
Darwin Castillo, Vasudevan Lakshminarayanan, Maria J. Rodriguez-Alvarez(参考訳) 医療用脳画像解析はコンピュータ支援/補助診断(CAD)システムにおいて必要なステップである。 過去数年間のハードウェアとソフトウェアの進歩は、様々な病気の分類と分類の改善につながった。 本稿では,脳梗塞や脱髄疾患の脳mri画像の白質高血圧(wmhs)の分類,同定,検出を可能にするシステムとアルゴリズムに関する論文を概説する。 選択基準として,文献ネットワークを用いた。 総計140件の文書の中から,本研究の主な目的を扱った38の論文を選定した。 改訂された文書の分析と議論に基づき、虚血性病変と脱髄性病変の分節化の精度と信頼性を最大化するために、深層学習の新しいモデルの研究と提案が絶え間なく進められている。 指標付きモデル(Dice Score, DSC: 0.99)が発見されたが、小さなデータセットの使用と再現性の欠如により、実用的な応用はほとんどなかった。 したがって,CAD開発と臨床環境における完全活用のギャップを克服するために,多分野の研究グループを確立することが主な目的である。

Medical brain image analysis is a necessary step in Computer Assisted /Aided Diagnosis (CAD) systems. Advancements in both hardware and software in the past few years have led to improved segmentation and classification of various diseases. In the present work, we review the published literature on systems and algorithms that allow for classification, identification, and detection of White Matter Hyperintensities (WMHs) of brain MRI images specifically in cases of ischemic stroke and demyelinating diseases. For the selection criteria, we used the bibliometric networks. Out of a total of 140 documents we selected 38 articles that deal with the main objectives of this study. Based on the analysis and discussion of the revised documents, there is constant growth in the research and proposal of new models of deep learning to achieve the highest accuracy and reliability of the segmentation of ischemic and demyelinating lesions. Models with indicators (Dice Score, DSC: 0.99) were found, however with little practical application due to the uses of small datasets and lack of reproducibility. Therefore, the main conclusion is to establish multidisciplinary research groups to overcome the gap between CAD developments and their complete utilization in the clinical environment.
翻訳日:2021-03-30 13:33:29 公開日:2021-01-14
# Marathiテキスト分類のためのディープラーニングモデルの実験的評価

Experimental Evaluation of Deep Learning models for Marathi Text Classification ( http://arxiv.org/abs/2101.04899v2 )

ライセンス: Link先を確認
Atharva Kulkarni, Meet Mandhane, Manali Likhitkar, Gayatri Kshirsagar, Jayashree Jagdale, Raviraj Joshi(参考訳) マラーティー語(marathi language)は、インドで使われている言語の一つ。 主にマハラシュトラ人によって話されている。 過去10年間で、オンラインプラットフォームでの言語の使用は大幅に増加した。 しかし,マラタイ語テキストに対する自然言語処理(NLP)手法の研究はあまり注目されていない。 マラティー語は形態学的に豊かな言語であり、デヴァナガリ文字の変種を書体で用いている。 この作業は、Marathiテキスト分類の利用可能なリソースとモデルに関する包括的な概要を提供することを目的としている。 CNN, LSTM, ULMFiT, BERTをベースとした2つのテキスト分類データセットの評価を行い, 比較分析を行った。 FacebookとIndicNLPによる事前訓練されたマラタイの高速テキスト単語埋め込みは、単語ベースモデルと組み合わせて使用される。 CNNとLSTMに基づく基本単層モデルとFastTextの埋め込みは、利用可能なデータセット上でBERTベースのモデルと同等に動作することを示す。 我々は,マラティアNLPの領域における研究と実験に焦点を当てた論文を期待する。

The Marathi language is one of the prominent languages used in India. It is predominantly spoken by the people of Maharashtra. Over the past decade, the usage of language on online platforms has tremendously increased. However, research on Natural Language Processing (NLP) approaches for Marathi text has not received much attention. Marathi is a morphologically rich language and uses a variant of the Devanagari script in the written form. This works aims to provide a comprehensive overview of available resources and models for Marathi text classification. We evaluate CNN, LSTM, ULMFiT, and BERT based models on two publicly available Marathi text classification datasets and present a comparative analysis. The pre-trained Marathi fast text word embeddings by Facebook and IndicNLP are used in conjunction with word-based models. We show that basic single layer models based on CNN and LSTM coupled with FastText embeddings perform on par with the BERT based models on the available datasets. We hope our paper aids focused research and experiments in the area of Marathi NLP.
翻訳日:2021-03-30 08:07:42 公開日:2021-01-14
# (参考訳) 軽量多情報融合ネットワークによる画像デブラリング

Image deblurring based on lightweight multi-information fusion network ( http://arxiv.org/abs/2101.05403v1 )

ライセンス: CC BY 4.0
Yanni Zhang, Yiming Liu, Qiang Li, Miao Qi, Dahong Xu, Jun Kong, Jianzhong Wang(参考訳) 近年,深層学習による画像の劣化がよく研究されている。 しかし、ディープラーニングフレームワークで詳細な画像特徴を利用するには、常に大量のパラメータを必要とするため、必然的にネットワークは高い計算負担に悩まされる。 この問題を解決するために,画像デブロアリングのための軽量多情報融合ネットワーク(LMFN)を提案する。 提案するLMFNはエンコーダデコーダアーキテクチャとして設計されている。 符号化段階では、大量の情報損失を伴わずに、多次元情報抽出・融合のための様々な小規模空間に画像特徴を縮小する。 そして、復号段階で蒸留網を用い、十分な軽量さを維持しながら残差学習の恩恵を受けられるようにした。 一方, 蒸留モジュールと特徴チャネル間の情報融合戦略は, 注意機構によって行われる。 提案手法で異なる情報を融合することにより,提案ネットワークは,パラメータの少ない最先端画像のデブロアリングを達成でき,既存の手法よりも複雑なモデルで優れる。

Recently, deep learning based image deblurring has been well developed. However, exploiting the detailed image features in a deep learning framework always requires a mass of parameters, which inevitably makes the network suffer from high computational burden. To solve this problem, we propose a lightweight multiinformation fusion network (LMFN) for image deblurring. The proposed LMFN is designed as an encoder-decoder architecture. In the encoding stage, the image feature is reduced to various smallscale spaces for multi-scale information extraction and fusion without a large amount of information loss. Then, a distillation network is used in the decoding stage, which allows the network benefit the most from residual learning while remaining sufficiently lightweight. Meanwhile, an information fusion strategy between distillation modules and feature channels is also carried out by attention mechanism. Through fusing different information in the proposed approach, our network can achieve state-of-the-art image deblurring result with smaller number of parameters and outperforms existing methods in model complexity.
翻訳日:2021-03-29 11:17:58 公開日:2021-01-14
# (参考訳) DAIL:顔認識のためのデータセット認識と不変学習

DAIL: Dataset-Aware and Invariant Learning for Face Recognition ( http://arxiv.org/abs/2101.05419v1 )

ライセンス: CC BY 4.0
Gaoang Wang, Lin Chen, Tianqiang Liu, Mingwei He, and Jiebo Luo(参考訳) 顔認識の性能向上のためには、通常大規模なトレーニングデータセットが必要である。 認識性能を改善するためのシンプルで効果的な方法は、トレーニングで複数のデータセットを組み合わせることで、可能な限り大きなデータセットを使用することである。 しかし、2つの大きな問題により、異なるデータセットをナイーブに結合するのは問題であり、面倒です。 まず、同じ人物が異なるデータセットに現れる可能性があり、異なるデータセット間でアイデンティティが重複する問題が発生する。 トレーニング中に異なるデータセットで同じ人を異なるクラスとして扱い、バックプロパゲーションに影響を与え、非表現埋め込みを生成する。 一方、手動でラベルをクリーニングする作業は、特に何百万もの画像と何千ものアイデンティティがある場合、人的努力を要する可能性がある。 第2に、異なるデータセットが異なる状況で収集されるため、異なるドメイン分布が生まれる。 データセットを組み合わせることで、さまざまなデータセットにまたがるドメイン不変の埋め込みを学ぶのが難しくなる。 本稿では、上記の課題を解決するために、dail: dataset-aware and invariant learningを提案する。 本稿では,同一人物が複数データセットに出現した場合のペナルティを低減し,複数データセットのトレーニングにおけるデータセット認識損失を解消する。 これはデータセット認識項による修正ソフトマックス損失で容易に達成できる。 第2の問題を解決するために、データセット不変学習に勾配反転層を用いた領域適応を用いる。 提案手法は,lfw,cfp-fp,agesb-30などの顔認証セットにおいて最先端の結果を得るだけでなく,実用化にも大きなメリットがある。

To achieve good performance in face recognition, a large scale training dataset is usually required. A simple yet effective way to improve recognition performance is to use a dataset as large as possible by combining multiple datasets in the training. However, it is problematic and troublesome to naively combine different datasets due to two major issues. First, the same person can possibly appear in different datasets, leading to an identity overlapping issue between different datasets. Naively treating the same person as different classes in different datasets during training will affect back-propagation and generate non-representative embeddings. On the other hand, manually cleaning labels may take formidable human efforts, especially when there are millions of images and thousands of identities. Second, different datasets are collected in different situations and thus will lead to different domain distributions. Naively combining datasets will make it difficult to learn domain invariant embeddings across different datasets. In this paper, we propose DAIL: Dataset-Aware and Invariant Learning to resolve the above-mentioned issues. To solve the first issue of identity overlapping, we propose a dataset-aware loss for multi-dataset training by reducing the penalty when the same person appears in multiple datasets. This can be readily achieved with a modified softmax loss with a dataset-aware term. To solve the second issue, domain adaptation with gradient reversal layers is employed for dataset invariant learning. The proposed approach not only achieves state-of-the-art results on several commonly used face recognition validation sets, including LFW, CFP-FP, and AgeDB-30, but also shows great benefit for practical use.
翻訳日:2021-03-29 11:08:01 公開日:2021-01-14
# (参考訳) TSQA: 言語シナリオに基づく質問応答

TSQA: Tabular Scenario Based Question Answering ( http://arxiv.org/abs/2101.11429v1 )

ライセンス: CC BY 4.0
Xiao Li, Yawei Sun, Gong Cheng(参考訳) シナリオベースの質問応答(SQA)が研究の関心を集めている。 SQAは、よく研究されている機械読解(MRC)と比較すると、より困難なタスクである: シナリオは読み込むためのテキストパスだけでなく、テーブルのような構造化されたデータ、すなわち表シナリオベースの質問応答(TSQA)も含む。 TSQAのAI応用、例えば高校の試験で複数の選択質問に答えるには、複数のセルでデータを合成し、答えを推測するためにテーブルとテキストとドメイン知識を組み合わせる必要がある。 本研究を支援するため,GeoTSQAを構築した。 このデータセットには、地理領域の表のシナリオによってコンテキスト化された1万個の実質問が含まれている。 この課題を解決するため、新しいテーブル・トゥ・テキスト・ジェネレータであるTTGenを用いて最先端のMRC手法を拡張した。 様々な合成表データから文を生成し、最も有用な文で下流のMCC法をフィードする。 その文のランク付けモデルは、シナリオ、質問、ドメイン知識の情報を融合します。 提案手法はGeoTSQAの様々な強力なベースライン法より優れている。

Scenario-based question answering (SQA) has attracted an increasing research interest. Compared with the well-studied machine reading comprehension (MRC), SQA is a more challenging task: a scenario may contain not only a textual passage to read but also structured data like tables, i.e., tabular scenario based question answering (TSQA). AI applications of TSQA such as answering multiple-choice questions in high-school exams require synthesizing data in multiple cells and combining tables with texts and domain knowledge to infer answers. To support the study of this task, we construct GeoTSQA. This dataset contains 1k real questions contextualized by tabular scenarios in the geography domain. To solve the task, we extend state-of-the-art MRC methods with TTGen, a novel table-to-text generator. It generates sentences from variously synthesized tabular data and feeds the downstream MRC method with the most useful sentences. Its sentence ranking model fuses the information in the scenario, question, and domain knowledge. Our approach outperforms a variety of strong baseline methods on GeoTSQA.
翻訳日:2021-03-29 10:50:18 公開日:2021-01-14
# (参考訳) 臨床テキストからの医用コード予測のための説明可能なCNNアプローチ

An Explainable CNN Approach for Medical Codes Prediction from Clinical Text ( http://arxiv.org/abs/2101.11430v1 )

ライセンス: CC BY 4.0
Shu Yuan Hu and Fei Teng(参考訳) 方法: 集中治療室(ICU)における臨床テキストに基づくCNNによる自動ICD符号化手法を開発した。 私たちは、各ラベルのローカルおよび低レベルな特徴を学習できる、浅く広い注意の畳み込みメカニズム(swam)を考え出しました。 モデル設計の背後にある重要な考え方は、各コードと相関する臨床テキストに情報スニペットが存在することを探ることであり、我々は「情報スニペット」と「畳み込みフィルタ」の対応があることを推測する。 結果: ICU医療記録のオープンアクセスデータセットMIMIC-IIIについて検討した。 このアプローチは、ミームiiiデータセット上でのtop-50メディカルコード予測の結果を大きく上回っている。 我々は、この改善をswamと分類し、ワイドアーキテクチャにより、異なるコードのユニークな特徴をより広範囲に学習できるモデル能力を与え、アブレーション実験によって証明する。 さらに、異なる符号間の性能不均衡を手動で解析し、特定の符号の学習の難しさを決定する特徴を予備的に結論付ける。 結論:我々は,マルチラベル文書分類のための説明可能なcnnアプローチであるswamを提案する。広層畳み込み層を用いて各ラベルの局所的および低レベルな特徴を学習し,icd-9コード予測タスクの以前の指標に対して強力な改善を行い,内部力学の十分な説明を提供する。

Method: We develop CNN-based methods for automatic ICD coding based on clinical text from intensive care unit (ICU) stays. We come up with the Shallow and Wide Attention convolutional Mechanism (SWAM), which allows our model to learn local and low-level features for each label. The key idea behind our model design is to look for the presence of informative snippets in the clinical text that correlated with each code, and we infer that there exists a correspondence between "informative snippet" and convolution filter. Results: We evaluate our approach on MIMIC-III, an open-access dataset of ICU medical records. Our approach substantially outperforms previous results on top-50 medical code prediction on MIMIC-III dataset. We attribute this improvement to SWAM, by which the wide architecture gives the model ability to more extensively learn the unique features of different codes, and we prove it by ablation experiment. Besides, we perform manual analysis of the performance imbalance between different codes, and preliminary conclude the characteristics that determine the difficulty of learning specific codes. Conclusions: We present SWAM, an explainable CNN approach for multi-label document classification, which employs a wide convolution layer to learn local and low-level features for each label, yields strong improvements over previous metrics on the ICD-9 code prediction task, while providing satisfactory explanations for its internal mechanics.
翻訳日:2021-03-29 10:35:00 公開日:2021-01-14
# (参考訳) 連合学習: 機会と課題

Federated Learning: Opportunities and Challenges ( http://arxiv.org/abs/2101.05428v1 )

ライセンス: CC BY 4.0
Priyanka Mary Mammen(参考訳) Federated Learning(FL)は、2016年にGoogleが最初に導入したコンセプトで、複数のデバイスが中央サーバーの監督下でプライベートデータを共有せずに機械学習モデルを共同で学習する。 これは、医療、金融などの重要なドメインにおいて、他の組織やデバイスとプライベートなユーザー情報を共有するリスクがある多くの機会を提供する。 FLはローカルデータをプライベートに保つための有望な機械学習(ML)技術であるように見えるが、他のMLモデルのような攻撃にも脆弱である。 flドメインへの関心が高まる中、本報告では連合学習の機会と課題について述べる。

Federated Learning (FL) is a concept first introduced by Google in 2016, in which multiple devices collaboratively learn a machine learning model without sharing their private data under the supervision of a central server. This offers ample opportunities in critical domains such as healthcare, finance etc, where it is risky to share private user information to other organisations or devices. While FL appears to be a promising Machine Learning (ML) technique to keep the local data private, it is also vulnerable to attacks like other ML models. Given the growing interest in the FL domain, this report discusses the opportunities and challenges in federated learning.
翻訳日:2021-03-29 10:20:04 公開日:2021-01-14
# (参考訳) マルチモーダル脳MRI画像変換のための統一的条件分散フレームワーク

A Unified Conditional Disentanglement Framework for Multimodal Brain MR Image Translation ( http://arxiv.org/abs/2101.05434v1 )

ライセンス: CC BY 4.0
Xiaofeng Liu, Fangxu Xing, Georges El Fakhri, Jonghye Woo(参考訳) マルチモーダルMRIは、組織状態を調査し、様々な疾患を特徴づけるために相補的で臨床的に関連のある情報を提供する。 しかし, 定量的解析が要求される一方で, 研究計画の限界により, 同一課題から十分に多くのモダリティを得ることは困難である。 本研究では,任意のモダリティを入力モダリティから合成する統一条件付き不等角化フレームワークを提案する。 本手法は,モダリティ非依存エンコーダを用いてモダリティ不変な解剖学的特徴を抽出し,条件付きデコーダでターゲットモダリティを生成することができる。 我々は,BraTS'18データベースから,T1強調,T1強調,T2強調,FLAIRMRIの4つのMRIモダリティについて検討し,比較法よりも優れた合成品質を示す。 また,合成データを用いて腫瘍の分節処理を行った結果について報告する。

Multimodal MRI provides complementary and clinically relevant information to probe tissue condition and to characterize various diseases. However, it is often difficult to acquire sufficiently many modalities from the same subject due to limitations in study plans, while quantitative analysis is still demanded. In this work, we propose a unified conditional disentanglement framework to synthesize any arbitrary modality from an input modality. Our framework hinges on a cycle-constrained conditional adversarial training approach, where it can extract a modality-invariant anatomical feature with a modality-agnostic encoder and generate a target modality with a conditioned decoder. We validate our framework on four MRI modalities, including T1-weighted, T1 contrast enhanced, T2-weighted, and FLAIR MRI, from the BraTS'18 database, showing superior performance on synthesis quality over the comparison methods. In addition, we report results from experiments on a tumor segmentation task carried out with synthesized data.
翻訳日:2021-03-29 10:10:58 公開日:2021-01-14
# (参考訳) 2サイクル拘束型VAE-GANによる磁気共鳴画像合成

Dual-cycle Constrained Bijective VAE-GAN For Tagged-to-Cine Magnetic Resonance Image Synthesis ( http://arxiv.org/abs/2101.05439v1 )

ライセンス: CC BY 4.0
Xiaofeng Liu, Fangxu Xing, Jerry L. Prince, Aaron Carass, Maureen Stone, Georges El Fakhri, Jonghye Woo(参考訳) MRI(Tagged magnetic resonance imaging)は、運動器官の組織変形を測定するために広く用いられるイメージング技術である。 タグ付けされたMRIの内在性低解剖学的解像度のため、高分解能のcine MRIの別のマッチングセットが、同じ走査セッションで取得され、組織セグメンテーションが促進され、時間とコストが増大する。 そこで本研究では, タグ付きMR画像合成を実現するために, 二サイクル拘束型単目的VAE-GANアプローチを提案する。 本手法は, 自己エンコーダバックボーンに周期再構成を制約した逆行訓練を施し, タグ付けしたMR画像から, 高精度でリアルなシネMR画像を得る。 健常者20名から1,768名,416名,1,560名の被験者に依存しないタギングmriとシネmriのペアスライスを用いて,比較法よりも優れた性能を示すフレームワークをトレーニングし,検証し,検証した。 提案手法は,移動解析のためのワークフローを維持しながら,余分な取得時間とコストを削減できる可能性がある。

Tagged magnetic resonance imaging (MRI) is a widely used imaging technique for measuring tissue deformation in moving organs. Due to tagged MRI's intrinsic low anatomical resolution, another matching set of cine MRI with higher resolution is sometimes acquired in the same scanning session to facilitate tissue segmentation, thus adding extra time and cost. To mitigate this, in this work, we propose a novel dual-cycle constrained bijective VAE-GAN approach to carry out tagged-to-cine MR image synthesis. Our method is based on a variational autoencoder backbone with cycle reconstruction constrained adversarial training to yield accurate and realistic cine MR images given tagged MR images. Our framework has been trained, validated, and tested using 1,768, 416, and 1,560 subject-independent paired slices of tagged and cine MRI from twenty healthy subjects, respectively, demonstrating superior performance over the comparison methods. Our method can potentially be used to reduce the extra acquisition time and cost, while maintaining the same workflow for further motion analyses.
翻訳日:2021-03-29 10:01:31 公開日:2021-01-14
# (参考訳) セグメンテーションのための自己指導型学習

Self-Supervised Learning for Segmentation ( http://arxiv.org/abs/2101.05456v1 )

ライセンス: CC BY-SA 4.0
Abhinav Dhere, Jayanthi Sivaswamy(参考訳) 自己教師付き学習は、大規模なデータセットからの移動学習に有効な代用として出現している。 この研究では、腎臓分節を用いてこのアイデアを探求する。 腎臓の解剖学的非対称性は、自己教師付き学習による腎臓分画の効果的なプロキシタスクを定義するために利用される。 siamese convolutional neural network (cnn)は、与えられた1対の腎臓切片をctボリュームから同一または異なる側面の腎臓に分類するために使用される。 この知識は、セグメンテーションネットワークのエンコーダとしてシアムCNNの1つの枝を用いて、もう1つの深いCNNを用いて腎臓のセグメンテーションのために転送される。 腹部領域のCT(Computed tomography)スキャンを含む公開データセットの評価結果は,従来訓練されていたネットワークと比較して,性能の向上と高速収束が期待できることを示している。 トレーニングで追加のデータ/拡張アノテーションや拡張が使用されていない点が注目に値する。

Self-supervised learning is emerging as an effective substitute for transfer learning from large datasets. In this work, we use kidney segmentation to explore this idea. The anatomical asymmetry of kidneys is leveraged to define an effective proxy task for kidney segmentation via self-supervised learning. A siamese convolutional neural network (CNN) is used to classify a given pair of kidney sections from CT volumes as being kidneys of the same or different sides. This knowledge is then transferred for the segmentation of kidneys using another deep CNN using one branch of the siamese CNN as the encoder for the segmentation network. Evaluation results on a publicly available dataset containing computed tomography (CT) scans of the abdominal region shows that a boost in performance and fast convergence can be had relative to a network trained conventionally from scratch. This is notable given that no additional data/expensive annotations or augmentation were used in training.
翻訳日:2021-03-29 09:29:02 公開日:2021-01-14
# (参考訳) 連結設計ニューラルネットワークのための多重分類器アプローチ

A Multiple Classifier Approach for Concatenate-Designed Neural Networks ( http://arxiv.org/abs/2101.05457v1 )

ライセンス: CC BY 4.0
Ka-Hou Chan, Sio-Kei Im and Wei Ke(参考訳) 本稿では,resnet や densenet などの結合型ニューラルネットワークの性能を向上させるために,最終分類器の圧力を軽減するために,多重分類器法を提案する。 ネットワークセット間で生成された特徴を収集する分類器の設計を行い、分類器の構成層とアクティベーション関数を示し、各分類器の分類スコアを算出する。 ソフトマックス正規化の代わりにL2正規化法を用いて分類器スコアを得る。 また,収束性を高める条件も決定する。 その結果,提案した分類器は実験事例の精度を著しく向上させることができ,本手法が元のモデルよりも優れた性能を示すだけでなく,より高速な収束を実現することを示す。 さらに、分類器は汎用的で、すべての分類関連連結設計ネットワークモデルに適用できる。

This article introduces a multiple classifier method to improve the performance of concatenate-designed neural networks, such as ResNet and DenseNet, with the purpose to alleviate the pressure on the final classifier. We give the design of the classifiers, which collects the features produced between the network sets, and present the constituent layers and the activation function for the classifiers, to calculate the classification score of each classifier. We use the L2 normalization method to obtain the classifier score instead of the Softmax normalization. We also determine the conditions that can enhance convergence. As a result, the proposed classifiers are able to improve the accuracy in the experimental cases significantly, and show that the method not only has better performance than the original models, but also produces faster convergence. Moreover, our classifiers are general and can be applied to all classification related concatenate-designed network models.
翻訳日:2021-03-29 09:24:00 公開日:2021-01-14
# (参考訳) マルチタスクビューにおけるテキスト拡張

Text Augmentation in a Multi-Task View ( http://arxiv.org/abs/2101.05469v1 )

ライセンス: CC BY 4.0
Jason Wei, Chengyu Huang, Shiqi Xu, Soroush Vosoughi(参考訳) 従来のデータ拡張は、トレーニングを主とするオンライン方式で、原サンプルに強く類似した拡張例を生成することで、入力分布のカバレッジを向上させることを目的としている。 本稿では,データ拡張のマルチタスクビュー(MTV)という別の視点を提案する。 MTVデータ拡張では、トレーニング中に原サンプルと増分サンプルの両方を実質的に重み付けし、増分サンプルが原データに似なければならないという制約を緩和し、より強力な増分レベルを適用できるようにする。 3つのベンチマークテキスト分類データセットにおける4つの共通データ拡張技術を用いた実験では、mtvが従来の拡張よりも高い、より堅牢なパフォーマンス改善をもたらすことが判明した。

Traditional data augmentation aims to increase the coverage of the input distribution by generating augmented examples that strongly resemble original samples in an online fashion where augmented examples dominate training. In this paper, we propose an alternative perspective -- a multi-task view (MTV) of data augmentation -- in which the primary task trains on original examples and the auxiliary task trains on augmented examples. In MTV data augmentation, both original and augmented samples are weighted substantively during training, relaxing the constraint that augmented examples must resemble original data and thereby allowing us to apply stronger levels of augmentation. In empirical experiments using four common data augmentation techniques on three benchmark text classification datasets, we find that the MTV leads to higher and more robust performance improvements than traditional augmentation.
翻訳日:2021-03-29 09:05:20 公開日:2021-01-14
# (参考訳) 実用的adamに向けて:非凸性、収束理論、ミニバッチ加速

Towards Practical Adam: Non-Convexity, Convergence Theory, and Mini-Batch Acceleration ( http://arxiv.org/abs/2101.05471v1 )

ライセンス: CC BY 4.0
Congliang Chen, Li Shen, Fangyu Zou, Wei Liu(参考訳) アダムは、深層ニューラルネットワークを訓練するための最も影響力のある適応確率アルゴリズムの1つであり、いくつかの単純な反例を通じて単純な凸設定においても発散することが指摘されている。 例えば、適応学習率の低下、大きなバッチサイズの採用、時間的非相関技法の導入、類似のサロゲートである \textit{etc を求めるなどである。 これはAdam型アルゴリズムの収束を促進するためである。 既存の手法とは対照的に,ベース学習率と歴史的2次モーメントの組み合わせのパラメータにのみ依存し,大規模な非凸確率最適化を解くためのジェネリック・アダムのグローバル収束を保証する,チェックが容易な条件を導入する。 この十分条件と組み合わされた観測は、アダムの発散に関するより深い解釈を与える。 一方,ミニバッチと分散Adamは理論上の保証なく広く利用されているため,分散システムのバッチサイズやノード数がAdamの収束にどのように影響するかを解析した結果,ミニバッチと分散Adamは,より大きなミニバッチサイズあるいはより多くのノードを用いて線形に加速可能であることが理論的に示されている。 最終的に、一般的なAdamとミニバッチAdamを、反例を解決するのに十分な条件で適用し、さまざまな実世界のデータセット上で複数の異なるニューラルネットワークをトレーニングする。 実験結果は理論解析と全く一致している。

Adam is one of the most influential adaptive stochastic algorithms for training deep neural networks, which has been pointed out to be divergent even in the simple convex setting via a few simple counterexamples. Many attempts, such as decreasing an adaptive learning rate, adopting a big batch size, incorporating a temporal decorrelation technique, seeking an analogous surrogate, \textit{etc.}, have been tried to promote Adam-type algorithms to converge. In contrast with existing approaches, we introduce an alternative easy-to-check sufficient condition, which merely depends on the parameters of the base learning rate and combinations of historical second-order moments, to guarantee the global convergence of generic Adam for solving large-scale non-convex stochastic optimization. This observation coupled with this sufficient condition gives much deeper interpretations on the divergence of Adam. On the other hand, in practice, mini-Adam and distributed-Adam are widely used without theoretical guarantee, we further give an analysis on how will the batch size or the number of nodes in the distributed system will affect the convergence of Adam, which theoretically shows that mini-batch and distributed Adam can be linearly accelerated by using a larger mini-batch size or more number of nodes. At last, we apply the generic Adam and mini-batch Adam with a sufficient condition for solving the counterexample and training several different neural networks on various real-world datasets. Experimental results are exactly in accord with our theoretical analysis.
翻訳日:2021-03-29 08:56:27 公開日:2021-01-14
# (参考訳) ビデオキャプションのための視覚特徴の探索と加重付加融合

Exploration of Visual Features and their weighted-additive fusion for Video Captioning ( http://arxiv.org/abs/2101.05806v1 )

ライセンス: CC BY 4.0
Praveen S V, Akhilesh Bharadwaj, Harsh Raj, Janhavi Dadhania, Ganesh Samarth C.A, Nikhil Pareek, S R M Prasanna(参考訳) ビデオキャプションは、自然言語を使ってビデオ内のイベントを記述するモデルに挑戦する一般的なタスクである。 本研究では、最先端の畳み込みニューラルネットワークから得られる様々な視覚的特徴表現の高レベルな意味的コンテキストを捉える能力について検討する。 本稿では,変換器エンコーダにメモリを組み込んだキャプションモデルであるメモリ拡張エンコーダ(waftm)を用いた重み付き加法融合トランスについて紹介する。 本稿では,ワードピーストークン化と一般的な強化アルゴリズムを適用した性能向上を示す。 最後に、我々のモデルを2つのデータセットでベンチマークし、MSVDで92.4のCIDEr、ActivityNet Captions Datasetで0.091のMETEORを得る。

Video captioning is a popular task that challenges models to describe events in videos using natural language. In this work, we investigate the ability of various visual feature representations derived from state-of-the-art convolutional neural networks to capture high-level semantic context. We introduce the Weighted Additive Fusion Transformer with Memory Augmented Encoders (WAFTM), a captioning model that incorporates memory in a transformer encoder and uses a novel method, to fuse features, that ensures due importance is given to more significant representations. We illustrate a gain in performance realized by applying Word-Piece Tokenization and a popular REINFORCE algorithm. Finally, we benchmark our model on two datasets and obtain a CIDEr of 92.4 on MSVD and a METEOR of 0.091 on the ActivityNet Captions Dataset.
翻訳日:2021-03-29 08:54:57 公開日:2021-01-14
# (参考訳) 訓練済み言語モデルを用いたヒンディー語における敵意検出

Hostility Detection in Hindi leveraging Pre-Trained Language Models ( http://arxiv.org/abs/2101.05494v1 )

ライセンス: CC BY-SA 4.0
Ojasv Kamal, Adarsh Kumar and Tejas Vaidhya(参考訳) ソーシャルプラットフォーム上の敵対的コンテンツはますます増えている。 これにより、敵のポストを適切に検出する必要があるため、それらに取り組むための適切なアクションが取られる。 オンラインでの敵対的コンテンツの問題を解決するために、最近英語で多くの作業が行われてきたが、インド語での同様の研究は見つからない。 本稿では、ソーシャルメディア(Twitter、Facebookなど)を分類するための移動学習に基づくアプローチを提案する。 ヒンディー・デヴァナガリ(Hindi Devanagari)は、ホステリーまたはノンホスティル(Non-Hostile)の登場人物。 敵の投稿はさらに分析され、憎しみ、フェイク、デファメーション、攻撃的かどうかが判断される。 本稿では,HindiデータとHostile-Non攻撃タスクを併用した注意ベース事前学習モデルを用いて,その特徴をサブタスク分類に活用する。 このアプローチを通じて、アンサンブルや複雑な前処理なしに、堅牢で一貫したモデルを確立する。 CONSTRAINT-2021 Shared Task on hostile post detectionでは,重み付きF1スコアを用いて,第3走者に対して極めて良好に動作している。

Hostile content on social platforms is ever increasing. This has led to the need for proper detection of hostile posts so that appropriate action can be taken to tackle them. Though a lot of work has been done recently in the English Language to solve the problem of hostile content online, similar works in Indian Languages are quite hard to find. This paper presents a transfer learning based approach to classify social media (i.e Twitter, Facebook, etc.) posts in Hindi Devanagari script as Hostile or Non-Hostile. Hostile posts are further analyzed to determine if they are Hateful, Fake, Defamation, and Offensive. This paper harnesses attention based pre-trained models fine-tuned on Hindi data with Hostile-Non hostile task as Auxiliary and fusing its features for further sub-tasks classification. Through this approach, we establish a robust and consistent model without any ensembling or complex pre-processing. We have presented the results from our approach in CONSTRAINT-2021 Shared Task on hostile post detection where our model performs extremely well with 3rd runner up in terms of Weighted Fine-Grained F1 Score.
翻訳日:2021-03-29 08:19:02 公開日:2021-01-14
# (参考訳) ECOL:コンテンツ、事前知識、ソース情報を用いた早期の新型コロナウイルス検出

ECOL: Early Detection of COVID Lies Using Content, Prior Knowledge and Source Information ( http://arxiv.org/abs/2101.05499v1 )

ライセンス: CC BY 4.0
Ipek Baris and Zeyd Boukhers(参考訳) ソーシャルメディアプラットフォームは偽ニュースの拡散に弱いため、医療分野におけるパニックや誤った薬物などの悪影響を引き起こす。 したがって、広く広まる前に、早期に偽ニュースを自動的に検出することが重要である。 本稿では,フェイクニュースの早期発見のためのモデルに,コンテンツ情報,事前知識,情報源の信頼性を取り入れた影響を分析する。 BERT言語モデルと外部ソース,すなわちSimple English Wikipediaとソース信頼性タグを用いて,これらの特徴をモデル化するフレームワークを提案する。 CONSTRAINTデータセットに関する実験では、医療領域におけるフェイクニュースの早期検出のためにこれらの機能を統合するメリットが示された。

Social media platforms are vulnerable to fake news dissemination, which causes negative consequences such as panic and wrong medication in the healthcare domain. Therefore, it is important to automatically detect fake news in an early stage before they get widely spread. This paper analyzes the impact of incorporating content information, prior knowledge, and credibility of sources into models for the early detection of fake news. We propose a framework modeling those features by using BERT language model and external sources, namely Simple English Wikipedia and source reliability tags. The conducted experiments on CONSTRAINT datasets demonstrated the benefit of integrating these features for the early detection of fake news in the healthcare domain.
翻訳日:2021-03-29 08:09:08 公開日:2021-01-14
# (参考訳) 分離埋め込み推定のための関節次元の低減

Joint Dimensionality Reduction for Separable Embedding Estimation ( http://arxiv.org/abs/2101.05500v1 )

ライセンス: CC BY 4.0
Yanjun Li, Bihan Wen, Hao Cheng and Yoram Bresler(参考訳) 異なるソースからのデータの低次元埋め込みは、マルチモーダル機械学習、マルチメディア情報検索、バイオインフォマティクスにおいて重要な役割を果たす。 本稿では,異なるモダリティや異なる種類のエンティティからのデータを表す2つの特徴ベクトルに対して,線形埋め込みを学習する教師付き次元減少法を提案する。 また, より効率的な特徴選択法を提案し, 先行して適用可能な共同次元削減法を提案する。 これらの特徴に真の線形埋め込みが存在すると仮定すると、学習線形埋め込みにおける誤差の解析は、ある技術的条件が満たされ、サンプル数が十分に大きい場合に、次元減少法が真の埋め込みを正確に推定する理論的保証を与える。 得られたサンプルの複雑性結果は数値実験によって反映される。 提案手法を遺伝子ダイザイゼ関連に応用し,次元縮小された特徴ベクトルに対するカーネル回帰を用いた未知の関連を予測した。 提案手法は,他の次元減少法と比較し,遺伝子・退化関連を予測するための両線形回帰の最先端手法と比較した。

Low-dimensional embeddings for data from disparate sources play critical roles in multi-modal machine learning, multimedia information retrieval, and bioinformatics. In this paper, we propose a supervised dimensionality reduction method that learns linear embeddings jointly for two feature vectors representing data of different modalities or data from distinct types of entities. We also propose an efficient feature selection method that complements, and can be applied prior to, our joint dimensionality reduction method. Assuming that there exist true linear embeddings for these features, our analysis of the error in the learned linear embeddings provides theoretical guarantees that the dimensionality reduction method accurately estimates the true embeddings when certain technical conditions are satisfied and the number of samples is sufficiently large. The derived sample complexity results are echoed by numerical experiments. We apply the proposed dimensionality reduction method to gene-disease association, and predict unknown associations using kernel regression on the dimension-reduced feature vectors. Our approach compares favorably against other dimensionality reduction methods, and against a state-of-the-art method of bilinear regression for predicting gene-disease associations.
翻訳日:2021-03-29 07:58:40 公開日:2021-01-14
# (参考訳) プライバシ保存型多人数機械学習における重み付けによる信頼性チェック

Reliability Check via Weight Similarity in Privacy-Preserving Multi-Party Machine Learning ( http://arxiv.org/abs/2101.05504v1 )

ライセンス: CC BY 4.0
Kennedy Edemacu, Beakcheol Jang, Jong Wook Kim(参考訳) マルチパーティ機械学習は、複数の参加者が共同で機械学習モデルをトレーニングし、プライベートなデータを共有することなく共通の学習目標を達成するパラダイムである。 このパラダイムは最近、関連するプライバシー問題に対処するための研究コミュニティから多くの注目を集めている。 本研究は,データプライバシ,モデルプライバシ,およびプライバシ保存マルチパーティ機械学習に関連するデータ品質の懸念,すなわち,データとモデルプライバシを保証しながら参加者のデータ品質をチェックするために,プライバシ保存協調学習のためのスキームを提案する。 特に,重み類似性(weight similarity)と呼ばれる新しい指標を提案し,参加者が信頼できる参加者(良質なデータを保持する)として分類できるかどうかを確認する。 モデルとデータのプライバシの問題は、我々のスキームに準同型暗号化を統合し、暗号化された重みをアップロードすることで解決されます。 提案手法の分析および実験により,精度が向上し,データとモデルのプライバシが保証された。

Multi-party machine learning is a paradigm in which multiple participants collaboratively train a machine learning model to achieve a common learning objective without sharing their privately owned data. The paradigm has recently received a lot of attention from the research community aimed at addressing its associated privacy concerns. In this work, we focus on addressing the concerns of data privacy, model privacy, and data quality associated with privacy-preserving multi-party machine learning, i.e., we present a scheme for privacy-preserving collaborative learning that checks the participants' data quality while guaranteeing data and model privacy. In particular, we propose a novel metric called weight similarity that is securely computed and used to check whether a participant can be categorized as a reliable participant (holds good quality data) or not. The problems of model and data privacy are tackled by integrating homomorphic encryption in our scheme and uploading encrypted weights, which prevent leakages to the server and malicious participants, respectively. The analytical and experimental evaluations of our scheme demonstrate that it is accurate and ensures data and model privacy.
翻訳日:2021-03-29 07:12:26 公開日:2021-01-14
# (参考訳) 勾配推定バイアスを劇的に低減したディープコンブネットへの平衡伝播

Scaling Equilibrium Propagation to Deep ConvNets by Drastically Reducing its Gradient Estimator Bias ( http://arxiv.org/abs/2101.05536v1 )

ライセンス: CC BY 4.0
Axel Laborieux, Maxence Ernoult, Benjamin Scellier, Yoshua Bengio, Julie Grollier and Damien Querlioz(参考訳) Equilibrium Propagation (EP) は、その強力な理論的保証と学習ルールの空間における局所性から、学習専用のエネルギー効率の高いハードウェアの設計を促進する、生物学的にインスパイアされたBackproagation Through Time (BPTT) の一種である。 しかし実際には、EPはMNISTよりも難しい視覚タスクにスケールしない。 本研究では, 有限ヌード法に固有のEPの勾配推定の偏りが, この現象の原因となり, 異なる前方および後方接続を持つアーキテクチャを含む, EPによる深部ConvNetsのトレーニングを可能にすることを示す。 これらの結果は、深層ニューラルネットワークのエラー勾配を計算するスケーラブルなアプローチとしてEPを強調し、ハードウェア実装を動機付けている。

Equilibrium Propagation (EP) is a biologically-inspired counterpart of Backpropagation Through Time (BPTT) which, owing to its strong theoretical guarantees and the locality in space of its learning rule, fosters the design of energy-efficient hardware dedicated to learning. In practice, however, EP does not scale to visual tasks harder than MNIST. In this work, we show that a bias in the gradient estimate of EP, inherent in the use of finite nudging, is responsible for this phenomenon and that cancelling it allows training deep ConvNets by EP, including architectures with distinct forward and backward connections. These results highlight EP as a scalable approach to compute error gradients in deep neural networks, thereby motivating its hardware implementation.
翻訳日:2021-03-29 06:44:41 公開日:2021-01-14
# (参考訳) DICE:条件付き冗長逆推定によるディープアンサンブルの多様性

DICE: Diversity in Deep Ensembles via Conditional Redundancy Adversarial Estimation ( http://arxiv.org/abs/2101.05544v1 )

ライセンス: CC BY 4.0
Alexandre Rame and Matthieu Cord(参考訳) メンバー間の多様性のおかげで、ディープアンサンブルは単一のネットワークよりもパフォーマンスが良い。 最近のアプローチは、多様性を高めるために予測を定式化するが、同時に個々のメンバのパフォーマンスを劇的に低下させる。 本稿では,深層アンサンブルの学習戦略は,アンサンブルの多様性と個々のアキュラシーのトレードオフに対処する必要があると論じる。 情報理論の議論と、条件付き相互情報のニューラルな推定の最近の進歩を活用して、DICEと呼ばれる新しいトレーニング基準を導入し、特徴間の素早い相関を減らして多様性を高める。 主な考え方は、メンバーのペアから抽出された機能は、条件付き冗長さを伴わずに、ターゲットクラス予測に有用な情報を共有することである。 したがって,情報ボトルネックを伴う分類損失に加えて,特徴が互いに条件付きで予測可能であることも防止できる。 クラス情報を保護しながら、同時エラーを減らします。 例えば、DICEで訓練された5つのネットワークのアンサンブルは、独立して訓練された7つのネットワークのアンサンブルと一致する。 さらに, 校正, 不確実性推定, 分布外検出, オンライン共蒸留の結果を解析した。

Deep ensembles perform better than a single network thanks to the diversity among their members. Recent approaches regularize predictions to increase diversity; however, they also drastically decrease individual members' performances. In this paper, we argue that learning strategies for deep ensembles need to tackle the trade-off between ensemble diversity and individual accuracies. Motivated by arguments from information theory and leveraging recent advances in neural estimation of conditional mutual information, we introduce a novel training criterion called DICE: it increases diversity by reducing spurious correlations among features. The main idea is that features extracted from pairs of members should only share information useful for target class prediction without being conditionally redundant. Therefore, besides the classification loss with information bottleneck, we adversarially prevent features from being conditionally predictable from each other. We manage to reduce simultaneous errors while protecting class information. We obtain state-of-the-art accuracy results on CIFAR-10/100: for example, an ensemble of 5 networks trained with DICE matches an ensemble of 7 networks trained independently. We further analyze the consequences on calibration, uncertainty estimation, out-of-distribution detection and online co-distillation.
翻訳日:2021-03-29 06:20:36 公開日:2021-01-14
# (参考訳) エンティティリンクにおける事前の時間性について

On the Temporality of Priors in Entity Linking ( http://arxiv.org/abs/2101.05593v1 )

ライセンス: CC BY 4.0
Renato Stoffalette Joao(参考訳) エンティティリンクは、テキストの語彙的曖昧さを扱う自然言語処理の基本的なタスクである。 エンティティリンクアプローチにおける重要なコンポーネントは、参照からエンティティへの事前確率である。 エンティティリンクには多くの作業があるが、既存のアプローチでは、時間的側面、特にエンティティの事前確率の時間的側面を明示的に考慮していない。 この事前確率は本質的に時間的であり、エンティティリンクシステムの性能に影響を与えると仮定する。 本稿では,テキストとkbの時間的妥当性に対するエンティティリンク性能に対する事前の影響を体系的に検討する。

Entity linking is a fundamental task in natural language processing which deals with the lexical ambiguity in texts. An important component in entity linking approaches is the mention-to-entity prior probability. Even though there is a large number of works in entity linking, the existing approaches do not explicitly consider the time aspect, specifically the temporality of an entity's prior probability. We posit that this prior probability is temporal in nature and affects the performance of entity linking systems. In this paper we systematically study the effect of the prior on the entity linking performance over the temporal validity of both texts and KBs.
翻訳日:2021-03-29 06:19:02 公開日:2021-01-14
# (参考訳) Better Together -- 既製エンティティリンクシステムの結果を組み合わせるためのアンサンブル学習者

Better Together -- An Ensemble Learner for Combining the Results of Ready-made Entity Linking Systems ( http://arxiv.org/abs/2101.05634v1 )

ライセンス: CC BY 4.0
Renato Stoffalette Jo\~ao and Pavlos Fafalios and Stefan Dietze(参考訳) エンティティリンク(el)は、テキスト中のエンティティ参照を自動的に識別し、wikipediaのような参照知識ベースで対応するエンティティに解決するタスクである。 過去10年間、多数のELシステムとパイプラインが利用可能となり、個々のシステムのパフォーマンスはコーパス、言語、ドメインによって大きく異なる。 リンクのパフォーマンスは、同じテキストコーパス内の異なる参照の間でも異なり、例えば、ELのいくつかのアプローチは、短い表面のフォームを扱うのがより適しており、他の方法は、より多くのコンテキスト情報が利用可能であればより良く機能する。 この目的のために,同一コーパス上の異なるELシステムから得られた結果を利用して,個々の強みを評価ベースで活用することで,性能を最適化できると主張している。 本稿では,複数の既製elシステムの出力を,各メンションベースで正しいリンクを予測して活用する教師あり方式を提案する。 既存の真理データセットと3つの最先端ELシステムを用いて得られた実験結果から,提案手法の有効性と,個々のELシステムとベースライン法を著しく上回る能力が示された。

Entity linking (EL) is the task of automatically identifying entity mentions in text and resolving them to a corresponding entity in a reference knowledge base like Wikipedia. Throughout the past decade, a plethora of EL systems and pipelines have become available, where performance of individual systems varies heavily across corpora, languages or domains. Linking performance varies even between different mentions in the same text corpus, where, for instance, some EL approaches are better able to deal with short surface forms while others may perform better when more context information is available. To this end, we argue that performance may be optimised by exploiting results from distinct EL systems on the same corpus, thereby leveraging their individual strengths on a per-mention basis. In this paper, we introduce a supervised approach which exploits the output of multiple ready-made EL systems by predicting the correct link on a per-mention basis. Experimental results obtained on existing ground truth datasets and exploiting three state-of-the-art EL systems show the effectiveness of our approach and its capacity to significantly outperform the individual EL systems as well as a set of baseline methods.
翻訳日:2021-03-29 06:12:20 公開日:2021-01-14
# (参考訳) 悪意のあるコード検出:LSTMによるトレース出力解析

Malicious Code Detection: Run Trace Output Analysis by LSTM ( http://arxiv.org/abs/2101.05646v1 )

ライセンス: CC BY 4.0
Cengiz Acarturk, Melih Sirlanci, Pinar Gurkan Balikcioglu, Deniz Demirci, Nazenin Sahin, Ozge Acar Kucuk(参考訳) 悪意あるソフトウェア脅威とその検出は、日々のICTアプリケーションの拡張により情報セキュリティのサブドメインとして重要になっている。 アンチマルウェアシステムの設計と開発における大きな課題は、検出のカバレッジ、特に多形性およびメタモルフィックなマルウェアを効率的に検出できる動的解析手法の開発である。 本研究では,Long Short-Term Memory (LSTM) を用いてラントレース出力を分析し,悪意のあるコードを検出する手法を提案する。 悪質で良質な Portable Executable (PE) ファイルのラントレースモデルを開発した。 PEファイルの動的解析から得られたトレース出力からデータセットを作成した。 得られたデータセットは、シーケンスとして命令形式で、シーケンスモデル(ISM)としてインストラクション(Instruction)と呼ばれた。 最初のデータセットを基本ブロックに分割することで、BSM(Basic Block as a Sequence Model)と呼ばれる第2のデータセットを得た。 実験の結果、ISMは87.51%、偽陽性率は18.34%、BSMは99.26%、偽陽性率は2.62%であった。

Malicious software threats and their detection have been gaining importance as a subdomain of information security due to the expansion of ICT applications in daily settings. A major challenge in designing and developing anti-malware systems is the coverage of the detection, particularly the development of dynamic analysis methods that can detect polymorphic and metamorphic malware efficiently. In the present study, we propose a methodological framework for detecting malicious code by analyzing run trace outputs by Long Short-Term Memory (LSTM). We developed models of run traces of malicious and benign Portable Executable (PE) files. We created our dataset from run trace outputs obtained from dynamic analysis of PE files. The obtained dataset was in the instruction format as a sequence and was called Instruction as a Sequence Model (ISM). By splitting the first dataset into basic blocks, we obtained the second one called Basic Block as a Sequence Model (BSM). The experiments showed that the ISM achieved an accuracy of 87.51% and a false positive rate of 18.34%, while BSM achieved an accuracy of 99.26% and a false positive rate of 2.62%.
翻訳日:2021-03-29 05:57:05 公開日:2021-01-14
# (参考訳) ネットワークパラメータの学習可能な繰り返しによるCNNの再スケーリング

Rescaling CNN through Learnable Repetition of Network Parameters ( http://arxiv.org/abs/2101.05650v1 )

ライセンス: CC BY 4.0
Arnav Chavan, Udbhav Bamba, Rishabh Tiwari, Deepak Gupta(参考訳) より深く広いCNNは、ディープラーニングタスクのパフォーマンスを向上させることが知られている。 しかし、ほとんどのネットワークはパラメータの増加ごとに性能が向上しない。 本稿では,より深いモデルで観測される利得が,単に最適化パラメータの追加によるものなのか,あるいはネットワークの物理サイズが果たす役割があるのかを検討する。 さらに,学習可能なパラメータ繰り返しに基づくcnnの新たな再スケーリング戦略を提案する。 この戦略に基づき、パラメータ数を変更することなくcnnをリスケールし、重みの学習可能な共有によってパラメータ数を変更することなく任意のモデルのパフォーマンスが大幅に向上することを示す。 小ベースネットワークが再スケールされると、より深いネットワークの最適化パラメータの6%以下で、より深いネットワークに匹敵するパフォーマンスを提供できることを示す。 重み共有の関連性はさらに、グループ同変CNNの例を通して強調される。 正規CNNに対するグループ同変CNNによる分類問題に対する顕著な改善は、部分的には同値性の追加によるものであり、その一部は学習可能なネットワーク重みの反復によるものであることを示す。 rot-MNISTデータセットの場合、現状の回転同値法によって報告された相対的な利得の最大40%は、単に学習された重みの繰り返しによるものである可能性があることを示す。

Deeper and wider CNNs are known to provide improved performance for deep learning tasks. However, most such networks have poor performance gain per parameter increase. In this paper, we investigate whether the gain observed in deeper models is purely due to the addition of more optimization parameters or whether the physical size of the network as well plays a role. Further, we present a novel rescaling strategy for CNNs based on learnable repetition of its parameters. Based on this strategy, we rescale CNNs without changing their parameter count, and show that learnable sharing of weights itself can provide significant boost in the performance of any given model without changing its parameter count. We show that small base networks when rescaled, can provide performance comparable to deeper networks with as low as 6% of optimization parameters of the deeper one. The relevance of weight sharing is further highlighted through the example of group-equivariant CNNs. We show that the significant improvements obtained with group-equivariant CNNs over the regular CNNs on classification problems are only partly due to the added equivariance property, and part of it comes from the learnable repetition of network weights. For rot-MNIST dataset, we show that up to 40% of the relative gain reported by state-of-the-art methods for rotation equivariance could actually be due to just the learnt repetition of weights.
翻訳日:2021-03-29 05:39:15 公開日:2021-01-14
# (参考訳) 超複雑情報に基づく自然刺激型特徴選択手法

A Nature-Inspired Feature Selection Approach based on Hypercomplex Information ( http://arxiv.org/abs/2101.05652v1 )

ライセンス: CC BY 4.0
Gustavo H. de Rosa, Jo\~ao Paulo Papa, Xin-She Yang(参考訳) 与えられたモデルの特徴の選択は最適化タスクに変換できる。 その背景にある基本的な考え方は、いくつかの基準に従って最も適切な機能のサブセットを見つけることである。 自然に着想を得た最適化は、複雑な適合関数を扱う際に説得力があるが分かりやすい解決策を作ることでこの問題を軽減できる。 さらに、四元数や八元数といった新しい数学的表現は、高次元空間を扱うために使われている。 この文脈では、超複素数を実数値解にマッピングし、sgmoid関数によってブール超キューブに転送する超複素数に基づく特徴選択にメタヒューリスティック最適化フレームワークを導入する。 意図された超複素機能選択は、いくつかのメタヒューリスティックアルゴリズムと超複素表現でテストされ、いくつかの最先端のアプローチに匹敵する結果が得られる。 提案手法によって得られた良い結果は,特徴選択研究において有望なツールとなる。

Feature selection for a given model can be transformed into an optimization task. The essential idea behind it is to find the most suitable subset of features according to some criterion. Nature-inspired optimization can mitigate this problem by producing compelling yet straightforward solutions when dealing with complicated fitness functions. Additionally, new mathematical representations, such as quaternions and octonions, are being used to handle higher-dimensional spaces. In this context, we are introducing a meta-heuristic optimization framework in a hypercomplex-based feature selection, where hypercomplex numbers are mapped to real-valued solutions and then transferred onto a boolean hypercube by a sigmoid function. The intended hypercomplex feature selection is tested for several meta-heuristic algorithms and hypercomplex representations, achieving results comparable to some state-of-the-art approaches. The good results achieved by the proposed approach make it a promising tool amongst feature selection research.
翻訳日:2021-03-29 05:32:26 公開日:2021-01-14
# (参考訳) テンソルに基づく複素関数グラフ理論の定式化

A Tensor-Based Formulation of Hetero-functional Graph Theory ( http://arxiv.org/abs/2101.07220v1 )

ライセンス: CC BY-SA 4.0
Amro M. Farid, Dakota Thompson, Prabhat Hegde and Wester Schoonenberg(参考訳) 近年,大規模フレキシブルエンジニアリングシステムの構造を数学的にモデル化する手段としてヘテロファンクショナルグラフ理論 (HFGT) が開発されている。 その点において、ネットワーク科学とモデルベースのシステム工学の融合と知的に類似している。 前者については、行列に基づく定量的解析をサポートするために、データ構造として複数のグラフに依存する。 一方、HFGTは、システム形式、システム機能、システム概念を含むモデルベースのシステム工学で見られる概念的および存在論的構成の不均一性を明示的に具現化している。 それらの基礎において、これらの異なる概念構成は二次元関係よりも多次元を示唆する。 本稿では、ヘテロ汎関数グラフ理論の最も重要な部分のいくつかをテンソルベースで初めて扱う。 特に、「システムの概念」、ヘテロファンクショナルな隣接行列、ヘテロファンクショナルなインシデントテンソルに対処する。 この研究で記述されたテンソルベースの定式化は、HFGTとMBSEのその存在論的基礎との間に強い結びつきを与える。 最後に、テンソルベースの定式化はhfgtと多層ネットワークの関係の理解を促進する。

Recently, hetero-functional graph theory (HFGT) has developed as a means to mathematically model the structure of large flexible engineering systems. In that regard, it intellectually resembles a fusion of network science and model-based systems engineering. With respect to the former, it relies on multiple graphs as data structures so as to support matrix-based quantitative analysis. In the meantime, HFGT explicitly embodies the heterogeneity of conceptual and ontological constructs found in model-based systems engineering including system form, system function, and system concept. At their foundation, these disparate conceptual constructs suggest multi-dimensional rather than two-dimensional relationships. This paper provides the first tensor-based treatment of some of the most important parts of hetero-functional graph theory. In particular, it addresses the "system concept", the hetero-functional adjacency matrix, and the hetero-functional incidence tensor. The tensor-based formulation described in this work makes a stronger tie between HFGT and its ontological foundations in MBSE. Finally, the tensor-based formulation facilitates an understanding of the relationships between HFGT and multi-layer networks.
翻訳日:2021-03-29 05:15:52 公開日:2021-01-14
# (参考訳) マスイベント追跡のためのインフォメーションツイート識別について

On Informative Tweet Identification For Tracking Mass Events ( http://arxiv.org/abs/2101.05656v1 )

ライセンス: CC BY 4.0
Renato Stoffalette Jo\~ao(参考訳) twitterは、イベントをリアルタイムでコミュニケーションし、議論するための重要なチャンネルとして広く利用されている。 このような大きなイベントでは、多くの非形式的ツイートが多くのユーザによって急速に公開され、イベントをフォローすることが困難になる。 本稿では,対象イベントに関連するツイートを自動的に識別する機械学習手法を用いて,この問題に対処する。 我々は,手作りの豊富な機能セットを持つ従来のアプローチと,自動学習された機能を備えた最先端のアプローチの両方について検討する。 さらに,手作り機能と自動学習機能の両方を活用したハイブリッドモデルを提案する。 実世界の事象の大規模データセットを用いた実験により,後者の手法は前者よりも著しく優れており,提案モデルが最も優れており,大量事象の追跡に有効なメカニズムが示唆されている。

Twitter has been heavily used as an important channel for communicating and discussing about events in real-time. In such major events, many uninformative tweets are also published rapidly by many users, making it hard to follow the events. In this paper, we address this problem by investigating machine learning methods for automatically identifying informative tweets among those that are relevant to a target event. We examine both traditional approaches with a rich set of handcrafted features and state of the art approaches with automatically learned features. We further propose a hybrid model that leverages both the handcrafted features and the automatically learned ones. Our experiments on several large datasets of real-world events show that the latter approaches significantly outperform the former and our proposed model performs the best, suggesting highly effective mechanisms for tracking mass events.
翻訳日:2021-03-29 05:14:47 公開日:2021-01-14
# (参考訳) 事前学習されたシーケンス・ツー・シーケンスモデルを用いたテキストランク付けのための拡張型モノドゥオデザインパターン

The Expando-Mono-Duo Design Pattern for Text Ranking with Pretrained Sequence-to-Sequence Models ( http://arxiv.org/abs/2101.05667v1 )

ライセンス: CC BY 4.0
Ronak Pradeep, Rodrigo Nogueira, and Jimmy Lin(参考訳) 本研究では,複数のドメインのアドホック検索タスクに対して実証的に検証された,"Expando-Mono-Duo"と呼ばれるテキストランキング問題に対処する設計パターンを提案する。 基本となる設計は、標準のマルチステージランキングアーキテクチャ内で事前訓練されたシーケンスからシーケンスへのモデルに依存しています。 拡張(Expando)とは、逆インデックス化の前にテキストのキーワード表現を豊かにする文書拡張技法である。 モノ」と「デュオ」は、キーワード検索を用いて検索した初期候補を再参照するポイントワイズモデルとペアワイズモデルに基づいて、リランクパイプライン内のコンポーネントを指す。 我々は、MS MARCOパスと文書ランキングタスク、TREC 2020 Deep Learning Track、そして設計を検証するTREC-COVIDチャレンジの実験的結果を示す。 これらすべてのタスクにおいて、ターゲットタスクからのトレーニングデータを活用しないゼロショットアプローチを用いる場合、最先端技術に近い有効性を達成する。 複製性をサポートするため、設計パターンの実装はPyserini IRツールキットとPyGaggleニューラルリグレードライブラリでオープンソース化されている。

We propose a design pattern for tackling text ranking problems, dubbed "Expando-Mono-Duo", that has been empirically validated for a number of ad hoc retrieval tasks in different domains. At the core, our design relies on pretrained sequence-to-sequence models within a standard multi-stage ranking architecture. "Expando" refers to the use of document expansion techniques to enrich keyword representations of texts prior to inverted indexing. "Mono" and "Duo" refer to components in a reranking pipeline based on a pointwise model and a pairwise model that rerank initial candidates retrieved using keyword search. We present experimental results from the MS MARCO passage and document ranking tasks, the TREC 2020 Deep Learning Track, and the TREC-COVID challenge that validate our design. In all these tasks, we achieve effectiveness that is at or near the state of the art, in some cases using a zero-shot approach that does not exploit any training data from the target task. To support replicability, implementations of our design pattern are open-sourced in the Pyserini IR toolkit and PyGaggle neural reranking library.
翻訳日:2021-03-29 05:03:04 公開日:2021-01-14
# (参考訳) ゲーミフィケーションのパーソナライズを自動化する - ユーザとそれ以上に

Automating Gamification Personalization: To the User and Beyond ( http://arxiv.org/abs/2101.05718v1 )

ライセンス: CC BY 4.0
Luiz Rodrigues, Armando M. Toda, Wilk Oliveira, Paula T. Palomino, Julita Vassileva, Seiji Isotani(参考訳) パーソナライズされたゲーミフィケーションは、ユーザに関する知識を探索し、一大ゲーミフィケーションを改善するためにゲーミフィケーションデザインをカスタマイズする。 調整プロセスでは、ユーザとコンテキストの特性(例えば、実施すべきアクティビティや地理的位置など)を同時に考慮する必要がある。 そのため、ゲーミフィケーションのパーソナライズを自動化するツールが必要である。 こうした特徴のどれが適切か、どのように仕組むかという問題は、オープンな質問であり、必要な自動化ツールが欠如している。 私たちはこれらの問題に2つのステップで取り組んだ。 まず,様々な学習活動タイプ (LAT) に最も有用と考えられるゲーム要素について,参加者の意見を収集し,探索的研究を行った。 そこで,本稿では,条件付き決定木による意見のモデル化を行った。 第2に,第1段階の製品として,ゲーミフィケーションパーソナライゼーションの自動化の問題に対処する,パーソナライズされたゲーミフィケーションデザイン(使用するゲーム要素)を提案するレコメンデーションシステムを実装した。 i) LAT, 地理的位置, その他のユーザ特性がユーザの嗜好に影響を及ぼすことを示す実証的証拠, i) ユーザやコンテキストに合わせたゲーミフィケーションデザインを同時に定義できること, 3) パーソナライズされたゲーミフィケーションデザインに関心のある人に技術支援を提供すること。 主な意味は,ゲーミフィケーションデザインの定義において,人口動態,ゲーム関連特性,地理的位置情報,LAT,および異なる種類の情報(ユーザとコンテキスト特性)の相互作用が考慮されるべきであり,また,ゲーミフィケーションデザインのパーソナライズも,レコメンデーションシステムによる支援によって改善できるということである。

Personalized gamification explores knowledge about the users to tailor gamification designs to improve one-size-fits-all gamification. The tailoring process should simultaneously consider user and contextual characteristics (e.g., activity to be done and geographic location), which leads to several occasions to tailor. Consequently, tools for automating gamification personalization are needed. The problems that emerge are that which of those characteristics are relevant and how to do such tailoring are open questions, and that the required automating tools are lacking. We tackled these problems in two steps. First, we conducted an exploratory study, collecting participants' opinions on the game elements they consider the most useful for different learning activity types (LAT) via survey. Then, we modeled opinions through conditional decision trees to address the aforementioned tailoring process. Second, as a product from the first step, we implemented a recommender system that suggests personalized gamification designs (which game elements to use), addressing the problem of automating gamification personalization. Our findings i) present empirical evidence that LAT, geographic locations, and other user characteristics affect users' preferences, ii) enable defining gamification designs tailored to user and contextual features simultaneously, and iii) provide technological aid for those interested in designing personalized gamification. The main implications are that demographics, game-related characteristics, geographic location, and LAT to be done, as well as the interaction between different kinds of information (user and contextual characteristics), should be considered in defining gamification designs and that personalizing gamification designs can be improved with aid from our recommender system.
翻訳日:2021-03-29 04:34:47 公開日:2021-01-14
# (参考訳) Scared into Action: Partisanship and Fear are associateds to Public Health Directives

Scared into Action: How Partisanship and Fear are Associated with Reactions to Public Health Directives ( http://arxiv.org/abs/2101.05365v1 )

ライセンス: CC BY 4.0
Mike Lindow, David DeFranza, Arul Mishra, Himanshu Mishra(参考訳) 政治的イデオロギーの違いは、地域指導層からの党派間コミュニケーションの成功の障害としてますます現れています。 例えば、最近の実証研究では、保守派は新型コロナウイルス(covid-19)の健康指令に順守する可能性が低いことが示されている。 この行動は過去の研究と直接矛盾しており、保守派はよりルールを遵守し、損失を避け、リベラル派よりも予防動機が強いことを示している。 私たちは、新型コロナウイルス(covid-19)の避難命令中に、プレスリリースや何百万というツイート、小売、食料品店、職場、公園、交通機関の地域移動を捉えたモビリティデータから収集された洞察を用いて、最近の経験的発見と過去の研究とを区別する。 ウイルスに対する恐怖感が強まると、保守派は保健指導に固執する。 この現象をよりよく理解するために、政府と市民のコミュニケーションを分析し、地方政府と連邦政府からのプレスリリースと新型コロナウイルスの感染者が確認されたことで、twitter上での恐怖の表情が高まることを見出します。

Differences in political ideology are increasingly appearing as an impediment to successful bipartisan communication from local leadership. For example, recent empirical findings have shown that conservatives are less likely to adhere to COVID-19 health directives. This behavior is in direct contradiction to past research which indicates that conservatives are more rule abiding, prefer to avoid loss, and are more prevention-motivated than liberals. We reconcile this disconnect between recent empirical findings and past research by using insights gathered from press releases, millions of tweets, and mobility data capturing local movement in retail, grocery, workplace, parks, and transit domains during COVID-19 shelter-in-place orders. We find that conservatives adhere to health directives when they express more fear of the virus. In order to better understand this phenomenon, we analyze both official and citizen communications and find that press releases from local and federal government, along with the number of confirmed COVID-19 cases, lead to an increase in expressions of fear on Twitter.
翻訳日:2021-03-29 04:05:38 公開日:2021-01-14
# (参考訳) $\text{O}^2$PF:Oversampling via Optimum-Path Forest for Breast Cancer Detection

$\text{O}^2$PF: Oversampling via Optimum-Path Forest for Breast Cancer Detection ( http://arxiv.org/abs/2101.05775v1 )

ライセンス: CC BY 4.0
Leandro Aparecido Passos, Danilo Samuel Jodas, Luiz C. F. Ribeiro, Thierry Pinheiro, Jo\~ao P. Papa(参考訳) 乳がんは最も致命的な病気の一つであり、世界中で女性を苦しめている。 従来の検出方法はタスクの有効性を示しているが、通常は低い精度を示し、専門家にかなりの時間と努力を要求する。 そのため、早期検出が可能なコンピュータ支援診断システム(CAD)が非常に望ましい。 過去10年間、データから重要な情報を抽出し、それについて推論できるため、機械学習ベースの技術はこの文脈において最重要だった。 しかし、これらのアプローチはいまだに不均衡なデータ、特に健康な人のサンプルの数が患者数よりかなり多い医療上の問題に悩まされている。 そこで本稿では,教師なし最適パスフォレストアルゴリズムに基づくデータオーバーサンプリング手法である$\text{O}^2$PFを提案する。 フルオーバーサンプリングシナリオで行われた実験では,3つの乳がんを考慮した3つの確立されたオーバーサンプリング手法と,医療問題データセットのための3つの汎用タスクを比較したモデルの有用性が示されている。

Breast cancer is among the most deadly diseases, distressing mostly women worldwide. Although traditional methods for detection have presented themselves as valid for the task, they still commonly present low accuracies and demand considerable time and effort from professionals. Therefore, a computer-aided diagnosis (CAD) system capable of providing early detection becomes hugely desirable. In the last decade, machine learning-based techniques have been of paramount importance in this context, since they are capable of extracting essential information from data and reasoning about it. However, such approaches still suffer from imbalanced data, specifically on medical issues, where the number of healthy people samples is, in general, considerably higher than the number of patients. Therefore this paper proposes the $\text{O}^2$PF, a data oversampling method based on the unsupervised Optimum-Path Forest Algorithm. Experiments conducted over the full oversampling scenario state the robustness of the model, which is compared against three well-established oversampling methods considering three breast cancer and three general-purpose tasks for medical issues datasets.
翻訳日:2021-03-29 04:04:35 公開日:2021-01-14
# (参考訳) メタヒューリスティック駆動による深いボルツマン機械へのアプローチ

A Metaheuristic-Driven Approach to Fine-Tune Deep Boltzmann Machines ( http://arxiv.org/abs/2101.05795v1 )

ライセンス: CC BY 4.0
Leandro Aparecido Passos, Jo\~ao Paulo Papa(参考訳) ディープ・ボルツマン・マシン(dbms)のようなディープラーニング技術は、様々な領域に関する優れた結果のために、近年多くの注目を集めている。 これらのテクニックの主な欠点の1つは、最終的な結果に大きな影響を与えるため、ハイパーパラメータの選択である。 本研究は,swarm intelligenceやメモリ,進化に基づくアプローチなど,バックグラウンドの異なるメタヒューリスティック最適化手法を用いて,ディープボルツマンマシンのハイパーパラメータを微調整する問題に対処する。 バイナリ画像再構成のための3つの公開データセットで行われた実験は、メタヒューリスティックな手法が妥当な結果を得ることができることを示した。

Deep learning techniques, such as Deep Boltzmann Machines (DBMs), have received considerable attention over the past years due to the outstanding results concerning a variable range of domains. One of the main shortcomings of these techniques involves the choice of their hyperparameters, since they have a significant impact on the final results. This work addresses the issue of fine-tuning hyperparameters of Deep Boltzmann Machines using metaheuristic optimization techniques with different backgrounds, such as swarm intelligence, memory- and evolutionary-based approaches. Experiments conducted in three public datasets for binary image reconstruction showed that metaheuristic techniques can obtain reasonable results.
翻訳日:2021-03-29 03:36:51 公開日:2021-01-14
# (参考訳) AutoMLによる新生植物:自動機械学習ツールの約束を評価する

A Neophyte With AutoML: Evaluating the Promises of Automatic Machine Learning Tools ( http://arxiv.org/abs/2101.05840v1 )

ライセンス: CC BY 4.0
Oleg Bezrukavnikov and Rhema Linder(参考訳) 本稿では,機械学習(ML)の経験がほとんどない人の視点から,最新の自動機械学習(AutoML)ツールについて論じる。 ML技術の使用を簡素化し、民主化するために作られたAutoMLツールは、使いやすくも開発中のツールも数多くある。 私たちの立場では、MLは使いやすく、より多くの人に利用可能であるべきです。 これまでの研究では、直感的なAutoMLツールの必要性が特定されていた。 この作業は、automlツールが実際にその目標を達成した方法を理解することを目的としている。 エンドユーザー体験とシステム性能を評価するために,3つのAutoMLツールを評価した。 バンクデータの競合データセットからモデルを作成することで、ツールを評価します。 彼らのパフォーマンスと経験の詳細を報告します。 このプロセスはAutoMLツールの最先端に関するユニークな理解を提供する。 最後に,これらの経験を活かして,今後のautomlツールが機械学習の新生物のユーザエクスペリエンスをどのように改善できるかを議論する。

This paper discusses modern Auto Machine Learning (AutoML) tools from the perspective of a person with little prior experience in Machine Learning (ML). There are many AutoML tools both ready-to-use and under development, which are created to simplify and democratize usage of ML technologies in everyday life. Our position is that ML should be easy to use and available to a greater number of people. Prior research has identified the need for intuitive AutoML tools. This work seeks to understand how well AutoML tools have achieved that goal in practice. We evaluate three AutoML Tools to evaluate the end-user experience and system performance. We evaluate the tools by having them create models from a competition dataset on banking data. We report on their performance and the details of our experience. This process provides a unique understanding of the state of the art of AutoML tools. Finally, we use these experiences to inform a discussion on how future AutoML tools can improve the user experience for neophytes of Machine Learning.
翻訳日:2021-03-29 03:24:49 公開日:2021-01-14
# (参考訳) 量子決定理論に基づく人間の意思決定の主観的モデル

A Subjective Model of Human Decision Making Based on Quantum Decision Theory ( http://arxiv.org/abs/2101.05851v1 )

ライセンス: CC BY 4.0
Chenda Zhang, Hedvig Kjellstr\"om(参考訳) 人間の意思決定のコンピュータモデリングは、例えば、持続可能な輸送、都市開発、オンラインレコメンデーションシステムにとって非常に重要である。 本稿では,異なるリスク,ゲイン,タイムプレッシャーの下でのバイナリゲーム中の個体の挙動を予測するモデルを提案する。 このモデルは量子決定理論(qdt)に基づいており、古典的な累積予測理論(cpt)では説明されず、意思決定の非合理的かつ主観的な側面をモデル化できることが示されている。 2つの異なるデータセットの実験により、私たちのQDTベースのアプローチは、CPTベースのアプローチとフィードフォワードニューラルネットワークやランダムフォレストのようなデータ駆動アプローチの両方より優れています。

Computer modeling of human decision making is of large importance for, e.g., sustainable transport, urban development, and online recommendation systems. In this paper we present a model for predicting the behavior of an individual during a binary game under different amounts of risk, gain, and time pressure. The model is based on Quantum Decision Theory (QDT), which has been shown to enable modeling of the irrational and subjective aspects of the decision making, not accounted for by the classical Cumulative Prospect Theory (CPT). Experiments on two different datasets show that our QDT-based approach outperforms both a CPT-based approach and data driven approaches such as feed-forward neural networks and random forests.
翻訳日:2021-03-29 03:12:14 公開日:2021-01-14
# (参考訳) アルゴリズム的モノカルチャーと社会福祉

Algorithmic Monoculture and Social Welfare ( http://arxiv.org/abs/2101.05853v1 )

ライセンス: CC BY 4.0
Jon Kleinberg, Manish Raghavan(参考訳) 雇用、貸付、その他のドメインにおけるハイステイクな意思決定の応募者に対するアルゴリズムの適用が増えているため、多くの意思決定者が同じアルゴリズムに依存するアルゴリズム的モノカルチャーの影響が懸念されている。 この懸念は農業の類推を呼び起こし、モノカルチャーのシステムは予期せぬショックから深刻な危害のリスクを負う。 ここでは,一群の意思決定エージェントによる1つのアルゴリズム上の一文化的な収束が,たとえアルゴリズムが単独のエージェントに対してより正確であったとしても,エージェント全体の収集によってなされる決定の全体的な品質を低下させることによって,アルゴリズム的一文化の危険性がより深くなることを示す。 したがって、モノカルチャーのリスクを明らかにするために予期せぬショックは不要であり、「通常の」操作下であっても正確さを損なう可能性がある。 この結果は最小限の仮定に依拠し、一組の代替品の複数の雑音推定を用いたシステム解析のための確率的フレームワークの開発にかかわる。

As algorithms are increasingly applied to screen applicants for high-stakes decisions in employment, lending, and other domains, concerns have been raised about the effects of algorithmic monoculture, in which many decision-makers all rely on the same algorithm. This concern invokes analogies to agriculture, where a monocultural system runs the risk of severe harm from unexpected shocks. Here we show that the dangers of algorithmic monoculture run much deeper, in that monocultural convergence on a single algorithm by a group of decision-making agents, even when the algorithm is more accurate for any one agent in isolation, can reduce the overall quality of the decisions being made by the full collection of agents. Unexpected shocks are therefore not needed to expose the risks of monoculture; it can hurt accuracy even under "normal" operations, and even for algorithms that are more accurate when used by only a single decision-maker. Our results rely on minimal assumptions, and involve the development of a probabilistic framework for analyzing systems that use multiple noisy estimates of a set of alternatives.
翻訳日:2021-03-29 02:59:28 公開日:2021-01-14
# (参考訳) 分散モバイルサービスのためのパーソナライズドモデルにおけるプライバシ保護

Preserving Privacy in Personalized Models for Distributed Mobile Services ( http://arxiv.org/abs/2101.05855v1 )

ライセンス: CC BY 4.0
Akanksha Atrey, Prashant Shenoy, David Jensen(参考訳) モバイルデバイスのユビキタス性は、ユーザに対してパーソナライズされたコンテキスト対応コンテンツを提供するモバイルサービスの急増につながった。 現代のモバイルサービスは、スマートフォンのようなエンドデバイスと、クラウドに存在するリモートサーバの間で分散している。 このようなサービスは、将来のコンテキストを予測し、コンテキスト固有のレコメンデーションのコンテンツを事前にフェッチする能力によって成長します。 ロケーションのような将来のコンテキストを予測するための一般的な方法は、機械学習(ML)モデルである。 コンテキスト予測における最近の研究は、個々のユーザに対してパーソナライズされたモデルを学習して、ユーザのモバイル行動に対する予測やレコメンデーションを調整するmlモデルパーソナライズに焦点を当てている。 パーソナライズされたモデルの使用はモバイルサービスの有効性を高めるが、パーソナライズされたモデルは各ユーザ固有のコンテキスト動作をエンコードするため、プライバシリスクを増大させると主張する。 これらのプライバシリスクを実証するために,属性推論に基づくプライバシ攻撃をいくつか提示するとともに,上位3つの予測に対して,最大78%の有効性でプライバシを漏洩する可能性を示す。 私たちは、デバイスとクラウドのリソースを活用してMLモデルをパーソナライズし、ユーザのプライバシリークのリスクを最小限に抑える、コンテキスト対応モバイルサービスのためのプライバシ保護パーソナライズシステムであるPelicanを紹介します。 位置認識型モバイルサービスにおいて,現実のトレースを用いてPlicanを評価し,プライバシリークを最大75%低減できることを示す。

The ubiquity of mobile devices has led to the proliferation of mobile services that provide personalized and context-aware content to their users. Modern mobile services are distributed between end-devices, such as smartphones, and remote servers that reside in the cloud. Such services thrive on their ability to predict future contexts to pre-fetch content of make context-specific recommendations. An increasingly common method to predict future contexts, such as location, is via machine learning (ML) models. Recent work in context prediction has focused on ML model personalization where a personalized model is learned for each individual user in order to tailor predictions or recommendations to a user's mobile behavior. While the use of personalized models increases efficacy of the mobile service, we argue that it increases privacy risk since a personalized model encodes contextual behavior unique to each user. To demonstrate these privacy risks, we present several attribute inference-based privacy attacks and show that such attacks can leak privacy with up to 78% efficacy for top-3 predictions. We present Pelican, a privacy-preserving personalization system for context-aware mobile services that leverages both device and cloud resources to personalize ML models while minimizing the risk of privacy leakage for users. We evaluate Pelican using real world traces for location-aware mobile services and show that Pelican can substantially reduce privacy leakage by up to 75%.
翻訳日:2021-03-29 02:58:07 公開日:2021-01-14
# (参考訳) 材料指紋分類

Materials Fingerprinting Classification ( http://arxiv.org/abs/2101.05808v1 )

ライセンス: CC BY 4.0
Adam Spannaus, Kody J. H. Law, Piotr Luszczek, Farzana Nasrin, Cassie Putman Micucci, Peter K. Liaw, Louis J. Santodonato, David J. Keffer, Vasileios Maroulas(参考訳) 多くの種類の材料の重要な進歩は、原子のアイデンティティと3次元座標からなる実験から得られた大きなデータセットが利用可能になったことで達成できる。 数百万の原子からなるデータセットを日常的に生成する原子プローブトモグラフィ(APT)のような局所原子構造を可視化する方法は、この目標を実現するための重要なステップである。 しかし、最先端のapt機器は、元素型に関する情報を提供するノイズやスパースデータセットを生成するが、原子構造はあいまいであり、それに続く材料発見の価値を制限している。 材料指紋処理の応用は、トポロジカルデータ解析と組み合わせた機械学習アルゴリズムであり、APTデータセットからこれまでにないような構造情報を抽出する手段を提供する。 概念実証として、物質指紋は、ボディセンター立方体(BCC)とフェイスセンター立方体(FCC)結晶構造を含む高エントロピー合金APTデータセットに適用される。 任意の原子を中心とする局所原子構成はトポロジカルディスクリプタに割り当てられ、データセットに固有のノイズがあるにもかかわらず、ほぼ完全な精度でbccまたはfcc格子として特徴づけることができる。 この指紋の同定の成功は、複雑な材料の既存のデータセットから化学順序などのニュアンス情報を抽出するアルゴリズムの開発において重要な第一歩である。

Significant progress in many classes of materials could be made with the availability of experimentally-derived large datasets composed of atomic identities and three-dimensional coordinates. Methods for visualizing the local atomic structure, such as atom probe tomography (APT), which routinely generate datasets comprised of millions of atoms, are an important step in realizing this goal. However, state-of-the-art APT instruments generate noisy and sparse datasets that provide information about elemental type, but obscure atomic structures, thus limiting their subsequent value for materials discovery. The application of a materials fingerprinting process, a machine learning algorithm coupled with topological data analysis, provides an avenue by which here-to-fore unprecedented structural information can be extracted from an APT dataset. As a proof of concept, the material fingerprint is applied to high-entropy alloy APT datasets containing body-centered cubic (BCC) and face-centered cubic (FCC) crystal structures. A local atomic configuration centered on an arbitrary atom is assigned a topological descriptor, with which it can be characterized as a BCC or FCC lattice with near perfect accuracy, despite the inherent noise in the dataset. This successful identification of a fingerprint is a crucial first step in the development of algorithms which can extract more nuanced information, such as chemical ordering, from existing datasets of complex materials.
翻訳日:2021-03-29 02:38:15 公開日:2021-01-14
# (参考訳) 表現型と遺伝的特徴の結合を利用した癌分類におけるグラフニューラルネットワークの比較

Comparisons of Graph Neural Networks on Cancer Classification Leveraging a Joint of Phenotypic and Genetic Features ( http://arxiv.org/abs/2101.05866v1 )

ライセンス: CC BY 4.0
David Oniani, Chen Wang, Yiqing Zhao, Andrew Wen, Hongfang Liu, Feichen Shen(参考訳) がんは毎年何百万人もの死者を負っている。 がん治療の進歩は大きいが, がん治療の改善には多くの課題があり, 適切な治療計画を選択する上では適切ながん患者層化が必須であり, がん患者は異質な遺伝子組換えと表現型の違いが知られている。 本研究は, がん患者を対象としたEHR(Electronic Healthrecords, EHRs)および遺伝子検査報告から抽出可能な, 深部表現型の特徴を基礎として, 各種画像ニューラルネットワーク(GNNs)を用いて, 表現型および遺伝的特徴の結合をがんのタイプ分類に利用した。 マヨクリニック癌データセットにモデルを適用し、微調整した。 報告された精度,精度,リコール,F1値,および疾患分類に基づくスルーF1スコアを用いて評価を行った。 評価結果から,GNNのベースラインモデルの平均成績は,平均値が0.849対0.772,精度が0.858対0.794,リコールが0.843対0.759,F1scoreが0.843対0.855であった。 GNN、ChebNet、GraphSAGE、TAGCNは最高のパフォーマンスを示し、GATは最悪のパフォーマンスを示した。 我々は,AGNN,ChebNet,GAT,GCN,GIN,GraphSAGE,SGC,TAGCNを含む8つのGNNモデルをマイノクリニック癌データセットに適用・比較し,その性能および比較を行った。

Cancer is responsible for millions of deaths worldwide every year. Although significant progress hasbeen achieved in cancer medicine, many issues remain to be addressed for improving cancer therapy.Appropriate cancer patient stratification is the prerequisite for selecting appropriate treatment plan, ascancer patients are of known heterogeneous genetic make-ups and phenotypic differences. In thisstudy, built upon deep phenotypic characterizations extractable from Mayo Clinic electronic healthrecords (EHRs) and genetic test reports for a collection of cancer patients, we evaluated variousgraph neural networks (GNNs) leveraging a joint of phenotypic and genetic features for cancer typeclassification. Models were applied and fine-tuned on the Mayo Clinic cancer disease dataset. Theassessment was done through the reported accuracy, precision, recall, and F1 values as well as throughF1 scores based on the disease class. Per our evaluation results, GNNs on average outperformed thebaseline models with mean statistics always being higher that those of the baseline models (0.849 vs0.772 for accuracy, 0.858 vs 0.794 for precision, 0.843 vs 0.759 for recall, and 0.843 vs 0.855 for F1score). Among GNNs, ChebNet, GraphSAGE, and TAGCN showed the best performance, while GATshowed the worst. We applied and compared eight GNN models including AGNN, ChebNet, GAT,GCN, GIN, GraphSAGE, SGC, and TAGCN on the Mayo Clinic cancer disease dataset and assessedtheir performance as well as compared them with each other and with more conventional machinelearning models such as decision tree, gradient boosting, multi-layer perceptron, naive bayes, andrandom forest which we used as the baselines.
翻訳日:2021-03-29 02:21:26 公開日:2021-01-14
# (参考訳) ソーシャルメディアにおけるサルカム検出のための解釈可能な多頭セルフアテンションモデル

Interpretable Multi-Head Self-Attention model for Sarcasm Detection in social media ( http://arxiv.org/abs/2101.05875v1 )

ライセンス: CC BY 4.0
Ramya Akula, Ivan Garibay(参考訳) サルカズム(英: Sarcasm)は、しばしば、言葉の反対の言葉を伝えるために使われる言語表現であり、通常、侮辱や侮辱の意図に非常に不快な表現である。 sarcastic expressionの曖昧さは、sarcasmの発見を非常に困難にしている。 本研究では,様々なソーシャルネットワークプラットフォームやオンラインメディアからのテキスト会話における皮肉を検出することに焦点を当てた。 そこで本研究では,マルチヘッドセルフアテンションとゲートリカレントユニットを用いた解釈可能な深層学習モデルを開発した。 マルチヘッド自己保持モジュールは、入力から重要なサーカシックキューワードを特定するのに役立ち、繰り返しユニットはこれらのキューワード間の長距離依存関係を学習し、入力テキストをよりよく分類する。 ソーシャルネットワーキングプラットフォームやオンラインメディアから得られた複数のデータセットに対して,最先端の成果を得ることによるアプローチの有効性を示す。 提案手法を用いて訓練されたモデルは容易に解釈でき、最終分類スコアに寄与する入力テキスト中のサーカシックな手がかりを識別できる。 本モデルの有効性と解釈性を示すために,いくつかのサンプル入力テキストで学習した注意重みを可視化した。

Sarcasm is a linguistic expression often used to communicate the opposite of what is said, usually something that is very unpleasant with an intention to insult or ridicule. Inherent ambiguity in sarcastic expressions, make sarcasm detection very difficult. In this work, we focus on detecting sarcasm in textual conversations from various social networking platforms and online media. To this end, we develop an interpretable deep learning model using multi-head self-attention and gated recurrent units. Multi-head self-attention module aids in identifying crucial sarcastic cue-words from the input, and the recurrent units learn long-range dependencies between these cue-words to better classify the input text. We show the effectiveness of our approach by achieving state-of-the-art results on multiple datasets from social networking platforms and online media. Models trained using our proposed approach are easily interpretable and enable identifying sarcastic cues in the input text which contribute to the final classification score. We visualize the learned attention weights on few sample input texts to showcase the effectiveness and interpretability of our model.
翻訳日:2021-03-29 02:10:02 公開日:2021-01-14
# (参考訳) fNIRSニューロイメージングデータにおけるグラム角縫合場を用いた深層学習に基づく3次タスク分類システム

A Deep Learning Based Ternary Task Classification System Using Gramian Angular Summation Field in fNIRS Neuroimaging Data ( http://arxiv.org/abs/2101.05891v1 )

ライセンス: CC BY 4.0
Sajila D. Wickramaratne and Md Shaad Mahmud(参考訳) 機能近赤外分光法(FNIRS)は、血流パターンを研究するために用いられる非侵襲的、経済的手法である。 これらのパターンは、被験者が実行しているタスクの分類に使用できる。 現在、ほとんどの分類システムは、タスクの分類に単純な機械学習ソリューションを使用している。 これらの従来の機械学習手法は実装や解釈が容易であり、通常、低い精度でネットワークトレーニングの前に複雑な前処理フェーズを経る。 提案手法は,生のfNIRS時系列データをGramian Angular Summation Fieldを用いた画像に変換する。 深層畳み込みニューラルネットワーク(Deep Convolutional Neural Network, CNN)ベースのアーキテクチャは、メンタル算術、運動画像、アイドル状態などのタスク分類に使用される。 さらに、従来の分類器の性能に影響を与える特徴選択段階を排除できる。 このシステムは、データセットの他の方法よりも87.14%高い分類精度を示した。

Functional near-infrared spectroscopy (fNIRS) is a non-invasive, economical method used to study its blood flow pattern. These patterns can be used to classify tasks a subject is performing. Currently, most of the classification systems use simple machine learning solutions for the classification of tasks. These conventional machine learning methods, which are easier to implement and interpret, usually suffer from low accuracy and undergo a complex preprocessing phase before network training. The proposed method converts the raw fNIRS time series data into an image using Gramian Angular Summation Field. A Deep Convolutional Neural Network (CNN) based architecture is then used for task classification, including mental arithmetic, motor imagery, and idle state. Further, this method can eliminate the feature selection stage, which affects the traditional classifiers' performance. This system obtained 87.14% average classification accuracy higher than any other method for the dataset.
翻訳日:2021-03-29 01:55:46 公開日:2021-01-14
# (参考訳) fNIRSを用いた脳活動パターン認識のための3方向LSTM分類

A Ternary Bi-Directional LSTM Classification for Brain Activation Pattern Recognition Using fNIRS ( http://arxiv.org/abs/2101.05892v1 )

ライセンス: CC BY 4.0
Sajila D. Wickramaratne and MD Shaad Mahmud(参考訳) 機能近赤外分光法(FNIRS)は、脳の血流パターンを研究するために用いられる非侵襲的で低コストな方法である。 このようなパターンは、被験者によって行われる分類を可能にします。 最近の研究では、ほとんどの分類システムはタスクの分類に従来の機械学習アルゴリズムを使用している。 実装が容易なこれらの手法は、通常、低い精度に悩まされる。 さらに、従来の機械学習手法を実装する前に、データ準備に複雑な前処理フェーズが必要である。 提案システムは,2方向LSTMに基づくディープラーニングアーキテクチャを用いて,fNIRSデータを用いたメンタル算術,運動画像,アイドル状態を含むタスク分類を行う。 さらに、このシステムは従来のアプローチよりも前処理を少なくし、81.48\%の精度を得ながら時間と計算資源を節約する。

Functional near-infrared spectroscopy (fNIRS) is a non-invasive, low-cost method used to study the brain's blood flow pattern. Such patterns can enable us to classify performed by a subject. In recent research, most classification systems use traditional machine learning algorithms for the classification of tasks. These methods, which are easier to implement, usually suffer from low accuracy. Further, a complex pre-processing phase is required for data preparation before implementing traditional machine learning methods. The proposed system uses a Bi-Directional LSTM based deep learning architecture for task classification, including mental arithmetic, motor imagery, and idle state using fNIRS data. Further, this system will require less pre-processing than the traditional approach, saving time and computational resources while obtaining an accuracy of 81.48\%, which is considerably higher than the accuracy obtained using conventional machine learning algorithms for the same data set.
翻訳日:2021-03-29 01:50:06 公開日:2021-01-14
# (参考訳) ロボットが絵を描き、伝える:視覚的なマルチモーダル記述生成を目指して

Enabling Robots to Draw and Tell: Towards Visually Grounded Multimodal Description Generation ( http://arxiv.org/abs/2101.12338v1 )

ライセンス: CC BY 4.0
Ting Han, Sina Zarrie{\ss}(参考訳) 社会的に有能なロボットは、それらを取り囲む世界を知覚し、人間的な方法でそれを伝達する能力を備えるべきである。 そのような能力を示す代表的スキルには、画像記述の生成と視覚的に接地した参照表現が含まれる。 NLGコミュニティでは、これらの生成タスクは非対話的および言語のみの設定で大きく研究されている。 しかしながら、対面インタラクションでは、人間がコミュニケーションするために複数のモダリティをデプロイし、自然言語や手ジェスチャーなどのモダリティをシームレスに統合する。 ロボットが音声やスケッチ/ジェスチャーで知覚するものを記述できるようにするため,視覚的なシーンや実生活オブジェクト,すなわち視覚的に座屈したマルチモーダルな記述生成を記述するために,手書きのスケッチ/手書きのジェスチャーとともに自然言語を生成するタスクをモデル化することを提案する。 本稿では,タスクの課題と評価指標について論じるとともに,自然言語処理やコンピュータビジョン領域における最近の進歩から,視覚的基盤のNLG,分布意味論,写真に基づくスケッチ生成などの関連トピックが広く研究されている。

Socially competent robots should be equipped with the ability to perceive the world that surrounds them and communicate about it in a human-like manner. Representative skills that exhibit such ability include generating image descriptions and visually grounded referring expressions. In the NLG community, these generation tasks are largely investigated in non-interactive and language-only settings. However, in face-to-face interaction, humans often deploy multiple modalities to communicate, forming seamless integration of natural language, hand gestures and other modalities like sketches. To enable robots to describe what they perceive with speech and sketches/gestures, we propose to model the task of generating natural language together with free-hand sketches/hand gestures to describe visual scenes and real life objects, namely, visually-grounded multimodal description generation. In this paper, we discuss the challenges and evaluation metrics of the task, and how the task can benefit from progress recently made in the natural language processing and computer vision realms, where related topics such as visually grounded NLG, distributional semantics, and photo-based sketch generation have been extensively studied.
翻訳日:2021-03-29 01:41:41 公開日:2021-01-14
# (参考訳) 破損したデータソースによる自己重み付きロバストフェデレーション学習

Auto-weighted Robust Federated Learning with Corrupted Data Sources ( http://arxiv.org/abs/2101.05880v1 )

ライセンス: CC BY 4.0
Shenghui Li, Edith Ngai, Fanghua Ye, and Thiemo Voigt(参考訳) フェデレーション学習は、大規模な参加者で統計モデルを学習し、データをローカルクライアントに保持することで、コミュニケーション効率とプライバシ保護のトレーニングプロセスを提供する。 しかしながら、平均損失関数をナビゲート的に最小化する標準的なフェデレート学習技術は、外れ値や体系的な不正ラベル、さらには敵からのデータの破損に対して脆弱である。 さらに、ユーザデータのプライバシーの懸念が高まるため、サービスプロバイダがデータサンプルの品質を検証することは、しばしば禁止されている。 本稿では、グローバルモデルとローカル更新の重みを共同で学習し、破損したデータソースに対して堅牢性を提供する新しいアプローチであるAuto-weighted Robust Federated Learning (arfl)を提案する。 我々は,堅牢なフェデレーション学習の目的の定義を導いてくれる予測者およびクライアントの重み付けに関して,期待されるリスクに拘束された学習を実証する。 この重み付けは、クライアントの実証的な損失と最高のpクライアントの平均的な損失(p平均)を比較し、クライアントを著しく高い損失で下降させ、グローバルモデルへの貢献度を下げることができる。 破損したクライアントのデータを良質なクライアントと異なる方法で分散した場合,このアプローチが堅牢性を実現することを示す。 目的関数を最適化するために,ブロックワイズ最小化パラダイムに基づく通信効率のよいアルゴリズムを提案する。 異なるディープニューラルネットワークモデルを考慮した複数のベンチマークデータセット(cifar-10, femnist, shakespeare)について実験を行った。 その結果,ラベルシャッフルやラベルフリップ,ノイズの多い機能など,さまざまなシナリオに対して堅牢で,ほとんどのシナリオで最先端の手法よりも優れていることがわかった。

Federated learning provides a communication-efficient and privacy-preserving training process by enabling learning statistical models with massive participants while keeping their data in local clients. However, standard federated learning techniques that naively minimize an average loss function are vulnerable to data corruptions from outliers, systematic mislabeling, or even adversaries. In addition, it is often prohibited for service providers to verify the quality of data samples due to the increasing concern of user data privacy. In this paper, we address this challenge by proposing Auto-weighted Robust Federated Learning (arfl), a novel approach that jointly learns the global model and the weights of local updates to provide robustness against corrupted data sources. We prove a learning bound on the expected risk with respect to the predictor and the weights of clients, which guides the definition of the objective for robust federated learning. The weights are allocated by comparing the empirical loss of a client with the average loss of the best p clients (p-average), thus we can downweight the clients with significantly high losses, thereby lower their contributions to the global model. We show that this approach achieves robustness when the data of corrupted clients is distributed differently from benign ones. To optimize the objective function, we propose a communication-efficient algorithm based on the blockwise minimization paradigm. We conduct experiments on multiple benchmark datasets, including CIFAR-10, FEMNIST and Shakespeare, considering different deep neural network models. The results show that our solution is robust against different scenarios including label shuffling, label flipping and noisy features, and outperforms the state-of-the-art methods in most scenarios.
翻訳日:2021-03-29 01:29:31 公開日:2021-01-14
# 機械支援スクリプトキュレーション

Machine-Assisted Script Curation ( http://arxiv.org/abs/2101.05400v1 )

ライセンス: Link先を確認
Manuel R. Ciosici, Joseph Cummings, Mitchell DeHaven, Alex Hedges, Yash Kankanampati, Dong-Ho Lee, Ralph Weischedel, Marjorie Freedman(参考訳) 本稿では,機械支援スクリプトキュレーター(masc)について述べる。 mascで作成されたスクリプトには、(1)より大きな複雑なイベントを構成するサブイベントの英語記述、(2)各イベントのイベントタイプ、(3)複数のサブイベントに参加すると期待されるエンティティの記録、(4)サブイベント間の時間的シーケンシングが含まれる。 MASCはスクリプト作成プロセスの一部を自動化し、イベントタイプ、Wikidataへのリンク、忘れられたかもしれないサブイベントを提案する。 これらの自動化が、ケーススタディのスクリプトでスクリプトライターにどのように役立つかを説明する。

We describe Machine-Aided Script Curator (MASC), a system for human-machine collaborative script authoring. Scripts produced with MASC include (1) English descriptions of sub-events that comprise a larger, complex event; (2) event types for each of those events; (3) a record of entities expected to participate in multiple sub-events; and (4) temporal sequencing between the sub-events. MASC automates portions of the script creation process with suggestions for event types, links to Wikidata, and sub-events that may have been forgotten. We illustrate how these automations are useful to the script writer with a few case-study scripts.
翻訳日:2021-03-29 00:59:10 公開日:2021-01-14
# ニューラルネットワークはハッシュエンコーダとして振る舞う:実証的研究

Neural networks behave as hash encoders: An empirical study ( http://arxiv.org/abs/2101.05490v1 )

ライセンス: Link先を確認
Fengxiang He, Shiye Lei, Jianmin Ji, Dacheng Tao(参考訳) relu様のアクティベーションを持つニューラルネットワークの入力空間を複数の線形領域に分割し、それぞれに含まれるrelu様アクティベーションの特定のアクティベーションパターンに対応する。 1) 決定性: ほぼすべての線形領域は、少なくとも1つのトレーニング例を含む。 したがって、ほとんどすべてのトレーニング例を、一意なアクティベーションパターンで表現することができ、これは {\it neural code} によってパラメータ化されます。 (2) {\it カテゴリ化}: ニューラルネットワークによると、$k$-means、$k$-nn、ロジスティックレグレッションのような単純なアルゴリズムは、トレーニングとテストデータの両方において、かなり優れたパフォーマンスを達成できます。 これらのエンコーディング特性は、"it normal neural network well-trained for classification") が、余分な努力なしにハッシュエンコーダとして振る舞うことを驚くほど示唆している。 さらに、符号化特性は異なるシナリオで可変性を示す。 さらなる実験により、 {\it model size}、 {\it training hours}、 {\it training sample size}、 {\it regularization}、 {\it label noise} は符号化特性の形成に寄与するが、最初の3つの影響は支配的であることが示されている。 次に, {model size} で拡張された空間,トレーニング時間,サンプルサイズ,符号化特性を表す「itアクティベーションハッシュ位相図」を定義し,これらを「it under-expressive regime」,「it critically-expressive regime」,「it enough-expressive regime」の3つの正準領域に分けた。 ソースコードパッケージは \url{https://github.com/LeavesLei/activation-code} で入手できる。

The input space of a neural network with ReLU-like activations is partitioned into multiple linear regions, each corresponding to a specific activation pattern of the included ReLU-like activations. We demonstrate that this partition exhibits the following encoding properties across a variety of deep learning models: (1) {\it determinism}: almost every linear region contains at most one training example. We can therefore represent almost every training example by a unique activation pattern, which is parameterized by a {\it neural code}; and (2) {\it categorization}: according to the neural code, simple algorithms, such as $K$-Means, $K$-NN, and logistic regression, can achieve fairly good performance on both training and test data. These encoding properties surprisingly suggest that {\it normal neural networks well-trained for classification behave as hash encoders without any extra efforts.} In addition, the encoding properties exhibit variability in different scenarios. {Further experiments demonstrate that {\it model size}, {\it training time}, {\it training sample size}, {\it regularization}, and {\it label noise} contribute in shaping the encoding properties, while the impacts of the first three are dominant.} We then define an {\it activation hash phase chart} to represent the space expanded by {model size}, training time, training sample size, and the encoding properties, which is divided into three canonical regions: {\it under-expressive regime}, {\it critically-expressive regime}, and {\it sufficiently-expressive regime}. The source code package is available at \url{https://github.com/LeavesLei/activation-code}.
翻訳日:2021-03-29 00:58:58 公開日:2021-01-14
# Persuasive Natural Language Generation -- 文献レビュー

Persuasive Natural Language Generation -- A Literature Review ( http://arxiv.org/abs/2101.05786v1 )

ライセンス: Link先を確認
Sebastian Duerr, Peter A. Gloor(参考訳) 本稿では,自然言語生成(NLG)による説得的テキストの自動検出と生成に焦点をあてる。 テキストにおける説得力の自動識別に関するこれまでの研究を延長し,ビジネスに焦点を絞った5つのカテゴリー(便宜性,言語能力,論理的議論,信頼性,ツール,データセット)における説得力の決定要因の概念化を通じて生成的側面に焦点を当てた。 これにより、NLGは既存のメッセージの説得力を高めることができる。 前回の研究では、上記の5つのカテゴリのそれぞれで重要な側面が示されている。 NLGをさらに研究するための研究課題が開発されている。 このレビューには77の論文の分析が含まれており、既存の知識体系を概説し、この研究分野の着実な進歩を示している。

This literature review focuses on the use of Natural Language Generation (NLG) to automatically detect and generate persuasive texts. Extending previous research on automatic identification of persuasion in text, we concentrate on generative aspects through conceptualizing determinants of persuasion in five business-focused categories: benevolence, linguistic appropriacy, logical argumentation, trustworthiness, tools and datasets. These allow NLG to increase an existing message's persuasiveness. Previous research illustrates key aspects in each of the above mentioned five categories. A research agenda to further study persuasive NLG is developed. The review includes analysis of seventy-seven articles, outlining the existing body of knowledge and showing the steady progress in this research field.
翻訳日:2021-03-29 00:58:22 公開日:2021-01-14
# ラベルコントラスト符号化に基づくグラフ分類のためのグラフニューラルネットワーク

Label Contrastive Coding based Graph Neural Network for Graph Classification ( http://arxiv.org/abs/2101.05486v1 )

ライセンス: Link先を確認
Yuxiang Ren, Jiyang Bai, and Jiawei Zhang(参考訳) グラフ分類は、異なる領域の多くのアプリケーションにおいて重要な研究課題である。 グラフ分類モデルを学習するために、最も広く使用される監視コンポーネントは、分類損失(例えば、ソフトマックスやマージン損失と共に、クロスエントロピー損失)と共に出力層である。 実際、インスタンス間の識別情報はよりきめ細かなものであり、グラフ分類のタスクに役立ちます。 本稿では,ラベル情報をより効果的かつ包括的に活用するための,ラベルコントラスト符号化に基づくグラフニューラルネットワーク(LCGNN)を提案する。 LCGNNは依然としてクラス識別性を確保するために分類損失を使用している。 一方、LCGNNは自己教師付き学習から派生したラベルコントラスト損失を利用して、インスタンスレベルのクラス内コンパクト性とクラス間分離性を促進する。 対照的な学習を促進するため、LCGNNは動的ラベルメモリバンクとモーメント更新エンコーダを導入した。 8つのベンチマークグラフデータセットによる広範な評価は、LCGNNが最先端のグラフ分類モデルより優れていることを示している。 また,LCGNNはラベル情報を総合的に活用するため,トレーニングデータが少ないため,LCGNNの競争性能が向上することを確認した。

Graph classification is a critical research problem in many applications from different domains. In order to learn a graph classification model, the most widely used supervision component is an output layer together with classification loss (e.g.,cross-entropy loss together with softmax or margin loss). In fact, the discriminative information among instances are more fine-grained, which can benefit graph classification tasks. In this paper, we propose the novel Label Contrastive Coding based Graph Neural Network (LCGNN) to utilize label information more effectively and comprehensively. LCGNN still uses the classification loss to ensure the discriminability of classes. Meanwhile, LCGNN leverages the proposed Label Contrastive Loss derived from self-supervised learning to encourage instance-level intra-class compactness and inter-class separability. To power the contrastive learning, LCGNN introduces a dynamic label memory bank and a momentum updated encoder. Our extensive evaluations with eight benchmark graph datasets demonstrate that LCGNN can outperform state-of-the-art graph classification models. Experimental results also verify that LCGNN can achieve competitive performance with less training data because LCGNN exploits label information comprehensively.
翻訳日:2021-03-29 00:57:46 公開日:2021-01-14
# 普遍確率モデルによるインスタンス依存ラベルノイズの処理

Tackling Instance-Dependent Label Noise via a Universal Probabilistic Model ( http://arxiv.org/abs/2101.05467v1 )

ライセンス: Link先を確認
Qizhou Wang, Bo Han, Tongliang Liu, Gang Niu, Jian Yang, Chen Gong(参考訳) データ量の劇的な増加は、誤ったラベルアノテーションなどのデータ品質を著しく低下させることが多く、ディープニューラルネットワーク(DNN)を堅牢にトレーニングする上で大きな課題となる。 ラベルノイズを持つ既存の学習 \mbox{methods} は、アドホックなヒューリスティックを使うか、特定のノイズ仮定に制限される。 しかし、事例依存ラベルノイズのようなより一般的な状況は、ラベルの破損過程に焦点をあてる研究が乏しいため、完全には調査されていない。 本稿では,インスタンスを混乱と矛盾のインスタンスに分類することにより,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。 結果モデルはdnnによって実現され、交互最適化アルゴリズムを用いてトレーニング手順が達成される。 合成ラベルノイズと実世界のラベルノイズを併用したデータセット実験により,提案手法が最先端の手法に比べてロバスト性に大きな改善をもたらすことを確認した。

The drastic increase of data quantity often brings the severe decrease of data quality, such as incorrect label annotations, which poses a great challenge for robustly training Deep Neural Networks (DNNs). Existing learning \mbox{methods} with label noise either employ ad-hoc heuristics or restrict to specific noise assumptions. However, more general situations, such as instance-dependent label noise, have not been fully explored, as scarce studies focus on their label corruption process. By categorizing instances into confusing and unconfusing instances, this paper proposes a simple yet universal probabilistic model, which explicitly relates noisy labels to their instances. The resultant model can be realized by DNNs, where the training procedure is accomplished by employing an alternating optimization algorithm. Experiments on datasets with both synthetic and real-world label noise verify that the proposed method yields significant improvements on robustness over state-of-the-art counterparts.
翻訳日:2021-03-29 00:57:28 公開日:2021-01-14
# 凸平滑化オートエンコーダ-最適輸送モデル

Convex Smoothed Autoencoder-Optimal Transport model ( http://arxiv.org/abs/2101.05679v1 )

ライセンス: Link先を確認
Aratrika Mustafi(参考訳) 生成モデリングは教師なし機械学習の鍵となるツールであり、近年は星級の成功を収めている。 このような大きな成功にもかかわらず、GAN(Generative Adversarial Networks)やVAE(VAE)のような最高の生成モデルでさえ、独自の欠点、モード崩壊、モード混合が2つの最も顕著な問題である。 本稿では,観測データに類似したサンプルを生成可能で,モード崩壊やモード混合を伴わない新しい生成モデルを開発した。 本モデルは,最近提案されたae-ot(autoencoder-optimal transport)モデルに着想を得て,ae-otモデル自体が直面する問題,特にサンプル生成アルゴリズムに対処し,改良を試みている。 本論文では,非滑らかなブレニエポテンシャルを滑らかに推定し,不連続な最適輸送マップをスムーズな最適輸送マップ推定で近似する際の誤差に関する理論的結果も明らかにした。

Generative modelling is a key tool in unsupervised machine learning which has achieved stellar success in recent years. Despite this huge success, even the best generative models such as Generative Adversarial Networks (GANs) and Variational Autoencoders (VAEs) come with their own shortcomings, mode collapse and mode mixture being the two most prominent problems. In this paper we develop a new generative model capable of generating samples which resemble the observed data, and is free from mode collapse and mode mixture. Our model is inspired by the recently proposed Autoencoder-Optimal Transport (AE-OT) model and tries to improve on it by addressing the problems faced by the AE-OT model itself, specifically with respect to the sample generation algorithm. Theoretical results concerning the bound on the error in approximating the non-smooth Brenier potential by its smoothed estimate, and approximating the discontinuous optimal transport map by a smoothed optimal transport map estimate have also been established in this paper.
翻訳日:2021-03-29 00:57:12 公開日:2021-01-14
# FabricNet: Ensemble ConvNetsを用いたファイバ認識アーキテクチャ

FabricNet: A Fiber Recognition Architecture Using Ensemble ConvNets ( http://arxiv.org/abs/2101.05564v1 )

ライセンス: Link先を確認
Abu Quwsar Ohi, M. F. Mridha, Md. Abdul Hamid, Muhammad Mostafa Monowar, Faris A Kateb(参考訳) 織物は繊維繊維からなる平面材である。 繊維は植物、動物、鉱物など多くの天然資源から作られており、合成も可能である。 特定の布地は、複雑な製造工程を通過する異なる種類の繊維を含むことができる。 繊維の識別は通常化学検査と顕微鏡検査によって行われる。 しかしながら、これらのテストプロセスは複雑であり、時間を要する。 本稿では,画像ベース繊維認識システムの先駆的アプローチであるFabricNetを提案する。 FabricNetは、布の表面画像のみを利用することで、大規模な繊維を認識できる。 認識システムは、クラスベースアンサンブル畳み込みニューラルネットワーク(CNN)アーキテクチャの異なるカテゴリを用いて構築される。 本実験は50種類の繊維繊維を識別する実験である。 この実験には、これまでの研究成果よりもはるかに多くのユニークな繊維が含まれています。 我々は、inception、resnet、vgg、mobilenet、dungnet、xceptionを含む人気のあるcnnアーキテクチャを実験する。 最後に、実験の結果、FabricNetは84%、F1スコア90%の精度で最先端のCNNアーキテクチャより優れていることが示された。

Fabric is a planar material composed of textile fibers. Textile fibers are generated from many natural sources; including plants, animals, minerals, and even, it can be synthetic. A particular fabric may contain different types of fibers that pass through a complex production process. Fiber identification is usually carried out through chemical tests and microscopic tests. However, these testing processes are complicated as well as time-consuming. We propose FabricNet, a pioneering approach for the image-based textile fiber recognition system, which may have a revolutionary impact from individual to the industrial fiber recognition process. The FabricNet can recognize a large scale of fibers by only utilizing a surface image of fabric. The recognition system is constructed using a distinct category of class-based ensemble convolutional neural network (CNN) architecture. The experiment is conducted on recognizing 50 different types of textile fibers. This experiment includes a significantly large number of unique textile fibers than previous research endeavors to the best of our knowledge. We experiment with popular CNN architectures that include Inception, ResNet, VGG, MobileNet, DenseNet, and Xception. Finally, the experimental results demonstrate that FabricNet outperforms the state-of-the-art popular CNN architectures by reaching an accuracy of 84% and F1-score of 90%.
翻訳日:2021-03-29 00:56:53 公開日:2021-01-14
# 協調エージェントのロバスト性評価

Evaluating the Robustness of Collaborative Agents ( http://arxiv.org/abs/2101.05507v1 )

ライセンス: Link先を確認
Paul Knott, Micah Carroll, Sam Devlin, Kamil Ciosek, Katja Hofmann, A. D. Dragan and Rohin Shah(参考訳) 深層強化学習によって訓練されたエージェントが、現実的な環境で人間と一緒に働くためには、エージェントが \emph{robust} であることを保証する必要がある。 現実世界は非常に多様であり、人間の行動はしばしばエージェントの配置に応じて変化するため、エージェントはトレーニング中に見たことのない新しい状況に遭遇する可能性が高い。 平均的なトレーニングやバリデーションの報酬を基準として頼りにできない場合、堅牢性を効果的に評価するにはどうすればよいのか? ソフトウェア工学における \emph{unit testing} の実践から着想を得ています。 具体的には、人間と協調するAIエージェントを設計する際には、設計者は \emph{possible partner behavior} と \emph{possible state encounter} の潜在的なエッジケースを探し、これらのエッジケースにおけるエージェントの振る舞いが妥当であることを示すテストを書くべきである。 本手法をOvercooked-AI環境のための単体テストスイートの構築に適用し,このテストスイートを使用して,堅牢性向上のための3つの提案を評価する。 テストスイートは、平均的なバリデーション報酬のみに注目して、一般には明らかにされていないこれらの提案の効果に関する重要な洞察を提供する。

In order for agents trained by deep reinforcement learning to work alongside humans in realistic settings, we will need to ensure that the agents are \emph{robust}. Since the real world is very diverse, and human behavior often changes in response to agent deployment, the agent will likely encounter novel situations that have never been seen during training. This results in an evaluation challenge: if we cannot rely on the average training or validation reward as a metric, then how can we effectively evaluate robustness? We take inspiration from the practice of \emph{unit testing} in software engineering. Specifically, we suggest that when designing AI agents that collaborate with humans, designers should search for potential edge cases in \emph{possible partner behavior} and \emph{possible states encountered}, and write tests which check that the behavior of the agent in these edge cases is reasonable. We apply this methodology to build a suite of unit tests for the Overcooked-AI environment, and use this test suite to evaluate three proposals for improving robustness. We find that the test suite provides significant insight into the effects of these proposals that were generally not revealed by looking solely at the average validation reward.
翻訳日:2021-03-29 00:56:06 公開日:2021-01-14
# 畳み込みオートエンコーダを用いたパラメトリゼーション時間依存PDEの非侵入的代理モデル

Non-intrusive surrogate modeling for parametrized time-dependent PDEs using convolutional autoencoders ( http://arxiv.org/abs/2101.05555v1 )

ライセンス: Link先を確認
Stefanos Nikolopoulos, Ioannis Kalogeris, Vissarion Papadopoulos(参考訳) 本研究は、複合システムの予測モデリングのための機械学習技術に基づく非侵襲的な代理モデリングスキームを、パラメータ化時間依存PDEによって記述する。 これらの問題に対して、典型的な有限要素アプローチは、PDEの時空間離散化と、各時間ステップにおける対応する方程式の線形系の解を含む。 その代わり、提案手法は畳み込みオートエンコーダとフィードフォワードニューラルネットワークを併用して、問題のパラメトリック空間から解空間への低コストで正確なマッピングを確立する。 この目的のために、パラメータ値の少ないセットに対してFEMを介して高忠実度モデルを解くことにより、時間履歴応答データを収集する。 そして、このデータセットに畳み込みオートエンコーダを適用することにより、このエンコーダにより高次元解行列の低次元表現を提供し、デコーダにより再構成マップを得る。 エンコーダによって与えられる潜在表現を用いて、フィードフォワードニューラルネットワークは、問題のパラメトリック空間から各解行列の圧縮バージョンへの点のマッピングを効率的に行う。 このように、新しいパラメータ値でのシステムのエンコードされた応答はニューラルネットワークによって与えられ、応答全体がデコーダによって配信される。 このアプローチは、システムの制御方程式を逐次的に定式化し、段階的に解く必要性を効果的に回避し、結果として大幅なコスト削減と、繰り返しモデル評価や「リアルタイム」計算を必要とする問題に対する理想的な方法のレンダリングを実現する。 モンテカルロ法で解かれた時間依存型pdesの確率解析について, 精巧な手法が実証されているが, 感度解析, 設計最適化など他の類似問題にも容易に適用できる。

This work presents a non-intrusive surrogate modeling scheme based on machine learning technology for predictive modeling of complex systems, described by parametrized time-dependent PDEs. For these problems, typical finite element approaches involve the spatiotemporal discretization of the PDE and the solution of the corresponding linear system of equations at each time step. Instead, the proposed method utilizes a convolutional autoencoder in conjunction with a feed forward neural network to establish a low-cost and accurate mapping from the problem's parametric space to its solution space. For this purpose, time history response data are collected by solving the high-fidelity model via FEM for a reduced set of parameter values. Then, by applying the convolutional autoencoder to this data set, a low-dimensional representation of the high-dimensional solution matrices is provided by the encoder, while the reconstruction map is obtained by the decoder. Using the latent representation given by the encoder, a feed-forward neural network is efficiently trained to map points from the problem's parametric space to the compressed version of the respective solution matrices. This way, the encoded response of the system at new parameter values is given by the neural network, while the entire response is delivered by the decoder. This approach effectively bypasses the need to serially formulate and solve the system's governing equations at each time increment, thus resulting in a significant cost reduction and rendering the method ideal for problems requiring repeated model evaluations or 'real-time' computations. The elaborated methodology is demonstrated on the stochastic analysis of time-dependent PDEs solved with the Monte Carlo method, however, it can be straightforwardly applied to other similar-type problems, such as sensitivity analysis, design optimization, etc.
翻訳日:2021-03-29 00:55:44 公開日:2021-01-14
# 高次ネットワークにおける信号処理:livin' on the edge... and beyond

Signal Processing on Higher-Order Networks: Livin' on the Edge ... and Beyond ( http://arxiv.org/abs/2101.05510v1 )

ライセンス: Link先を確認
Michael T. Schaub and Yu Zhu and Jean-Baptiste Seby and T. Mitchell Roddenberry and Santiago Segarra(参考訳) 本稿では,高次ネットワーク上での信号処理の新たな話題の実践的扱いについて述べる。 離散的およびグラフ的信号処理からの類似性を引き合いに出し、多進関係を組み込む高次ネットワークの2つの一般的な抽象化である単純複体とハイパーグラフのデータを処理するためのビルディングブロックを紹介し、それらの処理に必要な概念を特に強調する。 これらの概念を活用し、これら2つの多進関係構造の表現において、フーリエ解析、信号分節化、信号補間、ノード埋め込み、およびニューラルネットワークによる非線形処理について論じる。 本稿では, 単純錯体の特殊構造を利用して, グラフ信号処理におけるラプラス行列の望ましい性質を一般化する多関係演算子Hodge Laplacian行列を用いた信号処理に着目した。 ハイパーグラフの場合、行列とテンソル表現の両方を示し、一方を採用する際のトレードオフについて議論する。 また, 実践者への情報提供と新たな研究者の貢献の動機付けの両面において, 限界と潜在的な研究の道筋を強調する。

This tutorial paper presents a didactic treatment of the emerging topic of signal processing on higher-order networks. Drawing analogies from discrete and graph signal processing, we introduce the building blocks for processing data on simplicial complexes and hypergraphs, two common abstractions of higher-order networks that can incorporate polyadic relationships.We provide basic introductions to simplicial complexes and hypergraphs, making special emphasis on the concepts needed for processing signals on them. Leveraging these concepts, we discuss Fourier analysis, signal denoising, signal interpolation, node embeddings, and non-linear processing through neural networks in these two representations of polyadic relational structures. In the context of simplicial complexes, we specifically focus on signal processing using the Hodge Laplacian matrix, a multi-relational operator that leverages the special structure of simplicial complexes and generalizes desirable properties of the Laplacian matrix in graph signal processing. For hypergraphs, we present both matrix and tensor representations, and discuss the trade-offs in adopting one or the other. We also highlight limitations and potential research avenues, both to inform practitioners and to motivate the contribution of new researchers to the area.
翻訳日:2021-03-29 00:55:04 公開日:2021-01-14
# Entangled Kernels -- 分離性を超えて

Entangled Kernels -- Beyond Separability ( http://arxiv.org/abs/2101.05514v1 )

ライセンス: Link先を確認
Riikka Huusari, Hachem Kadri(参考訳) 演算子評価カーネル学習の問題点を考察し、よく知られた分離可能なカーネルを超える可能性を検討する。 部分トレースや絡み合いといった量子コンピューティングの分野からツールや概念を借用し、演算子値のカーネルに対する新しい見解を提案し、セパラブルカーネルや変換可能なカーネルを含む、これまで知られていた演算子値のカーネルを包含する一般的なカーネルファミリーを定義する。 この枠組みでは、分離不能なエンタングルカーネルと呼ばれる演算子値カーネルの新たなクラスを導入する。 そこで本稿では,演算子値カーネルへのカーネルアライメントの新たな拡張に基づき,絡み合ったカーネルを学習する2段階アルゴリズムを提案する。 本アルゴリズムは,次元の縮小を監督するアプリケーションを用いて,人工データと実データの両方を用いたマルチアウトプット回帰の有効性を示す。

We consider the problem of operator-valued kernel learning and investigate the possibility of going beyond the well-known separable kernels. Borrowing tools and concepts from the field of quantum computing, such as partial trace and entanglement, we propose a new view on operator-valued kernels and define a general family of kernels that encompasses previously known operator-valued kernels, including separable and transformable kernels. Within this framework, we introduce another novel class of operator-valued kernels called entangled kernels that are not separable. We propose an efficient two-step algorithm for this framework, where the entangled kernel is learned based on a novel extension of kernel alignment to operator-valued kernels. We illustrate our algorithm with an application to supervised dimensionality reduction, and demonstrate its effectiveness with both artificial and real data for multi-output regression.
翻訳日:2021-03-29 00:54:42 公開日:2021-01-14
# 安定性を保証した物理認識確率モデル秩序の低減

Physics-aware, probabilistic model order reduction with guaranteed stability ( http://arxiv.org/abs/2101.05834v1 )

ライセンス: Link先を確認
Sebastian Kaltenbach, Phaedon-Stelios Koutsourelakis(参考訳) 高次元, 微粒, マルチスケールの力学系から得られた(少量の)時系列データから, 細粒系の長期的進化だけでなく, 異なる初期条件下での挙動も予測可能な, 有効で低次元, 粗粒の動的モデルを学習するための生成フレームワークを提案する。 物理アプリケーション(例えば)で発生するきめ細かいモデルをターゲットにしています。 分子動力学(分子動力学、エージェントベースモデル) 強い非定常であるが、それらの平衡への遷移は未知の遅い過程によって制御される。 ドメイン知識に基づくアプローチは、時間的に遅い特徴を特定する物理的洞察に大きく依存しており、学習力学の長期的な安定性を強制することができない。 一方、純粋に統計的なフレームワークは解釈可能性に欠けており、ドメイン知識を注入できないため、大量の高価なシミュレーションデータ(長いトラジェクトリと複数のトラジェクトリ)に依存している。 提案した生成フレームワークは, 複素平面上において, 遅延, 遅い過程, およびデータへの依存を減らし誘導バイアスを緩和する物理動機付潜伏変数の中間層を柔軟に利用することにより, 上記のデシラタを実現する。 既存のスキームとは対照的に、細かな記述から射影作用素の事前定義を必要とせず、次元の縮小とモデル推定のタスクを同時に扱う。 トレーニングデータに含まれない事象の確率的長期予測を作成した粒子力学の大規模物理系において,その有効性と精度を示す。

Given (small amounts of) time-series' data from a high-dimensional, fine-grained, multiscale dynamical system, we propose a generative framework for learning an effective, lower-dimensional, coarse-grained dynamical model that is predictive of the fine-grained system's long-term evolution but also of its behavior under different initial conditions. We target fine-grained models as they arise in physical applications (e.g. molecular dynamics, agent-based models), the dynamics of which are strongly non-stationary but their transition to equilibrium is governed by unknown slow processes which are largely inaccessible by brute-force simulations. Approaches based on domain knowledge heavily rely on physical insight in identifying temporally slow features and fail to enforce the long-term stability of the learned dynamics. On the other hand, purely statistical frameworks lack interpretability and rely on large amounts of expensive simulation data (long and multiple trajectories) as they cannot infuse domain knowledge. The generative framework proposed achieves the aforementioned desiderata by employing a flexible prior on the complex plane for the latent, slow processes, and an intermediate layer of physics-motivated latent variables that reduces reliance on data and imbues inductive bias. In contrast to existing schemes, it does not require the a priori definition of projection operators from the fine-grained description and addresses simultaneously the tasks of dimensionality reduction and model estimation. We demonstrate its efficacy and accuracy in multiscale physical systems of particle dynamics where probabilistic, long-term predictions of phenomena not contained in the training data are produced.
翻訳日:2021-03-29 00:54:17 公開日:2021-01-14
# 機械学習によるボース・アインシュタイン凝縮体のダークソリトン検出

Machine-learning enhanced dark soliton detection in Bose-Einstein condensates ( http://arxiv.org/abs/2101.05404v1 )

ライセンス: Link先を確認
Shangjie Guo, Amilson R. Fritsch, Craig Greenberg, I. B. Spielman, Justyna P. Zwolak(参考訳) コールド原子実験のほとんどのデータは画像から得られており、その分析は、データに存在する可能性のあるパターンの先入観によって制限される。 コールド原子の画像におけるパターン認識の一般的なタスクに拡張可能な手法を用いて、暗黒ソリトン(BECの局所密度低下として現れる)を検出するという明確なケースに焦点を当てる。 幅広いパラメータにわたってソリトンダイナミクスを研究するには、大規模なデータセットの分析が必要である。 本稿では,深層畳み込みニューラルネットワークを用いた原子ボース・アインシュタイン凝縮体(becs)の局所的な励起を識別する自動分類・位置決めシステムについて述べる。 さらに、機械学習研究のために、我々のラベル付きデータセットであるdark solitons(ダークソリトン)をオープンに公開しています。

Most data in cold-atom experiments comes from images, the analysis of which is limited by our preconceptions of the patterns that could be present in the data. We focus on the well-defined case of detecting dark solitons -- appearing as local density depletions in a BEC -- using a methodology that is extensible to the general task of pattern recognition in images of cold atoms. Studying soliton dynamics over a wide range of parameters requires the analysis of large datasets, making the existing human-inspection-based methodology a significant bottleneck. Here we describe an automated classification and positioning system for identifying localized excitations in atomic Bose-Einstein condensates (BECs) utilizing deep convolutional neural networks to eliminate the need for human image examination. Furthermore, we openly publish our labeled dataset of dark solitons, the first of its kind, for further machine learning research.
翻訳日:2021-03-29 00:53:46 公開日:2021-01-14
# 深層学習と合成画像を用いたビジョンベースオン軌道近似操作パイプライン

A Pipeline for Vision-Based On-Orbit Proximity Operations Using Deep Learning and Synthetic Imagery ( http://arxiv.org/abs/2101.05661v1 )

ライセンス: Link先を確認
Carson Schubert, Kevin Black, Daniel Fonseka, Abhimanyu Dhir, Jacob Deutsch, Nihal Dhamani, Gavin Martin, Maruthi Akella(参考訳) ディープラーニングは、過去10年間で画像処理の黄金の標準となっている。 同時に、宇宙船間の近接操作に依存する衛星サービスやデブリ除去といった軌道活動への関心が高まっている。 しかし、現在2つの重要な課題が、ビジョンベースの軌道上の近接操作にディープラーニングを使用する上で大きな障壁となっている。 第一に、これらの手法の効率的な実装は、データキュレーション、トレーニング、評価を効率化するモデル開発のための効果的なシステムに依存している。 第2に、ラベル付きトレーニングデータ(ターゲット宇宙船の画像)の不足は、堅牢なディープラーニングモデルの作成を妨げる。 本稿では,on-orbitビジュアルナビゲーションアプリケーション用に開発された,オープンソースのディープラーニングパイプラインを提案する。 私たちの作業の中核は、モデル開発プロセスのすべての段階を相互接続するクラウドアーキテクチャの上に構築された2つのカスタムソフトウェアツールで構成されています。 最初のツールはオープンソースの3DグラフィックツールセットであるBlenderを利用して、設定可能なモデルポーズ(配置と向き)、照明条件、背景、そして一般的に観察される空間内画像収差によるラベル付き合成トレーニングデータを生成する。 第2のツールは、効果的なデータセットのキュレーションとモデルトレーニングのためのプラグインベースのフレームワークで、メタデータ生成やすべてのプロジェクトへのリモートストレージアクセスといった共通機能を提供し、プロジェクト固有のコードを完全に独立させる。 合成画像生成やモデルトレーニングといった、時間を要するグラフィック集約的なプロセスは、任意のスコープや予算にスケールし、任意のマシンから最大のデータセットやモデルの開発を可能にするクラウドベースの計算リソース上で実行される。 提案されたシステムはテキサス宇宙研究所で使われ、開発速度と品質に顕著な利点がある。

Deep learning has become the gold standard for image processing over the past decade. Simultaneously, we have seen growing interest in orbital activities such as satellite servicing and debris removal that depend on proximity operations between spacecraft. However, two key challenges currently pose a major barrier to the use of deep learning for vision-based on-orbit proximity operations. Firstly, efficient implementation of these techniques relies on an effective system for model development that streamlines data curation, training, and evaluation. Secondly, a scarcity of labeled training data (images of a target spacecraft) hinders creation of robust deep learning models. This paper presents an open-source deep learning pipeline, developed specifically for on-orbit visual navigation applications, that addresses these challenges. The core of our work consists of two custom software tools built on top of a cloud architecture that interconnects all stages of the model development process. The first tool leverages Blender, an open-source 3D graphics toolset, to generate labeled synthetic training data with configurable model poses (positions and orientations), lighting conditions, backgrounds, and commonly observed in-space image aberrations. The second tool is a plugin-based framework for effective dataset curation and model training; it provides common functionality like metadata generation and remote storage access to all projects while giving complete independence to project-specific code. Time-consuming, graphics-intensive processes such as synthetic image generation and model training run on cloud-based computational resources which scale to any scope and budget and allow development of even the largest datasets and models from any machine. The presented system has been used in the Texas Spacecraft Laboratory with marked benefits in development speed and quality.
翻訳日:2021-03-29 00:53:29 公開日:2021-01-14
# DeFlow: 条件付きデータから複雑な画像の劣化を学習する

DeFlow: Learning Complex Image Degradations from Unpaired Data with Conditional Flows ( http://arxiv.org/abs/2101.05796v1 )

ライセンス: Link先を確認
Valentin Wolf, Andreas Lugmayr, Martin Danelljan, Luc Van Gool, Radu Timofte(参考訳) ペアデータを得ることの難しさは、実世界のアプリケーションで画像復元と強化モデルを学ぶ上で、依然として大きなボトルネックとなっている。 現在の戦略は、実環境に現れるノイズや劣化をモデル化することで、現実的なトレーニングデータを合成することを目的としている。 非ペアデータから確率的画像劣化を学習するDeFlowを提案する。 本手法は,条件付き正規化フローのための未経験学習定式化に基づく。 共有フローエンコーダ・デコーダネットワークの潜在空間における劣化過程をモデル化する。 これにより,境界分布の負の対数類似度を最小化することで,クリーン入力による雑音像の条件分布を学習することができる。 共同画像復元と超解像におけるDeFlowの定式化を検証した。 deflowによって生成された合成データでトレーニングされたモデルは、以前の3つのデータセットの学習可能なアプローチよりも優れています。

The difficulty of obtaining paired data remains a major bottleneck for learning image restoration and enhancement models for real-world applications. Current strategies aim to synthesize realistic training data by modeling noise and degradations that appear in real-world settings. We propose DeFlow, a method for learning stochastic image degradations from unpaired data. Our approach is based on a novel unpaired learning formulation for conditional normalizing flows. We model the degradation process in the latent space of a shared flow encoder-decoder network. This allows us to learn the conditional distribution of a noisy image given the clean input by solely minimizing the negative log-likelihood of the marginal distributions. We validate our DeFlow formulation on the task of joint image restoration and super-resolution. The models trained with the synthetic data generated by DeFlow outperform previous learnable approaches on all three datasets.
翻訳日:2021-03-29 00:53:07 公開日:2021-01-14
# シフト等分散がメトリクス学習にどのように影響するか

How Shift Equivariance Impacts Metric Learning for Instance Segmentation ( http://arxiv.org/abs/2101.05846v1 )

ライセンス: Link先を確認
Josef Lorenz Rumberger, Xiaoyan Yu, Peter Hirsch, Melanie Dohmen, Vanessa Emanuela Guarino, Ashkan Mokarian, Lisa Mais, Jan Funke, Dagmar Kainmueller(参考訳) メトリックラーニングは、インスタンスセグメンテーションタスクの解決に適することに関する相反する評価を受けている。 使用済みのcnnのシフト等価性と、それぞれが同一に見えるオブジェクトを識別できないため、理論的に欠陥があるとして却下されている。 しかし, 様々な作業の成果が得られたことが示されており, タイル境界における不連続性が観察されているタイル・アンド・スティッチ・アプローチの文脈において, 実践的な問題が主に報告されている。 これまでのところ、どちらの問題も徹底的な形式分析を行っていない。 本研究では、エンコーダデコーダ型cnnのシフト同分散特性の包括的形式的解析を行い、同一視対象に対してメトリック学習を行うことで何が達成可能で何ができないかを明らかにした。 特に、$d$-dimensionalイメージを入力とする標準的なエンコーダ-デコーダネットワークが、$l$のプーリング層と$f$のプーリング係数を持ち、最大$f^{dl}$の類似オブジェクトを識別する能力を持つことを証明し、この上限が達成可能であることを示す。 さらに,標準的なバッチサイズ1を仮定してタイル・ストッチ方式で不連続を避けるためには,トレーニング出力ウィンドウサイズを厳密にf^l$以上と組み合わせて有効な畳み込みを採用する必要があるが,テスト時にはステッチする前に,タイルサイズを$n\cdot f^l$に設定し,$n\geq 1$で設定する必要がある。 これらの理論的な知見を補うために,合成データを用いた経験的結果を示す洞察に富んだ特別な事例を数多く検討する。

Metric learning has received conflicting assessments concerning its suitability for solving instance segmentation tasks. It has been dismissed as theoretically flawed due to the shift equivariance of the employed CNNs and their respective inability to distinguish same-looking objects. Yet it has been shown to yield state of the art results for a variety of tasks, and practical issues have mainly been reported in the context of tile-and-stitch approaches, where discontinuities at tile boundaries have been observed. To date, neither of the reported issues have undergone thorough formal analysis. In our work, we contribute a comprehensive formal analysis of the shift equivariance properties of encoder-decoder-style CNNs, which yields a clear picture of what can and cannot be achieved with metric learning in the face of same-looking objects. In particular, we prove that a standard encoder-decoder network that takes $d$-dimensional images as input, with $l$ pooling layers and pooling factor $f$, has the capacity to distinguish at most $f^{dl}$ same-looking objects, and we show that this upper limit can be reached. Furthermore, we show that to avoid discontinuities in a tile-and-stitch approach, assuming standard batch size 1, it is necessary to employ valid convolutions in combination with a training output window size strictly greater than $f^l$, while at test-time it is necessary to crop tiles to size $n\cdot f^l$ before stitching, with $n\geq 1$. We complement these theoretical findings by discussing a number of insightful special cases for which we show empirical results on synthetic data.
翻訳日:2021-03-29 00:52:57 公開日:2021-01-14
# ニューラル近似器による最適エネルギー形成

Optimal Energy Shaping via Neural Approximators ( http://arxiv.org/abs/2101.05537v1 )

ライセンス: Link先を確認
Stefano Massaroli, Michael Poli, Federico Califano, Jinkyoo Park, Atsushi Yamashita and Hajime Asama(参考訳) 古典的受動率に基づく制御手法の強化として最適エネルギー整形を導入する。 受動性理論の有望な特徴は、安定性と共に、伝統的に与えられたタスクの実行に沿って直感的なパフォーマンスチューニングであると言われている。 しかしながら、受動的制御フレームワーク内での性能を調整するための体系的なアプローチはまだ開発されていない。 タスクに依存したパフォーマンスメトリックを定義すると、ニューラルネットワークと勾配に基づく最適化に依存する反復的な手順によって最適解が体系的に得られる。 提案手法は状態制御タスクに対して検証される。

We introduce optimal energy shaping as an enhancement of classical passivity-based control methods. A promising feature of passivity theory, alongside stability, has traditionally been claimed to be intuitive performance tuning along the execution of a given task. However, a systematic approach to adjust performance within a passive control framework has yet to be developed, as each method relies on few and problem-specific practical insights. Here, we cast the classic energy-shaping control design process in an optimal control framework; once a task-dependent performance metric is defined, an optimal solution is systematically obtained through an iterative procedure relying on neural networks and gradient-based optimization. The proposed method is validated on state-regulation tasks.
翻訳日:2021-03-29 00:52:23 公開日:2021-01-14
# TUDublin team at Constraint@AAAI2021 -- COVID-19 Fake News Detection

TUDublin team at Constraint@AAAI2021 -- COVID19 Fake News Detection ( http://arxiv.org/abs/2101.05701v1 )

ライセンス: Link先を確認
Elena Shushkevich and John Cardiff(参考訳) この論文は、TUDublinチームによるConstraint@AAAI2021 - COVID19 Fake News Detection Challengeへの参加に焦点を当てている。 現在、偽ニュース検出の問題はパンデミックに関連して、これまで以上に深刻になっている。 偽ニュースの数が急速に増えており、covid-19に関する偽情報の拡散を緊急に防止するためのaiツールの開発が求められている。 この研究の主な目標は、新型コロナウイルス(COVID-19)のコンテキストにおいて、ソーシャルメディアからのメッセージのバイナリ分類をリアルまたはフェイクニュースとして実行するモデルを作ることだった。 私たちのチームは、双方向の長期記憶、サポートベクターマシン、ロジスティック回帰、ナイーブベイ、ロジスティック回帰とナイーブベイの組み合わせからなるアンサンブルを構築しました。 このモデルによって 0.94 f1-score を達成できたが、これは最高の結果の 5\% 以内である。

The paper is devoted to the participation of the TUDublin team in Constraint@AAAI2021 - COVID19 Fake News Detection Challenge. Today, the problem of fake news detection is more acute than ever in connection with the pandemic. The number of fake news is increasing rapidly and it is necessary to create AI tools that allow us to identify and prevent the spread of false information about COVID-19 urgently. The main goal of the work was to create a model that would carry out a binary classification of messages from social media as real or fake news in the context of COVID-19. Our team constructed the ensemble consisting of Bidirectional Long Short Term Memory, Support Vector Machine, Logistic Regression, Naive Bayes and a combination of Logistic Regression and Naive Bayes. The model allowed us to achieve 0.94 F1-score, which is within 5\% of the best result.
翻訳日:2021-03-29 00:52:13 公開日:2021-01-14
# SICKNL:オランダの自然言語推論のためのデータセット

SICKNL: A Dataset for Dutch Natural Language Inference ( http://arxiv.org/abs/2101.05716v1 )

ライセンス: Link先を確認
Gijs Wijnholds, Michael Moortgat(参考訳) オランダ語で自然言語推論を対象とするデータセットSICK-NL(可読信号)を提案する。 SICK-NLは、Marelli等のSICKデータセットを翻訳して得られる。 (2014年)英語からオランダ語へ。 並列推論データセットを持つことで、英語とオランダ語の単言語NLPモデルと多言語NLPモデルを比較することができる。 本稿では,翻訳プロセスのモチベーションと詳細化を図り,元のSICKデータセットとオランダのSICK-NLのベースライン評価を行い,オランダ語のスキップグラム埋め込みと文脈的埋め込みモデルからインスピレーションを得た。 さらに, 翻訳で発生する2つの現象をカプセル化し, 意味論に影響を与えない構文再構成をオランダのモデルがいかにうまく捉えたかを検証する。 主な発見は、すべてのモデルがSICK-NLよりもSICK-NLの方がパフォーマンスが悪く、オランダのデータセットが英語のオリジナルよりも難しいことを示しています。 ストレステストの結果、モデルはオランダ語で単語の順序の自由を完全に捉えておらず、将来の体系的な研究を保証している。

We present SICK-NL (read: signal), a dataset targeting Natural Language Inference in Dutch. SICK-NL is obtained by translating the SICK dataset of Marelli et al. (2014)from English into Dutch. Having a parallel inference dataset allows us to compare both monolingual and multilingual NLP models for English and Dutch on the two tasks. In the paper, we motivate and detail the translation process, perform a baseline evaluation on both the original SICK dataset and its Dutch incarnation SICK-NL, taking inspiration from Dutch skipgram embeddings and contextualised embedding models. In addition, we encapsulate two phenomena encountered in the translation to formulate stress tests and verify how well the Dutch models capture syntactic restructurings that do not affect semantics. Our main finding is all models perform worse on SICK-NL than on SICK, indicating that the Dutch dataset is more challenging than the English original. Results on the stress tests show that models don't fully capture word order freedom in Dutch, warranting future systematic studies.
翻訳日:2021-03-29 00:51:59 公開日:2021-01-14
# OrigamiSet1.0: Origami分類と難易度推定のための2つの新しいデータセット

OrigamiSet1.0: Two New Datasets for Origami Classification and Difficulty Estimation ( http://arxiv.org/abs/2101.05470v1 )

ライセンス: Link先を確認
Daniel Ma, Gerald Friedland, Mario Michael Krell(参考訳) 折り紙は研究にますます関連性が増している。 しかし、まだ公開データセットはなく、機械学習でこのトピックについての研究は行われていません。 マルチメディアコモンズや他のデータベースの画像を用いた折り紙データセットを構築した。 折り紙画像の分類と難易度推定の2つのサブセットから構成される。 分類のための16000枚の画像(折り紙の半分、その他の物体の半分)と難易度推定用の1509枚の画像を取得し、それぞれ3つのカテゴリに分けて評価した(容易: 764, 中: 427, 複雑: 318)。 データはhttps://github.com/multimedia-berkeley/orisetからダウンロードできる。 最後に、機械学習のベースラインを提供します。

Origami is becoming more and more relevant to research. However, there is no public dataset yet available and there hasn't been any research on this topic in machine learning. We constructed an origami dataset using images from the multimedia commons and other databases. It consists of two subsets: one for classification of origami images and the other for difficulty estimation. We obtained 16000 images for classification (half origami, half other objects) and 1509 for difficulty estimation with $3$ different categories (easy: 764, intermediate: 427, complex: 318). The data can be downloaded at: https://github.com/multimedia-berkeley/OriSet. Finally, we provide machine learning baselines.
翻訳日:2021-03-29 00:51:27 公開日:2021-01-14
# 混合畳み込みと相互融合による高精度カモフラージュ物体検出に向けて

Towards Accurate Camouflaged Object Detection with Mixture Convolution and Interactive Fusion ( http://arxiv.org/abs/2101.05687v1 )

ライセンス: Link先を確認
Bo Dong, Mingchen Zhuge, Yongxiong Wang, Hongbo Bi, Geng Chen(参考訳) カモフラージュされた物体検出(COD)は、近ごろコンピュータビジョンの分野で研究が進められている。 実際には, 深層学習に基づくCODの成功は, (i) 豊かな文脈情報を提供する非常に大きな受容場, (ii) 正確なCODのためにリッチな多段階特徴を集約する効果的な融合戦略の2つの重要な要因によって決定される。 そこで,本論文では,大規模受容場と効果的な特徴融合を統一フレームワークに統合した,新しい深層学習に基づくcodアプローチを提案する。 具体的には、バックボーンネットワークからまずマルチレベル特徴を抽出する。 得られた特徴は、複数の非対称な畳み込み層と2つの拡張畳み込み層を利用して、大きな受容場からリッチなコンテキスト特徴を抽出する、提案された二重ブランチ混合畳み込みモジュールに供給される。 最後に、特殊設計の多層インタラクティブフュージョンモジュールを用いて特徴を融合させ、各モジュールは、効果的な特徴フュージョンのための機能相互作用とともに、アテンション機構を用いる。 本手法は,広い受容領域からリッチなコンテキスト情報を集約する効果的な融合戦略を用いて,迷彩物体を検出する。 これらの設計はすべてCODの要件を満たしており、カモフラージュされた物体の正確な検出を可能にする。 広範に使用されているベンチマークデータセットに対する大規模な実験により,本手法は精度よく偽造対象を検出し,最先端の手法より優れていることが示された。

Camouflaged object detection (COD), which aims to identify the objects that conceal themselves into the surroundings, has recently drawn increasing research efforts in the field of computer vision. In practice, the success of deep learning based COD is mainly determined by two key factors, including (i) A significantly large receptive field, which provides rich context information, and (ii) An effective fusion strategy, which aggregates the rich multi-level features for accurate COD. Motivated by these observations, in this paper, we propose a novel deep learning based COD approach, which integrates the large receptive field and effective feature fusion into a unified framework. Specifically, we first extract multi-level features from a backbone network. The resulting features are then fed to the proposed dual-branch mixture convolution modules, each of which utilizes multiple asymmetric convolutional layers and two dilated convolutional layers to extract rich context features from a large receptive field. Finally, we fuse the features using specially-designed multi-level interactive fusion modules, each of which employs an attention mechanism along with feature interaction for effective feature fusion. Our method detects camouflaged objects with an effective fusion strategy, which aggregates the rich context information from a large receptive field. All of these designs meet the requirements of COD well, allowing the accurate detection of camouflaged objects. Extensive experiments on widely-used benchmark datasets demonstrate that our method is capable of accurately detecting camouflaged objects and outperforms the state-of-the-art methods.
翻訳日:2021-03-29 00:50:31 公開日:2021-01-14
# ステレオカメラシステムのキャリブレーション:2つのパラメータセットの必要性

Stereo camera system calibration: the need of two sets of parameters ( http://arxiv.org/abs/2101.05725v1 )

ライセンス: Link先を確認
Riccardo Beschi, Xiao Feng, Stefania Melillo, Leonardo Parisi, Lorena Postiglione(参考訳) ステレオカメラシステムによるシーンの再構築は、2段階のプロセスであり、まず異なるカメラからの画像をマッチングしてポイント・ツー・ポイント対応のセットを特定し、3次元の現実世界で実際に再構築する。 システムの性能は、最適結果を保証するために慎重に設計する必要があるキャリブレーション手順に強く依存している。 3つの異なるキャリブレーション手法を実装し,その性能を19のデータセットで比較した。 本研究は,画像ノイズのため,1組のパラメータが,対応の同定と3次元再構成において高い精度を達成するには不十分であることを示す実験的な証拠を示す。 2つの異なるパラメータを推定するためにシステムを2回キャリブレーションすることを提案する。カメラの2次元空間で定義された量を扱う際に使用される再投影誤差を最小化し、実際の3次元空間で定義された量を扱う際に使用される復元誤差を最小化する。

The reconstruction of a scene via a stereo-camera system is a two-steps process, where at first images from different cameras are matched to identify the set of point-to-point correspondences that then will actually be reconstructed in the three dimensional real world. The performance of the system strongly relies of the calibration procedure, which has to be carefully designed to guarantee optimal results. We implemented three different calibration methods and we compared their performance over 19 datasets. We present the experimental evidence that, due to the image noise, a single set of parameters is not sufficient to achieve high accuracy in the identification of the correspondences and in the 3D reconstruction at the same time. We propose to calibrate the system twice to estimate two different sets of parameters: the one obtained by minimizing the reprojection error that will be used when dealing with quantities defined in the 2D space of the cameras, and the one obtained by minimizing the reconstruction error that will be used when dealing with quantities defined in the real 3D world.
翻訳日:2021-03-29 00:50:04 公開日:2021-01-14
# 自動スレッショルドカンニーエッジ検出による文脈認識画像の逆摂動抑制

Context-Aware Image Denoising with Auto-Threshold Canny Edge Detection to Suppress Adversarial Perturbation ( http://arxiv.org/abs/2101.05833v1 )

ライセンス: Link先を確認
Li-Yun Wang, Yeganeh Jalalpour, Wu-chi Feng(参考訳) 本稿では,適応的な画像平滑化技術と色低減技術を組み合わせて,対向画像からの摂動を除去する新しい文脈認識画像復調アルゴリズムを提案する。 適応画像平滑化は、自動閾値キャニーエッジ検出を用いて達成され、より多くのエッジ特徴を保持するぼやけた画像を生成するために使用される正確なエッジマップを生成する。 提案アルゴリズムでは,カラーリダクション手法を用いて,代表色のみを用いて画像の再構成を行う。 この手法により,画像に対する対向摂動の影響を低減することができる。 また,分類精度に関する実験データについても論じる。 提案手法は, 敵の攻撃による敵の摂動を低減し, 深部畳み込みニューラルネットワークモデルの堅牢性を向上することを示した。

This paper presents a novel context-aware image denoising algorithm that combines an adaptive image smoothing technique and color reduction techniques to remove perturbation from adversarial images. Adaptive image smoothing is achieved using auto-threshold canny edge detection to produce an accurate edge map used to produce a blurred image that preserves more edge features. The proposed algorithm then uses color reduction techniques to reconstruct the image using only a few representative colors. Through this technique, the algorithm can reduce the effects of adversarial perturbations on images. We also discuss experimental data on classification accuracy. Our results showed that the proposed approach reduces adversarial perturbation in adversarial attacks and increases the robustness of the deep convolutional neural network models.
翻訳日:2021-03-29 00:49:46 公開日:2021-01-14
# リカレントニューラルネットワークの量子化について

On the quantization of recurrent neural networks ( http://arxiv.org/abs/2101.05453v1 )

ライセンス: Link先を確認
Jian Li, Raziel Alvarez(参考訳) ニューラルネットワークの整数量子化は、整数の精度を減らし、正準ニューラルネットワーク定式化の高精度計算の近似として定義することができる。 機械学習(ML)システムの効率的なデプロイと実行、メモリ消費の削減、通常より高速な計算の活用において重要な役割を果たしている。 本研究では,Long Short-Term Memory(LSTM)ニューラルネットワークトポロジーのための整数のみの量子化戦略を提案する。 私たちの量子化戦略は正確です(例) 量子化後のトレーニングでうまく機能し、効率的かつ高速に実行でき(8ビット整数重みとほとんど8ビットアクティベーションを利用する)、様々なハードウェアをターゲットにすることができる(一般的なcpuアーキテクチャで利用可能な命令セットと利用可能なニューラルネットワークアクセラレータを活用することで)。

Integer quantization of neural networks can be defined as the approximation of the high precision computation of the canonical neural network formulation, using reduced integer precision. It plays a significant role in the efficient deployment and execution of machine learning (ML) systems, reducing memory consumption and leveraging typically faster computations. In this work, we present an integer-only quantization strategy for Long Short-Term Memory (LSTM) neural network topologies, which themselves are the foundation of many production ML systems. Our quantization strategy is accurate (e.g. works well with quantization post-training), efficient and fast to execute (utilizing 8 bit integer weights and mostly 8 bit activations), and is able to target a variety of hardware (by leveraging instructions sets available in common CPU architectures, as well as available neural accelerators).
翻訳日:2021-03-29 00:49:19 公開日:2021-01-14
# 脳波認識のための4次元注意型ニューラルネットワーク

4D Attention-based Neural Network for EEG Emotion Recognition ( http://arxiv.org/abs/2101.05484v1 )

ライセンス: Link先を確認
Guowen Xiao, Mengwen Ye, Bowen Xu, Zhendi Chen, Quansheng Ren(参考訳) 脳波(EEG)の感情認識は脳-コンピュータインターフェース分野において重要な課題である。 近年,多くの深層学習手法が提案されているが,脳波信号の異なる領域に含まれる情報を十分に活用することは依然として困難である。 本稿では,脳波の感情認識のための4次元アテンションベースニューラルネットワーク(4D-aNN)を提案する。 まず、生の脳波信号を4次元空間スペクトル時間表現に変換する。 そして、提案した4D-aNNは、異なる脳領域と周波数帯域の重みを適応的に割り当てるスペクトル及び空間的注意機構を採用し、4D表現のスペクトル及び空間情報を扱うために畳み込みニューラルネットワーク(CNN)を利用する。 さらに、時間的注意機構を双方向長短記憶(LSTM)に統合し、4次元表現の時間的依存関係を探索する。 本モデルは,物体内分割下でのSEEDデータセットの最先端性能を実現する。 実験の結果,脳波の感情認識における異なる領域における注意機構の有効性が示された。

Electroencephalograph (EEG) emotion recognition is a significant task in the brain-computer interface field. Although many deep learning methods are proposed recently, it is still challenging to make full use of the information contained in different domains of EEG signals. In this paper, we present a novel method, called four-dimensional attention-based neural network (4D-aNN) for EEG emotion recognition. First, raw EEG signals are transformed into 4D spatial-spectral-temporal representations. Then, the proposed 4D-aNN adopts spectral and spatial attention mechanisms to adaptively assign the weights of different brain regions and frequency bands, and a convolutional neural network (CNN) is utilized to deal with the spectral and spatial information of the 4D representations. Moreover, a temporal attention mechanism is integrated into a bidirectional Long Short-Term Memory (LSTM) to explore temporal dependencies of the 4D representations. Our model achieves state-of-the-art performance on the SEED dataset under intra-subject splitting. The experimental results have shown the effectiveness of the attention mechanisms in different domains for EEG emotion recognition.
翻訳日:2021-03-29 00:49:04 公開日:2021-01-14
# BiGCN: 双方向低パスフィルタリンググラフニューラルネットワーク

BiGCN: A Bi-directional Low-Pass Filtering Graph Neural Network ( http://arxiv.org/abs/2101.05519v1 )

ライセンス: Link先を確認
Zhixian Chen, Tengfei Ma, Zhihua Jin, Yangqiu Song, Yang Wang(参考訳) グラフ畳み込みネットワークはグラフ構造化データにおいて大きな成功を収めた。 多くのグラフ畳み込みネットワークは、グラフ信号の低パスフィルタと見なすことができる。 本稿では,グラフニューラルネットワークを双方向低域通過フィルタとして表現する新しいモデルBiGCNを提案する。 具体的には、元のグラフ構造情報だけでなく、特徴間の潜在相関も考慮するので、BiGCNは元のグラフと潜在特徴連結グラフの両方と共に信号をフィルタリングすることができる。 我々のモデルは、多くのベンチマークデータセット、特にノード機能にノイズを追加する場合のノード分類とリンク予測のタスクにおいて、従来のグラフニューラルネットワークよりも優れています。

Graph convolutional networks have achieved great success on graph-structured data. Many graph convolutional networks can be regarded as low-pass filters for graph signals. In this paper, we propose a new model, BiGCN, which represents a graph neural network as a bi-directional low-pass filter. Specifically, we not only consider the original graph structure information but also the latent correlation between features, thus BiGCN can filter the signals along with both the original graph and a latent feature-connection graph. Our model outperforms previous graph neural networks in the tasks of node classification and link prediction on most of the benchmark datasets, especially when we add noise to the node features.
翻訳日:2021-03-29 00:48:50 公開日:2021-01-14
# エンドツーエンド音声認識における単語レベルの信頼度評価

An evaluation of word-level confidence estimation for end-to-end automatic speech recognition ( http://arxiv.org/abs/2101.05525v1 )

ライセンス: Link先を確認
Dan Oneata, Alexandru Caranica, Adriana Stan, Horia Cucu(参考訳) 予測の信頼性(あるいは不確実性)の定量化は、下流タスクの堅牢性と有用性を改善するため、自動システムの非常に望ましい特性である。 本稿では,エンドツーエンド自動音声認識(ASR)の信頼性評価について検討する。 従来の研究は格子ベースのASRに対する信頼度尺度に対処してきたが、現在の機械学習研究は主に非構造化ディープラーニングに対する信頼度尺度に焦点を当てている。 しかし, ASR システムは, より深いエンド・ツー・エンドの手法で構築されつつあるため, この文脈で信頼性対策を開発するための作業はほとんどない。 このギャップを埋めるために、よく知られた4つの音声データセットに対して、一般的な信頼度手法の広範なベンチマークを提供する。 既存の手法を適用する上で克服される課題は、構造化データ(シーケンス)に取り組み、予測(トークンではなくワード)よりも粗いレベルで信頼を得る、という2つです。 以上の結果から,ロジットを学習温度でスケーリングし,予測分布の負のエントロピーとして信頼度を推定し,最後に単語レベルでの総和プールを行うことで,強いベースラインが得られることが示唆された。

Quantifying the confidence (or conversely the uncertainty) of a prediction is a highly desirable trait of an automatic system, as it improves the robustness and usefulness in downstream tasks. In this paper we investigate confidence estimation for end-to-end automatic speech recognition (ASR). Previous work has addressed confidence measures for lattice-based ASR, while current machine learning research mostly focuses on confidence measures for unstructured deep learning. However, as the ASR systems are increasingly being built upon deep end-to-end methods, there is little work that tries to develop confidence measures in this context. We fill this gap by providing an extensive benchmark of popular confidence methods on four well-known speech datasets. There are two challenges we overcome in adapting existing methods: working on structured data (sequences) and obtaining confidences at a coarser level than the predictions (words instead of tokens). Our results suggest that a strong baseline can be obtained by scaling the logits by a learnt temperature, followed by estimating the confidence as the negative entropy of the predictive distribution and, finally, sum pooling to aggregate at word level.
翻訳日:2021-03-29 00:48:19 公開日:2021-01-14
# 有効な変数選択のための凝集型階層クラスタリング

Agglomerative Hierarchical Clustering for Selecting Valid Instrumental Variables ( http://arxiv.org/abs/2101.05774v1 )

ライセンス: Link先を確認
Nicolas Apfel and Xiaoran Liang(参考訳) 本稿では,集合的階層的クラスタリング法とハンセン・サーガンオーソライゼーションテストを組み合わせることで,多数の候補機器からIV推定のための有効な機器を選択するための機器変数(IV)選択手法を提案する。 一部の楽器は、排他制限に失敗する可能性があるという意味で無効である。 複数のルールの下では,oracle の選択と推定結果を実現できることを示す。 従来のiv選択法と比較して,弱い計器問題に対して効果的に対処できるという利点があり,複数の内因性レグレプターや異種治療効果がある場合にも容易に拡張できる。 モンテカルロシミュレーションを行い,本手法の性能について検討し,ハードしきい値法 (ht) と信頼区間法 (cim) の2つの既存手法と比較した。 シミュレーションの結果,全ての楽器が強い場合, 単一および複数の内因性回帰器の設定において, オラクルの選択と推定結果が得られた。 また,提案手法は,HTやCIMよりも優れた,いくつかの候補楽器が弱い場合にも有効である。 本手法を,米国における移民の賃金に対する影響の推定に適用する。

We propose an instrumental variable (IV) selection procedure which combines the agglomerative hierarchical clustering method and the Hansen-Sargan overidentification test for selecting valid instruments for IV estimation from a large set of candidate instruments. Some of the instruments may be invalid in the sense that they may fail the exclusion restriction. We show that under the plurality rule, our method can achieve oracle selection and estimation results. Compared to the previous IV selection methods, our method has the advantages that it can deal with the weak instruments problem effectively, and can be easily extended to settings where there are multiple endogenous regressors and heterogenous treatment effects. We conduct Monte Carlo simulations to examine the performance of our method, and compare it with two existing methods, the Hard Thresholding method (HT) and the Confidence Interval method (CIM). The simulation results show that our method achieves oracle selection and estimation results in both single and multiple endogenous regressors settings in large samples when all the instruments are strong. Also, our method works well when some of the candidate instruments are weak, outperforming HT and CIM. We apply our method to the estimation of the effect of immigration on wages in the US.
翻訳日:2021-03-29 00:47:59 公開日:2021-01-14
# 制御スイングのすべり面を囲むこと

Enclosing the Sliding Surfaces of a Controlled Swing ( http://arxiv.org/abs/2101.05418v1 )

ライセンス: Link先を確認
Luc Jaulin (Robex, Lab-STICC), Beno\^it Desrochers (DGA-TN)(参考訳) サイバー物理システムに連続しないコントローラを実装する場合、閉ループシステムの進化は、主にコントローラ内部の条件文のために、軌道に沿って断片的に微分できない場合がある。 これはシステムを傷つけるよりも、望ましくないおしゃべり効果をもたらす可能性がある。 この行動はシミュレーションでも観察が難しい。 本稿では、状態軌道が2つの異なる挙動の間を無期限に跳躍するように、全ての状態の集合に対応するすべり面を特徴づける区間的アプローチを提案する。 近年の厚み集合の概念は、集合列の不確かさをすべて考慮し、与えられた階層のハイブリッドシステムのすべり面の外部近似を効率的に計算できることを示している。 子どものスイングの制御器の検証への応用は,アプローチの原理を説明するものであると考えられる。

When implementing a non-continuous controller for a cyber-physical system, it may happen that the evolution of the closed-loop system is not anymore piecewise differentiable along the trajectory, mainly due to conditional statements inside the controller. This may lead to some unwanted chattering effects than may damage the system. This behavior is difficult to observe even in simulation. In this paper, we propose an interval approach to characterize the sliding surface which corresponds to the set of all states such that the state trajectory may jump indefinitely between two distinct behaviors. We show that the recent notion of thick sets will allows us to compute efficiently an outer approximation of the sliding surface of a given class of hybrid system taking into account all set-membership uncertainties. An application to the verification of the controller of a child swing is considered to illustrate the principle of the approach.
翻訳日:2021-03-29 00:47:39 公開日:2021-01-14
# 新型コロナウイルス診断改善のための多段階交流学習フレームワーク

A Multi-Stage Attentive Transfer Learning Framework for Improving COVID-19 Diagnosis ( http://arxiv.org/abs/2101.05410v1 )

ライセンス: Link先を確認
Yi Liu, Shuiwang Ji(参考訳) CTは新型コロナウイルスの診断に有望なアプローチである。 機械学習手法は、ラベル付きCT画像からモデルをトレーニングし、ケースが正か負かを予測するために用いられる。 しかし、正確なモデルをトレーニングするための公開データや大規模CTデータはない。 本研究では、新型コロナウイルスの診断を改善するための多段階学習フレームワークを提案する。 提案フレームワークは,複数のソースタスクと異なるドメインのデータから知識を学習することで,正確な診断モデルを訓練する3つの段階から構成される。 本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。 本手法は,肺全体から意味情報を取り込み,各肺領域の機能を強調し,より優れた表現学習を行う。 次に,提案手法を移動学習フレームワークの最終段階に統合し,同じCT画像から得られた複雑なパターンを再利用する。 自己意識(ATTN)と畳み込み操作を統合したベースモデルを用いる。 実験の結果,attnを用いたネットワークはattnのないネットワークよりも転送学習による性能向上を誘導することがわかった。 これは畳み込みよりも移動性が高いことを示している。 また,提案手法は,いくつかのベースライン法よりも優れていることを示す。

Computed tomography (CT) imaging is a promising approach to diagnosing the COVID-19. Machine learning methods can be employed to train models from labeled CT images and predict whether a case is positive or negative. However, there exists no publicly-available and large-scale CT data to train accurate models. In this work, we propose a multi-stage attentive transfer learning framework for improving COVID-19 diagnosis. Our proposed framework consists of three stages to train accurate diagnosis models through learning knowledge from multiple source tasks and data of different domains. Importantly, we propose a novel self-supervised learning method to learn multi-scale representations for lung CT images. Our method captures semantic information from the whole lung and highlights the functionality of each lung region for better representation learning. The method is then integrated to the last stage of the proposed transfer learning framework to reuse the complex patterns learned from the same CT images. We use a base model integrating self-attention (ATTNs) and convolutional operations. Experimental results show that networks with ATTNs induce greater performance improvement through transfer learning than networks without ATTNs. This indicates attention exhibits higher transferability than convolution. Our results also show that the proposed self-supervised learning method outperforms several baseline methods.
翻訳日:2021-03-29 00:46:42 公開日:2021-01-14
# AVGCN:人間の注意によるグラフ畳み込みネットワークを用いた軌道予測

AVGCN: Trajectory Prediction using Graph Convolutional Networks Guided by Human Attention ( http://arxiv.org/abs/2101.05682v1 )

ライセンス: Link先を確認
Congcong Liu, Yuying Chen, Ming Liu, Bertram E. Shi(参考訳) 歩行者の軌道予測は、特に混み合ったシーンでは、重要だが困難な作業である。 異なる近隣住民の重要性を推定するための注意機構の導入は,群集の大きさの異なるシーンにおける正確な軌道予測に重要であることを示唆する。 本研究では,人間の注意に基づくグラフ畳み込みネットワーク(GCN)を用いた軌跡予測のための新しい手法であるAVGCNを提案する(Aは注意を表し,Vは視野制約を表す)。 まず,近隣の歩行者の重要性を推定するアテンションネットワークを,鳥の視線視線による群集ナビゲーションタスクの実行時に収集した視線データを用いて訓練する。 次に,歩行者の視野の制約によって調節される注意重みを,gcnを用いて近隣からの情報を効率的に集約する軌道予測ネットワークに組み込む。 AVGCNはまた、変動軌道予測を利用して歩行者軌道の確率的性質を考察している。 本手法は,いくつかの軌道予測ベンチマークにおいて最先端性能を達成し,検討したベンチマークにおいて平均予測誤差が最も低い。

Pedestrian trajectory prediction is a critical yet challenging task, especially for crowded scenes. We suggest that introducing an attention mechanism to infer the importance of different neighbors is critical for accurate trajectory prediction in scenes with varying crowd size. In this work, we propose a novel method, AVGCN, for trajectory prediction utilizing graph convolutional networks (GCN) based on human attention (A denotes attention, V denotes visual field constraints). First, we train an attention network that estimates the importance of neighboring pedestrians, using gaze data collected as subjects perform a bird's eye view crowd navigation task. Then, we incorporate the learned attention weights modulated by constraints on the pedestrian's visual field into a trajectory prediction network that uses a GCN to aggregate information from neighbors efficiently. AVGCN also considers the stochastic nature of pedestrian trajectories by taking advantage of variational trajectory prediction. Our approach achieves state-of-the-art performance on several trajectory prediction benchmarks, and the lowest average prediction error over all considered benchmarks.
翻訳日:2021-03-29 00:46:26 公開日:2021-01-14
# マルチエージェント環境におけるインスタンス認識予測ナビゲーション

Instance-Aware Predictive Navigation in Multi-Agent Environments ( http://arxiv.org/abs/2101.05893v1 )

ライセンス: Link先を確認
Jinkun Cao, Xin Wang, Trevor Darrell, Fisher Yu(参考訳) 本研究では,動的マルチエージェント環境における運転ポリシーのエンドツーエンド学習を実現することを目的とする。 オブジェクトレベルでの将来のイベントの予測と予測は、インフォームドドライブの判断に不可欠である。 本稿では,エージェント間のインタラクションと将来のシーン構造を予測するインスタンス対応予測制御(ipc)手法を提案する。 本研究では,ego-vehicleの選択された動作系列に基づいて,ego-centric viewにおけるエージェント間のインタラクションを推定するマルチインスタンス・イベント予測モジュールを提案する。 各ステップでアクションを決定するために、予測モジュール出力に基づいて、起こりうるアクションシーケンスを繰り返しサンプリングすることで、安全な未来の状態に導くアクションシーケンスを求める。 シーンレベルとインスタンスレベルの両方で予測された状態をうまく活用するためのシーケンシャルなアクションサンプリング戦略を設計する。 提案手法は, CARLAマルチエージェント運転シミュレーション環境において, 専門家による実証を伴わず, 説明性の向上とサンプル効率の向上を図ったものである。

In this work, we aim to achieve efficient end-to-end learning of driving policies in dynamic multi-agent environments. Predicting and anticipating future events at the object level are critical for making informed driving decisions. We propose an Instance-Aware Predictive Control (IPC) approach, which forecasts interactions between agents as well as future scene structures. We adopt a novel multi-instance event prediction module to estimate the possible interaction among agents in the ego-centric view, conditioned on the selected action sequence of the ego-vehicle. To decide the action at each step, we seek the action sequence that can lead to safe future states based on the prediction module outputs by repeatedly sampling likely action sequences. We design a sequential action sampling strategy to better leverage predicted states on both scene-level and instance-level. Our method establishes a new state of the art in the challenging CARLA multi-agent driving simulation environments without expert demonstration, giving better explainability and sample efficiency.
翻訳日:2021-03-29 00:46:09 公開日:2021-01-14
# 分子機能に基づく機械学習の機能削減:遺伝子コア

Feature reduction for machine learning on molecular features: The GeneScore ( http://arxiv.org/abs/2101.05546v1 )

ライセンス: Link先を確認
Alexander Denker, Anastasia Steshina, Theresa Grooss, Frank Ueckert, Sylvia N\"urnberg(参考訳) バイオメディカルデータの機械学習解析における特徴量削減の概念であるGeneScoreを提案する。 専門家の知識を使って、GeneScoreは異なる分子データ型を単一のスコアに統合する。 SNV, Indel, CNV, 遺伝子融合および遺伝子発現データからがん物質を分類する際, GeneScore はバイナリマトリックスよりも優れていることを示す。 GeneScoreは、使用した分子データの特徴に関する科学知識を活用しながら、最先端の分析を容易にする簡単な方法である。

We present the GeneScore, a concept of feature reduction for Machine Learning analysis of biomedical data. Using expert knowledge, the GeneScore integrates different molecular data types into a single score. We show that the GeneScore is superior to a binary matrix in the classification of cancer entities from SNV, Indel, CNV, gene fusion and gene expression data. The GeneScore is a straightforward way to facilitate state-of-the-art analysis, while making use of the available scientific knowledge on the nature of molecular data features used.
翻訳日:2021-03-29 00:45:52 公開日:2021-01-14
# 時間に基づくCAN侵入検出ベンチマーク

Time-Based CAN Intrusion Detection Benchmark ( http://arxiv.org/abs/2101.05781v1 )

ライセンス: Link先を確認
Deborah H. Blevins (1), Pablo Moriano (2), Robert A. Bridges (2), Miki E. Verma (2), Michael D. Iannacone (2), Samuel C Hollifield (2) ((1) University of Kentucky, (2) Oak Ridge National Laboratory)(参考訳) 現代の車両は、制御エリアネットワーク(CAN)を介して通信する数百の電子制御ユニット(ECU)で構成される複雑なサイバー物理システムである。 この継承された複雑さは、メッセージインジェクション攻撃に弱いCAN攻撃面を拡張した。 これらのインジェクションは、バス上のメッセージの全体的なタイミング特性を変化させ、悪意のあるメッセージを検出するために、時間ベースの侵入検知システム(IDS)が提案されている。 しかしながら、時間ベースのIDSは通常、非現実的なラベル付き攻撃を伴う低忠実度データセットでトレーニングされ、テストされる。 これにより、IDSを評価し、比較し、検証する作業が困難になります。 ここでは、新たに公開されたROADデータセットに対する4つの時間ベースのIDSの詳細とベンチマークを行う。 その結果,メッセージタイミング分布を明示的に推定することで仮説テストを行う手法は,分布関連統計の異常を求める手法よりも低い性能を示すことがわかった。 特に、これらの「分配非依存」ベースの手法は、精度再呼び出し曲線 (auc-pr) の下で少なくとも55%の面積で「分配ベース」手法を上回っている。 我々は,これらの手法の詳細を提供し,実際の高度な攻撃を伴うデータセット上でテストした場合に結果を報告することにより,CAN時刻ベースIDSの知識体系を拡張した。 最後に, 軽量ハードウェアを用いたアフターマーケット用プラグイン検出器を開発し, ほぼすべての車両に最高の性能のIDS法を展開できることを確認した。

Modern vehicles are complex cyber-physical systems made of hundreds of electronic control units (ECUs) that communicate over controller area networks (CANs). This inherited complexity has expanded the CAN attack surface which is vulnerable to message injection attacks. These injections change the overall timing characteristics of messages on the bus, and thus, to detect these malicious messages, time-based intrusion detection systems (IDSs) have been proposed. However, time-based IDSs are usually trained and tested on low-fidelity datasets with unrealistic, labeled attacks. This makes difficult the task of evaluating, comparing, and validating IDSs. Here we detail and benchmark four time-based IDSs against the newly published ROAD dataset, the first open CAN IDS dataset with real (non-simulated) stealthy attacks with physically verified effects. We found that methods that perform hypothesis testing by explicitly estimating message timing distributions have lower performance than methods that seek anomalies in a distribution-related statistic. In particular, these "distribution-agnostic" based methods outperform "distribution-based" methods by at least 55% in area under the precision-recall curve (AUC-PR). Our results expand the body of knowledge of CAN time-based IDSs by providing details of these methods and reporting their results when tested on datasets with real advanced attacks. Finally, we develop an after-market plug-in detector using lightweight hardware, which can be used to deploy the best performing IDS method on nearly any vehicle.
翻訳日:2021-03-29 00:45:36 公開日:2021-01-14
# 知識グラフ埋め込みの継続的な学習

Continual Learning of Knowledge Graph Embeddings ( http://arxiv.org/abs/2101.05850v1 )

ライセンス: Link先を確認
Angel Daruna, Mehul Gupta, Mohan Sridharan, and Sonia Chernova(参考訳) 近年,ロボット工学応用における意味知識の表現と推論に分散(神経)表現を用いた手法が復活している。 しかし、ロボットはしばしば以前には知られていなかった概念を観察するが、これらの表現は通常、全ての概念は優先順位として知られており、新しい情報を組み込むには全ての概念を学ぶ必要があると仮定する。 我々の研究は、これらの表現の静的仮定を緩和し、一連の連続学習手法の原理を活用することで、漸進的な知識グラフの埋め込み問題に取り組む。 いくつかの知識グラフと埋め込み表現を用いた実験的な評価を通じて、セマンティクス駆動型ロボット工学を適切な知識グラフ埋め込み法に適合させる実践者のトレードオフに関する洞察を提供する。

In recent years, there has been a resurgence in methods that use distributed (neural) representations to represent and reason about semantic knowledge for robotics applications. However, while robots often observe previously unknown concepts, these representations typically assume that all concepts are known a priori, and incorporating new information requires all concepts to be learned afresh. Our work relaxes the static assumptions of these representations to tackle the incremental knowledge graph embedding problem by leveraging principles of a range of continual learning methods. Through an experimental evaluation with several knowledge graphs and embedding representations, we provide insights about trade-offs for practitioners to match a semantics-driven robotics application to a suitable continual knowledge graph embedding method.
翻訳日:2021-03-29 00:45:15 公開日:2021-01-14
# Cocktail Edge Caching: エンサンブルラーニングによるコンテンツ人気傾向の動的傾向

Cocktail Edge Caching: Ride Dynamic Trends of Content Popularity with Ensemble Learning ( http://arxiv.org/abs/2101.05885v1 )

ライセンス: Link先を確認
Tongyu Zong, Chen Li, Yuanyuan Lei, Guangyu Li, Houwei Cao, Yong Liu(参考訳) エッジキャッシングは、新興のコンテンツリッチアプリケーションを促進する上で重要な役割を果たす。 しかし、特に非常にダイナミックなコンテンツの人気と不均一なキャッシング設定が、多くの新しい課題に直面している。 本稿では,アンサンブル学習による動的人気と不均一性に対処するCocktail Edge Cachingを提案する。 すべてのキャッシュシナリオに対して、単一の支配的なキャッシュポリシを見つける代わりに、構成的なキャッシュポリシのアンサンブルを使用して、キャッシュを制御するための最高のパフォーマンスポリシーを適応的に選択します。 この目標に向けて、我々はまず、LFUおよびLRUポリシーの異なるバリエーションが異なるキャッシングシナリオにおいて相補的な性能を持つことを示す公式な分析と実験を通して示す。 さらに,LSTMに基づく時系列解析によりLFU/LRUを向上させる新しいキャッシングアルゴリズムを開発した。 最後に,並列仮想キャッシュ上での仮想ヒット率に応じて,ベースキャッシングポリシを適応的に結合する深層強化学習エージェントを開発した。 2つの大きなビデオストリーミングプラットフォームからの実際のコンテンツ要求によって駆動される広範な実験を通じて、CECは、すべての単一ポリシーを一貫して上回るだけでなく、その堅牢性も向上することを示した。 cecは、配置のための計算オーバーヘッドが低い異なるキャッシングシナリオによく一般化することができる。

Edge caching will play a critical role in facilitating the emerging content-rich applications. However, it faces many new challenges, in particular, the highly dynamic content popularity and the heterogeneous caching configurations. In this paper, we propose Cocktail Edge Caching, that tackles the dynamic popularity and heterogeneity through ensemble learning. Instead of trying to find a single dominating caching policy for all the caching scenarios, we employ an ensemble of constituent caching policies and adaptively select the best-performing policy to control the cache. Towards this goal, we first show through formal analysis and experiments that different variations of the LFU and LRU policies have complementary performance in different caching scenarios. We further develop a novel caching algorithm that enhances LFU/LRU with deep recurrent neural network (LSTM) based time-series analysis. Finally, we develop a deep reinforcement learning agent that adaptively combines base caching policies according to their virtual hit ratios on parallel virtual caches. Through extensive experiments driven by real content requests from two large video streaming platforms, we demonstrate that CEC not only consistently outperforms all single policies, but also improves the robustness of them. CEC can be well generalized to different caching scenarios with low computation overheads for deployment.
翻訳日:2021-03-29 00:45:01 公開日:2021-01-14
# ニーズマイニング:ソーシャルメディアからニーズを引き出すデジタルサポートを設計する

Needmining: Designing Digital Support to Elicit Needs from Social Media ( http://arxiv.org/abs/2101.06146v1 )

ライセンス: Link先を確認
Niklas K\"uhl and Gerhard Satzger(参考訳) 今日のビジネスは、競争の激しい市場で成功するために革新を迫られる高いプレッシャーに直面している。 しかし、成功したイノベーションは通常、顧客ニーズの識別と分析を必要とします。 従来の確立されたニーズの明確化手法は、価値ある洞察を提供する能力が実証されている一方で、自動化やスケーラビリティが欠如しており、高価で時間がかかります。 本稿では,新しいデータソースを利用することで,利用者のニーズを自動的に識別し,定量化する手法を提案する。 これらの投稿には、著者のニーズ、要求、および要求に関する貴重な情報が含まれている可能性がある。 我々は、デザイン科学研究(dsr)の方法論を適用し、イノベーションプロセスのデジタル化、特に顧客ニーズの明確化のためのデジタルサポートを提供するための設計知識とアーティファクトを追加する。 われわれは、自動化された、迅速で、スケーラブルな、ソーシャルメディアからの需要喚起が実現可能かどうかを調査したい。 私たちは、データソースとしてのTwitterと、アプリケーションドメインとしてのe-mobilityに集中しています。 第1の設計サイクルにおいて、実際に顧客のニーズを表すソーシャルメディア投稿を識別する可能性を示す手法を考案し、実装し、評価する。 2つ目のサイクルでは、このアーティファクトの上に構築し、必要な情報を定量化し、その実現可能性を証明する。 第3に,開発手法をエンドユーザーソフトウェアアーティファクトに統合し,産業用ユースケースにおけるユーザビリティをテストする。 そこで本研究では,知識体に新たな知識誘発手法を付加し,イノベーションマネジメントのための具体的ツールを提案する。

Today's businesses face a high pressure to innovate in order to succeed in highly competitive markets. Successful innovations, though, typically require the identification and analysis of customer needs. While traditional, established need elicitation methods are time-proven and have demonstrated their capabilities to deliver valuable insights, they lack automation and scalability and, thus, are expensive and time-consuming. In this article, we propose an approach to automatically identify and quantify customer needs by utilizing a novel data source: Users voluntarily and publicly expose information about themselves via social media, as for instance Facebook or Twitter. These posts may contain valuable information about the needs, wants, and demands of their authors. We apply a Design Science Research (DSR) methodology to add design knowledge and artifacts for the digitalization of innovation processes, in particular to provide digital support for the elicitation of customer needs. We want to investigate whether automated, speedy, and scalable need elicitation from social media is feasible. We concentrate on Twitter as a data source and on e-mobility as an application domain. In a first design cycle we conceive, implement and evaluate a method to demonstrate the feasibility of identifying those social media posts that actually express customer needs. In a second cycle, we build on this artifact to additionally quantify the need information elicited, and prove its feasibility. Third, we integrate both developed methods into an end-user software artifact and test usability in an industrial use case. Thus, we add new methods for need elicitation to the body of knowledge, and introduce concrete tooling for innovation management in practice.
翻訳日:2021-03-29 00:44:41 公開日:2021-01-14
# ランダム初期化学習オプティマイザを用いた学習オプティマイザの学習

Training Learned Optimizers with Randomly Initialized Learned Optimizers ( http://arxiv.org/abs/2101.07367v1 )

ライセンス: Link先を確認
Luke Metz, C. Daniel Freeman, Niru Maheswaranathan, Jascha Sohl-Dickstein(参考訳) 学習されたオプティマイザは、特定のタスクのAdam~\citep{kingma2014adam}のような手作りのオプティマイザよりもパフォーマンスが向上する。 現在の作業では、学習したオプティマイザのメタトレーニング(または'outer-training')は、手設計のオプティマイザまたは手設計のオプティマイザ \citep{metz2020tasks} によって訓練されたオプティマイザによって実行される。 ランダムに初期化して学習したオプティマイザの集団は、そのプロセスのどの部分でも手作りのオプティマイザを使わずに、オンラインでスクラッチから学習することができる。 人口ベーストレーニングの形式は、この自己学習の組織化に使用される。 ランダムに初期化されるオプティマイザは、最初は遅く進行するが、改善するにつれてポジティブなフィードバックループを経験し、トレーニング自体において急速に効果的になる。 このタイプのフィードバックループは、オプティマイザが自らを改善すれば、機械学習の将来において重要かつ強力なものになると考えています。 これらの手法は性能向上への道筋を提供するだけでなく、研究と工学の努力を和らげる。

Learned optimizers are increasingly effective, with performance exceeding that of hand designed optimizers such as Adam~\citep{kingma2014adam} on specific tasks \citep{metz2019understanding}. Despite the potential gains available, in current work the meta-training (or `outer-training') of the learned optimizer is performed by a hand-designed optimizer, or by an optimizer trained by a hand-designed optimizer \citep{metz2020tasks}. We show that a population of randomly initialized learned optimizers can be used to train themselves from scratch in an online fashion, without resorting to a hand designed optimizer in any part of the process. A form of population based training is used to orchestrate this self-training. Although the randomly initialized optimizers initially make slow progress, as they improve they experience a positive feedback loop, and become rapidly more effective at training themselves. We believe feedback loops of this type, where an optimizer improves itself, will be important and powerful in the future of machine learning. These methods not only provide a path towards increased performance, but more importantly relieve research and engineering effort.
翻訳日:2021-03-29 00:44:17 公開日:2021-01-14
# テキスト分析・生成における逆機械学習

Adversarial Machine Learning in Text Analysis and Generation ( http://arxiv.org/abs/2101.08675v1 )

ライセンス: Link先を確認
Izzat Alsmadi(参考訳) 敵対的機械学習の研究分野は、ここ数年で大きな関心を集めている。 機械学習者やモデルは、許容できる精度、効率等で主目的を達成できれば安全である。 同時に、異なるタイプの攻撃や敵の攻撃に抵抗することができる。 本稿では,テキスト分析と生成を専門とする対人機械学習の側面と研究動向について述べる。 本稿は,ganアルゴリズム,モデル,攻撃の種類,これらの攻撃に対する防御など,この分野の主要な研究動向を要約する。

The research field of adversarial machine learning witnessed a significant interest in the last few years. A machine learner or model is secure if it can deliver main objectives with acceptable accuracy, efficiency, etc. while at the same time, it can resist different types and/or attempts of adversarial attacks. This paper focuses on studying aspects and research trends in adversarial machine learning specifically in text analysis and generation. The paper summarizes main research trends in the field such as GAN algorithms, models, types of attacks, and defense against those attacks.
翻訳日:2021-03-29 00:43:53 公開日:2021-01-14
# 信号時相論理による電子商取引ランキング信号の解析

Analysis of E-commerce Ranking Signals via Signal Temporal Logic ( http://arxiv.org/abs/2101.05415v1 )

ライセンス: Link先を確認
Tommaso Dreossi (Amazon Search), Giorgio Ballardin (Amazon Search), Parth Gupta (Amazon Search), Jan Bakus (Amazon Search), Yu-Hsiang Lin (Amazon Search), Vamsi Salaka (Amazon Search)(参考訳) モデルランキングの学習によって得られた文書の時間的位置を信号と見なすことができる。 信号は、時間経過やユーザの振る舞いに応じて文書のドロップや上昇といった有用な情報を運ぶ。 本研究では,STL(Signal Temporal Logic)と呼ばれる論理形式を用いて,所定の公式に従って文書の動作を特徴付けることを提案する。 分析の結果、興味深い文書の挙動はstl式により容易に形式化・検出できることがわかった。 私たちは10万の製品信号のデータセットでアイデアを検証する。 提示されたフレームワークを通じて、コールドスタート、ウォームスタート、スパイクなどの興味深いパターンを発見し、それらがモデルのランク付けにどのように影響するかを調べます。

The timed position of documents retrieved by learning to rank models can be seen as signals. Signals carry useful information such as drop or rise of documents over time or user behaviors. In this work, we propose to use the logic formalism called Signal Temporal Logic (STL) to characterize document behaviors in ranking accordingly to the specified formulas. Our analysis shows that interesting document behaviors can be easily formalized and detected thanks to STL formulas. We validate our idea on a dataset of 100K product signals. Through the presented framework, we uncover interesting patterns, such as cold start, warm start, spikes, and inspect how they affect our learning to ranks models.
翻訳日:2021-03-29 00:43:45 公開日:2021-01-14
# 最適ネットワークオンライン変化点局所化

Optimal network online change point localisation ( http://arxiv.org/abs/2101.05477v1 )

ライセンス: Link先を確認
Yi Yu, Oscar Hernan Madrid Padilla, Daren Wang and Alessandro Rinaldo(参考訳) オンラインネットワーク変化点検出の問題点について検討する。 この設定では、独立したベルヌーイネットワークの集合を順次収集し、変更点が発生したときにその下層分布が変化する。 目標は、変更点をできるだけ早く検出することであり、もし存在すれば、偽アラームの数や可能性の制約を受ける。 In this paper, on the detection delay, we establish a minimax lower bound and two upper bounds based on NP-hard algorithms and polynomial-time algorithms, i.e., \[ \mbox{detection delay} \begin{cases} \gtrsim \log(1/\alpha) \frac{\max\{r^2/n, \, 1\}}{\kappa_0^2 n \rho},\\ \lesssim \log(\Delta/\alpha) \frac{\max\{r^2/n, \, \log(r)\}}{\kappa_0^2 n \rho}, & \mbox{with NP-hard algorithms},\\ \lesssim \log(\Delta/\alpha) \frac{r}{\kappa_0^2 n \rho}, & \mbox{with polynomial-time algorithms}, \end{cases} \] where $\kappa_0, n, \rho, r$ and $\alpha$ are the normalised jump size, network size, entrywise sparsity, rank sparsity and the overall Type-I error upper bound. すべてのモデルパラメータは、変更点の位置である$\Delta$として変更することができる。 多項式時間アルゴリズムは,2種類のタイプi誤り制御を高速に検出するために設計した新しい手法である。 第1は、変更点がない場合の偽アラームの全体的な確率を制御し、第2は、第1の偽アラームの期待時刻の下限を特定することに基づく。 提案手法は,異なるシナリオと前述のType-Iエラー制御形態において,最先端の手法よりも優れていることを示す。

We study the problem of online network change point detection. In this setting, a collection of independent Bernoulli networks is collected sequentially, and the underlying distributions change when a change point occurs. The goal is to detect the change point as quickly as possible, if it exists, subject to a constraint on the number or probability of false alarms. In this paper, on the detection delay, we establish a minimax lower bound and two upper bounds based on NP-hard algorithms and polynomial-time algorithms, i.e., \[ \mbox{detection delay} \begin{cases} \gtrsim \log(1/\alpha) \frac{\max\{r^2/n, \, 1\}}{\kappa_0^2 n \rho},\\ \lesssim \log(\Delta/\alpha) \frac{\max\{r^2/n, \, \log(r)\}}{\kappa_0^2 n \rho}, & \mbox{with NP-hard algorithms},\\ \lesssim \log(\Delta/\alpha) \frac{r}{\kappa_0^2 n \rho}, & \mbox{with polynomial-time algorithms}, \end{cases} \] where $\kappa_0, n, \rho, r$ and $\alpha$ are the normalised jump size, network size, entrywise sparsity, rank sparsity and the overall Type-I error upper bound. All the model parameters are allowed to vary as $\Delta$, the location of the change point, diverges. The polynomial-time algorithms are novel procedures that we propose in this paper, designed for quick detection under two different forms of Type-I error control. The first is based on controlling the overall probability of a false alarm when there are no change points, and the second is based on specifying a lower bound on the expected time of the first false alarm. Extensive experiments show that, under different scenarios and the aforementioned forms of Type-I error control, our proposed approaches outperform state-of-the-art methods.
翻訳日:2021-03-29 00:43:34 公開日:2021-01-14
# テキストからのコヒーレントな自然発話とジェスチャーの生成

Generating coherent spontaneous speech and gesture from text ( http://arxiv.org/abs/2101.05684v1 )

ライセンス: Link先を確認
Simon Alexanderson, \'Eva Sz\'ekely, Gustav Eje Henter, Taras Kucherenko, Jonas Beskow(参考訳) 人体コミュニケーションは、言語情報(音声)と非言語情報(ジェスチャーや頭の動きなど)の両方を含む。 機械学習の最近の進歩は、これらのデータの両方の合成バージョンを生成する技術を大幅に改善した: 音声側では、テキストから音声への変換システムは、書き起こされていない音声を素材として、非常に説得力のある自発的な音声を生成することができるようになった。 動作側では、確率論的モーションジェネレーション法が、生き生きとした音声駆動の3Dジェスチャーを合成できるようになった。 本稿では,これら2つの最先端技術を初めてコヒーレントな方法で統合する。 具体的には,テキスト入力から音声と全身ジェスチャーの両方を生成できる単一話者音声とモーションキャプチャデータセットで学習した概念実証システムを示す。 モーションキャプチャデータと同一人物からの自発音声の録音を訓練した音声合成から,先行した音声とジェスチャ生成のアプローチとは対照的に,全身ジェスチャを生成する。 ジェスチャー空間とテキスト-音声のアライメントを可視化し、https://simonalexanderson.github.io/iva2020のデモビデオを通して結果を示す。

Embodied human communication encompasses both verbal (speech) and non-verbal information (e.g., gesture and head movements). Recent advances in machine learning have substantially improved the technologies for generating synthetic versions of both of these types of data: On the speech side, text-to-speech systems are now able to generate highly convincing, spontaneous-sounding speech using unscripted speech audio as the source material. On the motion side, probabilistic motion-generation methods can now synthesise vivid and lifelike speech-driven 3D gesticulation. In this paper, we put these two state-of-the-art technologies together in a coherent fashion for the first time. Concretely, we demonstrate a proof-of-concept system trained on a single-speaker audio and motion-capture dataset, that is able to generate both speech and full-body gestures together from text input. In contrast to previous approaches for joint speech-and-gesture generation, we generate full-body gestures from speech synthesis trained on recordings of spontaneous speech from the same person as the motion-capture data. We illustrate our results by visualising gesture spaces and text-speech-gesture alignments, and through a demonstration video at https://simonalexanderson.github.io/IVA2020 .
翻訳日:2021-03-29 00:42:55 公開日:2021-01-14
# 貯留層計算における可塑性ルールの役割

Unveiling the role of plasticity rules in reservoir computing ( http://arxiv.org/abs/2101.05848v1 )

ライセンス: Link先を確認
Guillermo B. Morales, Claudio R. Mirasso and Miguel C. Soriano(参考訳) Reservoir Computing(RC)は、リカレントニューラルネットワークの高計算能力と高速で簡単なトレーニング手法を組み合わせた機械学習における魅力的なアプローチである。 同様に、RC人工ネットワークへのニューロインスパイアされた塑性規則の実装が成功し、オリジナルのモデルの性能が向上した。 本論文では, RCの性能向上につながる変化に対して, 塑性規則が果たす役割を解析する。 この目的のために、我々はRCモデルのパラダイム的な例であるEcho State Networkでシナプス的および非シナプス的可塑性規則を実装した。 非線形時系列予測タスクをテストした結果,すべてのプラスチックモデルの性能向上は,貯水池の対相関の低下や,活動空間で類似した入力を分離する個々のニューロンの能力の大幅な増加と関連していることが示された。 ここでは, プラスチック学習における異なる段階の研究を通して, 観察された改善について新たな知見を与える。 貯水池の動力学の観点からは、最適性能はいわゆる不安定な縁近くで起こることが示されている。 また, この結果から, 可塑性の異なる形態(シナプス的および非シナプス的規則)を組み合わせることで, 予測タスクの性能を向上し, 単一可塑性モデルよりも優れた結果が得られることを示した。

Reservoir Computing (RC) is an appealing approach in Machine Learning that combines the high computational capabilities of Recurrent Neural Networks with a fast and easy training method. Likewise, successful implementation of neuro-inspired plasticity rules into RC artificial networks has boosted the performance of the original models. In this manuscript, we analyze the role that plasticity rules play on the changes that lead to a better performance of RC. To this end, we implement synaptic and non-synaptic plasticity rules in a paradigmatic example of RC model: the Echo State Network. Testing on nonlinear time series prediction tasks, we show evidence that improved performance in all plastic models are linked to a decrease of the pair-wise correlations in the reservoir, as well as a significant increase of individual neurons ability to separate similar inputs in their activity space. Here we provide new insights on this observed improvement through the study of different stages on the plastic learning. From the perspective of the reservoir dynamics, optimal performance is found to occur close to the so-called edge of instability. Our results also show that it is possible to combine different forms of plasticity (namely synaptic and non-synaptic rules) to further improve the performance on prediction tasks, obtaining better results than those achieved with single-plasticity models.
翻訳日:2021-03-29 00:42:36 公開日:2021-01-14