このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20210120となっている論文です。

PDF登録状況(公開日: 20210120)

TitleAuthorsAbstract論文公表日・翻訳日
# 量子強調センシングによる量子照明

Quantum illumination via quantum-enhanced sensing ( http://arxiv.org/abs/2004.09234v2 )

ライセンス: Link先を確認
Su-Yong Lee, Yong Sup Ihn, and Zaeill Kim(参考訳) 量子エンハンスセンシングは、入力量子状態によるパラメータ感度の向上を目標とし、量子照明は、重騒音環境における入力絡み合い状態によるターゲット検出能力の向上を目標とする。 ここでは、古典的極限を超越した量子優位性を取ることができる量子強調センシングと量子照明の結合を提案する。 まず、干渉法における位相センシングは、量子フィッシャー情報を介してターゲットセンシングに接続される。 次に、ノイズ量子エンハンスセンシングにおいてターゲット感度を調べる。 同じ入力状態エネルギーの下では、例えばN光子絡み合った状態は、2モードの圧縮真空状態と分離可能なコヒーレント状態よりも優れた性能を示すことができる。 そして、光子数差測定を組み込んだノイズ目標感度と、目標の有無を判別する最小誤差確率に関連付けられた信号対雑音比とを接続する。 熱雑音の増加に伴い,ターゲット感度と信号対雑音比の両方が向上することを示す。

Quantum-enhanced sensing has a goal of enhancing a parameter sensitivity with input quantum states, while quantum illumination has a goal of enhancing a target detection capability with input entangled states in a heavy noise environment. Here we propose a concatenation between quantum-enhanced sensing and quantum illumination that can take quantum advantage over the classical limit. First, phase sensing in an interferometry is connected to a target sensing via quantum Fisher information. Second, the target sensitivity is investigated in noisy quantum-enhanced sensing. Under the same input state energy, for example, N-photon entangled states can exhibit better performance than a two-mode squeezed vacuum state and a separable coherent state. Incorporating a photon-number difference measurement, finally, the noisy target sensitivity is connected to a signal-to-noise ratio which is associated with a minimum error probability of discriminating the presence and absence of the target. We show that both the target sensitivity and the signal-to-noise ratio can be enhanced with increasing thermal noise.
翻訳日:2023-05-22 22:55:44 公開日:2021-01-20
# 変形したフェルミオン鎖上のカシミール力

Casimir forces on deformed fermionic chains ( http://arxiv.org/abs/2004.12456v3 )

ライセンス: Link先を確認
Bego\~na Mula, Silvia N. Santalla, Javier Rodr\'iguez-Laguna(参考訳) 連続極限における静的距離を持つ (1+1)D 曲線時空に対応するスムーズなホッピング振幅を持つ自由フェルミオン鎖上でのディラック真空のカシミール力の特徴付けを行う。 格子上の障害に対する一階のエネルギーポテンシャルは計量に関連するニュートンポテンシャルに対応し、有限サイズの補正は適切な境界項を含む共形場理論予測の曲線拡張によって記述される。 ミンコフスキー計量の弱い変形に対して、境界における局所観測者によって測定されたカシミール力は計量非依存であることを示す。 我々は,minkowski,rindler,anti-de sitter (いわゆるレインボーシステム) および正弦波メトリックス (正弦波計測) の様々な (1+1) 次元変形に関する結果について,数値的証拠を提供する。

We characterize the Casimir forces for the Dirac vacuum on free-fermionic chains with smoothly varying hopping amplitudes, which correspond to (1+1)D curved spacetimes with a static metric in the continuum limit. The first-order energy potential for an obstacle on that lattice corresponds to the Newtonian potential associated to the metric, while the finite-size corrections are described by a curved extension of the conformal field theory predictions, including a suitable boundary term. We show that, for weak deformations of the Minkowski metric, Casimir forces measured by a local observer at the boundary are metric-independent. We provide numerical evidence for our results on a variety of (1+1)D deformations: Minkowski, Rindler, anti-de Sitter (the so-called rainbow system) and sinusoidal metrics.
翻訳日:2023-05-22 02:13:29 公開日:2021-01-20
# 区別不能光子対の位相源を用いた可変量子干渉

Tunable quantum interference using a topological source of indistinguishable photon pairs ( http://arxiv.org/abs/2006.03084v2 )

ライセンス: Link先を確認
Sunil Mittal, Venkata Vikram Orre, Elizabeth A. Goldschmidt, Mohammad Hafezi(参考訳) 量子光の源、特にあらゆる自由度で区別できない相関光子対は、連続可変量子計算とガウスボソンサンプリングのようなパラダイムを可能にする基本的な資源である。 ナノフォトニックシステムは、区別がつかない相関光子対のソースを実装するためのスケーラブルなプラットフォームを提供する。 しかし、そのような音源は単一導波路やリング共振器のような単一成分の使用に依存しており、光子間のスペクトルと時間的相関を調整できる能力は限られている。 本稿では,2次元リング共振器からなるトポロジカルフォトニックシステムを用いて,動的に調整可能なスペクトルと時間相関を持つ不明瞭な光子対を生成する。 具体的には、トポロジカルエッジ状態を示すシリコンリング共振器のアレイにおいて、二重励起自発4波混合を実現する。 広帯域帯域でのエッジ状態の線形分散は相関を調整できるため、エッジバンド内の2つのポンプ周波数を単純に調整することで光子間の量子干渉を制御できることを示した。 さらに、生成光子間のエネルギー時間絡み合いを示す。 また、我々のトポロジカルソースは本質的に製造障害から保護されていることも示している。 この結果から,連続変数を用いた量子情報処理に欠かせない,スケーラブルで可変なシャープ光源の道を開いた。

Sources of quantum light, in particular correlated photon pairs that are indistinguishable in all degrees of freedom, are the fundamental resource that enables continuous-variable quantum computation and paradigms such as Gaussian boson sampling. Nanophotonic systems offer a scalable platform for implementing sources of indistinguishable correlated photon pairs. However, such sources have so far relied on the use of a single component, such as a single waveguide or a ring resonator, which offers limited ability to tune the spectral and temporal correlations between photons. Here, we demonstrate the use of a topological photonic system comprising a two-dimensional array of ring resonators to generate indistinguishable photon pairs with dynamically tunable spectral and temporal correlations. Specifically, we realize dual-pump spontaneous four-wave mixing in this array of silicon ring resonators that exhibits topological edge states. We show that the linear dispersion of the edge states over a broad bandwidth allows us to tune the correlations, and therefore, quantum interference between photons by simply tuning the two pump frequencies in the edge band. Furthermore, we demonstrate energy-time entanglement between generated photons. We also show that our topological source is inherently protected against fabrication disorders. Our results pave the way for scalable and tunable sources of squeezed light that are indispensable for quantum information processing using continuous variables.
翻訳日:2023-05-17 04:12:35 公開日:2021-01-20
# 時空通勤作用素を持つ多状態ランダウ・ツェナーモデルの可積分性

Integrability in the multistate Landau-Zener model with time-quadratic commuting operators ( http://arxiv.org/abs/2006.15144v3 )

ライセンス: Link先を確認
V. Y. Chernyak, and N. A. Sinitsyn(参考訳) 厳密に解決可能な多状態ランダウ・ツェナー(MLZ)モデルは、MLZハミルトニアンと通勤し、時間に線形に依存する作用素の族に関連付けられる。 また、MLZハミルトニアンとの積分性条件を満たす作用素もあるが、時間は2次に依存する。 MLZシステムでは、時間的二乗演算がより一般的であることを示す。 すると、そのような作用素が一般に散乱行列をパラメータ化する独立変数の制約につながることを示す。 このような制約が3レベルMLZモデルの断熱限界における遷移確率の漸近的正確な表現につながることを示す。 新しい完全可溶性MLZシステムも発見されている。

Exactly solvable multistate Landau-Zener (MLZ) models are associated with families of operators that commute with the MLZ Hamiltonians and depend on time linearly. There can also be operators that satisfy the integrability conditions with the MLZ Hamiltonians but depend on time quadratically. We show that, among the MLZ systems, such time-quadratic operators are much more common. We demonstrate then that such operators generally lead to constraints on the independent variables that parametrize the scattering matrix. We show how such constraints lead to asymptotically exact expressions for the transition probabilities in the adiabatic limit of a three-level MLZ model. New fully solvable MLZ systems are also found.
翻訳日:2023-05-12 19:36:13 公開日:2021-01-20
# 分割をめぐる情報衝突:均衡、エントロピー生産、典型性

Information Scrambling over Bipartitions: Equilibration, Entropy Production, and Typicality ( http://arxiv.org/abs/2007.08570v3 )

ライセンス: Link先を確認
Georgios Styliaris, Namit Anand and Paolo Zanardi(参考訳) 近年,時間外相関器(OTOC)が,量子多体系における情報スクランブルの診断ツールとして登場している。 ここでは、二分割の2つの領域で支持される典型的なランダム局所演算子に対して、OTOCの正確な解析結果を示す。 極めて顕著なことに、この「二部体OTOC」は進化の作用素の絡み合いに等しいことを示し、絡み合う力との相互作用を決定する。 さらに,OTOCの長期平均値を算出し,固有状態の絡み合いとの関係を明らかにする。 ハミルトン系では、スペクトルの構造上の制約の階層構造を発見し、それがOTOCの平衡値にどのように影響するかを明らかにする。 最後に、平均エントロピー生成と密接な関係を解き明かし、量子チャネルのレベルで情報のスクランブルを行うことにより、この二部式OTOCに運用上の重要性を提供する。

In recent years, the out-of-time-order correlator (OTOC) has emerged as a diagnostic tool for information scrambling in quantum many-body systems. Here, we present exact analytical results for the OTOC for a typical pair of random local operators supported over two regions of a bipartition. Quite remarkably, we show that this "bipartite OTOC" is equal to the operator entanglement of the evolution and we determine its interplay with entangling power. Furthermore, we compute long-time averages of the OTOC and reveal their connection with eigenstate entanglement. For Hamiltonian systems, we uncover a hierarchy of constraints over the structure of the spectrum and elucidate how this affects the equilibration value of the OTOC. Finally, we provide operational significance to this bipartite OTOC by unraveling intimate connections with average entropy production and scrambling of information at the level of quantum channels.
翻訳日:2023-05-09 06:52:35 公開日:2021-01-20
# 量子アルゴリズムのランダム性

Quantum algorithmic randomness ( http://arxiv.org/abs/2008.03584v2 )

ライセンス: Link先を確認
Tejas Bhojraj(参考訳) 無限量子ビット列に対するランダムネスの量子Martin-L\"(q-MLR)は、ニースとショルツによって導入された。 我々は、q-MLRと等価な量子ソロワランダムネスの概念を定義する。 この証明は、部分空間による密度行列の近似に関する純粋に線型代数的結果を通じて行われる。 次に、ランダム状態が凸集合を形成することを示す。 絶対連続性のMartin-L\" は q-MLR の特別な場合であることが示されている。 量子Schnorrランダム性を導入する。 大数の法則の量子アナログが量子シュノーラーランダム状態に対して成り立つことが示されている。

Quantum Martin-L\"of randomness (q-MLR) for infinite qubit sequences was introduced by Nies and Scholz. We define a notion of quantum Solovay randomness which is equivalent to q-MLR. The proof of this goes through a purely linear algebraic result about approximating density matrices by subspaces. We then show that random states form a convex set. Martin-L\"of absolute continuity is shown to be a special case of q-MLR. Quantum Schnorr randomness is introduced. A quantum analogue of the law of large numbers is shown to hold for quantum Schnorr random states.
翻訳日:2023-05-06 19:52:52 公開日:2021-01-20
# 高品質な量子制御パルス探索による3つの閉ループ学習アルゴリズムの評価

Assessing three closed-loop learning algorithms by searching for high-quality quantum control pulses ( http://arxiv.org/abs/2008.03874v2 )

ライセンス: Link先を確認
Xiao-dong Yang, Christian Arenz, Istvan Pelczer, Qi-Ming Chen, Re-Bing Wu, Xin-hua Peng and Herschel Rabitz(参考訳) 信頼性の高い量子計算には高品質な制御設計が不可欠である。 既存のアプローチの中で、クローズドループの傾き制御は効果的な選択である。 その効率は採用される学習アルゴリズムに依存するため、アルゴリズムによる比較は実用的な用途に留まらない。 本稿では,GRAPE(GRANDient Ascent Pulse Engineering),NMplus(Nelder-Mead),DE(differial Evolution)の3つの代表的な学習アルゴリズムについて,ベル状態を作成するための高品質な制御パルスを探索することによって評価する。 核磁気共鳴システムにおいて,まず各アルゴリズムを実験的に実装し,その影響を考慮した数値的研究を行った。 実験では, 3つのアルゴリズムによる収束速度の異なる高忠実度目標状態の作成が成功し, ポテンシャルの不確かさが無視できる場合の数値シミュレーションと一致することを報告した。 しかし、一定の不確実性の下では、これらのアルゴリズムは、結果として得られる精度と効率に関して異なる性能を持つ。 本研究は,実物シナリオにおける異なる閉ループ学習アルゴリズムの実践的応用を支援する洞察を提供する。

Designing a high-quality control is crucial for reliable quantum computation. Among the existing approaches, closed-loop leaning control is an effective choice. Its efficiency depends on the learning algorithm employed, thus deserving algorithmic comparisons for its practical applications. Here, we assess three representative learning algorithms, including GRadient Ascent Pulse Engineering (GRAPE), improved Nelder-Mead (NMplus) and Differential Evolution (DE), by searching for high-quality control pulses to prepare the Bell state. We first implement each algorithm experimentally in a nuclear magnetic resonance system and then conduct a numerical study considering the impact of some possible significant experimental uncertainties. The experiments report the successful preparation of the high-fidelity target state with different convergence speeds by the three algorithms, and these results coincide with the numerical simulations when potential uncertainties are negligible. However, under certain significant uncertainties, these algorithms possess distinct performance with respect to their resulting precision and efficiency. This study provides insight to aid in the practical application of different closed-loop learning algorithms in realistic physical scenarios.
翻訳日:2023-05-06 16:15:35 公開日:2021-01-20
# 拡張量子力学へのハイブリッド量子古典的アプローチ

Hybrid quantum-classical approach to enhanced quantum metrology ( http://arxiv.org/abs/2008.06466v2 )

ライセンス: Link先を確認
Xiaodong Yang, Xi Chen, Jun Li, Xinhua Peng and Raymond Laflamme(参考訳) 量子計測は多くの科学分野において基本的な役割を担っている。 しかしながら、工学的な絡み合ったプローブと外部ノイズの複雑さは、与えられた資源で推定されるパラメータの期待精度を実現するための技術的障壁を増大させる。 本稿では、符号化プロセスに調整可能な制御を導入することでこの問題に対処し、オンライン制御を自動的に最適化するハイブリッド量子古典的手法を利用する。 提案手法では, 複雑で難解なオフライン設計は必要とせず, 学習中のユニタリエラーを本質的に修正できる。 また、核磁気共鳴(NMR)プロセッサ上での周波数推定のための最適なプローブの探索を行うための、この有望なスキームの最初の実験を報告した。 提案手法は,メソロジー精度向上のための最適プロトコルを実験的に自動探索する方法である。

Quantum metrology plays a fundamental role in many scientific areas. However, the complexity of engineering entangled probes and the external noise raise technological barriers for realizing the expected precision of the to-be-estimated parameter with given resources. Here, we address this problem by introducing adjustable controls into the encoding process and then utilizing a hybrid quantum-classical approach to automatically optimize the controls online. Our scheme does not require any complex or intractable off-line design, and it can inherently correct certain unitary errors during the learning procedure. We also report the first experimental demonstration of this promising scheme for the task of finding optimal probes for frequency estimation on a nuclear magnetic resonance (NMR) processor. The proposed scheme paves the way to experimentally auto-search optimal protocol for improving the metrology precision.
翻訳日:2023-05-06 07:01:28 公開日:2021-01-20
# ユーザ定義パスを用いたコヒーレント制御

Coherent Control with User-Defined Passage ( http://arxiv.org/abs/2008.06868v4 )

ライセンス: Link先を確認
Bao-Jie Liu, Man-Hong Yung(参考訳) 刺激ラマン断熱路(Stimulated Raman adiabatic passage, STIRAP)は、実験的な不完全性に対処する標準的な技術であり、物理学、化学、その他の分野で多くの応用がある堅牢な量子状態制御を実現するために使用できる。 しかし、STIRAPは長い進化時間を必要とするため、脱コヒーレンスの影響を受けやすい。 この問題を解決するために, ユーザがSTIRAPと異なるパスを設計できる刺激されたRaman user-defined passage (STIRUP) が提案されている。 本稿では,より一般的なSTIRUP法について述べる。 ショートカットと断熱剤の変種と比較すると、一般化されたSTIRUPはよりシンプルで、より複雑なエネルギーレベルの構造や多体システムと互換性がある。 さらに、一般化STIRUPは幾何位相測定、コヒーレント人口移動、量子状態準備など多くの重要な応用がある。 具体的には、例えば、STIRUPを介して高忠実な量子状態転移と絡み合った状態発生を、最先端の実験超伝導回路で実現する方法を示す。

Stimulated Raman adiabatic passage (STIRAP) is a standard technique to combat experimental imperfections and can be used to realize robust quantum state control, which has many applications in physics, chemistry, and beyond. However, STIRAP is susceptible to decoherence since it requires long evolution time. To overcome this problem, stimulated Raman user-defined passage (STIRUP) is proposed, which allows users to design the passages unlike the STIRAP but fast and robust against both decoherence and experimental imperfections. Here, we further develop a more general STIRUP method. Comparing with shortcut to adiabaticity and its' variants, the generalized STIRUP is more simpler and compatible with more complex energy-level structure and manybody systems. Furthermore, the generalized STIRUP has many important applications such as geometric phase measurement, coherent population transfer, and quantum state preparation. Specifically, as examples, we show how to realize the high-fidelity quantum state transfer and entangled state generation in a robust way via STIRUP with the state-of-the-art experimental superconducting circuits.
翻訳日:2023-05-06 03:08:31 公開日:2021-01-20
# 線形ガウス量子状態平滑化:aliceのボブ状態推定のための最適解法を理解する

Linear Gaussian Quantum State Smoothing: Understanding the optimal unravelings for Alice to estimate Bob's state ( http://arxiv.org/abs/2008.13348v3 )

ライセンス: Link先を確認
Kiarn T. Laverick, Areeya Chantasri and Howard M. Wiseman(参考訳) 量子状態平滑化 (quantum state smoothing) とは、その前後の計測記録に基づいて、特定の時刻における量子状態の推定を行う手法である。 この手法は、観測者aliceが量子システムの環境の一部を監視し、aliceによって観測されていない環境の残りの部分は二次観測者bobによって測定されると仮定している。 アリスの平滑化の有効性に対するボブの測定選択の影響は、近年多くの論文で研究されている。 ここでは、線形ガウス量子(LGQ)状態平滑化を導入したレターを拡大する [Phys. Rev. Lett., 122, 190402 (2019)]。 本論文では,LGQ平滑化方程式のより詳細な導出と,Bobの最適測定戦略に関するオープンな疑問に対処する。 具体的には、アリスの測定選択を与えられたボブの最適測定選択を近似できる単純な仮説を考案する。 最適選択」とは、アリスのフィルター状態(アリスの過去の測定記録のみに基づく推定状態)と比較して、アリスの平滑化状態の純度向上を最大化するボブの選択を意味する。 ボブがアリスの測度から系のバックアクションを観察するために測定を選ばなければならないという仮説は、量子状態の滑らか化に関する直観とは反対である。 それでも、それは線型ガウス的設定を越えても機能することを示す。

Quantum state smoothing is a technique to construct an estimate of the quantum state at a particular time, conditioned on a measurement record from both before and after that time. The technique assumes that an observer, Alice, monitors part of the environment of a quantum system and that the remaining part of the environment, unobserved by Alice, is measured by a secondary observer, Bob, who may have a choice in how he monitors it. The effect of Bob's measurement choice on the effectiveness of Alice's smoothing has been studied in a number of recent papers. Here we expand upon the Letter which introduced linear Gaussian quantum (LGQ) state smoothing [Phys. Rev. Lett., 122, 190402 (2019)]. In the current paper we provide a more detailed derivation of the LGQ smoothing equations and address an open question about Bob's optimal measurement strategy. Specifically, we develop a simple hypothesis that allows one to approximate the optimal measurement choice for Bob given Alice's measurement choice. By 'optimal choice' we mean the choice for Bob that will maximize the purity improvement of Alice's smoothed state compared to her filtered state (an estimated state based only on Alice's past measurement record). The hypothesis, that Bob should choose his measurement so that he observes the back-action on the system from Alice's measurement, seems contrary to one's intuition about quantum state smoothing. Nevertheless we show that it works even beyond a linear Gaussian setting.
翻訳日:2023-05-04 05:42:41 公開日:2021-01-20
# 量子及び古典的横磁場焼鈍における緩和機構の比較

Comparing relaxation mechanisms in quantum and classical transverse-field annealing ( http://arxiv.org/abs/2009.04934v2 )

ライセンス: Link先を確認
Tameem Albash, Jeffrey Marshall(参考訳) アニーリングスケジュール制御は、量子アニーラが動作する方法やメカニズムをよりよく理解するための新しい機会を提供する。 一定期間の間停止(ハミルトニアン固定)を含むようにアニールスケジュールを適切に変更することにより、アニールに沿った中間点における系の散逸ダイナミクスをより直接に調査し、例えば、最小のスペクトルギャップ後の基底状態の再分布を観察することにより、熱緩和率を調べることができる。 d-waveデバイスによる実験の詳細な比較、量子断熱マスター方程式のシミュレーション、量子アニーリングの古典的な類似、スピンベクトルモンテカルロ、および質的一致を観察し、パウジング時の成功確率の特性が一意な量子現象ではないことを示す。 我々のシステムの緩和は1つの時間スケールで支配されており、古典的最適化の基準である時間-解法の改善を期待できるときの簡単な条件を与えることができる。 最後に、量子異方体の量子モデルと古典モデルとをよりよく区別する手段として、ペーシングしながら温度の役割をシミュレーションする。

Annealing schedule control provides new opportunities to better understand the manner and mechanisms by which putative quantum annealers operate. By appropriately modifying the annealing schedule to include a pause (keeping the Hamiltonian fixed) for a period of time, we show it is possible to more directly probe the dissipative dynamics of the system at intermediate points along the anneal and examine thermal relaxation rates, for example, by observing the re-population of the ground state after the minimum spectral gap. We provide a detailed comparison of experiments from a D-Wave device, simulations of the quantum adiabatic master equation and a classical analogue of quantum annealing, spin-vector Monte Carlo, and we observe qualitative agreement, showing that the characteristic increase in success probability when pausing is not a uniquely quantum phenomena. We find that the relaxation in our system is dominated by a single time-scale, which allows us to give a simple condition for when we can expect pausing to improve the time-to-solution, the relevant metric for classical optimization. Finally, we also explore in simulation the role of temperature whilst pausing as a means to better distinguish quantum and classical models of quantum annealers.
翻訳日:2023-05-03 00:47:25 公開日:2021-01-20
# 相互作用するボソンのエネルギースペクトルにおけるカオスとエルゴディシティ

Chaos and ergodicity across the energy spectrum of interacting bosons ( http://arxiv.org/abs/2009.05295v2 )

ライセンス: Link先を確認
Lukas Pausch, Edoardo G. Carnio, Alberto Rodr\'iguez, Andreas Buchleitner(参考訳) 一般フラクタル次元で表されるスペクトル特徴と関連する固有状態の構造変化のエネルギー分解相関により,ボース・ハバード・ハミルトンのカオス相を同定する。 固有ベクトルは、構成空間フォック基底において熱力学的極限においてエルゴードとなり、ランダム行列理論はそれらの典型的な構造の顕著な記述を与える。 しかし、一般化されたフラクタル次元の分布は、ヒルベルト空間次元が成長するにつれてランダム行列理論と区別できる。

We identify the chaotic phase of the Bose-Hubbard Hamiltonian by the energy-resolved correlation between spectral features and structural changes of the associated eigenstates as exposed by their generalized fractal dimensions. The eigenvectors are shown to become ergodic in the thermodynamic limit, in the configuration space Fock basis, in which random matrix theory offers a remarkable description of their typical structure. The distributions of the generalized fractal dimensions, however, are ever more distinguishable from random matrix theory as the Hilbert space dimension grows.
翻訳日:2023-05-02 22:39:28 公開日:2021-01-20
# 単一量子センサを用いた高周波振動場の精密分光

Precise Spectroscopy of High-Frequency Oscillating Fields with a Single-Qubit Sensor ( http://arxiv.org/abs/2009.05458v3 )

ライセンス: Link先を確認
Yaoming Chu, Pengcheng Yang, Musang Gong, Min Yu, Baiyi Yu, Martin B. Plenio, Alex Retzker and Jianming Cai(参考訳) 振動場の精密分光は多くの分野において重要な役割を果たす。 本稿では,単一量子ビットセンサを用いて高速振動場の周波数を実験的に測定する手法を提案する。 安定な古典時計を起動することにより、連続測定間の信号位相相関が極めて高精度にターゲット周波数を抽出することができる。 また, 緩やかな環境騒音の影響を抑制するために, 動的デカップリング手法を枠組みに統合した。 我々のフレームワークは、量子分光の汎用ツールとしての最先端の実験能力の中で、様々な原子と単一固体スピンシステムで実現可能である。

Precise spectroscopy of oscillating fields plays significant roles in many fields. Here, we propose an experimentally feasible scheme to measure the frequency of a fast-oscillating field using a single-qubit sensor. By invoking a stable classical clock, the signal phase correlations between successive measurements enable us to extract the target frequency with extremely high precision. In addition, we integrate dynamical decoupling technique into the framework to suppress the influence of slow environmental noise. Our framework is feasible with a variety of atomic and single solid-state-spin systems within the state-of-the-art experimental capabilities as a versatile tool for quantum spectroscopy.
翻訳日:2023-05-02 22:28:59 公開日:2021-01-20
# 純粋ガウス状態多様体の局所最適化

Local optimization on pure Gaussian state manifolds ( http://arxiv.org/abs/2009.11884v3 )

ライセンス: Link先を確認
Bennet Windt, Alexander Jahn, Jens Eisert, Lucas Hackl(参考訳) ボソニックおよびフェルミオンガウス状態の幾何学的考察を活用し、これらの状態群上の任意の関数を最大化する効率的な局所最適化アルゴリズムを開発した。 この方法は、局所的制約の実装を可能にする局所幾何学に適応した勾配降下の概念に基づいている。 シンプレクティック群と直交群の自然な群作用により、幾何勾配を効率的に計算することができる。 状態のパラメトリゼーションは共分散行列と線形複素構造に基づいているが、純粋なガウス状態の波動関数、準確率分布、ボゴリューボフ変換のようなガウス状態の他のパラメトリゼーションと容易に変換できるコンパクトな公式を提供する。 ホログラフィーの文脈において, 接地状態の近似から計算回路の複雑度, 浄化の絡み合いに至るまでの応用を概観する。 最後に、提案手法を用いて、任意の混合ガウス状態の精製の絡み合いを計算するのにガウス浄化が十分であるという予想の数値的および解析的証拠を収集する。

We exploit insights into the geometry of bosonic and fermionic Gaussian states to develop an efficient local optimization algorithm to extremize arbitrary functions on these families of states. The method is based on notions of gradient descent attuned to the local geometry which also allows for the implementation of local constraints. The natural group action of the symplectic and orthogonal group enables us to compute the geometric gradient efficiently. While our parametrization of states is based on covariance matrices and linear complex structures, we provide compact formulas to easily convert from and to other parametrization of Gaussian states, such as wave functions for pure Gaussian states, quasiprobability distributions and Bogoliubov transformations. We review applications ranging from approximating ground states to computing circuit complexity and the entanglement of purification that have both been employed in the context of holography. Finally, we use the presented methods to collect numerical and analytical evidence for the conjecture that Gaussian purifications are sufficient to compute the entanglement of purification of arbitrary mixed Gaussian states.
翻訳日:2023-05-01 02:25:22 公開日:2021-01-20
# ジョセフソンパラメトリック増幅器の光子数統計 : 検出の問題

Photocount statistics of the Josephson parametric amplifier: a question of detection ( http://arxiv.org/abs/2010.03014v4 )

ライセンス: Link先を確認
Jean Olivier Simoneau, St\'ephane Virally, Christian Lupien and Bertrand Reulet(参考訳) パラメトリック増幅器は、電磁界の真空状態を圧縮することで知られ、その結果、出力における光数を予測可能な統計量にする。 しかし、最近の理論研究 arXiv:1112.4159 では、ジョセフソン接合に基づく増幅器の統計分布が全く異なることを予測している。 この仮説を実験的に検証し, 圧縮真空統計を復元した。 我々は,光子数統計が単一モード(我々の実験)からマルチモード(arXiv:1112.4159)までの検出過程によってどのように予測されるのかを理論的に示すことで,この矛盾を説明する。

Parametric amplifiers are known to squeeze the vacuum state of the electromagnetic field, which results in predictable statistics of the photocounts at their output. However, recent theoretical work arXiv:1112.4159 predicts a very different statistical distribution for an amplifier based on a Josephson junction. We test the hypothesis experimentally and recover the expected squeezed vacuum statistics. We explain this discrepancy by showing theoretically how the photocount statistics is dictated by the detection process, from single mode (our experiment) to multimode, fully resolved in frequency (as in arXiv:1112.4159).
翻訳日:2023-04-29 20:04:09 公開日:2021-01-20
# 予測可能性・識別性・絡み合い

Predictability, Distinguishability and Entanglement ( http://arxiv.org/abs/2011.08210v2 )

ライセンス: Link先を確認
Tabish Qureshi(参考訳) 近年では、絡み合いや偏光を用いた波動粒子の双対関係の「補完」に焦点を当てた研究活動が盛んに行われている。 これらの研究は経路予測可能性を含む双対関係を用いており、経路識別性はない。 これらの結果の量子起源は、より一般的なマルチパス量子干渉の枠組みで研究されている。 経路検出器とのマルチパス干渉を理論的に解析し、予測可能性と識別可能性の関係を見いだす。 エンタングルメントは識別性と予測可能性とを定量的に結びつけるものであることが示された。 したがって、区別可能性とコヒーレンスの間の双対関係は、予測可能性、絡み合い、コヒーレンスの間の試行性と見なすこともできる。 文献には、経路検出器の有無にかかわらず、2種類の干渉実験に関連する2種類の異なる双対関係が存在する。 本研究の結果, 2つの双対関係は絡み合いによって定量的に結びついていることがわかった。 古典的光学領域における新しい結果の根源は、偏光コヒーレンス定理を含む、この研究の光の中で理解することができる。 さらに、得られた試行関係は、内部自由度を持つ量子ロンの興味深い場合の波動粒子双対性を定量化することができる。 この関係は、二部交絡の度合いを実験的に決定するためにも用いられる。

Recent times have seen a spurt of research activity focused on "completing" certain wave-particle duality relations using entanglement or polarization. These studies use a duality relation involving path-predictability, and not path-distinguishability. Quantum origins of these results are explored here, in the more general framework of multipath quantum interference. Multipath interference with a path-detector is theoretically analyzed to find the connection between predictability and distinguishability. It is shown that entanglement is what quantitatively connects distinguishability with predictability. Thus, a duality relation between distinguishability and coherence, can also be viewed as a triality between predictability, entanglement and coherence. There exist two different kind of duality relations in the literature, which pertain to two different kinds of interference experiments, with or without a path-detector. Results of this study show that the two duality relations are quantitatively connected via entanglement. The roots of the new results in the classical optical domain, including the polarization coherence theorem, can be understood in the light of this work. Additionally, the triality relations obtained can quantify wave-particle duality in the interesting case of a quanton with an internal degree of freedom. The relations can also be employed to experimentally determine the degree of bipartite entanglement.
翻訳日:2023-04-23 23:34:04 公開日:2021-01-20
# 大きすぎる、小さすぎる、またはちょうど正しい? 小型化学系の電子密度の空間的範囲予測のための密度汎関数理論のベンチマーク評価

Too big, too small or just right? A benchmark assessment of density functional theory for predicting the spatial extent of the electron density of small chemical systems ( http://arxiv.org/abs/2011.12561v2 )

ライセンス: Link先を確認
Diptarka Hait and Yu Hsuan Liang and Martin Head-Gordon(参考訳) 多極モーメント(multipole moments)は、電場強度の空間微分に対するエネルギーの第一次応答である。 したがって、分子多極子モーメントの密度汎関数理論(DFT)予測の品質は、電子密度自体をモデル化する際の誤差と、外部の電場と相互作用する分子を記述する際の性能を特徴付ける。 しかしながら、最も低い非ゼロモーメントのみが翻訳不変であり、高次モーメントは原点に依存している。 したがって、三つの四重極モーメント行列を用いる代わりに、電子密度の第2の積(または空間的分散)の変換不変な3つの四重極モーメント行列を興味の量として利用する($\mathcal{k}$)。 ${\mathcal{K}}$ の主成分は、各軸に沿った電子密度の空間範囲の平方である。 結合クラスタ単体における100個の小分子に対する${\mathcal{K}}$の主成分のベンチマークデータセットと、完全な基底集合(CBS)極限における摂動三重項(CCSD(T))の倍の213ドルの独立な${\mathcal{K}}$成分のベンチマークデータセットを開発する。 このVar213データセットに対して、47の人気と最近の密度関数のパフォーマンスを評価する。 いくつかの機能、特に二重ハイブリッド、SCANとSCAN0は信頼性の高い第二累積を産出するが、近代的、経験的にパラメータ化された機能により、より失望する性能を得る。 特にH原子とBe原子は、ほとんど全ての方法において困難であり、将来の機能開発は、トレーニングや試験プロトコルに密度情報を含めることの恩恵を受ける可能性があることを示唆している。

Multipole moments are the first order responses of the energy to spatial derivatives of the electric field strength. The quality of density functional theory (DFT) prediction of molecular multipole moments thus characterizes errors in modeling the electron density itself, as well as the performance in describing molecules interacting with external electric fields. However, only the lowest non-zero moment is translationally invariant, making the higher order moments origin-dependent. Therefore, instead of using the $3 \times 3$ quadrupole moment matrix, we utilize the translationally invariant $3 \times 3$ matrix of second cumulants (or spatial variances) of the electron density as the quantity of interest (denoted by $\mathcal{K}$). The principal components of ${\mathcal{K}}$ are the square of the spatial extent of the electron density along each axis. A benchmark dataset of the prinicpal components of ${\mathcal{K}}$ for 100 small molecules at the coupled cluster singles and doubles with perturbative triples (CCSD(T)) at the complete basis set (CBS) limit is developed, resulting in 213 independent ${\mathcal{K}}$ components. The performance of 47 popular and recent density functionals is assessed against this Var213 dataset. Several functionals, especially double hybrids, and also SCAN and SCAN0 yield reliable second cumulants, although some modern, empirically parameterized functionals yield more disappointing performance. The H and Be atoms in particular are challenging for nearly all methods, indicating that future functional development could benefit from inclusion of their density information in training or testing protocols.
翻訳日:2023-04-23 01:06:57 公開日:2021-01-20
# 幾何学的にフラストレーションした散逸xyzモデルにおける非一様相

Nonuniform phases in the geometrically frustrated dissipative XYZ model ( http://arxiv.org/abs/2011.14300v2 )

ライセンス: Link先を確認
Xingli Li and Jiasen Jin(参考訳) 2次元三角形格子上での散逸スピン-1/2XYZモデルの定常相図について検討し,各部位を局所環境に結合する。 クラスター平均場近似により、系の定常相は比較的リッチであり、特に幾何学的フラストレーションによる不均一反強磁性相には様々な種類が存在することが分かる。 解析の結果,三反強磁性相と二反強磁性相が熱力学的限界に留まっている間,振動相は消失することが明らかとなった。 さらに, 単点平均場解析で欠落するスピン密度波位相の存在もスピン構造因子によって明らかにされる。

We investigate the steady-state phase diagram of the dissipative spin-1/2 XYZ model on a two-dimensional triangular lattice, in which each site is coupled to a local environment. By means of cluster mean-field approximation, we find that the steady-state phases of the system are rather rich, in particular there exist various types of nonuniform antiferromagnetic phases due to the geometrical frustration. As the short-range correlations included in the analysis, the numerical results show that the oscillatory phase disappears while the triantiferromagnetic and biantiferromagnetic phases remain to exist in the thermodynamic limit. Moreover, the existence of the spin-density-wave phase, which is missed by the single-site mean-field analysis, is also revealed by the spin-structure factor.
翻訳日:2023-04-22 16:41:07 公開日:2021-01-20
# 新型コロナウイルスとデジタルトランスフォーメーション -- ファジィ認知マップを用いた持続的でイノベーティブな環境(ETSIE)のためのオープンな実験ベッドの開発

COVID-19 and Digital Transformation -- Developing an Open Experimental Testbed for Sustainable and Innovative Environments (ETSIE) using Fuzzy Cognitive Maps ( http://arxiv.org/abs/2101.07509v2 )

ライセンス: Link先を確認
Wolfgang H\"ohl(参考訳) 本稿では,ファジィ・コグニティブ・マップ(FCM)を用いて,建築・都市計画におけるデジタルトランスフォーメーションの最適化とシミュレーションを行う。 今日ではこれらの過程はよく分かっていない。 デジタルトランスフォーメーションに関する多くの研究は、経済効率に関する問題のみを扱う。 持続可能性と社会的影響は小さな役割しか果たさない。 決定的な定義、概念、用語は不明確である。 そこで本稿では,fcmを用いた3種類のディジタルトランスフォーメーションシナリオのための,持続的・革新的環境(etsie)のためのオープン実験ベッドを開発した。 従来の成長志向のシナリオ、COVID-19シナリオ、革新的で持続可能な新型コロナウイルスシナリオをモデル化し、テストする。 3つのシナリオには、同じ数のコンポーネント、接続、同じドライバコンポーネントがあります。 初期状態ベクトルのみが異なり、内部相関は異なる重み付けされる。 これにより、3つのシナリオを等しく比較することができる。 メンタルモデラーソフトウェアが使用されている(Gray et al. 2013)。 本稿ではデジタルトランスフォーメーションの文脈におけるFCMの最初の応用について述べる。 従来の成長志向のシナリオは、現在のcovid-19シナリオと構造的に非常によく似ていることが示されている。 現在のパンデミックは、デジタルトランスフォーメーションをある程度加速させることができる。 しかし、パンデミックは持続可能で革新的な将来の発展を保証しない。 初期状態ベクトルと接続の重みを変更するだけで、3つ目のシナリオで革新的で持続可能なターンアラウンドが可能になる。

This paper sketches a new approach using Fuzzy Cognitive Maps (FCMs) to operably map and simulate digital transformation in architecture and urban planning. Today these processes are poorly understood. Many current studies on digital transformation are only treating questions of economic efficiency. Sustainability and social impact only play a minor role. Decisive definitions, concepts and terms stay unclear. Therefore this paper develops an open experimental testbed for sustainable and innovative environments (ETSIE) for three different digital transformation scenarios using FCMs. A traditional growth-oriented scenario, a COVID-19 scenario and an innovative and sustainable COVID-19 scenario are modeled and tested. All three scenarios have the same number of components, connections and the same driver components. Only the initial state vectors are different and the internal correlations are weighted differently. This allows for comparing all three scenarios on an equal basis. The mental modeler software is used (Gray et al. 2013). This paper presents one of the first applications of FCMs in the context of digital transformation. It is shown, that the traditional growth-oriented scenario is structurally very similar to the current COVID-19 scenario. The current pandemic is able to accelerate digital transformation to a certain extent. But the pandemic does not guarantee for a distinct sustainable and innovative future development. Only by changing the initial state vectors and the weights of the connections an innovative and sustainable turnaround in a third scenario becomes possible.
翻訳日:2023-04-14 18:11:23 公開日:2021-01-20
# トラップイオン中の2つの暗経路をもつ非断熱型ホロノミック単一量子ゲートの実験的実現

Experimental Realization of Nonadiabatic Holonomic Single-Qubit Quantum Gates with Two Dark Paths in a Trapped Ion ( http://arxiv.org/abs/2101.07483v2 )

ライセンス: Link先を確認
Ming-Zhong Ai, Sai Li, Ran He, Zheng-Yuan Xue, Jin-Ming Cui, Yun-Feng Huang, Chuan-Feng Li, Guang-Can Guo(参考訳) 回路ベースの量子計算では、高忠実性と強固なロバスト性を持つ普遍的量子論理ゲートの実験的実装が必須かつ中心的である。 進化経路の全体的性質のみに依存する幾何学的位相によって誘起される量子ゲートは、ノイズ抵抗特性を内蔵している。 本稿では、共振駆動を持つ4レベル系に基づくイオンを捕捉した$^{171}\mathrm{Yb}^{+}$イオンにおいて、2つのダークパス上の非断熱的ホロノミック単一量子ゲートを実験的に実証する。 本稿では,量子プロセストモグラフィおよびランダム化ベンチマーク手法を用いて,ゲート忠実度の測定により実装を確認する。 一方、非自明なホロノミック2量子ビット量子ゲートは、現在の実験技術でも実現可能である。 従来の3段階システム実装と比較して, 高速な非断熱進化の利点と, 系統的誤差に対する頑健さの利点を両立させ, 幾何学的位相の主な利点を保っている。 そこで本実験では,高速でロバストなホロノミック量子計算の有望な手法を検証した。

For circuit-based quantum computation, experimental implementation of universal set of quantum logic gates with high-fidelity and strong robustness is essential and central. Quantum gates induced by geometric phases, which depend only on global properties of the evolution paths, have built-in noise-resilience features. Here, we propose and experimentally demonstrate nonadiabatic holonomic single-qubit quantum gates on two dark paths in a trapped $^{171}\mathrm{Yb}^{+}$ ion based on four-level systems with resonant drives. We confirm the implementation with measured gate fidelity through both quantum process tomography and randomized benchmarking methods. Meanwhile, we find that nontrivial holonomic two-qubit quantum gates can also be realized within current experimental technologies. Compared with previous implementations on three-level systems, our experiment share both the advantage of fast nonadiabatic evolution and the merit of robustness against systematic errors, and thus retains the main advantage of geometric phases. Therefore, our experiment confirms a promising method for fast and robust holonomic quantum computation.
翻訳日:2023-04-14 18:11:02 公開日:2021-01-20
# 量子通信のための長距離絡み合い浄化

Long-distance entanglement purification for quantum communication ( http://arxiv.org/abs/2101.07441v2 )

ライセンス: Link先を確認
Xiao-Min Hu, Cen-Xiao Huang, Yu-Bo Sheng, Lan Zhou, Bi-Heng Liu, Yu Guo, Chao Zhang, Wen-Bo Xing, Yun-Feng Huang, Chuan-Feng Li, Guang-Can Guo(参考訳) 量子通信とスケーラブルな量子ネットワークには高品質な長距離絡み合いが不可欠である。 エンタングルメントの精製は、ノイズの多い環境で低品質のエンタングルメントから高品質のエンタングルメントを蒸留することであり、量子リピータにおいて重要な役割を果たす。 以前の重要な絡み合い浄化実験では、2対の低品質の絡み合い状態が必要となり、テーブルトップで実証された。 本稿では,一対のハイパーエンタングル状態のみを用いた高効率・長距離エンタングルメント浄化を提案する。 また, エンタングルメントに基づく量子鍵分布(QKD)の実用化を実証する。 1対の偏光空間モードハイパーエンタングルメントは11kmのマルチコアファイバー(ノイズチャネル)に分散した。 精製後, 分極エンタングルメントの忠実度は0.771から0.887に, QKDの有効キーレートは0から0.332に増加する。 Clauser-Horne-Shimony-Holt (CHSH) inequality of polarization entanglementの値は1.829から2.128である。 さらに, 1対のハイパーエンタングルメントと決定論的制御ノットゲートを用いることで, 全浄化効率を自発的パラメトリックダウンコンバージョン(spdc)源を持つ2対のエンタングル状態を用いた実験より6.6x10^3倍と推定できる。 この結果は、完全な量子リピータと大規模量子ネットワークの一部として実装される可能性を提供する。

High-quality long-distance entanglement is essential for both quantum communication and scalable quantum networks. Entanglement purification is to distill high-quality entanglement from low-quality entanglement in a noisy environment and it plays a key role in quantum repeaters. The previous significant entanglement purification experiments require two pairs of low-quality entangled states and were demonstrated in table-top. Here we propose and report a high-efficiency and long-distance entanglement purification using only one pair of hyperentangled states. We also demonstrate its practical application in entanglement-based quantum key distribution (QKD). One pair of polarization spatial-mode hyperentanglement was distributed over 11 km multicore fiber (noisy channel). After purification, the fidelity of polarization entanglement arises from 0.771 to 0.887 and the effective key rate in entanglement-based QKD increases from 0 to 0.332. The values of Clauser-Horne-Shimony-Holt (CHSH) inequality of polarization entanglement arises from 1.829 to 2.128. Moreover, by using one pair of hyperentanglement and deterministic controlled-NOT gate, the total purification efficiency can be estimated as 6.6x10^3 times than the experiment using two pairs of entangled states with spontaneous parametric down-conversion (SPDC) sources. Our results offer the potential to be implemented as part of a full quantum repeater and large scale quantum network.
翻訳日:2023-04-14 18:09:52 公開日:2021-01-20
# $\Gamma$行列展開と変分普遍量子状態発生器に基づく変分量子支援ベクトルマシン

Variational Quantum Support Vector Machine based on $\Gamma$ matrix expansion and Variational Universal-Quantum-State Generator ( http://arxiv.org/abs/2101.07966v1 )

ライセンス: Link先を確認
Motohiko Ezawa(参考訳) 本稿では,変分量子回路モデルに基づくサポートベクトルマシンを用いて二項分類問題を解析する。 我々は,$\gamma$行列展開を用いてサポートベクトルマシンの線形方程式を解くことを提案する。 さらに、最も急降下法に基づいて、任意の$U(2^N)$を表す普遍量子回路を最適化することにより、任意の量子状態を作成する。 Field-Programmable-Gate Array (FPGA) の量子一般化である。

We analyze a binary classification problem by using a support vector machine based on variational quantum-circuit model. We propose to solve a linear equation of the support vector machine by using a $\Gamma$ matrix expansion. In addition, it is shown that an arbitrary quantum state is prepared by optimizing a universal quantum circuit representing an arbitrary $U(2^N)$ based on the steepest descent method. It may be a quantum generalization of Field-Programmable-Gate Array (FPGA).
翻訳日:2023-04-14 11:33:29 公開日:2021-01-20
# 非ブロッホクエンチ力学

Non-Bloch quench dynamics ( http://arxiv.org/abs/2101.07963v1 )

ライセンス: Link先を確認
Tianyu Li, Jia-Zheng Sun, Yong-Sheng Zhang, and Wei Yi(参考訳) 非エルミートトポロジカルモデルと非エルミート皮膚効果のクエンチダイナミクスについて検討した。 非ブロッホバンド理論を採用し、一般化ブリルアンゾーンにクエンチ力学を投影することにより、動的スキャミオンの形をした創発的位相構造が一般化された運動量-時間領域に存在し、静的ハミルトニアンの非ブロッホ位相不変量と関連付けられることを見出した。 スキャミオン構造は、前・後ハミルトンの一般的なブリルアンゾーンの一致を条件とした力学の不動点に固定されている。 しかし、ダイナミックなスカイミオンのグローバルなシグネチャはそのような状態を超えて長く持続し、非エルミート皮膚効果の存在下での非ブロックトポロジーに対する一般的な動的検出スキームを提供する。 この理論を実験的に関連する非ユニタリ量子ウォークに適用すると、非ブロッホ位相不変量がどのように非ブロッホキューチダイナミクスを通じて明らかにされるかを明確に示すことができる。

We study the quench dynamics of non-Hermitian topological models with non-Hermitian skin effects. Adopting the non-Bloch band theory and projecting quench dynamics onto the generalized Brillouin zone, we find that emergent topological structures, in the form of dynamic skyrmions, exist in the generalized momentum-time domain, and are correlated with the non-Bloch topological invariants of the static Hamiltonians. The skyrmion structures anchor on the fixed points of dynamics whose existence are conditional on the coincidence of generalized Brillouin zones of the pre- and post-quench Hamiltonians. Global signatures of dynamic skyrmions, however, persist well beyond such a condition, thus offering a general dynamic detection scheme for non-Bloch topology in the presence of non-Hermitian skin effects. Applying our theory to an experimentally relevant, non-unitary quantum walk, we explicitly demonstrate how the non-Bloch topological invariants can be revealed through the non-Bloch quench dynamics.
翻訳日:2023-04-14 11:33:17 公開日:2021-01-20
# 伝染病? 新型コロナウイルス感染拡大に伴うドイツの病院の攻撃面

Epidemic? The Attack Surface of German Hospitals during the COVID-19 Pandemic ( http://arxiv.org/abs/2101.07912v1 )

ライセンス: Link先を確認
Johannes Klick, Robert Koch and Thomas Brandstetter(参考訳) 本稿では、2020年のCOVID-19パンデミックにおけるドイツの病院や医療機関の攻撃面を分析した。 分析では、89以上の異なるグローバルインターネットスキャンから1,483gbの分散インターネットスキャン、ビッグデータ手法、スキャンデータを活用する分散サイバーリコンシステムを用いて、公開可能な攻撃面を調査した。 1,555のドイツの臨床組織から、セキュリティ姿勢分析は、バージョン識別とその後のcveベースの脆弱性識別のために、13,000以上のサービスバナーを調査した。 一次分析では、分析されたサービスの32%が様々な学位に弱いと判断され、全病院の36%が多数の脆弱性を示していた。 さらなる脆弱性統計は、組織の大きさと病院のベッド数に対してマッピングされた。

In our paper we analyze the attack surface of German hospitals and healthcare providers in 2020 during the COVID-19 Pandemic. The analysis looked at the publicly visible attack surface utilizing a Distributed Cyber Recon System, utilizing distributed Internet scanning, Big Data methods and scan data of 1,483 GB from more than 89 different global Internet scans. From the 1,555 identified German clinical entities, security posture analysis was conducted by looking at more than 13,000 service banners for version identification and subsequent CVE-based vulnerability identification. Primary analysis shows that 32 percent of the analyzed services were determined as vulnerable to various degrees and 36 percent of all hospitals showed numerous vulnerabilities. Further resulting vulnerability statistics were mapped against size of organization and hospital bed count.
翻訳日:2023-04-14 11:32:46 公開日:2021-01-20
# 技術能力は人間の神経科学におけるバーチャルリアリティヘッドマウントディスプレイの効果的な実装のための前提条件である:技術レビューとメタ分析

Technological Competence is a Precondition for Effective Implementation of Virtual Reality Head Mounted Displays in Human Neuroscience: A Technological Review and Meta-analysis ( http://arxiv.org/abs/2101.08123v1 )

ライセンス: Link先を確認
Panagiotis Kourtesis, Simona Collina, Leonidas A.A. Doumas, and Sarah E. MacPherson(参考訳) vr(immersive virtual reality)は有望な研究と臨床ツールとして登場します。 しかし、いくつかの研究は、VRによる有害症状と効果(VRISE)が健康および安全基準や科学的結果の信頼性を損なう可能性を示唆している。 近年の文献レビューでは、認知神経科学におけるVRヘッドマウントディスプレイ(HMD)システムの実装に関する提案と技術知識を提供するために、有害症状学の技術的理由について検討している。 技術的体系的な文献は、研究者が考慮すべきディスプレイ、サウンド、モーショントラッキング、ナビゲーション、人間工学的相互作用、ユーザーエクスペリエンス、およびコンピュータハードウェアに関連する特徴を示している。 その後,VR HMDシステムを含む44の神経科学・神経心理学研究のメタ分析を行った。 VR研究のメタアナリシスは、新しい世代のHMDがVRISEを著しく減少させ、ドロップアウトを極端に少なくすることを示し、また、エルゴノミック相互作用を持つ新しい世代のHMDの商用バージョンは、有害な症状とドロップアウトの事故がゼロであった。 認知神経科学の実践には、人間工学的相互作用を伴う現代HMDの商用版と同等以上のHMDが適している。 結論として、研究者の技術的能力は、ソフトウェア、ハードウェア、VRISEに関連する厳密な方法や報告とともに、健康と安全性の基準と神経科学的な結果の信頼性を保証するために最重要である。

Immersive virtual reality (VR) emerges as a promising research and clinical tool. However, several studies suggest that VR induced adverse symptoms and effects (VRISE) may undermine the health and safety standards, and the reliability of the scientific results. In the current literature review, the technical reasons for the adverse symptomatology are investigated to provide suggestions and technological knowledge for the implementation of VR head-mounted display (HMD) systems in cognitive neuroscience. The technological systematic literature indicated features pertinent to display, sound, motion tracking, navigation, ergonomic interactions, user experience, and computer hardware that should be considered by the researchers. Subsequently, a meta-analysis of 44 neuroscientific or neuropsychological studies involving VR HMD systems was performed. The meta-analysis of the VR studies demonstrated that new generation HMDs induced significantly less VRISE and marginally fewer dropouts.Importantly, the commercial versions of the new generation HMDs with ergonomic interactions had zero incidents of adverse symptomatology and dropouts. HMDs equivalent to or greater than the commercial versions of contemporary HMDs accompanied with ergonomic interactions are suitable for implementation in cognitive neuroscience. In conclusion, researchers technological competency, along with meticulous methods and reports pertinent to software, hardware, and VRISE, are paramount to ensure the health and safety standards and the reliability of neuroscientific results.
翻訳日:2023-04-14 11:28:10 公開日:2021-01-20
# MUB駆動作用素の測定結果に関する合同準確率分布

Joint quasiprobability distribution on the measurement outcomes of MUB-driven operators ( http://arxiv.org/abs/2101.08109v1 )

ライセンス: Link先を確認
H S Smitha Rao, Swarnamala Sirsi and Karthik Bharath(参考訳) 我々は、n$ が素数または素数の素数であるような次元 $n=2j+1$ の一般スピン=j$系に対する準確率分布を定義する方法を提案する。 この方法は、相互に偏りのない基底に関連する正規直交可換作用素の完全集合に基づいている。 (i)密度行列のパラメータ化と (ii)物理的に実現可能な測定演算子の構築。 その結果、準確率分布が非負である状態の集合を幾何学的に特徴づけ、有限個の結果の集合で値を仮定する古典的確率変数の合同分布とみなすことができる。 この集合は(n^2-1)$-次元凸ポリトープで、唯一の純粋状態として$n+1$頂点、高次元の顔の数$n^{n+1}、および$n^3(n+1)/2$エッジを持つ。

We propose a method to define quasiprobability distributions for general spin-$j$ systems of dimension $n=2j+1$, where $n$ is a prime or power of prime. The method is based on a complete set of orthonormal commuting operators related to Mutually Unbiased Bases which enable (i) a parameterisation of the density matrix and (ii) construction of measurement operators that can be physically realised. As a result we geometrically characterise the set of states for which the quasiprobability distribution is non-negative, and can be viewed as a joint distribution of classical random variables assuming values in a finite set of outcomes. The set is an $(n^2-1)$-dimensional convex polytope with $n+1$ vertices as the only pure states, $n^{n+1}$ number of higher dimensional faces, and $n^3(n+1)/2$ edges.
翻訳日:2023-04-14 11:27:45 公開日:2021-01-20
# 吸収型レーザー閾値磁力計:可視ダイヤモンドラマンレーザーと窒素空隙中心の組み合わせ

Absorptive laser threshold magnetometry: combining visible diamond Raman lasers and nitrogen-vacancy centres ( http://arxiv.org/abs/2101.08084v1 )

ライセンス: Link先を確認
Sarath Raman Nair, Lachlan J. Rogers, David J. Spence, Richard P. Mildren, Fedor Jelezko, Andrew D. Greentree, Thomas Volz, and Jan Jeske(参考訳) 同一ダイヤモンド結晶中のコヒーレントマイクロ波駆動負電荷窒素空孔中心(NV)のアンサンブルによる可視ポンプ吸収を有するダイヤモンドラマンレーザーを用いた高感度磁気計測法を提案する。 nvセンターの吸収と放出はスピン依存である。 nv中心の吸収がラマンレーザー出力をどのように変化させるかを示す。 ダイヤモンドラマンレーザーのしきい値と出力のシフトは、外部磁場とマイクロ波駆動によって起こる。 ダイヤモンドラマンレーザーにおけるコヒーレント駆動NV中心の効果を記述するための定常解を含む理論的枠組みを開発する。 我々は、しきい値で動くレーザーが磁場センシングに利用できることを論じる。 可視光吸収によるNVマグネトメトリーの従来の研究とは対照的に、レーザ閾値マグネトメトリー法は測定信号の背景光量が低いため、技術ノイズが少ないことが期待される。 磁場センシングでは, 実測パラメータの良好なキャビティ内で, 数$\mathrm{pT}/\sqrt{\mathrm{Hz}}$のショットノイズ制限直流感度を投影する。 このセンサーはNV中心の広い可視吸収を採用しており、以前のレーザーしきい値磁度計の提案とは異なり、NV中心の赤外線吸収線の特定の波長におけるアクティブなNV中心レーザーや赤外線レーザー媒体に依存しない。

We propose a high-sensitivity magnetometry scheme based on a diamond Raman laser with visible pump absorption by an ensemble of coherently microwave driven negatively charged nitrogen-vacancy centres (NV) in the same diamond crystal. The NV centres' absorption and emission are spin-dependent. We show how the varying absorption of the NV centres changes the Raman laser output. A shift in the diamond Raman laser threshold and output occurs with the external magnetic-field and microwave driving. We develop a theoretical framework including steady-state solutions to describe the effects of coherently driven NV centres in a diamond Raman laser. We discuss that such a laser working at the threshold can be employed for magnetic-field sensing. In contrast to previous studies on NV magnetometry with visible laser absorption, the laser threshold magnetometry method is expected to have low technical noise, due to low background light in the measurement signal. For magnetic-field sensing, we project a shot-noise limited DC sensitivity of a few $\mathrm{pT}/\sqrt{\mathrm{Hz}}$ in a well-calibrated cavity with realistic parameters. This sensor employs the broad visible absorption of NV centres and unlike previous laser threshold magnetometry proposals it does not rely on active NV centre lasing or an infrared laser medium at the specific wavelength of the NV centre's infrared absorption line.
翻訳日:2023-04-14 11:26:32 公開日:2021-01-20
# 超伝導量子プロセッサにおける熱化と情報スクランブルの観測

Observation of thermalization and information scrambling in a superconducting quantum processor ( http://arxiv.org/abs/2101.08031v1 )

ライセンス: Link先を確認
Qingling Zhu, Zheng-Hang Sun, Ming Gong, Fusheng Chen, Yu-Ran Zhang, Yulin Wu, Yangsen Ye, Chen Zha, Shaowei Li, Shaojun Guo, Haoran Qian, He-Liang Huang, Jiale Yu, Hui Deng, Hao Rong, Jin Lin, Yu Xu, Lihua Sun, Cheng Guo, Na Li, Futian Liang, Cheng-Zhi Peng, Heng Fan, Xiaobo Zhu, and Jian-Wei Pan(参考訳) 量子熱分解、情報スクランブル、非エルゴード力学など、閉じた量子多体系の非平衡ダイナミクスにおける様々な現象を理解することは、現代物理学にとって重要である。 はしご型超伝導量子プロセッサを用いて、$XX$と1次元(1D)$XX$モデルのアナログ量子シミュレーションを行う。 局所観測値,絡み合いエントロピー,三部構造相互情報のダイナミクスを計測することにより,$XX$のはしごで発生する量子熱化と情報を信号する。 対照的に、$XX$鎖は1次元格子上の自由フェルミオンであり、熱分解に失敗し、局所情報は積分可能なチャネルでスクランブルしないことを示す。 我々の実験は、制御可能な量子ビットのはしごのエルゴディディティとスクランブルを明らかにし、量子多体系における熱力学とカオスに関するさらなる研究の扉を開く。

Understanding various phenomena in non-equilibrium dynamics of closed quantum many-body systems, such as quantum thermalization, information scrambling, and nonergodic dynamics, is a crucial for modern physics. Using a ladder-type superconducting quantum processor, we perform analog quantum simulations of both the $XX$ ladder and one-dimensional (1D) $XX$ model. By measuring the dynamics of local observables, entanglement entropy and tripartite mutual information, we signal quantum thermalization and information scrambling in the $XX$ ladder. In contrast, we show that the $XX$ chain, as free fermions on a 1D lattice, fails to thermalize, and local information does not scramble in the integrable channel. Our experiments reveal ergodicity and scrambling in the controllable qubit ladder, and opens the door to further investigations on the thermodynamics and chaos in quantum many-body systems.
翻訳日:2023-04-14 11:26:10 公開日:2021-01-20
# ウイルスの可視化: コロナウイルス懐疑派が正統派データを使って不整形科学をオンラインで推進する方法

Viral Visualizations: How Coronavirus Skeptics Use Orthodox Data Practices to Promote Unorthodox Science Online ( http://arxiv.org/abs/2101.07993v1 )

ライセンス: Link先を確認
Crystal Lee, Tanya Yang, Gabrielle Inchoco, Graham M. Jones, Arvind Satyanarayan(参考訳) 新型コロナウイルスのパンデミックに関する議論は、データの視覚化を戦場に変えた。 公衆衛生当局の批判を受け、米国のソーシャルメディア上では2020年の大半を、政府のパンデミック対応が過度であり、危機は終わったことを示すデータ視覚化に費やした。 本稿では, ソーシャルメディア上でのパンデミックの可視化について検討し, 専門家が用いたデータ駆動型意思決定のレトリックを, 科学機関に不信感を抱く人々がしばしば実施していることを示す。 可視化がTwitter上でどのように広がるのかを定量的に分析し、Facebook上でのCOVIDデータに関する会話を分析するエスノグラフィーアプローチを用いて、親マスクグループと反マスクグループが同様のデータから大幅に異なる推論を引き出すための認識的ギャップを文書化する。 究極的には、COVID-19データの視覚化の展開は、公共生活における科学の場所に関するより深い社会政治の亀裂を反映していると論じる。

Controversial understandings of the coronavirus pandemic have turned data visualizations into a battleground. Defying public health officials, coronavirus skeptics on US social media spent much of 2020 creating data visualizations showing that the government's pandemic response was excessive and that the crisis was over. This paper investigates how pandemic visualizations circulated on social media, and shows that people who mistrust the scientific establishment often deploy the same rhetorics of data-driven decision-making used by experts, but to advocate for radical policy changes. Using a quantitative analysis of how visualizations spread on Twitter and an ethnographic approach to analyzing conversations about COVID data on Facebook, we document an epistemological gap that leads pro- and anti-mask groups to draw drastically different inferences from similar data. Ultimately, we argue that the deployment of COVID data visualizations reflect a deeper sociopolitical rift regarding the place of science in public life.
翻訳日:2023-04-14 11:25:36 公開日:2021-01-20
# 純テレコム光子源用ドメインエンジニアリング結晶の最適化

Optimised Domain-engineered Crystals for Pure Telecom Photon Sources ( http://arxiv.org/abs/2101.08280v1 )

ライセンス: Link先を確認
Alexander Pickston, Francesco Graffitti, Peter Barrow, Christopher Morrison, Joseph Ho, Agata M. Bra\'nczyk, Alessandro Fedrizzi(参考訳) マルチ量子ビット状態を構築するための理想的な光子ペア源は、高い効率で識別不能な光子を生成する必要がある。 2光子干渉によるエラーを最小化するためには、大きな状態の構築の中心となる不明瞭さが不可欠であり、不必要な損失のスケーリングを克服するためには高いシェレディングレートが必要である。 パラメトリックダウンコンバージョンソースのドメインエンジニアリングは、損失スペクトルフィルタリングの必要性を否定し、ソース設計に固有の条件を満たすことができる。 本稿では、ドメイン工学の達成可能な限界で動作する通信波長パラメトリック・ダウンコンバージョン光子源を提案する。 我々は、狭帯域フィルタを使わずに最大98.6\pm1.1\%$の2光子干渉特性を達成する独立した光源から光子を生成する。 その結果、最大$7.5\%$のネットヘラルド効率が達成され、これは$90\%$を超えるコレクション効率に対応する。

The ideal photon-pair source for building up multi-qubit states needs to produce indistinguishable photons with high efficiency. Indistinguishability is crucial for minimising errors in two-photon interference, central to building larger states, while high heralding rates will be needed to overcome unfavourable loss scaling. Domain engineering in parametric down-conversion sources negates the need for lossy spectral filtering allowing one to satisfy these conditions inherently within the source design. Here, we present a telecom-wavelength parametric down-conversion photon source that operates on the achievable limit of domain engineering. We generate photons from independent sources which achieve two-photon interference visibilities of up to $98.6\pm1.1\%$ without narrow-band filtering. As a consequence, we reach net heralding efficiencies of up to $67.5\%$, which corresponds to collection efficiencies exceeding $90\%$.
翻訳日:2023-04-14 11:19:55 公開日:2021-01-20
# 分子インターフェロメトリーにおける実験的デコヒーレンス

Experimental decoherence in molecule interferometry ( http://arxiv.org/abs/2101.08216v1 )

ライセンス: Link先を確認
Markus Arndt, Stefan Gerlich, Klaus Hornberger(参考訳) 複雑な分子は、量子現象と古典現象の界面で興味深い物体である。 初期の物質波実験で研究された電子、中性子、原子と比較して、より複雑な内部構造を持つが、質量中心運動において量子物体として振る舞うことができる。 分子は、多くの振動モードと非常に励起された回転状態を持ち、熱光子、電子、あるいは原子を放出し、残留したバックグラウンドガスと衝突するための大きな断面積を示す。 これにより、この貢献をレビューするデコヒーレンス実験の理想的な候補となる。

Complex molecules are intriguing objects at the interface between quantum and classical phenomena. Compared to the electrons, neutrons, or atoms studied in earlier matter-wave experiments, they feature a much more complicated internal structure, but can still behave as quantum objects in their center-of-mass motion. Molecules may involve a large number of vibrational modes and highly excited rotational states, they can emit thermal photons, electrons, or even atoms, and they exhibit large cross sections for collisional interactions with residual background gases. This makes them ideal candidates for decoherence experiments which we review in this contribution.
翻訳日:2023-04-14 11:18:45 公開日:2021-01-20
# 認知神経科学と神経心理学のための没入型仮想現実ソフトウェアの開発ガイドライン:vr-eal(virtual reality daily assessment lab)の開発

Guidelines for the Development of Immersive Virtual Reality Software for Cognitive Neuroscience and Neuropsychology: The Development of Virtual Reality Everyday Assessment Lab (VR-EAL) ( http://arxiv.org/abs/2101.08166v1 )

ライセンス: Link先を確認
Panagiotis Kourtesis, Danai Korre, Simona Collina, Leonidas A.A. Doumas, and Sarah E. MacPherson(参考訳) バーチャルリアリティ(VR)ヘッドマウントディスプレイ(HMD)は、神経心理学的検査における生態学的妥当性の問題に対処する有効な研究ツールであると考えられる。 しかし、その広範な実装は、VR誘発症状と効果(VRISE)と、VRソフトウェア開発におけるスキルの欠如によって妨げられている。 本研究は、没入型VRにおける最初の神経心理学電池であるVR-EAL(Virtual Reality Everyday Assessment Lab)の開発段階を記述し、議論することで、認知神経科学および神経心理学におけるVRソフトウェア開発のためのガイドラインを提供する。 現実的なストーリーライン内の認知機能を評価する技術について論じる。 Unity、ソフトウェア開発キット、その他のソフトウェアにおける様々な資産の有用性は、認知科学者がVRISEやVRソフトウェアの品質に関連する課題を克服できるように説明されている。 さらに,本試験では,研究目的のVRソフトウェアに必要な基準に従ってVR-EALの評価を試みる。 vr neuroscience questionnaire (vrnq; kourtesis et al., 2019b) は、vr-ealの3つのバージョンの品質をユーザエクスペリエンス、ゲームメカニズム、ゲーム内アシスタンス、vriseの観点から評価するために実施された。 12~16年のフルタイム教育を受けた20~45歳の25人の参加者が、vr-ealのさまざまなバージョンを評価した。 VR-EALの最終バージョンはVRNQのすべてのサブスコアでハイスコアを獲得し、同種のカットオフを超えた。 ゲーム内でのアシストやゲームのメカニックも改善され、グラフィックの改善によりユーザエクスペリエンスの質が大幅に向上し、VRISEはほぼ根絶された。 この結果は、60分間のVRセッションにおいて、VRISEを使わずに、有効なVR研究と臨床ソフトウェアの開発の実現可能性を大幅に裏付けるものである。

Virtual reality (VR) head-mounted displays (HMD) appear to be effective research tools, which may address the problem of ecological validity in neuropsychological testing. However, their widespread implementation is hindered by VR induced symptoms and effects (VRISE) and the lack of skills in VR software development. This study offers guidelines for the development of VR software in cognitive neuroscience and neuropsychology, by describing and discussing the stages of the development of Virtual Reality Everyday Assessment Lab (VR-EAL), the first neuropsychological battery in immersive VR. Techniques for evaluating cognitive functions within a realistic storyline are discussed. The utility of various assets in Unity, software development kits, and other software are described so that cognitive scientists can overcome challenges pertinent to VRISE and the quality of the VR software. In addition, this pilot study attempts to evaluate VR-EAL in accordance with the necessary criteria for VR software for research purposes. The VR neuroscience questionnaire (VRNQ; Kourtesis et al., 2019b) was implemented to appraise the quality of the three versions of VR-EAL in terms of user experience, game mechanics, in-game assistance, and VRISE. Twenty-five participants aged between 20 and 45 years with 12-16 years of full-time education evaluated various versions of VR-EAL. The final version of VR-EAL achieved high scores in every sub-score of the VRNQ and exceeded its parsimonious cut-offs. It also appeared to have better in-game assistance and game mechanics, while its improved graphics substantially increased the quality of the user experience and almost eradicated VRISE. The results substantially support the feasibility of the development of effective VR research and clinical software without the presence of VRISE during a 60-minute VR session.
翻訳日:2023-04-14 11:18:02 公開日:2021-01-20
# 量子シミュレーションのためのハイブリッドワークフローの構成可能プログラミング

Composable Programming of Hybrid Workflows for Quantum Simulation ( http://arxiv.org/abs/2101.08151v1 )

ライセンス: Link先を確認
Thien Nguyen, Lindsay Bassman, Dmitry Lyakh, Alexander McCaskey, Vicente Leyton-Ortega, Raphael Pooser, Wael Elwasif, Travis S. Humble, and Wibe A. de Jong(参考訳) 本稿では,ハイブリッド量子/古典的アルゴリズムの開発のための構成可能な設計手法を提案する。 我々のオブジェクト指向アプローチは、様々な複雑なハイブリッド量子シミュレーションアプリケーションのプログラミングを可能にする共通のデータ構造と方法の表現的なセットを構築することに基づいている。 提案手法の抽象コアは,現在の量子シミュレーションアルゴリズムの解析から抽出される。 その後、設計によって定義された抽象コアクラスの拡張、特殊化、動的カスタマイズを通じて、新しいハイブリッドアルゴリズムとワークフローを合成できる。 ハードウェアに依存しないプログラミング言語 qcor を pseudomo ライブラリに実装した。 実装を検証するため、我々はIBMの商用量子プロセッサ上で、いくつかのプロトタイプ量子シミュレーションを実行し、その実用性を検証した。

We present a composable design scheme for the development of hybrid quantum/classical algorithms and workflows for applications of quantum simulation. Our object-oriented approach is based on constructing an expressive set of common data structures and methods that enable programming of a broad variety of complex hybrid quantum simulation applications. The abstract core of our scheme is distilled from the analysis of the current quantum simulation algorithms. Subsequently, it allows a synthesis of new hybrid algorithms and workflows via the extension, specialization, and dynamic customization of the abstract core classes defined by our design. We implement our design scheme using the hardware-agnostic programming language QCOR into the QuaSiMo library. To validate our implementation, we test and show its utility on commercial quantum processors from IBM, running some prototypical quantum simulations.
翻訳日:2023-04-14 11:17:29 公開日:2021-01-20
# バーチャルリアリティ・ニューロサイエンス・サーベイラの検証:持続的副交感神経症状を伴わない没入型バーチャルリアリティ・セッションの最大持続時間

Validation of the Virtual Reality Neuroscience Questionnaire: Maximum Duration of Immersive Virtual Reality Sessions Without the Presence of Pertinent Adverse Symptomatology ( http://arxiv.org/abs/2101.08146v1 )

ライセンス: Link先を確認
Panagiotis Kourtesis, Simona Collina, Leonidas A.A. Doumas, and Sarah E. MacPherson(参考訳) 研究によると、VRセッションの持続時間はVRISEの存在と強度を調節するが、VRセッションの適切な最大持続時間に関する示唆はない。 ハイエンドvr hmdとエルゴノミクスvrソフトウェアの実装は、vriseの存在をかなり緩和しているように見える。 しかし、ソフトウェア機能の質とVRISEの強度を定量的に評価し、報告するための簡単なツールはまだ存在しない。 VRNQは、ユーザーエクスペリエンス、ゲームメカニクス、ゲーム内アシスト、VRISEの観点からVRソフトウェアの品質を評価するために開発された。 28歳から43歳までの40人の参加者が18人のゲーマーと22人の非ゲーマーを雇った。 彼らは3つの異なるVRセッションに参加し、疲れや不快を感じ、その後VRNQで満たされた。 以上の結果から,vrnqは,収束性,判別性,構成的妥当性を有するvrソフトウェアを評価する上で有効なツールであることが示された。 VRのセッションの最大時間は、VRソフトウェアがVRNQの類似のカットオフに遭遇または超える55~70分で、ユーザーはVRシステムに精通している。 これも。 ゲーム体験は、vrセッションの持続時間には影響しないようだ。 また、VRソフトウェアの品質はVRセッションの最大持続時間を実質的に調整するが、年齢と教育は変わらない。 最後に、より深い没入感、グラフィックとサウンドの質の向上、ゲーム内命令やプロンプトの改善により、VRISE強度の低減が図られた。 VRNQはVRソフトウェア機能の品質と/またはVRISEの強度の簡潔な評価と報告を促進する一方で、最小限かつ同種のカットオフはVRソフトウェアの適合性を評価する可能性がある。 本研究の成果は,没入型vrを研究・臨床ツールとして活用する上で不可欠な,厳密なvr手法の確立に寄与する。

Research suggests that the duration of a VR session modulates the presence and intensity of VRISE, but there are no suggestions regarding the appropriate maximum duration of VR sessions. The implementation of high-end VR HMDs in conjunction with ergonomic VR software seems to mitigate the presence of VRISE substantially. However, a brief tool does not currently exist to appraise and report both the quality of software features and VRISE intensity quantitatively. The VRNQ was developed to assess the quality of VR software in terms of user experience, game mechanics, in-game assistance, and VRISE. Forty participants aged between 28 and 43 years were recruited (18 gamers and 22 non-gamers) for the study. They participated in 3 different VR sessions until they felt weary or discomfort and subsequently filled in the VRNQ. Our results demonstrated that VRNQ is a valid tool for assessing VR software as it has good convergent, discriminant, and construct validity. The maximum duration of VR sessions should be between 55-70 minutes when the VR software meets or exceeds the parsimonious cut-offs of the VRNQ and the users are familiarized with the VR system. Also. the gaming experience does not seem to affect how long VR sessions should last. Also, while the quality of VR software substantially modulates the maximum duration of VR sessions, age and education do not. Finally, deeper immersion, better quality of graphics and sound, and more helpful in-game instructions and prompts were found to reduce VRISE intensity. The VRNQ facilitates the brief assessment and reporting of the quality of VR software features and/or the intensity of VRISE, while its minimum and parsimonious cut-offs may appraise the suitability of VR software. The findings of this study contribute to the establishment of rigorous VR methods that are crucial for the viability of immersive VR as a research and clinical tool.
翻訳日:2023-04-14 11:17:02 公開日:2021-01-20
# コロラド郡におけるcovid-19の自転車利用への影響

Insights into the Impact of COVID-19 on Bicycle Usage in Colorado Counties ( http://arxiv.org/abs/2101.10130v1 )

ライセンス: Link先を確認
Abdullah Kurkcu, Ilgin Gokasar, Onur Kalan, Alperen Timurogullari, Burak Altin(参考訳) 2019年末に中国で発生し、その後全世界に影響を与えたコロナウイルスは、人々の日常生活を大きく変えた。 世界の多くの地域では、都市部や農村部では数週間の滞在を余儀なくされている。 彼らは食料や健康といった基本的なニーズのために家を出ることしか許されず、ほとんどは家から働き始めた。 この時代には、本質的な労働者を含め、家を出る人はほとんどいなかった。 社会的接触を避けることは、新しいコロナウイルスの拡散を減らす最良の方法であることが証明されている。 新型コロナウイルス(COVID-19)のパンデミックにより、人々はこの新しい現実に自分たちの行動に適応し、人々が実行する公共イベントの種類や人々がこれらの活動にどう行くかを変える可能性がある。 パンデミックで消費者の行動が変わった。 人々は集まりを避けようとする一方で、大量輸送モードから離れ、プライベートカー、プライベートタクシー、自転車シェアリングシステムといったプライベートな交通手段に目を向け、歩くことさえも人気になった。 本研究では,オープンデータソースを用いて,自転車利用がパンデミック前後にどのように変化したかを分析し,社会経済的特性がこの変化にどのように影響するかを検討する。 その結果,パンデミックから移行期,正規化期への移行期において,平均所得,平均教育水準,総人口が最も重要な変数であることが示唆された。

Coronavirus, which emerged in China towards the end of 2019 and subsequently influenced the whole world, has changed the daily lives of people to a great extent. In many parts of the world, in both cities and rural areas, people have been forced to stay home weeks. They have only been allowed to leave home for fundamental needs such as food and health needs, and most started to work from home. In this period, very few people, including essential workers, had to leave their homes. Avoiding social contact is proven to be the best method to reduce the spread of the novel Coronavirus. Because of the COVID-19 pandemic, people are adapting their behavior to this new reality, and it may change the type of public events people perform and how people go to these activities. Consumer behaviors have been altered during the pandemic. While people try to avoid gatherings, they also stayed away from mass transport modes and turned to private modes of transportation more -- private cars, private taxis and bike-sharing systems; even walking became more popular. In this study, we attempt to analyze how the use of bicycling has changed -- pre- and post-pandemic -- using open data sources and investigating how socio-economics characteristics affect this change. The results showed that average income, average education level, and total population are the most crucial variables for the Pandemic to Transition period and the Transition to the Normalization period.
翻訳日:2023-04-14 11:09:25 公開日:2021-01-20
# 動作確率論におけるビットコミット

Bit Commitment in Operational Probabilistic Theories ( http://arxiv.org/abs/2101.09171v1 )

ライセンス: Link先を確認
Lorenzo Giannelli(参考訳) 本研究の目的は,運用確率論の枠組みにおけるビットコミットメントプロトコルを検討することである。 特に、非局所ボックス理論におけるビットコミットメントの実現可能性について慎重に研究する。 理論の新たな側面も提示されている。

The aim of this thesis project is to investigate the bit commitment protocol in the framework of operational probabilistic theories. In particular a careful study is carried on the feasibility of bit commitment in the non-local boxes theory. New aspects of the theory are also presented.
翻訳日:2023-04-14 11:09:00 公開日:2021-01-20
# 発光の熱力学

Thermodynamics of light emission ( http://arxiv.org/abs/2101.09156v1 )

ライセンス: Link先を確認
Antoine Rignon-Bret(参考訳) 古典的または量子場と物質の間の相互作用は不可逆過程であることが知られている。 ここではエントロピーを、よく知られた統計量子力学の概念、特に対角エントロピーの概念から電磁場に関連付ける。 我々は自発的放出と光拡散の研究を基礎としている。 我々は、電磁場の量子的および古典的な記述に対する不可逆性を定量化できる量を求め、熱力学的な観点から研究し解釈することができる。

Some interactions between classical or quantum fields and matter are known to be irreversible processes. Here we associate an entropy to the electromagnetic field from well-known notions of statistical quantum mechanics, in particular the notion of diagonal entropy. We base our work on the study of spontaneous emission and light diffusion. We obtain a quantity which allows to quantify irreversibility for a quantum and classical description of the electromagnetic field, that we can study and interpret from a thermodynamical point of view.
翻訳日:2023-04-14 11:08:57 公開日:2021-01-20
# rydberg状態を用いた連続体の位相バンド

Topological bands in the continuum using Rydberg states ( http://arxiv.org/abs/2101.08363v1 )

ライセンス: Link先を確認
Sebastian Weber, Przemyslaw Bienias, Hans Peter B\"uchler(参考訳) 人工物質におけるトポロジカルバンド構造の実現は格子系に強く焦点を合わせており、量子ホール物理学のみが連続体にも自然に現れることが知られている。 本稿では,2次元の原子雲に基づいて,双極子交換相互作用によって励起が伝播し,一方,リドベルク封鎖現象は自然に特徴的な長さのスケールを生じ,短距離でのホッピングを抑制することを提案する。 その後、システムは原子の空間配置とは独立になり、連続体モデルによって記述できる。 連続体におけるトポロジカルバンド構造の出現をチャーン数$C=2$で示し、原子密度で調整可能な界面にエッジ状態が現れることを示す。

The quest to realize topological band structures in artificial matter is strongly focused on lattice systems, and only quantum Hall physics is known to appear naturally also in the continuum. In this letter, we present a proposal based on a two-dimensional cloud of atoms dressed to Rydberg states, where excitations propagate by dipolar exchange interaction, while the Rydberg blockade phenomenon naturally gives rise to a characteristic length scale, suppressing the hopping on short distances. Then, the system becomes independent of the atoms' spatial arrangement and can be described by a continuum model. We demonstrate the appearance of a topological band structure in the continuum characterized by a Chern number $C=2$ and show that edge states appear at interfaces tunable by the atomic density.
翻訳日:2023-04-14 11:08:49 公開日:2021-01-20
# 結合はエンタングル振動子の量子揺らぎを修飾する

Coupling modifies the quantum fluctuations of entangled oscillators ( http://arxiv.org/abs/2101.08304v1 )

ライセンス: Link先を確認
Roberto Baginski B. Santos and Vinicius S. F. Lisboa(参考訳) 結合振動子は、絡み合いと相互作用の相互作用を探求できる最も単純な複合量子系の一つである。 単励起絡み状態における振動子の座標とモーメントの揺らぎに及ぼす結合の影響について検討する。 結合が一対の座標と運動量の間のノイズ伝達のメカニズムとして働くことを見出した。 このノイズ伝達機構により、不確実生成物は平均して1対の座標と運動量に対して非結合レベルに相対的に低下し、他方の対に対して増強される。 この機構は、エンタングルメント支援センシングおよびメトロジーにおける精密測定に応用できる。

Coupled oscillators are among the simplest composite quantum systems in which the interplay of entanglement and interaction may be explored. We examine the effects of coupling on fluctuations of the coordinates and momenta of the oscillators in a single-excitation entangled state. We discover that coupling acts as a mechanism for noise transfer between one pair of coordinate and momentum and another. Through this noise transfer mechanism, the uncertainty product is lowered, on average, relatively to its non-coupled level for one pair of coordinate and momentum and it is enhanced for the other pair. This novel mechanism may be explored in precision measurements in entanglement-assisted sensing and metrology.
翻訳日:2023-04-14 11:07:19 公開日:2021-01-20
# 極低温CMOSチップにおけるシリコン量子ドットの統合多重マイクロ波読み出し

Integrated multiplexed microwave readout of silicon quantum dots in a cryogenic CMOS chip ( http://arxiv.org/abs/2101.08295v1 )

ライセンス: Link先を確認
Andrea Ruffino, Tsung-Yeh Yang, John Michniewicz, Yatao Peng, Edoardo Charbon, Miguel Fernando Gonzalez-Zalba(参考訳) 固体量子コンピュータは、個々の量子ビットの制御と読み出しと、高速な古典的データ処理を可能にするために、古典的エレクトロニクスを必要とする。 ソリッドステート量子プロセッサが最適である極低温で両方のサブシステムを統合する[4]は、システムサイズや入出力(I/O)データ管理など、いくつかの大きなスケーリング課題を解決します [5]。 シリコン量子ドット(QD)のスピン量子ビットは、超大規模集積(VLSI)を用いて相補的金属酸化物半導体(CMOS)エレクトロニクスとモノリシックに統合され、半導体産業における幅広い製造経験を生かした [6]。 しかし, 産業用CMOSを用いたmK温度での積分実験はまだ初期段階である。 本稿では、シリコンベースの量子プロセッサの3つの重要な要素を担っている産業用CMOS技術を用いて製造された極低温集積回路(IC)について述べる。QDアレイ(非相互作用型3x3構成で配置されている)、デジタルエレクトロニクスで行列アドレスとアナログLC共振器を用いて制御ラインを最小化し、それぞれ50mKで動作する。 マイクロ波共振器(6-8GHz帯)では、QDの電荷状態の分散読み出しを示し、時間領域と周波数領域の多重化を行い、チップ全体のフットプリントを小さくしながらスケーラブルな読み出しを可能にする。 このモジュラーアーキテクチャは、産業用CMOS技術を用いて量子電子と古典電子を統合した大規模シリコン量子コンピュータの実現に向けた限界を探索する。

Solid-state quantum computers require classical electronics to control and readout individual qubits and to enable fast classical data processing [1-3]. Integrating both subsystems at deep cryogenic temperatures [4], where solid-state quantum processors operate best, may solve some major scaling challenges, such as system size and input/output (I/O) data management [5]. Spin qubits in silicon quantum dots (QDs) could be monolithically integrated with complementary metal-oxide-semiconductor (CMOS) electronics using very-large-scale integration (VLSI) and thus leveraging over wide manufacturing experience in the semiconductor industry [6]. However, experimental demonstrations of integration using industrial CMOS at mK temperatures are still in their infancy. Here we present a cryogenic integrated circuit (IC) fabricated using industrial CMOS technology that hosts three key ingredients of a silicon-based quantum processor: QD arrays (arranged here in a non-interacting 3x3 configuration), digital electronics to minimize control lines using row-column addressing and analog LC resonators for multiplexed readout, all operating at 50 mK. With the microwave resonators (6-8 GHz range), we show dispersive readout of the charge state of the QDs and perform combined time- and frequency-domain multiplexing, enabling scalable readout while reducing the overall chip footprint. This modular architecture probes the limits towards the realization of a large-scale silicon quantum computer integrating quantum and classical electronics using industrial CMOS technology.
翻訳日:2023-04-14 11:07:09 公開日:2021-01-20
# BNAS:Broad Scalable Architectureを用いた効率的なニューラルネットワーク探索手法

BNAS:An Efficient Neural Architecture Search Approach Using Broad Scalable Architecture ( http://arxiv.org/abs/2001.06679v5 )

ライセンス: Link先を確認
Zixiang Ding, Yaran Chen, Nannan Li, Dongbin Zhao, Zhiquan Sun and C.L. Philip Chen(参考訳) 本稿では,broad convolutional neural network (bcnn) と呼ばれる広範にスケーラブルなアーキテクチャを精巧に設計し,この問題を解決するために,broad neural architecture search (bnas)を提案する。 一方,提案する広範に拡張可能なアーキテクチャは,その浅いトポロジーのため,トレーニング速度が速い。 また、BNASの最適化戦略として、ENASで使用される強化学習とパラメータ共有を採用した。 したがって,提案手法は高い探索効率を実現することができる。 一方、広範にスケーラブルなアーキテクチャは、マルチスケールの特徴と拡張表現を抽出し、それらをグローバル平均プール層に供給し、より合理的で包括的な表現をもたらす。 したがって、広範にスケーラブルなアーキテクチャの性能を約束できる。 特に,BCNNのトポロジを変更するBNASの2つの変種を開発した。 bnaの有効性を検証するために,いくつかの実験が行われ,実験結果が得られた。 1)BNASは、強化学習に基づくNASアプローチで最高位のENASよりも2.37倍安い0.019日を納品する。 2) 小型 (0.5 万パラメータ) と中型 (11 万パラメータ) のモデルと比較して,BNAS が学んだアーキテクチャは CIFAR-10 上で最先端性能 (3.58% および 3.24% のテストエラー) を得る。 3) 学習したアーキテクチャは390万のパラメータを使用するだけで、ImageNet上で25.3%のトップ1エラーを達成する。

In this paper, we propose Broad Neural Architecture Search (BNAS) where we elaborately design broad scalable architecture dubbed Broad Convolutional Neural Network (BCNN) to solve the above issue. On one hand, the proposed broad scalable architecture has fast training speed due to its shallow topology. Moreover, we also adopt reinforcement learning and parameter sharing used in ENAS as the optimization strategy of BNAS. Hence, the proposed approach can achieve higher search efficiency. On the other hand, the broad scalable architecture extracts multi-scale features and enhancement representations, and feeds them into global average pooling layer to yield more reasonable and comprehensive representations. Therefore, the performance of broad scalable architecture can be promised. In particular, we also develop two variants for BNAS who modify the topology of BCNN. In order to verify the effectiveness of BNAS, several experiments are performed and experimental results show that 1) BNAS delivers 0.19 days which is 2.37x less expensive than ENAS who ranks the best in reinforcement learning-based NAS approaches, 2) compared with small-size (0.5 millions parameters) and medium-size (1.1 millions parameters) models, the architecture learned by BNAS obtains state-of-the-art performance (3.58% and 3.24% test error) on CIFAR-10, 3) the learned architecture achieves 25.3% top-1 error on ImageNet just using 3.9 millions parameters.
翻訳日:2023-01-10 04:53:40 公開日:2021-01-20
# 集合上の準ガウス行列:最適テール依存とその応用

Sub-Gaussian Matrices on Sets: Optimal Tail Dependence and Applications ( http://arxiv.org/abs/2001.10631v2 )

ライセンス: Link先を確認
Halyun Jeong, Xiaowei Li, Yaniv Plan, \"Ozg\"ur Y{\i}lmaz(参考訳) ランダム線形写像は現代の信号処理、圧縮センシング、機械学習で広く使われている。 これらのマッピングは、有用な情報を保存すると同時に、データをはるかに低い次元に埋め込むために使用することができる。 これは、$\mathbb{R}^n$ に属すると仮定されるデータポイント間の距離を大まかに保存することによる。 したがって、これらのマッピングのパフォーマンスは通常、データ上の等尺線にどれだけ近いかによってキャプチャされる。 ガウス線型写像は多くの研究の対象であるが、ガウス下の設定はまだ完全には理解されていない。 後者の場合、性能は列の部分ガウスノルムに依存する。 多くのアプリケーション、例えば圧縮センシングでは、このノルムは大きいか、次元で成長する可能性があり、従ってこの依存を特徴づけることが重要である。 準ガウス行列が集合上の近距離等距離となるとき、それ以前のガウスノルムへの最もよく知られた依存が準最適であることを示し、最適依存を示す。 私たちの結果は、2017年にLiaw、Mehrabian、Plan、Vershyninによって提起された残りの質問に答えるだけでなく、彼らの仕事を一般化する。 また,部分指数確率変数に対する新しいベルンシュタイン型不等式,および準ガウス確率変数の二次形式に対する新しいハンソン・ライト不等式も,いずれもモーメント制約の下でのガウス系の境界を改善する。 最後に,johnson-lindenstrauss embeddeds,null space property for 0-1 matrices, randomized sketches, blind demodulation などの一般的な応用例を示す。

Random linear mappings are widely used in modern signal processing, compressed sensing and machine learning. These mappings may be used to embed the data into a significantly lower dimension while at the same time preserving useful information. This is done by approximately preserving the distances between data points, which are assumed to belong to $\mathbb{R}^n$. Thus, the performance of these mappings is usually captured by how close they are to an isometry on the data. Gaussian linear mappings have been the object of much study, while the sub-Gaussian settings is not yet fully understood. In the latter case, the performance depends on the sub-Gaussian norm of the rows. In many applications, e.g., compressed sensing, this norm may be large, or even growing with dimension, and thus it is important to characterize this dependence. We study when a sub-Gaussian matrix can become a near isometry on a set, show that previous best known dependence on the sub-Gaussian norm was sub-optimal, and present the optimal dependence. Our result not only answers a remaining question posed by Liaw, Mehrabian, Plan and Vershynin in 2017, but also generalizes their work. We also develop a new Bernstein type inequality for sub-exponential random variables, and a new Hanson-Wright inequality for quadratic forms of sub-Gaussian random variables, in both cases improving the bounds in the sub-Gaussian regime under moment constraints. Finally, we illustrate popular applications such as Johnson-Lindenstrauss embeddings, null space property for 0-1 matrices, randomized sketches and blind demodulation, whose theoretical guarantees can be improved by our results (in the sub-Gaussian case).
翻訳日:2023-01-06 03:01:44 公開日:2021-01-20
# クラスタリング評価のための内部対策のスケーラブル分散近似

Scalable Distributed Approximation of Internal Measures for Clustering Evaluation ( http://arxiv.org/abs/2003.01430v3 )

ライセンス: Link先を確認
Federico Altieri, Andrea Pietracaprina, Geppino Pucci, Fabio Vandin(参考訳) クラスタリング評価において最も広く用いられる内部測度はシルエット係数であり、その計算には2次的な距離計算が必要であり、大規模なデータセットでは明らかに不可能である。 驚くべきことに、クラスタリングのシルエット係数を厳密に証明可能な高精度で効率的に近似する方法は知られていない。 本稿では,任意の距離に基づいてクラスタリングの評価を行うための厳密な近似を計算した最初のスケーラブルアルゴリズムを提案する。 我々のアルゴリズムは、PPSサンプリングスキームに基づいており、固定された$\varepsilon, \delta \in (0,1)$に対して、単純な加算誤差$O(\varepsilon)$内のシルエット係数を、非常に少数の距離計算を用いて、確率1-\delta$で近似する。 また,このアルゴリズムは凝集や分離などのクラスタリング品質の他の内部指標の厳密な近似に適応可能であることも証明した。 重要なことに、我々はMapReduceモデルを用いてアルゴリズムの分散実装を提供し、これは一定のラウンドで実行され、各ワーカにサブ線形局所空間しか必要としないため、私たちの推定アプローチはビッグデータのシナリオに適用できる。 我々は,シルエット近似アルゴリズムの実験的評価を行い,その性能を実データおよび合成データセット上での多くのベースラインヒューリスティックと比較した。 他のヒューリスティックと異なり、我々の推定戦略は厳密な理論的保証を提供するだけでなく、正確な計算に必要な時間の一部で実行しながら高い精度の見積もりを返すことができ、その分散実装は高度にスケーラブルであるため、正確な計算が禁じられている非常に大きなデータセットに対する内部測度を計算できるという証拠を提供する。

The most widely used internal measure for clustering evaluation is the silhouette coefficient, whose naive computation requires a quadratic number of distance calculations, which is clearly unfeasible for massive datasets. Surprisingly, there are no known general methods to efficiently approximate the silhouette coefficient of a clustering with rigorously provable high accuracy. In this paper, we present the first scalable algorithm to compute such a rigorous approximation for the evaluation of clusterings based on any metric distances. Our algorithm hinges on a Probability Proportional to Size (PPS) sampling scheme, and, for any fixed $\varepsilon, \delta \in (0,1)$, it approximates the silhouette coefficient within a mere additive error $O(\varepsilon)$ with probability $1-\delta$, using a very small number of distance calculations. We also prove that the algorithm can be adapted to obtain rigorous approximations of other internal measures of clustering quality, such as cohesion and separation. Importantly, we provide a distributed implementation of the algorithm using the MapReduce model, which runs in constant rounds and requires only sublinear local space at each worker, which makes our estimation approach applicable to big data scenarios. We perform an extensive experimental evaluation of our silhouette approximation algorithm, comparing its performance to a number of baseline heuristics on real and synthetic datasets. The experiments provide evidence that, unlike other heuristics, our estimation strategy not only provides tight theoretical guarantees but is also able to return highly accurate estimations while running in a fraction of the time required by the exact computation, and that its distributed implementation is highly scalable, thus enabling the computation of internal measures for very large datasets for which the exact computation is prohibitive.
翻訳日:2022-12-26 23:27:55 公開日:2021-01-20
# オンラインの迅速な適応と知識蓄積: 継続的学習への新しいアプローチ

Online Fast Adaptation and Knowledge Accumulation: a New Approach to Continual Learning ( http://arxiv.org/abs/2003.05856v3 )

ライセンス: Link先を確認
Massimo Caccia, Pau Rodriguez, Oleksiy Ostapenko, Fabrice Normandin, Min Lin, Lucas Caccia, Issam Laradji, Irina Rish, Alexandre Lacoste, David Vazquez, Laurent Charlin(参考訳) 継続的な学習は、新しいタスクに適応しながら、以前のタスクを忘れずにタスクの流れから学ぶエージェントを研究する。 最近の2つの連続学習シナリオが、新しい研究の道を開いた。 メタ連続学習では、このモデルは過去のタスクの破滅的な忘れを最小化するために事前学習される。 連続メタ学習では、エージェントを訓練し、適応を通して以前のタスクを高速に記憶させることが目的である。 元の定式化では、どちらの方法にも制限がある。 我々は,エージェントが新しい(配布外)タスクを迅速に解決すると同時に,高速な記憶を必要とする,より一般的なシナリオである大阪を提案する。 この新しいシナリオでは, 連続学習, メタ学習, メタ連続学習, および連続学習技術が失敗していることを示す。 本稿では,このシナリオの強力なベースラインとして,人気のあるMAMLアルゴリズムのオンライン拡張であるContinual-MAMLを提案する。 提案手法は,従来の手法よりも新しいシナリオや,標準的な連続学習やメタ学習アプローチに適していることを示す。

Continual learning studies agents that learn from streams of tasks without forgetting previous ones while adapting to new ones. Two recent continual-learning scenarios have opened new avenues of research. In meta-continual learning, the model is pre-trained to minimize catastrophic forgetting of previous tasks. In continual-meta learning, the aim is to train agents for faster remembering of previous tasks through adaptation. In their original formulations, both methods have limitations. We stand on their shoulders to propose a more general scenario, OSAKA, where an agent must quickly solve new (out-of-distribution) tasks, while also requiring fast remembering. We show that current continual learning, meta-learning, meta-continual learning, and continual-meta learning techniques fail in this new scenario. We propose Continual-MAML, an online extension of the popular MAML algorithm as a strong baseline for this scenario. We empirically show that Continual-MAML is better suited to the new scenario than the aforementioned methodologies, as well as standard continual learning and meta-learning approaches.
翻訳日:2022-12-24 13:38:40 公開日:2021-01-20
# 半教師付きノード分類のためのプログレッシブグラフ畳み込みネットワーク

Progressive Graph Convolutional Networks for Semi-Supervised Node Classification ( http://arxiv.org/abs/2003.12277v2 )

ライセンス: Link先を確認
Negar Heidari and Alexandros Iosifidis(参考訳) グラフ畳み込みネットワークは、半教師付きノード分類のようなグラフベースのタスクに対処することに成功した。 既存の手法では、層ごとに一定の数の層とニューロンの実験に基づいてユーザによって定義されたネットワーク構造を使用し、ノード埋め込みを得るために層毎の伝播規則を用いる。 グラフ畳み込みネットワークのための問題依存アーキテクチャを定義する自動プロセスの設計は、トレーニングプロセスにおけるモデルの構造を手動で設計する必要性を大幅に減らすのに役立つ。 本稿では,コンパクトかつタスク固有のグラフ畳み込みネットワークを自動構築する手法を提案する。 広く利用されているデータセットを用いた実験の結果,提案手法は,分類性能とネットワークコンパクト性の観点から,畳み込みグラフネットワークに基づく関連手法よりも優れていることがわかった。

Graph convolutional networks have been successful in addressing graph-based tasks such as semi-supervised node classification. Existing methods use a network structure defined by the user based on experimentation with fixed number of layers and neurons per layer and employ a layer-wise propagation rule to obtain the node embeddings. Designing an automatic process to define a problem-dependant architecture for graph convolutional networks can greatly help to reduce the need for manual design of the structure of the model in the training process. In this paper, we propose a method to automatically build compact and task-specific graph convolutional networks. Experimental results on widely used publicly available datasets show that the proposed method outperforms related methods based on convolutional graph networks in terms of classification performance and network compactness.
翻訳日:2022-12-19 04:35:52 公開日:2021-01-20
# 厳密なサンプリング点による潜時指紋登録

Latent Fingerprint Registration via Matching Densely Sampled Points ( http://arxiv.org/abs/2005.05878v2 )

ライセンス: Link先を確認
Shan Gu, Jianjiang Feng, Jiwen Lu, Jie Zhou(参考訳) 潜伏指紋照合は非常に重要だが未解決の問題である。 指紋照合の重要なステップとして、指紋登録は認識性能に大きな影響を与える。 既存の潜伏指紋登録手法は, 主にミツバチの対応の確立に基づいているため, 少ない指紋領域や画像品質の低下により抽出ミツバチの数が不足すると確実に失敗する。 微量抽出は潜在指紋登録のボトルネックとなっている。 本稿では,指紋の密接なアライメントとマッチング手順を通じて,一対の指紋間の空間的変化を推定する非minutiautnt fingerprint registration法を提案する。 1対の指紋が一致すると、minutiaeの抽出ステップをバイパスし、一様にサンプリングされたポイントをキーポイントとして取ります。 そして,パッチアライメントとマッチングアルゴリズムにより,全てのサンプリングポイントを比較し,アライメントパラメータとともに類似点を生成する。 最後に、一貫した対応の集合がスペクトルクラスタリングによって見つかる。 NIST27データベースとMOLFデータベースの大規模な実験により,提案手法は,特に困難な条件下で,最先端の登録性能を実現する。

Latent fingerprint matching is a very important but unsolved problem. As a key step of fingerprint matching, fingerprint registration has a great impact on the recognition performance. Existing latent fingerprint registration approaches are mainly based on establishing correspondences between minutiae, and hence will certainly fail when there are no sufficient number of extracted minutiae due to small fingerprint area or poor image quality. Minutiae extraction has become the bottleneck of latent fingerprint registration. In this paper, we propose a non-minutia latent fingerprint registration method which estimates the spatial transformation between a pair of fingerprints through a dense fingerprint patch alignment and matching procedure. Given a pair of fingerprints to match, we bypass the minutiae extraction step and take uniformly sampled points as key points. Then the proposed patch alignment and matching algorithm compares all pairs of sampling points and produces their similarities along with alignment parameters. Finally, a set of consistent correspondences are found by spectral clustering. Extensive experiments on NIST27 database and MOLF database show that the proposed method achieves the state-of-the-art registration performance, especially under challenging conditions.
翻訳日:2022-12-03 19:27:19 公開日:2021-01-20
# 高次元低サンプルサイズデータの分類

The classification for High-dimension low-sample size data ( http://arxiv.org/abs/2006.13018v3 )

ライセンス: Link先を確認
Liran Shen, Meng Joo Er, Qingbo Yin(参考訳) 遺伝子発現解析やコンピュータビジョンなど,さまざまな分野の膨大な応用が,高次元低サンプルサイズ(HDLSS)データセットを運用している。 本稿では,クラス分離性を考慮したクラス内分散の最大化を強調する,HDLSSの新たな分類基準であるトレランス類似性を提案する。 この基準により、新しい線形二分分類器が設計され、非分離データ最大分散分類器(NPDMD)で表される。 NPDMDの目的は、全てのトレーニングサンプルができるだけ大きな間隔で散乱する投影方向wを見つけることである。 NPDMDは最先端の分類法と比較していくつかの特徴がある。 まず、HDLSSでうまく動作する。 第2に、サンプル統計情報と局所構造情報(支持ベクトル)を客観的関数に結合し、特徴空間全体の射影方向の解を求める。 第三に、低次元空間における高次元行列の逆を解く。 第4に、擬似プログラミングに基づいた実装は比較的単純である。 第5に、様々な実アプリケーションのモデル仕様に対して堅牢である。 NPDMDの理論的性質は推定される。 我々は、顔分類やmRNA分類を含む、シミュレーションと6つの実世界のベンチマークデータセットに対して一連の評価を行う。 npdmdは、ほとんどのケースで広く使われているアプローチよりも優れています。

Huge amount of applications in various fields, such as gene expression analysis or computer vision, undergo data sets with high-dimensional low-sample-size (HDLSS), which has putted forward great challenges for standard statistical and modern machine learning methods. In this paper, we propose a novel classification criterion on HDLSS, tolerance similarity, which emphasizes the maximization of within-class variance on the premise of class separability. According to this criterion, a novel linear binary classifier is designed, denoted by No-separated Data Maximum Dispersion classifier (NPDMD). The objective of NPDMD is to find a projecting direction w in which all of training samples scatter in as large an interval as possible. NPDMD has several characteristics compared to the state-of-the-art classification methods. First, it works well on HDLSS. Second, it combines the sample statistical information and local structural information (supporting vectors) into the objective function to find the solution of projecting direction in the whole feature spaces. Third, it solves the inverse of high dimensional matrix in low dimensional space. Fourth, it is relatively simple to be implemented based on Quadratic Programming. Fifth, it is robust to the model specification for various real applications. The theoretical properties of NPDMD are deduced. We conduct a series of evaluations on one simulated and six real-world benchmark data sets, including face classification and mRNA classification. NPDMD outperforms those widely used approaches in most cases, or at least obtains comparable results.
翻訳日:2022-11-18 11:47:55 公開日:2021-01-20
# MDP同型ネットワーク:強化学習におけるグループ対称性

MDP Homomorphic Networks: Group Symmetries in Reinforcement Learning ( http://arxiv.org/abs/2006.16908v2 )

ライセンス: Link先を確認
Elise van der Pol, Daniel E. Worrall, Herke van Hoof, Frans A. Oliehoek, Max Welling(参考訳) 本稿では,深層強化学習のためのMDP準同型ネットワークを提案する。 MDP準同型ネットワーク(英: MDP homomorphic network)は、MDPの結合状態-作用空間における対称性の下で不変なニューラルネットワークである。 深層強化学習への現在のアプローチは、通常そのような構造に関する知識を活用しない。 この事前知識を均衡制約を用いてポリシーと価値のネットワークに組み込むことで、解空間のサイズを小さくすることができる。 特にグループ構造対称性(可逆変換)に焦点を当てる。 さらに,同変ネットワーク層を数値的に構築する簡単な手法を導入することにより,システム設計者が手作業で制約を解く必要がなくなる。 MDP 準同型 MLP と CNN は、反射群あるいは回転群のいずれかの下で同変である。 このようなネットワークは、cartopoleやgrid world、pongなどの非構造化ベースラインよりも高速に収束する。

This paper introduces MDP homomorphic networks for deep reinforcement learning. MDP homomorphic networks are neural networks that are equivariant under symmetries in the joint state-action space of an MDP. Current approaches to deep reinforcement learning do not usually exploit knowledge about such structure. By building this prior knowledge into policy and value networks using an equivariance constraint, we can reduce the size of the solution space. We specifically focus on group-structured symmetries (invertible transformations). Additionally, we introduce an easy method for constructing equivariant network layers numerically, so the system designer need not solve the constraints by hand, as is typically done. We construct MDP homomorphic MLPs and CNNs that are equivariant under either a group of reflections or rotations. We show that such networks converge faster than unstructured baselines on CartPole, a grid world and Pong.
翻訳日:2022-11-15 04:53:48 公開日:2021-01-20
# ブラックボックス攻撃における視覚歪み

Towards Visual Distortion in Black-Box Attacks ( http://arxiv.org/abs/2007.10593v2 )

ライセンス: Link先を確認
Nannan Li and Zhenzhong Chen(参考訳) ブラックボックス脅威モデルにおける敵の例の構築は、視覚歪みを導入して原画像を傷つける。 本稿では,ブラックボックスネットワークへのロスオラクルアクセスのみを前提として,敵の雑音分布を学習することにより,直接的歪みを最小化できる新しいブラックボックス攻撃手法を提案する。 学習した雑音分布から雑音をサンプリングすることにより、対応する非微分損失関数の勾配を近似しながら、逆例と原画像との知覚距離を測定する定量化された視覚歪みを損失に導入する。 我々はimagenetに対する攻撃の有効性を検証する。 InceptionV3, ResNet50, VGG16bnでは, 最先端のブラックボックス攻撃と比較して歪みがはるかに小さく, 成功率は100\%である。 コードはhttps://github.com/alina-1997/visual-distortion-in-attackで入手できる。

Constructing adversarial examples in a black-box threat model injures the original images by introducing visual distortion. In this paper, we propose a novel black-box attack approach that can directly minimize the induced distortion by learning the noise distribution of the adversarial example, assuming only loss-oracle access to the black-box network. The quantified visual distortion, which measures the perceptual distance between the adversarial example and the original image, is introduced in our loss whilst the gradient of the corresponding non-differentiable loss function is approximated by sampling noise from the learned noise distribution. We validate the effectiveness of our attack on ImageNet. Our attack results in much lower distortion when compared to the state-of-the-art black-box attacks and achieves $100\%$ success rate on InceptionV3, ResNet50 and VGG16bn. The code is available at https://github.com/Alina-1997/visual-distortion-in-attack.
翻訳日:2022-11-08 03:53:54 公開日:2021-01-20
# 照明とビュー合成のための神経光輸送

Neural Light Transport for Relighting and View Synthesis ( http://arxiv.org/abs/2008.03806v3 )

ライセンス: Link先を確認
Xiuming Zhang, Sean Fanello, Yun-Ta Tsai, Tiancheng Sun, Tianfan Xue, Rohit Pandey, Sergio Orts-Escolano, Philip Davidson, Christoph Rhemann, Paul Debevec, Jonathan T. Barron, Ravi Ramamoorthi, William T. Freeman(参考訳) シーンの光輸送(LT)は、異なる照明と視界方向の下でどのように見えるかを記述し、シーンのLTに関する完全な知識は、任意の照明下での新規なビューの合成を可能にする。 本稿では,光舞台環境における人体に対するイメージベースLT取得に着目した。 我々は、既知の幾何学的性質のテクスチャアトラス空間に埋め込まれたltの神経表現を学習し、物理的に正確な拡散ベースレンダリングに追加された残差として全ての非拡散および大域的ltをモデル化する半パラメトリックアプローチを提案する。 特に,これまで見てきた照明器具やビューの観察と融合して,所望の照明条件下で同じシーンの新しいイメージを合成する方法を,選択した視点から示す。 この戦略により、拡散LT(ハードシャドウなど)の物理的正しさを保証しながら、ネットワークは複雑な物質効果(地表面散乱など)と大域照明を学習することができる。 この学習LTでは、方向光やHDRIマップでシーンをリアルにリライトしたり、ビュー依存効果で新しいビューを合成したり、あるいはこれらを同時に行うことができる。 定性的かつ定量的な実験により、我々のニューラルLT(NLT)は、以前の作業が必要とする2つの問題を別々に扱うことなく、リライティングとビュー合成のための最先端のソリューションより優れていることが示された。

The light transport (LT) of a scene describes how it appears under different lighting and viewing directions, and complete knowledge of a scene's LT enables the synthesis of novel views under arbitrary lighting. In this paper, we focus on image-based LT acquisition, primarily for human bodies within a light stage setup. We propose a semi-parametric approach to learn a neural representation of LT that is embedded in the space of a texture atlas of known geometric properties, and model all non-diffuse and global LT as residuals added to a physically-accurate diffuse base rendering. In particular, we show how to fuse previously seen observations of illuminants and views to synthesize a new image of the same scene under a desired lighting condition from a chosen viewpoint. This strategy allows the network to learn complex material effects (such as subsurface scattering) and global illumination, while guaranteeing the physical correctness of the diffuse LT (such as hard shadows). With this learned LT, one can relight the scene photorealistically with a directional light or an HDRI map, synthesize novel views with view-dependent effects, or do both simultaneously, all in a unified framework using a set of sparse, previously seen observations. Qualitative and quantitative experiments demonstrate that our neural LT (NLT) outperforms state-of-the-art solutions for relighting and view synthesis, without separate treatment for both problems that prior work requires.
翻訳日:2022-11-01 04:43:22 公開日:2021-01-20
# 非IIDプライベートデータを用いたコミュニケーション効率の高い協調学習のための蒸留に基づく半教師付きフェデレーション学習

Distillation-Based Semi-Supervised Federated Learning for Communication-Efficient Collaborative Training with Non-IID Private Data ( http://arxiv.org/abs/2008.06180v2 )

ライセンス: Link先を確認
Sohei Itahara, Takayuki Nishio, Yusuke Koda, Masahiro Morikura and Koji Yamamoto(参考訳) 本研究では,モデル性能を損なうことなく,典型的なフレームワークのモデルサイズによるコミュニケーションコストの増大を克服するフェデレーション学習(fl)フレームワークを開発した。 そこで本稿では,未ラベルのオープンデータセットを活用するアイデアに基づいて,一般的なフレームワークで使用されるモデルパラメータ交換ではなく,モバイルデバイス間でローカルモデルの出力を交換する蒸留に基づく半教師付きFL(DS-FL)アルゴリズムを提案する。 ds-flでは、通信コストはモデルの出力次元のみに依存し、モデルサイズに応じてスケールアップしない。 交換されたモデル出力は、オープンデータセットの各サンプルにラベル付けされ、追加のラベル付きデータセットを生成する。 新しいデータセットに基づいて、ローカルモデルはさらに訓練され、データ拡張効果によりモデルパフォーマンスが向上する。 さらに、ds-flでは、デバイスのデータセットの多様性が各データサンプルの曖昧さとトレーニング収束の低下につながることを強調する。 そこで本研究では,集約モデル出力を故意に研削するエントロピー低減平均化手法を提案する。 さらに,ds-flは通信コストをflベンチマークと比較して最大99%削減し,分類精度を向上できることを示す実験を行った。

This study develops a federated learning (FL) framework overcoming largely incremental communication costs due to model sizes in typical frameworks without compromising model performance. To this end, based on the idea of leveraging an unlabeled open dataset, we propose a distillation-based semi-supervised FL (DS-FL) algorithm that exchanges the outputs of local models among mobile devices, instead of model parameter exchange employed by the typical frameworks. In DS-FL, the communication cost depends only on the output dimensions of the models and does not scale up according to the model size. The exchanged model outputs are used to label each sample of the open dataset, which creates an additionally labeled dataset. Based on the new dataset, local models are further trained, and model performance is enhanced owing to the data augmentation effect. We further highlight that in DS-FL, the heterogeneity of the devices' dataset leads to ambiguous of each data sample and lowing of the training convergence. To prevent this, we propose entropy reduction averaging, where the aggregated model outputs are intentionally sharpened. Moreover, extensive experiments show that DS-FL reduces communication costs up to 99% relative to those of the FL benchmark while achieving similar or higher classification accuracy.
翻訳日:2022-10-30 17:56:56 公開日:2021-01-20
# 大規模異種学術ネットワークにおける名前曖昧化のためのペアワイズ学習

Pairwise Learning for Name Disambiguation in Large-Scale Heterogeneous Academic Networks ( http://arxiv.org/abs/2008.13099v4 )

ライセンス: Link先を確認
Qingyun Sun, Hao Peng, Jianxin Li, Senzhang Wang, Xiangyu Dong, Liangxuan Zhao, Philip S. Yu and Lifang He(参考訳) 名前の曖昧さは、同じ名前の作家を識別することを目的としている。 既存の名前曖昧化メソッドは常に著者属性を利用して曖昧化結果を強化する。 しかし、いくつかの差別的な著者属性(例えば電子メールやアフィリエイト)は卒業や仕事のホッピングのために変化し、デジタル図書館で同じ著者の論文が分離される。 これらの属性は変化するかもしれないが、著者の共著者や研究テーマは時間とともに頻繁には変化しない。 このアイデアに触発されて、多視点注意に基づくペアワイドリカレントニューラルネットワーク(MA-PairRNN)を導入し、名前の曖昧さを解決する。 論文を識別的著者属性に基づいて小さなブロックに分割し,ma-pairrnnのペアワイズ分類結果に従って同一著者のブロックをマージする。 MA-PairRNNは、不均一グラフ埋め込み学習とペアワイズ類似学習をフレームワークに統合する。 属性情報や構造情報に加えて、MA-PairRNNはメタパスによる意味情報も活用し、大きなグラフにスケーラブルなインダクティブなノード表現を生成する。 さらに、複数のメタパスに基づく表現を融合させる意味レベルアテンション機構が採用されている。 2つのrnnからなる疑似シャムネットワークは、出版時間順に2つの文書シーケンスを入力として、それらの類似性を出力する。 実世界の2つのデータセットの結果から、我々のフレームワークは名前の曖昧さに対するパフォーマンスを著しく一貫した改善をしていることがわかる。 また、MA-PairRNNは、少量のトレーニングデータで良好に動作し、異なる研究領域にまたがるより優れた一般化能力を有することを示した。

Name disambiguation aims to identify unique authors with the same name. Existing name disambiguation methods always exploit author attributes to enhance disambiguation results. However, some discriminative author attributes (e.g., email and affiliation) may change because of graduation or job-hopping, which will result in the separation of the same author's papers in digital libraries. Although these attributes may change, an author's co-authors and research topics do not change frequently with time, which means that papers within a period have similar text and relation information in the academic network. Inspired by this idea, we introduce Multi-view Attention-based Pairwise Recurrent Neural Network (MA-PairRNN) to solve the name disambiguation problem. We divided papers into small blocks based on discriminative author attributes and blocks of the same author will be merged according to pairwise classification results of MA-PairRNN. MA-PairRNN combines heterogeneous graph embedding learning and pairwise similarity learning into a framework. In addition to attribute and structure information, MA-PairRNN also exploits semantic information by meta-path and generates node representation in an inductive way, which is scalable to large graphs. Furthermore, a semantic-level attention mechanism is adopted to fuse multiple meta-path based representations. A Pseudo-Siamese network consisting of two RNNs takes two paper sequences in publication time order as input and outputs their similarity. Results on two real-world datasets demonstrate that our framework has a significant and consistent improvement of performance on the name disambiguation task. It was also demonstrated that MA-PairRNN can perform well with a small amount of training data and have better generalization ability across different research areas.
翻訳日:2022-10-23 12:10:07 公開日:2021-01-20
# 6gにおける超信頼性・低レイテンシ通信のチュートリアル:深層学習へのドメイン知識の統合

A Tutorial on Ultra-Reliable and Low-Latency Communications in 6G: Integrating Domain Knowledge into Deep Learning ( http://arxiv.org/abs/2009.06010v2 )

ライセンス: Link先を確認
Changyang She and Chengjian Sun and Zhouyou Gu and Yonghui Li and Chenyang Yang and H. Vincent Poor and Branka Vucetic(参考訳) モバイル通信ネットワークの第5世代および第6世代(6G)における重要な通信シナリオのひとつとして,超信頼性・低レイテンシ通信(URLLC)が,新たなミッションクリティカルアプリケーションの開発の中心となる。 最先端のモバイル通信システムは、URLLCのエンドツーエンド遅延と全体的な信頼性要件を満たしていない。 特に、不確実性の下でのレイテンシ、信頼性、可用性、スケーラビリティ、意思決定を考慮に入れた包括的なフレームワークは欠如しています。 ディープニューラルネットワークの最近のブレークスルーによって、ディープラーニングアルゴリズムは将来の6gネットワークでurllcを実現する技術を開発するための有望な方法と見なされている。 このチュートリアルでは、通信とネットワークのドメイン知識(モデル、分析ツール、最適化フレームワーク)を、urllcのさまざまなディープラーニングアルゴリズムに統合する方法を説明します。 まず、URLLCの背景を提供し、6Gのための有望なネットワークアーキテクチャとディープラーニングフレームワークをレビューする。 ドメイン知識で学習アルゴリズムを改善する方法について、モデルベースの分析ツールとURLLCの層間最適化フレームワークを再考する。 その後,URLLCにおける教師あり/教師なしの深層学習と深部強化学習の適用の可能性を検討した。 最後に,異なる学習アルゴリズムの有効性を検証するためのシミュレーションと実験結果を提供し,今後の方向性について議論する。

As one of the key communication scenarios in the 5th and also the 6th generation (6G) of mobile communication networks, ultra-reliable and low-latency communications (URLLC) will be central for the development of various emerging mission-critical applications. State-of-the-art mobile communication systems do not fulfill the end-to-end delay and overall reliability requirements of URLLC. In particular, a holistic framework that takes into account latency, reliability, availability, scalability, and decision making under uncertainty is lacking. Driven by recent breakthroughs in deep neural networks, deep learning algorithms have been considered as promising ways of developing enabling technologies for URLLC in future 6G networks. This tutorial illustrates how domain knowledge (models, analytical tools, and optimization frameworks) of communications and networking can be integrated into different kinds of deep learning algorithms for URLLC. We first provide some background of URLLC and review promising network architectures and deep learning frameworks for 6G. To better illustrate how to improve learning algorithms with domain knowledge, we revisit model-based analytical tools and cross-layer optimization frameworks for URLLC. Following that, we examine the potential of applying supervised/unsupervised deep learning and deep reinforcement learning in URLLC and summarize related open problems. Finally, we provide simulation and experimental results to validate the effectiveness of different learning algorithms and discuss future directions.
翻訳日:2022-10-19 03:23:33 公開日:2021-01-20
# 多チャンネル相関による任意映像スタイル転送

Arbitrary Video Style Transfer via Multi-Channel Correlation ( http://arxiv.org/abs/2009.08003v2 )

ライセンス: Link先を確認
Yingying Deng, Fan Tang, Weiming Dong, Haibin Huang, Chongyang Ma, Changsheng Xu(参考訳) ビデオスタイルの転送は、拡張現実やアニメーションプロダクションなど、多数のアプリケーションでAIコミュニティで注目を集めている。 従来のイメージスタイルの転送と比較して、このタスクをビデオ上で実行することは、任意の特定のスタイルに対して満足いくスタイルの結果を効果的に生成し、フレーム間の時間的コヒーレンスを同時に維持する方法という、新しい課題を示す。 そこで本研究では,入力映像のコヒーレンスを自然に維持しつつ,効率的なスタイル転送を実現するために,exemplarスタイル特徴と入力コンテンツ特徴の融合を訓練できるマルチチャネル補正ネットワーク(mccnet)を提案する。 具体的には、mccnetはスタイルとコンテンツドメインの機能領域に直接依存し、コンテンツ機能との類似性に基づいてスタイル機能を再構成し融合することを学ぶ。 MCCが生成した出力は所望のスタイルパターンを含む特徴であり、鮮やかなスタイルテクスチャでさらに画像にデコードできる。 さらに、MCCNetは、出力がコンテンツ構造と時間的連続性を維持するように、特徴を入力に明示的に整合させるように設計されている。 複雑な光条件下でのmccnetの性能をさらに向上するため,訓練中の照明損失についても紹介する。 定性的および定量的評価により、MCCNetは任意のビデオと画像スタイルの転送タスクの両方でよく機能することが示された。

Video style transfer is getting more attention in AI community for its numerous applications such as augmented reality and animation productions. Compared with traditional image style transfer, performing this task on video presents new challenges: how to effectively generate satisfactory stylized results for any specified style, and maintain temporal coherence across frames at the same time. Towards this end, we propose Multi-Channel Correction network (MCCNet), which can be trained to fuse the exemplar style features and input content features for efficient style transfer while naturally maintaining the coherence of input videos. Specifically, MCCNet works directly on the feature space of style and content domain where it learns to rearrange and fuse style features based on their similarity with content features. The outputs generated by MCC are features containing the desired style patterns which can further be decoded into images with vivid style textures. Moreover, MCCNet is also designed to explicitly align the features to input which ensures the output maintains the content structures as well as the temporal continuity. To further improve the performance of MCCNet under complex light conditions, we also introduce the illumination loss during training. Qualitative and quantitative evaluations demonstrate that MCCNet performs well in both arbitrary video and image style transfer tasks.
翻訳日:2022-10-17 12:06:33 公開日:2021-01-20
# プレンオプティクス標準カメラのベースラインと三角測量幾何学

Baseline and Triangulation Geometry in a Standard Plenoptic Camera ( http://arxiv.org/abs/2010.04638v2 )

ライセンス: Link先を確認
Christopher Hahne, Amar Aggoun, Vladan Velisavljevic, Susanne Fiebig, Matthias Pesch(参考訳) 本稿では,plenopticカメラにおける深度距離とベースラインを決定するために,光場の三角測量を行う。 マイクロレンズとイメージセンサーの進歩により、カメラは十分な空間解像度で異なる視点からシーンを捉えられるようになった。 対象距離は三角測量を用いてステレオ視点対の差から推測できるが、プレン光学カメラの場合、この概念はあいまいなままである。 対象距離を予測したり、必要に応じてベースラインを指定するために、三角測量をプレンオプティカルカメラに適用できる幾何学的光場モデルを提案する。 提案手法から推定した距離は,カメラの前に設置した実物の距離と一致している。 光設計ソフトウェアによる追加のベンチマークテストは、いくつかの主レンズタイプとフォーカス設定で+-0.33 %未満の偏差でモデルの精度をさらに検証する。 自動車とロボット分野の様々な応用がこの推定モデルから恩恵を受けることができる。

In this paper, we demonstrate light field triangulation to determine depth distances and baselines in a plenoptic camera. Advances in micro lenses and image sensors have enabled plenoptic cameras to capture a scene from different viewpoints with sufficient spatial resolution. While object distances can be inferred from disparities in a stereo viewpoint pair using triangulation, this concept remains ambiguous when applied in the case of plenoptic cameras. We present a geometrical light field model allowing the triangulation to be applied to a plenoptic camera in order to predict object distances or specify baselines as desired. It is shown that distance estimates from our novel method match those of real objects placed in front of the camera. Additional benchmark tests with an optical design software further validate the model's accuracy with deviations of less than +-0.33 % for several main lens types and focus settings. A variety of applications in the automotive and robotics field can benefit from this estimation model.
翻訳日:2022-10-09 06:35:00 公開日:2021-01-20
# ディスタングル型動的グラフ深部生成

Disentangled Dynamic Graph Deep Generation ( http://arxiv.org/abs/2010.07276v2 )

ライセンス: Link先を確認
Wenbin Zhang, Liming Zhang, Dieter Pfoser and Liang Zhao(参考訳) グラフの深い生成モデルは、分子の設計(原子のグラフ)やタンパク質の構造予測(アミノ酸のグラフ)など、常に増大する領域において有望な性能を示している。 既存の研究は一般的に動的グラフではなく静的に焦点を当てており、タンパク質の折りたたみや分子反応、人間の移動といった応用において非常に重要である。 静的グラフから動的グラフへの既存の深層生成モデルの拡張は難しい作業であり、静的および動的特性の分解とノードとエッジパターン間の相互相互作用を扱う必要がある。 本稿では,解釈可能な動的グラフ生成を実現するための因子化深部生成モデルの枠組みを提案する。 ノード,エッジ,静的,動的因子間の条件独立性を特徴付けるために,様々な生成モデルを提案する。 そこで, 動的グラフデコーダと変分最適化手法を新たに設計した因子化変分オートエンコーダと再帰グラフデコンボリューションに基づいて提案する。 複数のデータセットに対する大規模な実験は、提案モデルの有効性を示す。

Deep generative models for graphs have exhibited promising performance in ever-increasing domains such as design of molecules (i.e, graph of atoms) and structure prediction of proteins (i.e., graph of amino acids). Existing work typically focuses on static rather than dynamic graphs, which are actually very important in the applications such as protein folding, molecule reactions, and human mobility. Extending existing deep generative models from static to dynamic graphs is a challenging task, which requires to handle the factorization of static and dynamic characteristics as well as mutual interactions among node and edge patterns. Here, this paper proposes a novel framework of factorized deep generative models to achieve interpretable dynamic graph generation. Various generative models are proposed to characterize conditional independence among node, edge, static, and dynamic factors. Then, variational optimization strategies as well as dynamic graph decoders are proposed based on newly designed factorized variational autoencoders and recurrent graph deconvolutions. Extensive experiments on multiple datasets demonstrate the effectiveness of the proposed models.
翻訳日:2022-10-07 14:31:10 公開日:2021-01-20
# 最適LL(k)解析のためのLL(finite)戦略

The LL(finite) strategy for optimal LL(k) parsing ( http://arxiv.org/abs/2010.07874v2 )

ライセンス: Link先を確認
Peter Belcak(参考訳) k を知らなくてもよい LL(k) 文法を解析するための LL(finite) 解析戦略を提示する。 この戦略は入力を線形時間で解析し、非終端の代替を曖昧にするために必要最小限のルックアヘッドを用いており、ルックアヘッド端末スキャンの実行回数に最適である。 アルゴリズムの修正により、先行して文法の曖昧さを解消し、入力を構文解析式文法として効果的に解釈し、述語の使用を可能とし、概念実証としてオープンソースのパーサー生成器であるAstirは、生成した出力にLL(有限)戦略を採用する。

The LL(finite) parsing strategy for parsing of LL(k) grammars where k needs not to be known is presented. The strategy parses input in linear time, uses arbitrary but always minimal lookahead necessary to disambiguate between alternatives of nonterminals, and it is optimal in the number of lookahead terminal scans performed. Modifications to the algorithm are shown that allow for resolution of grammar ambiguities by precedence -- effectively interpreting the input as a parsing expression grammar -- as well as for the use of predicates, and a proof of concept, the open-source parser generator Astir, employs the LL(finite) strategy in the output it generates.
翻訳日:2022-10-07 05:03:28 公開日:2021-01-20
# 人工知能における形式的信頼:AIにおける人間信頼の前提、原因、目標

Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and Goals of Human Trust in AI ( http://arxiv.org/abs/2010.07487v3 )

ライセンス: Link先を確認
Alon Jacovi, Ana Marasovi\'c, Tim Miller, Yoav Goldberg(参考訳) 信頼は人とAIの相互作用の中心的な要素であり、'間違った'信頼レベルが、テクノロジの誤用、虐待、利用を引き起こす可能性がある。 しかし、正確には、AIに対する信頼の性質は何だろうか? 信頼の認知メカニズムの前提と目的は何か、どのように促進するか、あるいは与えられた相互作用で満足しているかを評価することができるのか? この仕事はこれらの質問に答えることを目的としている。 我々は、社会学の対人信頼(すなわち、人間の信頼)から着想を得た信頼のモデルについて議論する。 このモデルは、ユーザの脆弱性の2つの重要な特性と、aiモデルの決定が与える影響を予測する能力にかかっている。 我々は、ユーザとAI間の信頼が、暗黙的あるいは明示的な契約が保持する信頼であるような「契約的信頼」の形式化、(社会学における信頼感の概念から切り離される)「信頼」の形式化、そして「警告」と「不当な信頼」の概念を取り入れている。 次に、本質的な推論と外在的行動として保証された信頼の潜在的な原因を示し、信頼に値するAIの設計方法、信頼が現われたかどうか、保証されているかどうかを議論する。 最後に、形式化を用いて信頼とXAIの関係を明らかにする。

Trust is a central component of the interaction between people and AI, in that 'incorrect' levels of trust may cause misuse, abuse or disuse of the technology. But what, precisely, is the nature of trust in AI? What are the prerequisites and goals of the cognitive mechanism of trust, and how can we promote them, or assess whether they are being satisfied in a given interaction? This work aims to answer these questions. We discuss a model of trust inspired by, but not identical to, sociology's interpersonal trust (i.e., trust between people). This model rests on two key properties of the vulnerability of the user and the ability to anticipate the impact of the AI model's decisions. We incorporate a formalization of 'contractual trust', such that trust between a user and an AI is trust that some implicit or explicit contract will hold, and a formalization of 'trustworthiness' (which detaches from the notion of trustworthiness in sociology), and with it concepts of 'warranted' and 'unwarranted' trust. We then present the possible causes of warranted trust as intrinsic reasoning and extrinsic behavior, and discuss how to design trustworthy AI, how to evaluate whether trust has manifested, and whether it is warranted. Finally, we elucidate the connection between trust and XAI using our formalization.
翻訳日:2022-10-07 04:54:38 公開日:2021-01-20
# 最小ノルム補間に対するモデル依存一般化境界の失敗

Failures of model-dependent generalization bounds for least-norm interpolation ( http://arxiv.org/abs/2010.08479v3 )

ライセンス: Link先を確認
Peter L. Bartlett and Philip M. Long(参考訳) 我々は,最小ノルム線形レグレッサの一般化性能の限界を,データの補間が可能なオーバーパラメータ化方式で検討する。 統計的学習理論で一般的に証明される型の任意の一般化境界は、最小ノルム補間子を解析する際には、しばしば非常に緩くなければならない。 特に、訓練例における様々な自然な関節分布において、学習アルゴリズムの出力、トレーニング例の数、信頼パラメータにのみ依存する有効な一般化は、穏やかな条件(サンプルサイズにおける単調性よりも下位に弱い)を満たすものであり、真の過剰リスクがゼロとなるとき、その下限は定数で制限される。

We consider bounds on the generalization performance of the least-norm linear regressor, in the over-parameterized regime where it can interpolate the data. We describe a sense in which any generalization bound of a type that is commonly proved in statistical learning theory must sometimes be very loose when applied to analyze the least-norm interpolant. In particular, for a variety of natural joint distributions on training examples, any valid generalization bound that depends only on the output of the learning algorithm, the number of training examples, and the confidence parameter, and that satisfies a mild condition (substantially weaker than monotonicity in sample size), must sometimes be very loose -- it can be bounded below by a constant when the true excess risk goes to zero.
翻訳日:2022-10-06 20:48:04 公開日:2021-01-20
# パワープーリング:弱ラベル付き音響イベント検出のための適応型プーリング機能

Power pooling: An adaptive pooling function for weakly labelled sound event detection ( http://arxiv.org/abs/2010.09985v2 )

ライセンス: Link先を確認
Yuzhuo Liu, Hangting Chen, YunWang and Pengyuan Zhang(参考訳) 強いラベル付きサウンドイベントを持つ大きなコーパスへのアクセスは、エンジニアリングアプリケーションでは高価で困難である。 多くの研究は、タイプのみを指定する弱いラベルを持つ音事象の型とタイムスタンプの両方を検出する方法の問題に対処している。 このタスクは、マルチインスタンス学習(mil)の問題として扱うことができ、その鍵は、プーリング関数の設計である。 本稿では,様々な音源に適応可能な適応型パワープーリング機能を提案する。 2つの公開データセットにおいて、提案する電力プーリング関数は、粗粒度と細粒度の両方で最先端の線形ソフトマックスプーリングよりも優れている。 特に、イベントベースのF1スコア(イベントのオンセットとオフセットの検出を評価する)を2つのデータセットに対して11.4%と10.2%改善している。 本稿では,音響事象検出アプリケーションに焦点をあてるが,提案手法は他の領域のMILタスクにも適用できる。

Access to large corpora with strongly labelled sound events is expensive and difficult in engineering applications. Much research turns to address the problem of how to detect both the types and the timestamps of sound events with weak labels that only specify the types. This task can be treated as a multiple instance learning (MIL) problem, and the key to it is the design of a pooling function. In this paper, we propose an adaptive power pooling function which can automatically adapt to various sound sources. On two public datasets, the proposed power pooling function outperforms the state-of-the-art linear softmax pooling on both coarsegrained and fine-grained metrics. Notably, it improves the event-based F1 score (which evaluates the detection of event onsets and offsets) by 11.4% and 10.2% relative on the two datasets. While this paper focuses on sound event detection applications, the proposed method can be applied to MIL tasks in other domains.
翻訳日:2022-10-05 08:06:52 公開日:2021-01-20
# 状態グラフ核の密度

Density of States Graph Kernels ( http://arxiv.org/abs/2010.11341v3 )

ライセンス: Link先を確認
Leo Huang, Andrew Graven, David Bindel(参考訳) グラフ構造化データの根本的な問題は、グラフ間の類似性を定量化することである。 グラフカーネルはそのようなタスクのための確立された技術であり、特に、ランダムウォークとリターン確率に基づくものは、バイオインフォマティクスからソーシャルネットワーク、コンピュータビジョンまで幅広い応用に有効であることが証明されている。 しかし、ランダムウォークカーネルは一般的に、局所グラフトポロジーを過度に強調し、グローバルな構造の重要性を減らし、遅さとトータリングに悩まされる。 これらの問題を正すため、より一般的な状態密度の枠組み(スペクトル分析のレンズを使ってスペクトルの内部に隠されたモチーフや特性を明らかにするフレームワーク)の下で戻り確率グラフカーネルを再キャストし、この解釈を用いて、局所的およびグローバルな情報のバランスをとる状態ベースのグラフカーネルのスケーラブルで複合的な密度を構築し、ベンチマークデータセットのホストにおける分類精度を高める。

A fundamental problem on graph-structured data is that of quantifying similarity between graphs. Graph kernels are an established technique for such tasks; in particular, those based on random walks and return probabilities have proven to be effective in wide-ranging applications, from bioinformatics to social networks to computer vision. However, random walk kernels generally suffer from slowness and tottering, an effect which causes walks to overemphasize local graph topology, undercutting the importance of global structure. To correct for these issues, we recast return probability graph kernels under the more general framework of density of states -- a framework which uses the lens of spectral analysis to uncover graph motifs and properties hidden within the interior of the spectrum -- and use our interpretation to construct scalable, composite density of states based graph kernels which balance local and global information, leading to higher classification accuracies on a host of benchmark datasets.
翻訳日:2022-10-05 01:18:50 公開日:2021-01-20
# 一般化の堅牢な尺度を求めて

In Search of Robust Measures of Generalization ( http://arxiv.org/abs/2010.11924v2 )

ライセンス: Link先を確認
Gintare Karolina Dziugaite, Alexandre Drouin, Brady Neal, Nitarshan Rajkumar, Ethan Caballero, Linbo Wang, Ioannis Mitliagkas, Daniel M. Roy(参考訳) ディープラーニングにおける主要な科学的課題の1つは、一般化、すなわち、コミュニティが小さなトレーニングエラーを達成するためにネットワークを訓練する特定の方法が、同じ人口からの保持データに小さな誤りをもたらす理由を説明することである。 現代のニューラルネットワークアーキテクチャによって誘導される予測子のクラスのVC次元に基づくような最悪のケース理論は、経験的なパフォーマンスを説明することができない、と広く評価されている。 膨大な作業がこのギャップを埋めることを目的としており、主に一般化誤差、最適化誤差、過剰リスクの限界を開発する。 しかし、経験的に評価すると、これらの境界の多くは数値的に空白である。 一般化境界に注目して,このような境界を経験的に評価する方法について論じる。 Jiang et al. (2020)は、境界・測度と一般化の間の潜在的な因果関係を明らかにすることを目的とした大規模な実証的研究を最近説明した。 これらの研究に基づいて,提案手法が一般化を説明する上での一般化手法の失敗や成功を曖昧にできる点を強調する。 我々は、分散ロバストネスの枠組みの中で一般化対策を評価するべきであると論じる。

One of the principal scientific challenges in deep learning is explaining generalization, i.e., why the particular way the community now trains networks to achieve small training error also leads to small error on held-out data from the same population. It is widely appreciated that some worst-case theories -- such as those based on the VC dimension of the class of predictors induced by modern neural network architectures -- are unable to explain empirical performance. A large volume of work aims to close this gap, primarily by developing bounds on generalization error, optimization error, and excess risk. When evaluated empirically, however, most of these bounds are numerically vacuous. Focusing on generalization bounds, this work addresses the question of how to evaluate such bounds empirically. Jiang et al. (2020) recently described a large-scale empirical study aimed at uncovering potential causal relationships between bounds/measures and generalization. Building on their study, we highlight where their proposed methods can obscure failures and successes of generalization measures in explaining generalization. We argue that generalization measures should instead be evaluated within the framework of distributional robustness.
翻訳日:2022-10-04 05:38:43 公開日:2021-01-20
# (参考訳) 最小ノルム補間器のロバスト性について

On the robustness of minimum-norm interpolators ( http://arxiv.org/abs/2012.00807v2 )

ライセンス: CC BY 4.0
Geoffrey Chinot, Matthias L\"offler and Sara van de Geer(参考訳) 本稿では,線形モデルにおける最小ノルム補間推定器の加法的,潜在的に対角的,誤差の存在下での一般理論を開発する。 特に、エラーに関する条件は課されていない。 予測誤差に対する定量的境界が与えられ、コ変量体のラデマシェ複雑性、誤差の最小ノルム補間器のノルム、真のパラメータの周りの部分微分の形状に関係している。 一般理論は、最小の $\ell_1$-norm または group lasso penalty interpolation を持つスパース線形モデル、核ノルム最小化を伴う低ランクトレース回帰モデル、線形モデルにおける最小ユークリッドノルム補間など、いくつかの例で示される。 疎度または低ランク誘導ノルムの場合、最小ノルム補間は、オーバーパラメータ化が少なくともサンプル数よりも大きい対数係数であることを仮定して、平均ノイズレベルの順序の予測誤差をもたらす。 結果の最適に近い値を示す下限は解析を補完する。

This article develops a general theory for minimum-norm interpolated estimators in linear models in the presence of additive, potentially adversarial, errors. In particular, no conditions on the errors are imposed. A quantitative bound for the prediction error is given, relating it to the Rademacher complexity of the covariates, the norm of the minimum norm interpolator of the errors and the shape of the subdifferential around the true parameter. The general theory is illustrated with several examples: the sparse linear model with minimum $\ell_1$-norm or group Lasso penalty interpolation, the low rank trace regression model with nuclear norm minimization, and minimum Euclidean norm interpolation in the linear model. In case of sparsity or low-rank inducing norms, minimum norm interpolation yields a prediction error of the order of the average noise level, provided that the overparameterization is at least a logarithmic factor larger than the number of samples. Lower bounds that show near optimality of the results complement the analysis.
翻訳日:2021-05-31 00:10:57 公開日:2021-01-20
# (参考訳) 微粒なセマンティッククラスタリングによる映画ジャンル分類の再考

Rethinking movie genre classification with fine-grained semantic clustering ( http://arxiv.org/abs/2012.02639v3 )

ライセンス: CC BY-SA 4.0
Edward Fish, Jon Weinbren, Andrew Gilbert(参考訳) 映画ジャンル分類は機械学習の活発な研究分野である。 しかし、利用可能な限定ラベルのため、単一のジャンルの定義の中で映画間の意味的なバリエーションは大きい。 映画のマルチモーダルコンテンツ内の「きめ細かい」意味情報を識別することで、これらの「粗い」ジャンルラベルを拡張する。 事前学習した「エキスパート」ネットワークを利用することで、マルチラベルジャンル分類におけるモードの組み合わせの影響を学習する。 対照的な損失を用いて、この「クール」ジャンル分類ネットワークを微調整し、全ジャンルレーベルの映画間の高レベルなテキスト間類似性を特定する。 これにより、ジャンル情報を保持しながら、セマンティックな類似性に基づいた、より詳細な"きめ細かい"クラスタ化が可能になる。 提案手法は,新たに導入されたマルチモーダル37,866,450フレーム,8,800本のトレーラーデータセット,mmx-trailer-20を用いて実演する。

Movie genre classification is an active research area in machine learning. However, due to the limited labels available, there can be large semantic variations between movies within a single genre definition. We expand these 'coarse' genre labels by identifying 'fine-grained' semantic information within the multi-modal content of movies. By leveraging pre-trained 'expert' networks, we learn the influence of different combinations of modes for multi-label genre classification. Using a contrastive loss, we continue to fine-tune this 'coarse' genre classification network to identify high-level intertextual similarities between the movies across all genre labels. This leads to a more 'fine-grained' and detailed clustering, based on semantic similarities while still retaining some genre information. Our approach is demonstrated on a newly introduced multi-modal 37,866,450 frame, 8,800 movie trailer dataset, MMX-Trailer-20, which includes pre-computed audio, location, motion, and image embeddings.
翻訳日:2021-05-23 03:42:44 公開日:2021-01-20
# (参考訳) 運転者の視線分類 : 領域と対象の一般化に向けて

Driver Glance Classification In-the-wild: Towards Generalization Across Domains and Subjects ( http://arxiv.org/abs/2012.02906v2 )

ライセンス: CC BY 4.0
Sandipan Banerjee, Ajjen Joshi, Jay Turcot, Bryan Reimer and Taniya Mishra(参考訳) 故障したドライバーは危険なドライバーです。 高度な運転支援システム(ADAS)と運転者の注意散らしを検出する能力は、事故の防止と運転者の安全向上に役立つ。 運転者の気晴らしを検出するために、ADASは視覚的注意を監視できなければならない。 運転者の顔のパッチを眼領域の作物と共に入力し、視線を車両内の6つの粗い関心領域(ROI)に分類するモデルを提案する。 再構成損失を付加してトレーニングした時間ガラスネットワークにより,従来のエンコーダのみの分類モジュールよりも強い文脈特徴表現を学習できることを示す。 外観・行動の主観的変化に頑健なシステムを実現するために,運転者の基本視動作を表す補助入力で調整されたパーソナライズされた時間ガラスモデルを設計する。 最後に,無ラベルサンプルを利用して,異なるドメイン(カメラタイプ,角度)からの表現を共同で学習し,アノテーションコストを低減できる,弱い教師付き多領域学習レジームを提案する。

Distracted drivers are dangerous drivers. Equipping advanced driver assistance systems (ADAS) with the ability to detect driver distraction can help prevent accidents and improve driver safety. In order to detect driver distraction, an ADAS must be able to monitor their visual attention. We propose a model that takes as input a patch of the driver's face along with a crop of the eye-region and classifies their glance into 6 coarse regions-of-interest (ROIs) in the vehicle. We demonstrate that an hourglass network, trained with an additional reconstruction loss, allows the model to learn stronger contextual feature representations than a traditional encoder-only classification module. To make the system robust to subject-specific variations in appearance and behavior, we design a personalized hourglass model tuned with an auxiliary input representing the driver's baseline glance behavior. Finally, we present a weakly supervised multi-domain training regimen that enables the hourglass to jointly learn representations from different domains (varying in camera type, angle), utilizing unlabeled samples and thereby reducing annotation cost.
翻訳日:2021-05-22 18:39:32 公開日:2021-01-20
# (参考訳) FedeRank:Federated Recommenderシステムによるユーザコントロールされたフィードバック

FedeRank: User Controlled Feedback with Federated Recommender Systems ( http://arxiv.org/abs/2012.11328v3 )

ライセンス: CC BY 4.0
Vito Walter Anelli, Yashar Deldjoo, Tommaso Di Noia, Antonio Ferrara, Fedelucio Narducci(参考訳) レコメンダシステムは、データの可用性が日々のデジタル生活をいかに楽にするかを示すものとして成功している。 しかし、データプライバシはデジタル時代の最も顕著な懸念の1つだ。 いくつかのデータ漏洩とプライバシースキャンダルの後、ユーザーは自分のデータを共有することを心配している。 過去10年間、連合学習は新しいプライバシー保護型分散機械学習パラダイムとして登場してきた。 中央リポジトリにデータを集めることなく、ユーザデバイス上でデータを処理します。 We present FedeRank (https://split.to/federank), a federated recommendation algorithm。 システムは、各デバイスに個人的要因モデルを学習する。 モデルのトレーニングは、中央サーバとフェデレーションされたクライアント間の同期プロセスである。 FedeRankは、分散的な方法でコンピューティングレコメンデーションを処理し、ユーザが共有したいデータの一部をコントロールできるようにする。 最先端アルゴリズムとの比較により,共有ユーザデータのごく一部であっても,federrankの有効性を推薦精度の観点から検証した。 推薦リストの多様性と新規性のさらなる分析は、実際の生産環境におけるアルゴリズムの適合性を保証する。

Recommender systems have shown to be a successful representative of how data availability can ease our everyday digital life. However, data privacy is one of the most prominent concerns in the digital era. After several data breaches and privacy scandals, the users are now worried about sharing their data. In the last decade, Federated Learning has emerged as a new privacy-preserving distributed machine learning paradigm. It works by processing data on the user device without collecting data in a central repository. We present FedeRank (https://split.to/federank), a federated recommendation algorithm. The system learns a personal factorization model onto every device. The training of the model is a synchronous process between the central server and the federated clients. FedeRank takes care of computing recommendations in a distributed fashion and allows users to control the portion of data they want to share. By comparing with state-of-the-art algorithms, extensive experiments show the effectiveness of FedeRank in terms of recommendation accuracy, even with a small portion of shared user data. Further analysis of the recommendation lists' diversity and novelty guarantees the suitability of the algorithm in real production environments.
翻訳日:2021-05-07 07:27:16 公開日:2021-01-20
# (参考訳) 機械学習モデルの性能に影響を及ぼすデータドリフトおよび異常値の検出

Detection of data drift and outliers affecting machine learning model performance over time ( http://arxiv.org/abs/2012.09258v2 )

ライセンス: CC BY 4.0
Samuel Ackerman, Eitan Farchi, Orna Raz, Marcel Zalmanovici, Parijat Dube(参考訳) トレーニングされたMLモデルは、ターゲットの特徴値(ラベル)が不明な別の‘test’データセットにデプロイされる。 ドリフトはトレーニングとデプロイメントデータ間の分散変更であり、モデルのパフォーマンスが変更されるかどうかに関するものだ。 例えば、キャット/ドッグ画像分類器では、展開中のドリフトはウサギ画像(新しいクラス)や、特性が変化したキャット/ドッグ画像(分布の変化)である。 これらの変更を検出したいのですが、デプロイメントデータラベルなしでは正確さを計測できません。 その代わりに、モデル予測信頼度分布を非パラメトリックに検証することで、間接的にドリフトを検出する。 これはメソッドを一般化し、ドメイン固有の特徴表現をサイドステップします。 本稿では,CPM(Change Point Models)を用いた逐次テストにおける重要な統計問題,特にType-1エラー制御について述べる。 また,モデル診断には非パラメトリック・アウトリアー法を用いて不審な観察を行い,その前後の信頼度分布が著しく重なることを示した。 堅牢性を示す実験では、MNIST桁クラスのサブセットでトレーニングを行い、様々な設定(ドリフト比の漸進的/密着的な変化)の配置データにドリフト(例えば、未確認桁クラス)を挿入する。 ドリフトクラスの汚染レベルが異なるドリフト検出器の性能(検出遅延,タイプ1および2エラー)を比較するために,新しい損失関数を導入した。

A trained ML model is deployed on another `test' dataset where target feature values (labels) are unknown. Drift is distribution change between the training and deployment data, which is concerning if model performance changes. For a cat/dog image classifier, for instance, drift during deployment could be rabbit images (new class) or cat/dog images with changed characteristics (change in distribution). We wish to detect these changes but can't measure accuracy without deployment data labels. We instead detect drift indirectly by nonparametrically testing the distribution of model prediction confidence for changes. This generalizes our method and sidesteps domain-specific feature representation. We address important statistical issues, particularly Type-1 error control in sequential testing, using Change Point Models (CPMs; see Adams and Ross 2012). We also use nonparametric outlier methods to show the user suspicious observations for model diagnosis, since the before/after change confidence distributions overlap significantly. In experiments to demonstrate robustness, we train on a subset of MNIST digit classes, then insert drift (e.g., unseen digit class) in deployment data in various settings (gradual/sudden changes in the drift proportion). A novel loss function is introduced to compare the performance (detection delay, Type-1 and 2 errors) of a drift detector under different levels of drift class contamination.
翻訳日:2021-05-03 06:41:19 公開日:2021-01-20
# (参考訳) 逆雑音をもつハーフスペースのラベル最適学習のための局所パーセプトロンのパワーについて

On the Power of Localized Perceptron for Label-Optimal Learning of Halfspaces with Adversarial Noise ( http://arxiv.org/abs/2012.10793v2 )

ライセンス: CC BY 4.0
Jie Shen(参考訳) 我々は、雑音ラベルの全体確率が最大$\nu$となるような逆ノイズを持つ$\mathbb{R}^d$における同次半空間のアクティブな学習について研究する。 私たちの主な貢献は、多項式時間で実行されるパーセプトロンのようなオンライン能動学習アルゴリズムであり、その限界分布が等方的対数凹であり、$\nu = \Omega(\epsilon)$, where $\epsilon \in (0, 1)$, our algorithm PAC learns the underlying halfspace of $\tilde{O}\big(d \cdot polylog(\frac{1}{\epsilon})\big)$ and sample complexity of $\tilde{O}\big(\frac{d}{\epsilon} \big)$である。 この研究に先立ち、対向雑音を許容するように設計された既存のオンラインアルゴリズムは、$\frac{1}{\epsilon}$のラベル複雑性多項式、もしくは準最適雑音耐性、もしくは制限的境界分布のいずれかの条件が課される。 基礎となる半空間が$s$-sparseであるという事前知識により、$\tilde{o}\big( s \cdot polylog(d, \frac{1}{\epsilon}) \big)$の属性効率の高いラベル複雑性と$\tilde{o}\big(\frac{s}{\epsilon} \cdot polylog(d) \big)$のサンプル複雑性が得られる。 即ち、ノイズレート$\nu$を仮定しない非依存モデルでは、我々のアクティブ学習者は、同じランニングタイムとラベルとサンプルの複雑さでエラーレート$O(OPT) + \epsilon$を達成し、$OPT$は任意の均質なハーフスペースによって達成可能な最良のエラーレートであることを示す。

We study {\em online} active learning of homogeneous halfspaces in $\mathbb{R}^d$ with adversarial noise where the overall probability of a noisy label is constrained to be at most $\nu$. Our main contribution is a Perceptron-like online active learning algorithm that runs in polynomial time, and under the conditions that the marginal distribution is isotropic log-concave and $\nu = \Omega(\epsilon)$, where $\epsilon \in (0, 1)$ is the target error rate, our algorithm PAC learns the underlying halfspace with near-optimal label complexity of $\tilde{O}\big(d \cdot polylog(\frac{1}{\epsilon})\big)$ and sample complexity of $\tilde{O}\big(\frac{d}{\epsilon} \big)$. Prior to this work, existing online algorithms designed for tolerating the adversarial noise are subject to either label complexity polynomial in $\frac{1}{\epsilon}$, or suboptimal noise tolerance, or restrictive marginal distributions. With the additional prior knowledge that the underlying halfspace is $s$-sparse, we obtain attribute-efficient label complexity of $\tilde{O}\big( s \cdot polylog(d, \frac{1}{\epsilon}) \big)$ and sample complexity of $\tilde{O}\big(\frac{s}{\epsilon} \cdot polylog(d) \big)$. As an immediate corollary, we show that under the agnostic model where no assumption is made on the noise rate $\nu$, our active learner achieves an error rate of $O(OPT) + \epsilon$ with the same running time and label and sample complexity, where $OPT$ is the best possible error rate achievable by any homogeneous halfspace.
翻訳日:2021-05-01 12:37:33 公開日:2021-01-20
# (参考訳) vis-nirsと機械学習を用いたサトウキビ土壌化学特性の診断

Using vis-NIRS and Machine Learning methods to diagnose sugarcane soil chemical properties ( http://arxiv.org/abs/2012.12995v2 )

ライセンス: CC BY 4.0
Diego A. Delgadillo-Duran, Cesar A. Vargas-Garc\'ia, Viviana M. Var\'on-Ram\'irez, Francisco Calder\'on, Andrea C. Montenegro, Paula H. Reyes-Herrera(参考訳) 化学土壌の性質を知ることは、作物管理と総収量生産において決定的に重要である。 伝統的な資産推定手法は時間を要するため、複雑な実験室の設置が必要であり、農家が作物の最適な慣行を迅速に進めるのを妨げている。 スペクトル信号(vis-NIRS)の特性推定は、低コストで非侵襲的で非破壊的な代替手段として登場した。 現在のアプローチでは、機械学習フレームワークを避けて、数学的および統計的なテクニックを使用する。 そこで本研究では, 一般的な土壌特性(pH, 土壌有機物, Ca, Na, K, Mg)の予測と推定における性能評価を行うため, 機械学習技術を用いた回帰と分類の両方を提案する。 サトウキビの土壌では,土壌の特性と分類を推定し,スペクトルバンド間の直接関係を報告し,その特性の直接測定を行う。 いずれの場合も,文献で報告された同様の設定で同様の結果を得た。

Knowing chemical soil properties might be determinant in crop management and total yield production. Traditional property estimation approaches are time-consuming and require complex lab setups, refraining farmers from taking steps towards optimal practices in their crops promptly. Property estimation from spectral signals(vis-NIRS), emerged as a low-cost, non-invasive, and non-destructive alternative. Current approaches use mathematical and statistical techniques, avoiding machine learning framework. Here we propose both regression and classification with machine learning techniques to assess performance in the prediction and infer categories of common soil properties (pH, soil organic matter, Ca, Na, K, and Mg), evaluated by the most common metrics. In sugarcane soils, we use regression to estimate properties and classification to assess soil's property status and report the direct relation between spectra bands and direct measure of certain properties. In both cases, we achieved similar performance on similar setups reported in the literature.
翻訳日:2021-04-25 19:48:25 公開日:2021-01-20
# (参考訳) 一貫性規則化によるニューラルネットワークのロバスト性向上

Improving the Certified Robustness of Neural Networks via Consistency Regularization ( http://arxiv.org/abs/2012.13103v2 )

ライセンス: CC BY 4.0
Mengting Xu, Tao Zhang, Zhongnian Li, Daoqiang Zhang(参考訳) 敵の例としては、ニューラルネットワークのロバスト性を改善するために、さまざまな防御方法が提案されており、攻撃者に対して証明可能なロバストなニューラルネットワークの訓練に有効であることが示されている。 しかし、これらの証明可能な防御手法のほとんどは、正しく分類された(自然な)例と誤分類された例の間の認定された堅牢性の矛盾した制約を無視して、トレーニングプロセス中にすべての例を平等に扱う。 本稿では, 誤分類例によるこの矛盾を考察し, 誤分類例をよりよく活用するために, 新たな整合性正規化項を追加する。 具体的には,誤分類例と正しく分類された例に対する認定ロバスト性の制約が一致すれば,ネットワークの認証ロバスト性が著しく向上することを確認した。 この発見に動機づけられた新しい防御正規化用語として、誤分類された例の認定された領域におけるすべての例の出力確率分布を制約する誤分類認識敵正規化(maar)を設計した。 実験の結果,提案手法は CIFAR-10 と MNIST のデータセットに対して,いくつかの最先端手法と比較して高い信頼性と精度が得られることがわかった。

A range of defense methods have been proposed to improve the robustness of neural networks on adversarial examples, among which provable defense methods have been demonstrated to be effective to train neural networks that are certifiably robust to the attacker. However, most of these provable defense methods treat all examples equally during training process, which ignore the inconsistent constraint of certified robustness between correctly classified (natural) and misclassified examples. In this paper, we explore this inconsistency caused by misclassified examples and add a novel consistency regularization term to make better use of the misclassified examples. Specifically, we identified that the certified robustness of network can be significantly improved if the constraint of certified robustness on misclassified examples and correctly classified examples is consistent. Motivated by this discovery, we design a new defense regularization term called Misclassification Aware Adversarial Regularization (MAAR), which constrains the output probability distributions of all examples in the certified region of the misclassified example. Experimental results show that our proposed MAAR achieves the best certified robustness and comparable accuracy on CIFAR-10 and MNIST datasets in comparison with several state-of-the-art methods.
翻訳日:2021-04-25 16:10:05 公開日:2021-01-20
# (参考訳) 分散トラヒック信号制御のための変分的・本質的強化学習

Variationally and Intrinsically motivated reinforcement learning for decentralized traffic signal control ( http://arxiv.org/abs/2101.00746v4 )

ライセンス: CC BY 4.0
Liwen Zhu, Peixi Peng, Zongqing Lu, Xiangqian Wang, Yonghong Tian(参考訳) マルチエージェント強化学習の最大の課題の1つはコーディネーションであり、典型的な応用シナリオはトラフィック信号制御である。 近年,多くの研究者を惹きつけ,実際的な意義を持つ熱い研究分野となっている。 本稿では,交通信号調整制御のためのMetaVRS~(Meta Variational Reward Shaping)という新しい手法を提案する。 環境報酬に本質的な報酬をヒューリスティックに適用することにより、MetaVRSはエージェント対エージェントの相互作用を賢明に捉えることができる。 さらに、VAEが生成した潜伏変数は、探索とエクスプロイトの間で自動的にトレードオフを行い、ポリシーを最適化する。 さらに、メタ学習はデコーダで高速な適応と近似のために使われた。 実証的に、MetaVRSは既存の手法よりも大幅に優れ、適応性も優れており、マルチエージェントの信号調整制御において予測できるほど重要となる。

One of the biggest challenges in multi-agent reinforcement learning is coordination, a typical application scenario of this is traffic signal control. Recently, it has attracted a rising number of researchers and has become a hot research field with great practical significance. In this paper, we propose a novel method called MetaVRS~(Meta Variational RewardShaping) for traffic signal coordination control. By heuristically applying the intrinsic reward to the environmental reward, MetaVRS can wisely capture the agent-to-agent interplay. Besides, latent variables generated by VAE are brought into policy for automatically tradeoff between exploration and exploitation to optimize the policy. In addition, meta learning was used in decoder for faster adaptation and better approximation. Empirically, we demonstate that MetaVRS substantially outperforms existing methods and shows superior adaptability, which predictably has a far-reaching significance to the multi-agent traffic signal coordination control.
翻訳日:2021-04-12 08:17:21 公開日:2021-01-20
# (参考訳) 電車用ホイールセットの残存寿命と故障型に関する共同予測:マルチタスク学習によるアプローチ

Joint Prediction of Remaining Useful Life and Failure Type of Train Wheelsets: A Multi-task Learning Approach ( http://arxiv.org/abs/2101.03497v2 )

ライセンス: CC0 1.0
Weixin Wang(参考訳) 列車の車輪の故障は、列車の運行の混乱や、多くの列車脱線の原因となっている。 ホイールセットの有用な寿命(RUL)は、次の障害がいつ到着するかを計測し、障害タイプは障害がどれほど深刻かを明らかにする。 RUL予測は回帰タスクであり、障害タイプは分類タスクである。 本稿では,共通入力空間を用いてより望ましい結果を得るために,これら2つのタスクを共同で達成するためのマルチタスク学習手法を提案する。 我々は,最小二乗損失とロジスティック回帰の負の最大可能性の両方を統合する凸最適化式を開発し,モデルパラメータのL2/L1ノルムとして結合空間をモデル化し,タスク間の特徴選択を結合する。 実験の結果,提案手法は1タスク学習法よりも予測精度が3%高いことがわかった。

The failures of train wheels account for disruptions of train operations and even a large portion of train derailments. Remaining useful life (RUL) of a wheelset measures the how soon the next failure will arrive, and the failure type reveals how severe the failure will be. RUL prediction is a regression task, whereas failure type is a classification task. In this paper, we propose a multi-task learning approach to jointly accomplish these two tasks by using a common input space to achieve more desirable results. We develop a convex optimization formulation to integrate both least square loss and the negative maximum likelihood of logistic regression, and model the joint sparsity as the L2/L1 norm of the model parameters to couple feature selection across tasks. The experiment results show that our method outperforms the single task learning method by 3% in prediction accuracy.
翻訳日:2021-04-09 05:58:39 公開日:2021-01-20
# テキスト分類のためのオンデバイスパーソナライズによる逆ロバスト・説明可能なモデル圧縮

Adversarially Robust and Explainable Model Compression with On-Device Personalization for Text Classification ( http://arxiv.org/abs/2101.05624v3 )

ライセンス: Link先を確認
Yao Qiang, Supriya Tumkur Suresh Kumar, Marco Brocanelli and Dongxiao Zhu(参考訳) モバイルデバイスのコンピューティング能力の増大とコンピュータビジョン(CV)、自然言語処理(NLP)、モノのインターネット(IoT)のアプリケーション数の増加により、オンデバイスディープニューラルネットワーク(DNN)が最近注目を集めている。 残念なことに、CVタスク用に設計された既存の効率的な畳み込みニューラルネットワーク(CNN)アーキテクチャは、NLPタスクに直接適用されず、小さなリカレントニューラルネットワーク(RNN)アーキテクチャは、主にIoTアプリケーション向けに設計されている。 nlpアプリケーションでは、モデル圧縮はデバイス上のテキスト分類で初期成功をおさめているが、少なくとも3つの大きな課題、敵意の堅牢性、説明可能性、パーソナライゼーションが解決されていない。 本稿では,説明可能な特徴マッピング目標,知識蒸留目的,敵対的ロバスト性目標の最適化を含む,モデル圧縮と敵対的ロバストネスの新しいトレーニングスキームを設計することにより,これらの課題に取り組む。 得られた圧縮モデルは、微調整によるデバイス上のプライベートトレーニングデータを用いてパーソナライズされる。 我々は、我々のアプローチを、コンパクトなRNN(例えば、FastGRNN)と圧縮されたRNN(例えば、PRADO)アーキテクチャの両方と比較するために、自然および敵対的なNLPテスト設定の両方で、広範な実験を行う。

On-device Deep Neural Networks (DNNs) have recently gained more attention due to the increasing computing power of the mobile devices and the number of applications in Computer Vision (CV), Natural Language Processing (NLP), and Internet of Things (IoTs). Unfortunately, the existing efficient convolutional neural network (CNN) architectures designed for CV tasks are not directly applicable to NLP tasks and the tiny Recurrent Neural Network (RNN) architectures have been designed primarily for IoT applications. In NLP applications, although model compression has seen initial success in on-device text classification, there are at least three major challenges yet to be addressed: adversarial robustness, explainability, and personalization. Here we attempt to tackle these challenges by designing a new training scheme for model compression and adversarial robustness, including the optimization of an explainable feature mapping objective, a knowledge distillation objective, and an adversarially robustness objective. The resulting compressed model is personalized using on-device private training data via fine-tuning. We perform extensive experiments to compare our approach with both compact RNN (e.g., FastGRNN) and compressed RNN (e.g., PRADO) architectures in both natural and adversarial NLP test settings.
翻訳日:2021-04-08 08:22:17 公開日:2021-01-20
# (参考訳) U-Noise:解釈可能な画像分割のための学習可能なノイズマスク

U-Noise: Learnable Noise Masks for Interpretable Image Segmentation ( http://arxiv.org/abs/2101.05791v2 )

ライセンス: CC BY 4.0
Teddy Koker, Fatemehsadat Mireshghallah, Tom Titcombe, Georgios Kaissis(参考訳) ディープニューラルネットワーク(Deep Neural Networks, DNN)は、医療から社会的、司法まで、さまざまな重要な応用における意思決定に広く利用されている。 これらの決定の重要性を考えると、これらのモデルを解釈できることは重要です。 下流モデルの性能を損なうことなく,ノイズが適用可能な画像の領域を学習することにより,画像分割モデルを解釈する新しい手法を提案する。 本手法はCTスキャンにおける膵の分画に応用し,Grad-CAMやオクルージョン感度などの既存の説明可能性技術と比較した。 さらに,他の手法と異なり,不明瞭な画像に対する下流性能に基づいて,解釈可能性モデルを定量的に評価できることを示す。

Deep Neural Networks (DNNs) are widely used for decision making in a myriad of critical applications, ranging from medical to societal and even judicial. Given the importance of these decisions, it is crucial for us to be able to interpret these models. We introduce a new method for interpreting image segmentation models by learning regions of images in which noise can be applied without hindering downstream model performance. We apply this method to segmentation of the pancreas in CT scans, and qualitatively compare the quality of the method to existing explainability techniques, such as Grad-CAM and occlusion sensitivity. Additionally we show that, unlike other methods, our interpretability model can be quantitatively evaluated based on the downstream performance over obscured images.
翻訳日:2021-03-29 03:46:08 公開日:2021-01-20
# (参考訳) tc-dtw: 三角不等式と点クラスタリングによる多変量動的時間ゆがみの促進

TC-DTW: Accelerating Multivariate Dynamic Time Warping Through Triangle Inequality and Point Clustering ( http://arxiv.org/abs/2101.07731v2 )

ライセンス: CC BY 4.0
Daniel Shen, Min Chi(参考訳) dynamic time warping (dtw) は時系列分析において重要な役割を果たす。 単変量DTWの高速化に関する大規模な研究にもかかわらず、多変量DTWの方法は過去20年間あまり改善されていない。 今日最もよく使われているアルゴリズムは17年前に開発されたアルゴリズムである。 本稿では,我々が知る限りでは,データセットサイズ,時系列長,データサイズ,時間窓サイズ,マシン間で,従来の多変量dtwアルゴリズムを一貫して上回る解を提案する。 TC-DTWという名前の新しいソリューションは、多変量DTWの低境界計算におけるアルゴリズム設計に三角不等式とポイントクラスタリングを導入している。 DTWをベースとした近接探索実験では、新しい解は最大98%(平均60%)のDTW距離計算を回避し、最大25倍(平均7.5倍)のスピードアップをもたらす。

Dynamic time warping (DTW) plays an important role in analytics on time series. Despite the large body of research on speeding up univariate DTW, the method for multivariate DTW has not been improved much in the last two decades. The most popular algorithm used today is still the one developed seventeen years ago. This paper presents a solution that, as far as we know, for the first time consistently outperforms the classic multivariate DTW algorithm across dataset sizes, series lengths, data dimensions, temporal window sizes, and machines. The new solution, named TC-DTW, introduces Triangle Inequality and Point Clustering into the algorithm design on lower bound calculations for multivariate DTW. In experiments on DTW-based nearest neighbor finding, the new solution avoids as much as 98% (60% average) DTW distance calculations and yields as much as 25X (7.5X average) speedups.
翻訳日:2021-03-28 14:56:10 公開日:2021-01-20
# ガウス連続過程の離散時間と連続時間の記述の関連

The Connection between Discrete- and Continuous-Time Descriptions of Gaussian Continuous Processes ( http://arxiv.org/abs/2101.06482v2 )

ライセンス: Link先を確認
Federica Ferretti, Victor Chard\`es, Thierry Mora, Aleksandra M Walczak, Irene Giardina(参考訳) 離散観測から運動の連続方程式を学ぶことは物理学のあらゆる分野において共通の課題である。 しかし、ガウス連続時間確率過程の離散化はパラメトリック推論では適用できない。 我々は、一貫した推定値を得る離散化が、粗粒度の下での不変性を持ち、自己回帰移動平均(ARMA)モデル(線形過程)の空間上の正規化群マップの固定点に対応することを示す。 この結果から, 2次あるいはそれ以上の確率微分方程式の時系列解析では, 微分再構成法と局所インタイム推論法では, 積分スキームが数値シミュレーションに好適であっても, 差分スキームを組み合わせることがうまくいかないことを説明できる。

Learning the continuous equations of motion from discrete observations is a common task in all areas of physics. However, not any discretization of a Gaussian continuous-time stochastic process can be adopted in parametric inference. We show that discretizations yielding consistent estimators have the property of `invariance under coarse-graining', and correspond to fixed points of a renormalization group map on the space of autoregressive moving average (ARMA) models (for linear processes). This result explains why combining differencing schemes for derivatives reconstruction and local-in-time inference approaches does not work for time series analysis of second or higher order stochastic differential equations, even if the corresponding integration schemes may be acceptably good for numerical simulations.
翻訳日:2021-03-28 04:33:36 公開日:2021-01-20
# T代数を用いた一般化画像再構成

Generalized Image Reconstruction over T-Algebra ( http://arxiv.org/abs/2101.06650v2 )

ライセンス: Link先を確認
Liang Liao, Xuechun Zhang, Xinqiang Wang, Sen Lin, Xin Liu(参考訳) 主成分分析(PCA)はその次元削減とデータ圧縮の能力でよく知られている。 しかし、画像の圧縮/再構成にPCAを使用する場合、イメージをベクトルに再キャストする必要がある。 画像のベクトル化は、隣接する画素と空間情報の相関制約を生じさせる。 そこで我々は,PCAが採用するベクトル化の欠点に対処するため,各画素の小さな近傍を用いて複合画素を形成し,TPCA(Tensorial principal Component Analysis)と呼ばれるPCAのテンソルバージョンを用いて複合画素の合成画像の圧縮と再構成を行った。 公開データを用いた実験の結果, TPCAは画像の圧縮と再構成においてPCAと良好に比較できることがわかった。 また, 複合画素の順序が大きくなるとTPCAの性能が向上することを示した。

Principal Component Analysis (PCA) is well known for its capability of dimension reduction and data compression. However, when using PCA for compressing/reconstructing images, images need to be recast to vectors. The vectorization of images makes some correlation constraints of neighboring pixels and spatial information lost. To deal with the drawbacks of the vectorizations adopted by PCA, we used small neighborhoods of each pixel to form compounded pixels and use a tensorial version of PCA, called TPCA (Tensorial Principal Component Analysis), to compress and reconstruct a compounded image of compounded pixels. Our experiments on public data show that TPCA compares favorably with PCA in compressing and reconstructing images. We also show in our experiments that the performance of TPCA increases when the order of compounded pixels increases.
翻訳日:2021-03-27 20:19:48 公開日:2021-01-20
# バイオメディカルデータのための最近のグラフ埋め込み技術に関する文献レビュー

A Literature Review of Recent Graph Embedding Techniques for Biomedical Data ( http://arxiv.org/abs/2101.06569v2 )

ライセンス: Link先を確認
Yankai Chen and Yaozu Wu and Shicheng Ma and Irwin King(参考訳) バイオメディカルソフトウェアとハードウェアの急速な発展に伴い、遺伝子、タンパク質、化学成分、薬物、疾患、症状を相互に結合する大量の関連データが現代のバイオメディカル研究のために収集されている。 多くのグラフベースの学習手法がそのようなデータを分析するために提案されており、バイオメディカルデータの背後にあるトポロジと知識について深い洞察を与えている。 しかし、主な困難は、バイオメディカルグラフの高次元性と空間性を扱う方法である。 近年,グラフ埋め込み手法は上記の問題に効果的かつ効率的な対処方法を提供している。 グラフに基づくデータを、グラフ構造特性と知識情報がよく保存されている低次元ベクトル空間に変換する。 本研究では,最近の生物医学データへのグラフ埋め込み手法の適用動向について文献レビューを行う。 また, バイオメディカル領域および関連する公的バイオメディカルデータセットにおいて, 重要な応用と課題を紹介する。

With the rapid development of biomedical software and hardware, a large amount of relational data interlinking genes, proteins, chemical components, drugs, diseases, and symptoms has been collected for modern biomedical research. Many graph-based learning methods have been proposed to analyze such type of data, giving a deeper insight into the topology and knowledge behind the biomedical data, which greatly benefit to both academic research and industrial application for human healthcare. However, the main difficulty is how to handle high dimensionality and sparsity of the biomedical graphs. Recently, graph embedding methods provide an effective and efficient way to address the above issues. It converts graph-based data into a low dimensional vector space where the graph structural properties and knowledge information are well preserved. In this survey, we conduct a literature review of recent developments and trends in applying graph embedding methods for biomedical data. We also introduce important applications and tasks in the biomedical domain as well as associated public biomedical datasets.
翻訳日:2021-03-27 20:18:45 公開日:2021-01-20
# 鉄道における実時間目標レス動的変位計測のための深層学習に基づく仮想点追跡

Deep Learning based Virtual Point Tracking for Real-Time Target-less Dynamic Displacement Measurement in Railway Applications ( http://arxiv.org/abs/2101.06702v2 )

ライセンス: Link先を確認
Dachuan Shi, Eldar Sabanovic, Luca Rizzetto, Viktor Skrickij, Roberto Oliverio, Nadia Kaviani, Yunguang Ye, Gintautas Bureika, Stefano Ricci, Markus Hecht(参考訳) コンピュータビジョンに基づく変位測定の応用では、通常、参照を証明するために光学的目標が必要となる。 光ターゲットが測定対象に装着できない場合、エッジ検出、特徴マッチング、テンプレートマッチングがターゲットレスフォトグラムの最も一般的なアプローチである。 しかし、その性能はパラメータの設定に大きく依存する。 これは複雑な背景テクスチャが存在し、時間とともに変化する動的シーンでは問題となる。 この問題に対処するために,ディープラーニング技術とドメイン知識を取り入れたリアルタイムターゲットレス動的変位計測のための仮想点追跡を提案する。 提案手法は,1)関心領域検出のための自動校正,2)深部畳み込みニューラルネットワークを用いた各ビデオフレームの仮想点検出,3)隣接フレームにおける点追跡のためのドメイン知識ベースルールエンジンの3段階からなる。 提案手法はエッジコンピュータ上でリアルタイムに実行できる(例: エッジコンピュータ)。 毎秒30フレーム以上)。 そこで本研究では, 運転中にレールの車輪の水平変位を計測した鉄道への適用例を示す。 また,比較基準としてテンプレートマッチングと線検出を用いたアルゴリズムを実装した。 本研究は, 騒音, 背景の異なる厳しい鉄道環境下でのアプローチの性能と遅延を評価するため, 数値実験を行った。

In the application of computer-vision based displacement measurement, an optical target is usually required to prove the reference. In the case that the optical target cannot be attached to the measuring objective, edge detection, feature matching and template matching are the most common approaches in target-less photogrammetry. However, their performance significantly relies on parameter settings. This becomes problematic in dynamic scenes where complicated background texture exists and varies over time. To tackle this issue, we propose virtual point tracking for real-time target-less dynamic displacement measurement, incorporating deep learning techniques and domain knowledge. Our approach consists of three steps: 1) automatic calibration for detection of region of interest; 2) virtual point detection for each video frame using deep convolutional neural network; 3) domain-knowledge based rule engine for point tracking in adjacent frames. The proposed approach can be executed on an edge computer in a real-time manner (i.e. over 30 frames per second). We demonstrate our approach for a railway application, where the lateral displacement of the wheel on the rail is measured during operation. We also implement an algorithm using template matching and line detection as the baseline for comparison. The numerical experiments have been performed to evaluate the performance and the latency of our approach in the harsh railway environment with noisy and varying backgrounds.
翻訳日:2021-03-27 20:16:42 公開日:2021-01-20
# (参考訳) HarDNet-MSEG: 0.9平均深度と86FPSを達成した簡易エンコーダデコーダポリプセグメンテーションニューラルネットワーク

HarDNet-MSEG: A Simple Encoder-Decoder Polyp Segmentation Neural Network that Achieves over 0.9 Mean Dice and 86 FPS ( http://arxiv.org/abs/2101.07172v2 )

ライセンス: CC BY-SA 4.0
Chien-Hsiang Huang, Hung-Yu Wu, and Youn-Long Lin(参考訳) 本稿では,ポリプセグメンテーションのための新しい畳み込みニューラルネットワークHarDNet-MSEGを提案する。 一般的な5つのデータセットの精度と推論速度の両方でSOTAを実現する。 Kvasir-SEGでは、HarDNet-MSEGが0.904で、GeForce RTX 2080 Ti GPU上で86.7 FPSで動作する。 バックボーンとデコーダで構成される。 バックボーンは、HarDNet68と呼ばれる低メモリトラフィックCNNで、画像分類、オブジェクト検出、マルチオブジェクト追跡、セマンティックセグメンテーションなど、さまざまなCVタスクにうまく適用されている。 デコーダ部はカスケード部分デコーダにインスパイアされ、高速かつ正確な正当性検出で知られている。 この5つの一般的なデータセットを用いてHarDNet-MSEGを評価した。 コードと実験の詳細はgithubで公開されている。 https://github.com/james128333/HarDNet-MSEG

We propose a new convolution neural network called HarDNet-MSEG for polyp segmentation. It achieves SOTA in both accuracy and inference speed on five popular datasets. For Kvasir-SEG, HarDNet-MSEG delivers 0.904 mean Dice running at 86.7 FPS on a GeForce RTX 2080 Ti GPU. It consists of a backbone and a decoder. The backbone is a low memory traffic CNN called HarDNet68, which has been successfully applied to various CV tasks including image classification, object detection, multi-object tracking and semantic segmentation, etc. The decoder part is inspired by the Cascaded Partial Decoder, known for fast and accurate salient object detection. We have evaluated HarDNet-MSEG using those five popular datasets. The code and all experiment details are available at Github. https://github.com/james128333/HarDNet-MSEG
翻訳日:2021-03-27 10:07:56 公開日:2021-01-20
# (参考訳) monah: 会話を分析するためのマルチモーダルな物語

MONAH: Multi-Modal Narratives for Humans to analyze conversations ( http://arxiv.org/abs/2101.07339v2 )

ライセンス: CC BY 4.0
Joshua Y. Kim, Greyson Y. Kim, Chunfeng Liu, Rafael A. Calvo, Silas C.R. Taylor, Kalina Yacef(参考訳) 会話分析では、人間が手動でマルチモーダル情報をテキストに織り込む。 本稿では,マルチモーダルデータストリームを用いて,ビデオ録画会話の口頭転写を自動拡張するシステムを提案する。 本システムは,複数モーダルアノテーションを動詞の転写文に織り込み,解釈可能性を高めるために,事前処理ルールのセットを使用する。 ひとつは、rapport-buildingの検出に関連するマルチモーダルな機能の範囲を特定し、もうひとつは、マルチモーダルアノテーションの範囲を拡大し、拡張によってrapport-buildingの検出が統計的に著しく改善されたことを示しています。

In conversational analyses, humans manually weave multimodal information into the transcripts, which is significantly time-consuming. We introduce a system that automatically expands the verbatim transcripts of video-recorded conversations using multimodal data streams. This system uses a set of preprocessing rules to weave multimodal annotations into the verbatim transcripts and promote interpretability. Our feature engineering contributions are two-fold: firstly, we identify the range of multimodal features relevant to detect rapport-building; secondly, we expand the range of multimodal annotations and show that the expansion leads to statistically significant improvements in detecting rapport-building.
翻訳日:2021-03-27 07:15:21 公開日:2021-01-20
# (参考訳) マルチモードおよび2重み付きテンソル核ノルム最小化によるハイパースペクトル画像復元

Hyperspectral Image Restoration via Multi-mode and Double-weighted Tensor Nuclear Norm Minimization ( http://arxiv.org/abs/2101.07681v2 )

ライセンス: CC BY 4.0
Sheng Liu, Xiaozhen Xie and Wenfeng Kong(参考訳) テンソル特異値分解によって引き起こされるテンソル核ノルム(TNN)は、ハイパースペクトル画像(HSI)復元タスクにおいて重要な役割を果たす。 本稿ではまず,TNNにおける3つの重要な現象について考察する。 HSIのフーリエ変換領域では、異なる周波数成分は異なる情報を含み、各周波数成分の異なる特異値も異なる情報を表す。 2つの物理現象はスペクトル次元だけでなく、空間次元にも存在している。 そして,HSI修復におけるTNNの能力と柔軟性を向上させるために,上記の3つの重要な現象に基づいた多モード・二重重み付きTNNを提案する。 HSIの全てのモードにおいて、周波数成分と特異値の物理的意味に応じて適応的に縮小することができる。 乗算器の交互方向法(alternating direction method of multipliers)の枠組みにおいて,提案手法を最適化する効果的な交互方向反復戦略を考案する。 合成HSIデータセットと実HSIデータセットの復元実験は、関連する手法よりも優れていることを示した。

Tensor nuclear norm (TNN) induced by tensor singular value decomposition plays an important role in hyperspectral image (HSI) restoration tasks. In this letter, we first consider three inconspicuous but crucial phenomenons in TNN. In the Fourier transform domain of HSIs, different frequency components contain different information; different singular values of each frequency component also represent different information. The two physical phenomenons lie not only in the spectral dimension but also in the spatial dimensions. Then, to improve the capability and flexibility of TNN for HSI restoration, we propose a multi-mode and double-weighted TNN based on the above three crucial phenomenons. It can adaptively shrink the frequency components and singular values according to their physical meanings in all modes of HSIs. In the framework of the alternating direction method of multipliers, we design an effective alternating iterative strategy to optimize our proposed model. Restoration experiments on both synthetic and real HSI datasets demonstrate their superiority against related methods.
翻訳日:2021-03-23 00:41:14 公開日:2021-01-20
# 予め訓練されたタスクネットワークを組み込んだマルチスライス型MR画像からの教師なし領域適応

Unsupervised Domain Adaptation from Axial to Short-Axis Multi-Slice Cardiac MR Images by Incorporating Pretrained Task Networks ( http://arxiv.org/abs/2101.07653v2 )

ライセンス: Link先を確認
Sven Koehler, Tarique Hussain, Zach Blair, Tyler Huffaker, Florian Ritzmann, Animesh Tandon, Thomas Pickardt, Samir Sarikouch, Heiner Latus, Gerald Greil, Ivo Wolf, Sandy Engelhardt(参考訳) 異方性多重スライス心磁気共鳴(CMR)画像は従来,患者特異的短軸方向(SAX)で取得されていた。 右室形態(rv)に影響を及ぼす特定の心血管疾患では、治療計画においてrv容積測定が優れている可能性があるため、標準軸方向(ax)の獲得が好ましい。 残念ながら、これらの病気のまれな発生のため、この領域のデータは少ない。 近年,SAX CMR画像に焦点をあてた深層学習手法の研究が盛んに行われている。 本研究では, AX 画像と SAX 画像の間に領域シフトがかなりあり, 既存のモデルを直接適用することで, AX サンプルに対して準最適結果が得られることを示す。 本稿では,注意機構にタスク関連確率を用いる,教師なしドメイン適応手法を提案する。 さらに、AX画像をSAX配向に自動的に再サンプリングする際の安定性を向上させるために、学習した患者と個別の3D剛体変換にサイクル一貫性が課される。 ネットワークは122個の登録された3d ax-sax cmrボリュームペアで訓練された。 平均3Dディスは左心室では0.86\pm{0.06}$、心筋では0.65\pm{0.08}$、右心室では0.77\pm{0.10}$である。 これは、アキシャルスライスへの直接適用と比較して、RV向けのDiceの25\%$の改善である。 結論として、トレーニング済みのタスクモジュールは、対象ドメインからのCMRイメージやラベルは見ていないが、ドメインギャップが減った後にセグメント化することが可能である。 コード:https://github.com/Cardio-AI/3d-mri- domain-adaptation

Anisotropic multi-slice Cardiac Magnetic Resonance (CMR) Images are conventionally acquired in patient-specific short-axis (SAX) orientation. In specific cardiovascular diseases that affect right ventricular (RV) morphology, acquisitions in standard axial (AX) orientation are preferred by some investigators, due to potential superiority in RV volume measurement for treatment planning. Unfortunately, due to the rare occurrence of these diseases, data in this domain is scarce. Recent research in deep learning-based methods mainly focused on SAX CMR images and they had proven to be very successful. In this work, we show that there is a considerable domain shift between AX and SAX images, and therefore, direct application of existing models yield sub-optimal results on AX samples. We propose a novel unsupervised domain adaptation approach, which uses task-related probabilities in an attention mechanism. Beyond that, cycle consistency is imposed on the learned patient-individual 3D rigid transformation to improve stability when automatically re-sampling the AX images to SAX orientations. The network was trained on 122 registered 3D AX-SAX CMR volume pairs from a multi-centric patient cohort. A mean 3D Dice of $0.86\pm{0.06}$ for the left ventricle, $0.65\pm{0.08}$ for the myocardium, and $0.77\pm{0.10}$ for the right ventricle could be achieved. This is an improvement of $25\%$ in Dice for RV in comparison to direct application on axial slices. To conclude, our pre-trained task module has neither seen CMR images nor labels from the target domain, but is able to segment them after the domain gap is reduced. Code: https://github.com/Cardio-AI/3d-mri-domain-adaptation
翻訳日:2021-03-22 11:25:16 公開日:2021-01-20
# (参考訳) autocart -- 環境・空間モデリングのための空間認識回帰木

Autocart -- spatially-aware regression trees for ecological and spatial modeling ( http://arxiv.org/abs/2101.08258v1 )

ライセンス: CC BY 4.0
Ethan Ancell, Brennan Bean(参考訳) 多くの生態学的および空間的過程は本質的に複雑であり、線形モデルによって正確にモデル化されていない。 回帰木は、生態的および空間的なデータセットに存在する高次相互作用を扱うが、下層の景観を物理的にリアルに特徴づけることができない。 autocart (autocorrelated regression tree) rパッケージは、空間的に認識された分割関数と新しい適応的逆距離重み付け法を通じて、以前提案していた空間回帰木法の機能を拡張したものである。 ランダム森林のオートカート拡張を含むこれらのオートカートモデルの有効性を複数のデータセットで示す。 これは、空間変数間の複雑な相互作用をモデル化し、ランドスケープを物理的にリアルに表現する能力を強調している。

Many ecological and spatial processes are complex in nature and are not accurately modeled by linear models. Regression trees promise to handle the high-order interactions that are present in ecological and spatial datasets, but fail to produce physically realistic characterizations of the underlying landscape. The "autocart" (autocorrelated regression trees) R package extends the functionality of previously proposed spatial regression tree methods through a spatially aware splitting function and novel adaptive inverse distance weighting method in each terminal node. The efficacy of these autocart models, including an autocart extension of random forest, is demonstrated on multiple datasets. This highlights the ability of autocart to model complex interactions between spatial variables while still providing physically realistic representations of the landscape.
翻訳日:2021-03-22 09:44:47 公開日:2021-01-20
# (参考訳) 中国における学術論文のフルテキストコンテンツを用いた情報科学の方法論分類

Using Full-text Content of Academic Articles to Build a Methodology Taxonomy of Information Science in China ( http://arxiv.org/abs/2101.07924v1 )

ライセンス: CC BY 4.0
Heng Zhang, Chengzhi Zhang(参考訳) 従来の情報科学方法論の分類に関する研究は、主に手作業で行われている。 限られたコーパスから、研究者はいくつかの研究方法論エンティティをいくつかの抽象レベル(一般的には3段階)にまとめようとしたが、より粒度の細かい階層を提供することはできなかった。 さらに、方法論の分類の更新は伝統的に遅いプロセスである。 本研究では,情報科学に関する全文学術論文を収集した。 まず, 手動アノテーションにより3段階の基本的な分類法を構築した。 次に,全文データを用いて,研究方法論エンティティの単語ベクトルを訓練した。 そこで, 研究方法論の実体をクラスタリングし, 基礎方法論の分類法をクラスタリング結果を用いて拡張し, よりレベルの高い方法論の分類法を得た。 本研究は情報科学の方法論分類法を構築するための新しい概念を提供する。 提案手法は半自動的であり, 従来の手法よりも詳細であり, 分類の更新速度が向上している。

Research on the construction of traditional information science methodology taxonomy is mostly conducted manually. From the limited corpus, researchers have attempted to summarize some of the research methodology entities into several abstract levels (generally three levels); however, they have been unable to provide a more granular hierarchy. Moreover, updating the methodology taxonomy is traditionally a slow process. In this study, we collected full-text academic papers related to information science. First, we constructed a basic methodology taxonomy with three levels by manual annotation. Then, the word vectors of the research methodology entities were trained using the full-text data. Accordingly, the research methodology entities were clustered and the basic methodology taxonomy was expanded using the clustering results to obtain a methodology taxonomy with more levels. This study provides new concepts for constructing a methodology taxonomy of information science. The proposed methodology taxonomy is semi-automated; it is more detailed than conventional schemes and the speed of taxonomy renewal has been enhanced.
翻訳日:2021-03-22 09:26:41 公開日:2021-01-20
# (参考訳) 雑音学習に基づくDenoising Autoencoder

Noise Learning Based Denoising Autoencoder ( http://arxiv.org/abs/2101.07937v1 )

ライセンス: CC BY 4.0
Woong-Hee Lee, Mustafa Ozger, Ursula Challita, and Ki Won Sung(参考訳) 本稿では,ノイズ学習に基づくDAE(nlDAE)という,DAE(Denoising Autoencoder)の構造を改良した新しいデノイザを紹介する。 提案したnlDAEは、元のデータではなくノイズを学習する。 そして、ノイズ入力から再生ノイズを減算して減音を行う。 したがって、nlDAEは、ノイズが元のデータよりも簡単に再生できる場合、DAEよりも効果的である。 nlDAEの性能を検証するために,シンボルの復調と正確な位置推定の2つのケーススタディを提案する。 数値的な結果から,nlDAE は DAE と比較して遅延空間次元が小さく,トレーニングデータセットが小さいことが示唆された。

This letter introduces a new denoiser that modifies the structure of denoising autoencoder (DAE), namely noise learning based DAE (nlDAE). The proposed nlDAE learns the noise instead of the original data. Then, the denoising is performed by subtracting the regenerated noise from the noisy input. Hence, nlDAE is more effective than DAE when the noise is simpler to regenerate than the original data. To validate the performance of nlDAE, we provide two case studies: symbol demodulation and precise localization. Numerical results suggest that nlDAE requires smaller latent space dimension and less training dataset compared to DAE.
翻訳日:2021-03-22 09:25:44 公開日:2021-01-20
# (参考訳) HIVE-4-MAT:材料科学のオントロジー基盤の整備

HIVE-4-MAT: Advancing the Ontology Infrastructure for Materials Science ( http://arxiv.org/abs/2101.07960v1 )

ライセンス: CC BY 4.0
Jane Greenberg, Xintong Zhao, Joseph Adair, Joan Boone and Xiaohua Tony Hu(参考訳) hive-4-mat - 自動リンクデータオントロジーアプリケーションである材料科学における学際的語彙工学を支援する。 材料科学の文脈的背景、共有オントロジーのインフラをカバーし、知識抽出と索引付けのプロセスをレビューする。 HIVE-4-MATの語彙ブラウジング、用語検索と選択、知識抽出と索引付けをレビューし、名前付きエンティティ認識を統合する計画である。 結論 より良いオントロジーをサポートするための関係抽出を伴う次のステップを強調する。

Introduces HIVE-4-MAT - Helping Interdisciplinary Vocabulary Engineering for Materials Science, an automatic linked data ontology application. Covers contextual background for materials science, shared ontology infrastructures, and reviews the knowledge extraction and indexing process. HIVE-4-MAT's vocabulary browsing, term search and selection, and knowledge extraction and indexing are reviewed, and plans to integrate named entity recognition. Conclusion highlights next steps with relation extraction to support better ontologies.
翻訳日:2021-03-22 09:01:58 公開日:2021-01-20
# (参考訳) VOTE400 (Voide of the elderly 400 hourss):高齢者用音声インタフェース研究のための音声データセット

VOTE400(Voide Of The Elderly 400 Hours): A Speech Dataset to Study Voice Interface for Elderly-Care ( http://arxiv.org/abs/2101.11469v1 )

ライセンス: CC BY 4.0
Minsu Jang, Sangwon Seo, Dohyung Kim, Jaeyeon Lee, Jaehong Kim, Jun-Hwan Ahn(参考訳) 本稿では,高齢者の声の分析と認識に使用できる,VOTE400という大規模韓国語音声データセットを提案する。 データセットには、65歳以上の高齢者によって記録された、約300時間の連続対話音声と100時間の読み上げ音声が含まれている。 予備実験により,VOTE400で訓練した音声認識システムは,高齢者の声の音声認識において従来のシステムよりも優れることが示された。 本研究は, 介護ロボットの音声認識性能向上を目的として, ETRI と MINDs Lab が主導する多組織的取り組みである。

This paper introduces a large-scale Korean speech dataset, called VOTE400, that can be used for analyzing and recognizing voices of the elderly people. The dataset includes about 300 hours of continuous dialog speech and 100 hours of read speech, both recorded by the elderly people aged 65 years or over. A preliminary experiment showed that speech recognition system trained with VOTE400 can outperform conventional systems in speech recognition of elderly people's voice. This work is a multi-organizational effort led by ETRI and MINDs Lab Inc. for the purpose of advancing the speech recognition performance of the elderly-care robots.
翻訳日:2021-03-22 08:55:01 公開日:2021-01-20
# (参考訳) 半教師付きキーポイントローカライゼーション

Semi-supervised Keypoint Localization ( http://arxiv.org/abs/2101.07988v1 )

ライセンス: CC BY 4.0
Olga Moskvyak, Frederic Maire, Feras Dayoub, Mahsa Baktashmotlagh(参考訳) 画像中の物体のキーポイントの位置に関する知識は、特に野生動物のような視覚的な外観に大きな影響を与えるポーズに大きなバリエーションを示す物体の場合において、きめ細かい分類と識別作業を支援することができる。 しかし、キーポイント検出ネットワークの教師付きトレーニングでは、動物種ごとに大きな画像データセットをアノテートする必要がある。 ラベル付きデータの必要性を低減するため,ラベル付き画像の小さなセットとラベル付き画像のより大きなセットを用いて,キーポイントのヒートマップと不変キーポイント表現を半教師付きで同時に学習することを提案する。 キーポイント表現は、キーポイント検出ネットワークがデータセット全体で同じキーポイントについて同様の機能を学ぶことを強制する、セマンティックなキーポイント一貫性制約で学習される。 ポーズ不変性は、画像とその拡張コピーのキーポイント表現を特徴空間に近づけることで達成される。 半教師付きアプローチは,人間および動物の身体のランドマークの定位に関するいくつかのベンチマークにおいて,これまでの手法を大きく上回っている。

Knowledge about the locations of keypoints of an object in an image can assist in fine-grained classification and identification tasks, particularly for the case of objects that exhibit large variations in poses that greatly influence their visual appearance, such as wild animals. However, supervised training of a keypoint detection network requires annotating a large image dataset for each animal species, which is a labor-intensive task. To reduce the need for labeled data, we propose to learn simultaneously keypoint heatmaps and pose invariant keypoint representations in a semi-supervised manner using a small set of labeled images along with a larger set of unlabeled images. Keypoint representations are learnt with a semantic keypoint consistency constraint that forces the keypoint detection network to learn similar features for the same keypoint across the dataset. Pose invariance is achieved by making keypoint representations for the image and its augmented copies closer together in feature space. Our semi-supervised approach significantly outperforms previous methods on several benchmarks for human and animal body landmark localization.
翻訳日:2021-03-22 08:07:24 公開日:2021-01-20
# (参考訳) 2次元リアルタイムSLAMと正確な位置推定のための符号付き距離関数の改良

Improved Signed Distance Function for 2D Real-time SLAM and Accurate Localization ( http://arxiv.org/abs/2101.08018v1 )

ライセンス: CC BY 4.0
Xingyin Fu, Zheng Fang, Xizhen Xiao, Yijia He, Xiao Liu(参考訳) 正確なマッピングとローカライゼーションは多くの産業ロボティクスアプリケーションにとって非常に重要である。 本稿では,2次元スラムと純粋局所化の両方に対する符号付き距離関数(sdf)の改良を提案し,マッピングと局所化の精度を向上させる。 この目標を達成するため、まず、更新範囲を拡張し、自由空間を構築することで、より正確なSDFマップを構築するためにバックエンドマッピングを改善しました。 次に,レーザスキャナの無作為なアウトレイラを除去し,SDFサブマップに電流スキャンをアライメントする,新たな反復的登録手法を提案する。 第3に、SDFサブマップを全てマージして、高度に正確な純粋ローカライゼーションのための統合SDFマップを作成しました。 実験の結果, 統合sdfマップにより, 地図内で数ミリ (5mm) の局所化精度がグローバルに達成できることがわかった。 本手法は,高位置化精度のシナリオで作業する移動ロボットにとって重要であると考えている。

Accurate mapping and localization are very important for many industrial robotics applications. In this paper, we propose an improved Signed Distance Function (SDF) for both 2D SLAM and pure localization to improve the accuracy of mapping and localization. To achieve this goal, firstly we improved the back-end mapping to build a more accurate SDF map by extending the update range and building free space, etc. Secondly, to get more accurate pose estimation for the front-end, we proposed a new iterative registration method to align the current scan to the SDF submap by removing random outliers of laser scanners. Thirdly, we merged all the SDF submaps to produce an integrated SDF map for highly accurate pure localization. Experimental results show that based on the merged SDF map, a localization accuracy of a few millimeters (5mm) can be achieved globally within the map. We believe that this method is important for mobile robots working in scenarios where high localization accuracy matters.
翻訳日:2021-03-22 07:54:03 公開日:2021-01-20
# (参考訳) タブラルデータに対する逆攻撃:フラッド検出と不均衡データへの応用

Adversarial Attacks for Tabular Data: Application to Fraud Detection and Imbalanced Data ( http://arxiv.org/abs/2101.08030v1 )

ライセンス: CC BY 4.0
Francesco Cartella, Orlando Anunciacao, Yuki Funabiki, Daisuke Yamaguchi, Toru Akishita, Olivier Elshocht(参考訳) 取引システムのセキュリティを確保することは、企業をサイバー攻撃や不正な試みから守るために、取引を処理するすべての機関にとって重要な優先事項である。 逆襲(adversarial attack)は、愚かな画像分類モデルに効果があると証明される以外の新しい手法であり、表データにも適用できる。 敵の攻撃は、人工知能(ai)システムが攻撃者にとって有利な不正確な出力を返すように誘導する、わずかに修正された入力を生成することを目的としている。 本稿では,不正検出の文脈において,最先端のアルゴリズムを不均衡な表データに適応させる新しい手法について述べる。 実験結果から,提案手法は攻撃成功率に優れており,人間による解析では認識できない敵の例が得られた。 さらに, 実世界の生産システムに適用する場合, 提案手法は, 高度なaiに基づく不正検出手法の堅牢性に重大な脅威を与える可能性を示す。

Guaranteeing the security of transactional systems is a crucial priority of all institutions that process transactions, in order to protect their businesses against cyberattacks and fraudulent attempts. Adversarial attacks are novel techniques that, other than being proven to be effective to fool image classification models, can also be applied to tabular data. Adversarial attacks aim at producing adversarial examples, in other words, slightly modified inputs that induce the Artificial Intelligence (AI) system to return incorrect outputs that are advantageous for the attacker. In this paper we illustrate a novel approach to modify and adapt state-of-the-art algorithms to imbalanced tabular data, in the context of fraud detection. Experimental results show that the proposed modifications lead to a perfect attack success rate, obtaining adversarial examples that are also less perceptible when analyzed by humans. Moreover, when applied to a real-world production system, the proposed techniques shows the possibility of posing a serious threat to the robustness of advanced AI-based fraud detection procedures.
翻訳日:2021-03-22 07:42:50 公開日:2021-01-20
# (参考訳) 固体酸化物燃料電池の電気化学的インピーダンススペクトルの不確かさの評価

Evaluating uncertainties in electrochemical impedance spectra of solid oxide fuel cells ( http://arxiv.org/abs/2101.08049v1 )

ライセンス: CC BY 4.0
Luka \v{Z}nidari\v{c}, Gjorgji Nusev, Bertrand Morel, Julie Mougin, {\DJ}ani Juri\v{c}i\'c and Pavle Bo\v{s}koski(参考訳) 電気化学インピーダンススペクトルは、燃料電池や電気化学変換システムの特性評価に広く用いられている。 フィールド内応用におけるオンラインモニタリングに応用した場合、外乱、ドリフト、センサノイズは評価スペクトル、特に低周波部分において深刻な歪みを引き起こす可能性がある。 ランダムな効果を考慮できないことは、スペクトルの解釈と誤解を招く診断推論の難しさを意味する。 文献では、この事実はほとんど無視されている。 本稿では,等価回路モデル(ecm)パラメータの不確かさを変分ベイズ(vb)法を用いて定量化することにより,スペクトル不確かさを定量化する計算効率の高い手法を提案する。 VB後部推定値の品質を評価するために,マルコフ連鎖モンテカルロ(MCMC)アルゴリズムを用いて得られた値と比較した。 すなわち、MCMCアルゴリズムは正確な後続分布を返すことが期待され、VBアプローチは近似分布を提供する。 シミュレーションと実データを使用することで、vbアプローチが近似を生成することが分かる。 オンラインモニタリングにおけるVB法の大きな利点は計算負荷が低く、MCMCよりも数桁軽くなることである。 VBアルゴリズムの性能は6セル固体酸化物燃料電池スタックにおけるECMパラメータ推定のケースで実証される。 結果を再現するための完全な数値的な実装は、https://repo.ijs.si/lznidaric/variational-bayes-supplementary- Materialsにある。

Electrochemical impedance spectra is a widely used tool for characterization of fuel cells and electrochemical conversion systems in general. When applied to the on-line monitoring in context of in-field applications, the disturbances, drifts and sensor noise may cause severe distortions in the evaluated spectra, especially in the low-frequency part. Failure to account for the random effects can implicate difficulties in interpreting the spectra and misleading diagnostic reasoning. In the literature, this fact has been largely ignored. In this paper, we propose a computationally efficient approach to the quantification of the spectral uncertainty by quantifying the uncertainty of the equivalent circuit model (ECM) parameters by means of the Variational Bayes (VB) approach. To assess the quality of the VB posterior estimates, we compare the results of VB approach with those obtained with the Markov Chain Monte Carlo (MCMC) algorithm. Namely, MCMC algorithm is expected to return accurate posterior distributions, while VB approach provides the approximative distributions. By using simulated and real data we show that VB approach generates approximations, which although slightly over-optimistic, are still pretty close to the more realistic MCMC estimates. A great advantage of the VB method for online monitoring is low computational load, which is several orders of magnitude lighter than that of MCMC. The performance of VB algorithm is demonstrated on a case of ECM parameters estimation in a 6 cell solid-oxide fuel cell stack. The complete numerical implementation for recreating the results can be found at https://repo.ijs.si/lznidaric/variational-bayes-supplementary-material.
翻訳日:2021-03-22 07:05:32 公開日:2021-01-20
# (参考訳) 飛行MRAにおける構造的類似性損失を有する変分オートエンコーダ

Variational Autoencoders with a Structural Similarity Loss in Time of Flight MRAs ( http://arxiv.org/abs/2101.08052v1 )

ライセンス: CC BY 4.0
Kimberley M. Timmins, Irene C. van der Schaaf, Ynte M. Ruigrok, Birgitta K. Velthuis, Hugo J. Kuijf(参考訳) 飛行時磁気共鳴血管造影(TOF-MRA)は脳動脈の可視化と解析を可能にする。 この分析は脳血管系や動脈瘤などの血管異常の正常な変化を示す可能性がある。 モデルは正常な脳血管構造と健康な集団の変動を表現し、異常と区別するのに有用である。 自動符号化畳み込みニューラルネットワークを用いた現在の異常検出は通常、最適化にvoxelwise平均エラーを使用する。 toF-MRA再構成のための構造類似性損失(SSIM)を用いた変分オートコーダ(VAE)の最適化を提案する。 パッチをトレーニングした2D完全畳み込み型VAEをTOF-MRA再建に最適化した。 この方法は、IXIデータセットとADAMチャレンジのサブセットの2つのデータセットでトレーニングされ、テストされた。 両方のトレーニングされたネットワークは、動脈瘤患者を含むデータセット上でテストされた。 VAE最適化をL2-lossとSSIM-lossと比較した。 平均二乗誤差, 平均SSIM, ピーク信号-雑音比, ダイス類似度指数 (DSI) を用いて, 元のMRAと再建したMRAの性能評価を行った。 L2最適化されたVAEはSSIMよりも優れており、再構築メトリクスと両方のデータセットのDSIが改善されている。 SSIMを用いた最適化は, 画像品質に最適であったが, 定量的再構成と血管分節の相違が認められた。 より大きく、より多様なIXIデータセットは、全体的なパフォーマンスが向上した。 SSIMを含む再建指標は,大動脈瘤を含むMRAでは低値であった。 SSIMを最適化したVAEは、TOF-MRA再構成の視覚知覚画質を改善した。 血管セグメンテーションが重要であるTOF-MRA再建には,L2最適化VAEが有効であった。 SSIMは、MRAの異常検出の潜在的な指標である。

Time-of-Flight Magnetic Resonance Angiographs (TOF-MRAs) enable visualization and analysis of cerebral arteries. This analysis may indicate normal variation of the configuration of the cerebrovascular system or vessel abnormalities, such as aneurysms. A model would be useful to represent normal cerebrovascular structure and variabilities in a healthy population and to differentiate from abnormalities. Current anomaly detection using autoencoding convolutional neural networks usually use a voxelwise mean-error for optimization. We propose optimizing a variational-autoencoder (VAE) with structural similarity loss (SSIM) for TOF-MRA reconstruction. A patch-trained 2D fully-convolutional VAE was optimized for TOF-MRA reconstruction by comparing vessel segmentations of original and reconstructed MRAs. The method was trained and tested on two datasets: the IXI dataset, and a subset from the ADAM challenge. Both trained networks were tested on a dataset including subjects with aneurysms. We compared VAE optimization with L2-loss and SSIM-loss. Performance was evaluated between original and reconstructed MRAs using mean square error, mean-SSIM, peak-signal-to-noise-ratio and dice similarity index (DSI) of segmented vessels. The L2-optimized VAE outperforms SSIM, with improved reconstruction metrics and DSIs for both datasets. Optimization using SSIM performed best for visual image quality, but with discrepancy in quantitative reconstruction and vascular segmentation. The larger, more diverse IXI dataset had overall better performance. Reconstruction metrics, including SSIM, were lower for MRAs including aneurysms. A SSIM-optimized VAE improved the visual perceptive image quality of TOF-MRA reconstructions. A L2-optimized VAE performed best for TOF-MRA reconstruction, where the vascular segmentation is important. SSIM is a potential metric for anomaly detection of MRAs.
翻訳日:2021-03-22 06:47:18 公開日:2021-01-20
# (参考訳) 深部強化学習による固定翼UAVの動的スクワッドとの衝突回避

Collision-Free Flocking with a Dynamic Squad of Fixed-Wing UAVs Using Deep Reinforcement Learning ( http://arxiv.org/abs/2101.08074v1 )

ライセンス: CC BY 4.0
Chao Yan, Xiaojia Xiang, Chang Wang, Zhen Lan(参考訳) 固定翼uavの動的スクワッドに対する衝突のない群集挙動の開発は、運動の複雑さと環境の不確実性のために依然として課題である。 本稿では、深層強化学習(DRL)を通して、分散化リーダ・フォロワー・フラッキング制御問題に対処する。 具体的には、衝突回避機構をフロッキングコントローラに統合する、各追従者の視点から、分散DRLに基づく意思決定フレームワークを定式化する。 そこで我々は,すべてのフォロワーに対して共有制御ポリシーを学習するための新しい強化学習アルゴリズムCACER-IIを提案する。 さらに、畳み込みニューラルネットワークとアテンション機構に基づくプラグインn-play埋め込みモジュールを設計する。 その結果、可変長系状態を固定長埋め込みベクトルに符号化することができ、学習されたDRLポリシーをフォロワーの数や順序と独立にすることができる。 最後に, 数値シミュレーションの結果から提案手法の有効性が示され, パラメータの微調整なしに, 学習方針を直接半物理シミュレーションに転送することができる。

Developing the collision-free flocking behavior for a dynamic squad of fixed-wing UAVs is still a challenge due to kinematic complexity and environmental uncertainty. In this paper, we deal with the decentralized leader-follower flocking control problem through deep reinforcement learning (DRL). Specifically, we formulate a decentralized DRL-based decision making framework from the perspective of every follower, where a collision avoidance mechanism is integrated into the flocking controller. Then, we propose a novel reinforcement learning algorithm CACER-II for training a shared control policy for all the followers. Besides, we design a plug-n-play embedding module based on convolutional neural networks and the attention mechanism. As a result, the variable-length system state can be encoded into a fixed-length embedding vector, which makes the learned DRL policies independent with the number or the order of followers. Finally, numerical simulation results demonstrate the effectiveness of the proposed method, and the learned policies can be directly transferred to semiphysical simulation without any parameter finetuning.
翻訳日:2021-03-22 06:40:00 公開日:2021-01-20
# (参考訳) 効果とハンドラーによる自動微分:Frankによる実装

Automatic Differentiation via Effects and Handlers: An Implementation in Frank ( http://arxiv.org/abs/2101.08095v1 )

ライセンス: CC BY 4.0
Jesse Sigal(参考訳) 自動微分(AD)は微分に基づく最適化を実現するアルゴリズムの重要なファミリーである。 我々は、Frank言語で実施することで、ADをエフェクトとハンドラで簡単に実装できることを示します。 実装がFrankのオペレーションセマンティクスでどのように振る舞うかを考慮し、評価中にプログラムを動的に生成する方法を示します。

Automatic differentiation (AD) is an important family of algorithms which enables derivative based optimization. We show that AD can be simply implemented with effects and handlers by doing so in the Frank language. By considering how our implementation behaves in Frank's operational semantics, we show how our code performs the dynamic creation of programs during evaluation.
翻訳日:2021-03-22 06:18:01 公開日:2021-01-20
# (参考訳) 格子場理論のための正規化フロー入門

Introduction to Normalizing Flows for Lattice Field Theory ( http://arxiv.org/abs/2101.08176v1 )

ライセンス: CC BY 4.0
Michael S. Albergo, Denis Boyda, Daniel C. Hackett, Gurtej Kanwar, Kyle Cranmer, S\'ebastien Racani\`ere, Danilo Jimenez Rezende, Phiala E. Shanahan(参考訳) 本チュートリアルでは,正規化フローとして知られる機械学習モデルのクラスを用いて,格子場理論のボルツマン分布をサンプリングする方法を示す。 arXiv:1904.12072, arXiv:2002.02428, arXiv:2003.06413で提案された考え方とアプローチを概観し, 具体的な実装について述べる。 この枠組みを格子スカラー場理論およびU(1)ゲージ理論に適用し、後者へのフローベースアプローチにおいてゲージ対称性を明示的に符号化する。 このプレゼンテーションはインタラクティブで、付属のjupyterノートブックで作業することが推奨されている。

This notebook tutorial demonstrates a method for sampling Boltzmann distributions of lattice field theories using a class of machine learning models known as normalizing flows. The ideas and approaches proposed in arXiv:1904.12072, arXiv:2002.02428, and arXiv:2003.06413 are reviewed and a concrete implementation of the framework is presented. We apply this framework to a lattice scalar field theory and to U(1) gauge theory, explicitly encoding gauge symmetries in the flow-based approach to the latter. This presentation is intended to be interactive and working with the attached Jupyter notebook is recommended.
翻訳日:2021-03-22 05:20:26 公開日:2021-01-20
# (参考訳) secureTF: セキュアなTensorFlowフレームワーク

secureTF: A Secure TensorFlow Framework ( http://arxiv.org/abs/2101.08204v1 )

ライセンス: CC BY 4.0
Do Le Quoc, Franz Gregor, Sergei Arnautov, Roland Kunkel, Pramod Bhatotia, Christof Fetzer(参考訳) 現代のオンラインサービスにおけるデータ駆動型インテリジェントアプリケーションは、ユビキタスになりつつある。 これらのアプリケーションは、通常、信頼できないクラウドコンピューティングインフラストラクチャにホストされる。 これらのアプリケーションは、プライベートでセンシティブな情報を含む可能性のある大規模データセットに機械学習アルゴリズムを適用することに依存しているため、大きなセキュリティリスクをもたらす。 この課題に対処するため、信頼できないクラウドインフラストラクチャ向けにTensorflowをベースとした分散セキュア機械学習フレームワークであるSecureTFを設計しました。 secureTFは、未修正のTensorFlowアプリケーションをサポートする汎用プラットフォームであり、入力データ、MLモデル、アプリケーションコードのエンドツーエンドセキュリティを提供する。 securetfはtrusted execution environment(tees)が提供するセキュリティプロパティに基づいて構築されている。 しかし、単一のノードTEEによって提供される揮発性メモリ領域(あるいはセキュアなエンクレーブ)の信頼性を拡張して、クラウド上で動作する無修正のステートフル機械学習アプリケーションをサポートするために必要な分散インフラストラクチャを確保する。 本稿では,システム設計の選択と本番環境でのシステム配置に関する経験について報告する。 最後に,当社の商用プラットフォームの限界から学んだ教訓をまとめ,今後の課題としてオープンリサーチの課題について論じる。

Data-driven intelligent applications in modern online services have become ubiquitous. These applications are usually hosted in the untrusted cloud computing infrastructure. This poses significant security risks since these applications rely on applying machine learning algorithms on large datasets which may contain private and sensitive information. To tackle this challenge, we designed secureTF, a distributed secure machine learning framework based on Tensorflow for the untrusted cloud infrastructure. secureTF is a generic platform to support unmodified TensorFlow applications, while providing end-to-end security for the input data, ML model, and application code. secureTF is built from ground-up based on the security properties provided by Trusted Execution Environments (TEEs). However, it extends the trust of a volatile memory region (or secure enclave) provided by the single node TEE to secure a distributed infrastructure required for supporting unmodified stateful machine learning applications running in the cloud. The paper reports on our experiences about the system design choices and the system deployment in production use-cases. We conclude with the lessons learned based on the limitations of our commercially available platform, and discuss open research problems for the future work.
翻訳日:2021-03-22 05:19:07 公開日:2021-01-20
# (参考訳) 確率的太陽エネルギー予測:長期短期記憶ネットワークとより単純なアプローチ

Probabilistic Solar Power Forecasting: Long Short-Term Memory Network vs Simpler Approaches ( http://arxiv.org/abs/2101.08236v1 )

ライセンス: CC BY 4.0
Vinayak Sharma, Jorge Angel Gonzalez Ordiano, Ralf Mikut, Umit Cali(参考訳) 太陽電池などの揮発性再生可能エネルギー源の高度浸透は、それらにかかわる不確実性に対処するための方法である。 確率予測はこれらの手法の例であり、将来の発電の不確実性に関する情報を提供することでエネルギープランナーを意思決定プロセスで支援する。 現在、深層学習確率予測手法の利用に向けた傾向がある。 しかし、より複雑なディープラーニング手法がより単純なアプローチよりも好まれるべき点はまだ明らかではない。 そこで、本論文では、長期記憶ニューラルネットワークと他のより単純なアプローチとの簡易な比較を行う。 比較は、太陽光発電システムの1日当たりの確率予測を提供する訓練モデルと比較モデルから成り立っている。 さらに,本論文では,Global Energy Forecasting Competition of 2014 (GEFCom14)で提供されるオープンソースデータセットを活用している。

The high penetration of volatile renewable energy sources such as solar make methods for coping with the uncertainty associated with them of paramount importance. Probabilistic forecasts are an example of these methods, as they assist energy planners in their decision-making process by providing them with information about the uncertainty of future power generation. Currently, there is a trend towards the use of deep learning probabilistic forecasting methods. However, the point at which the more complex deep learning methods should be preferred over more simple approaches is not yet clear. Therefore, the current article presents a simple comparison between a long short-term memory neural network and other more simple approaches. The comparison consists of training and comparing models able to provide one-day-ahead probabilistic forecasts for a solar power system. Moreover, the current paper makes use of an open-source dataset provided during the Global Energy Forecasting Competition of 2014 (GEFCom14).
翻訳日:2021-03-22 04:29:12 公開日:2021-01-20
# (参考訳) radar: リアルタイムの対向的重み攻撃検出と精度回復

RADAR: Run-time Adversarial Weight Attack Detection and Accuracy Recovery ( http://arxiv.org/abs/2101.08254v1 )

ライセンス: CC BY 4.0
Jingtao Li, Adnan Siraj Rakin, Zhezhi He, Deliang Fan, Chaitali Chakrabarti(参考訳) プログレッシブビットフリップ攻撃(PBFA)のようなニューラルネットワークの重みに対する敵対的攻撃は、非常に少数のビットを反転させることで、精度が壊滅的に低下する。 さらに、PBFAは、DRAMメインメモリに格納された重みに基づいて実行時に行うことができる。 本研究では,PBFAに対するDNN重み保護のためのリアルタイム対向重み検出・精度回復手法であるRADARを提案する。 重みを層に挟む重みをグループに整理し,重みのチェックサムに基づくアルゴリズムを用いて各グループの2ビットシグネチャを導出する。 実行時に、2ビットのシグネチャを計算し、セキュアに保存されたゴールデンシグネチャと比較して、グループ内のビットフリップ攻撃を検出する。 検出に成功した後、悪意のあるビットフリップによる精度低下を軽減するために、グループ内のすべての重みをゼロにする。 提案手法は推論計算段階に組み込まれている。 resnet-18イメージネットモデルでは、平均10ビット中9.6ビットフリップを検出できる。 このモデルでは、10ビットのフリップによる精度を1%以下から69%以上まで回復することができる。 提案手法は, 時間とストレージのオーバーヘッドが極めて低い。 gem5のシステムレベルでのシミュレーションでは、RADARは推論時間に1%しか追加せず、このスキームは実行時の攻撃検出と緩和に非常に適している。

Adversarial attacks on Neural Network weights, such as the progressive bit-flip attack (PBFA), can cause a catastrophic degradation in accuracy by flipping a very small number of bits. Furthermore, PBFA can be conducted at run time on the weights stored in DRAM main memory. In this work, we propose RADAR, a Run-time adversarial weight Attack Detection and Accuracy Recovery scheme to protect DNN weights against PBFA. We organize weights that are interspersed in a layer into groups and employ a checksum-based algorithm on weights to derive a 2-bit signature for each group. At run time, the 2-bit signature is computed and compared with the securely stored golden signature to detect the bit-flip attacks in a group. After successful detection, we zero out all the weights in a group to mitigate the accuracy drop caused by malicious bit-flips. The proposed scheme is embedded in the inference computation stage. For the ResNet-18 ImageNet model, our method can detect 9.6 bit-flips out of 10 on average. For this model, the proposed accuracy recovery scheme can restore the accuracy from below 1% caused by 10 bit flips to above 69%. The proposed method has extremely low time and storage overhead. System-level simulation on gem5 shows that RADAR only adds <1% to the inference time, making this scheme highly suitable for run-time attack detection and mitigation.
翻訳日:2021-03-22 04:22:48 公開日:2021-01-20
# (参考訳) パズルを認識・配置するraspberry piベースのインテリジェントロボット

Raspberry Pi Based Intelligent Robot that Recognizes and Places Puzzle Objects ( http://arxiv.org/abs/2101.12584v1 )

ライセンス: CC BY 4.0
Yakup Kutlu, Z\"ulf\"u Alanoglu, Ahmet G\"ok\c{c}en, Mustafa Yeniad(参考訳) 本研究では,心不全(chf)患者を診断するために,256hzのサンプル周波数から得られた非線形2次差分プロット(sodp)と,心電図記録の時間が異なるウィンドウ記録を用いた。 すべてのデータ行は、よりリアルに分類するために、その持ち物にラベル付けされます。 sodpは四分域の異なる半径に分割され、四分域の点の数は特徴ベクトルを抽出するために計算される。 フィッシャーの線形判別器、ナイーブベイ、ニューラルネットワークは分類器として用いられる。 結果は, 一般kfoldクロスバリデーションと患者ベースクロスバリデーションの2つのステップ検証法で検討された。 その結果,SODPから得られる特徴を持つニューラルネットワーク分類器を用いて,正常患者とCHF患者を100%精度で識別できることが示唆された。

In this study; in order to diagnose congestive heart failure (CHF) patients, non-linear secondorder difference plot (SODP) obtained from raw 256 Hz sampled frequency and windowed record with different time of ECG records are used. All of the data rows are labelled with their belongings to classify much more realistically. SODPs are divided into different radius of quadrant regions and numbers of the points fall in the quadrants are computed in order to extract feature vectors. Fisher's linear discriminant, Naive Bayes, and artificial neural network are used as classifier. The results are considered in two step validation methods as general kfold cross-validation and patient based cross-validation. As a result, it is shown that using neural network classifier with features obtained from SODP, the constructed system could distinguish normal and CHF patients with 100% accuracy rate.
翻訳日:2021-03-22 04:08:46 公開日:2021-01-20
# (参考訳) hilbert-huang変換を用いた気管支喘息の診断と肺音の深層学習

The Diagnosis of Asthma using Hilbert-Huang Transform and Deep Learning on Lung Sounds ( http://arxiv.org/abs/2101.08288v1 )

ライセンス: CC BY 4.0
G\"okhan Altan, Yakup Kutlu, Adnan \"Ozhan Pekmezci, Serkan Nural(参考訳) 肺吸入時の気道からの音と聴診器による呼気を用いて様々な呼吸障害を診断するための最も効果的かつ必要不可欠な方法である。 本研究では,Hilbert Huang Transformを胸部および背部の12種類の聴診領域から肺音に適用することにより抽出した内在モード関数から統計的特徴を算出した。 喘息および健常者からの肺音の分類はDeep Belief Networks (DBN)を用いて行う。 2つの隠蔽層を持つDBN分類器モデルを5倍のクロスバリデーション法を用いて検証した。 提案したDBNは, 総精度, 感度, 選択性について, 高分類率84.61%, 85.83%, 77.11%の喘息患者と健常者とをそれぞれ周波数時間分析により分離した。

Lung auscultation is the most effective and indispensable method for diagnosing various respiratory disorders by using the sounds from the airways during inspirium and exhalation using a stethoscope. In this study, the statistical features are calculated from intrinsic mode functions that are extracted by applying the HilbertHuang Transform to the lung sounds from 12 different auscultation regions on the chest and back. The classification of the lung sounds from asthma and healthy subjects is performed using Deep Belief Networks (DBN). The DBN classifier model with two hidden layers has been tested using 5-fold cross validation method. The proposed DBN separated lung sounds from asthmatic and healthy subjects with high classification performance rates of 84.61%, 85.83%, and 77.11% for overall accuracy, sensitivity, and selectivity, respectively using frequencytime analysis.
翻訳日:2021-03-22 03:50:45 公開日:2021-01-20
# (参考訳) IPカメラを用いたAndroid制御移動ロボットの設計

Android Controlled Mobile Robot Design with IP Camera ( http://arxiv.org/abs/2102.01511v1 )

ライセンス: CC BY 4.0
Emre Demir, Ahmet Gokcen, Yakup Kutlu(参考訳) 本研究では,Arduinoカードを用いた移動ロボットの設計を実現する。 セキュリティロボット、補助ロボット、または制御ロボットとして機能することができる。 ロボットには2つの操作モードがある。 最初の操作モードは自律モードである。 このモードでは、ロボットは超音波センサーの助けを借りて周囲を検知し、エンコーダを使って通過する場所を追跡する。 任意の場所にぶつかって通り抜けることなくナビゲートでき、その上に設置された他のシステムによって患者の脈拍と温度条件をユーザーに送信する。 また、ipカメラが画面上のシーンを送信する。 患者の隣に置かれる緊急ボタンは、緊急時に利用者に情報を送信する。 温度とパルスで再び異常が検出されると、ユーザーはメッセージを送る。 記録済みの薬物使用時間が来たら、システムは患者に警告する。 第2モードは手動モードである。 このモードでは、ユーザはAndroidオペレーティングシステムでロボットの所望の方向を移動することができる。 さらに、自律モードで受信されたすべてのデータは、ユーザに送信することができる。 これにより、ユーザは、ロボットの近傍になくても、カメラ画像で移動ロボットを制御することができる。

In this study Arduino card based mobile robot design was realized. This robot can serve as a security robot, an auxiliary robot or a control robot. The designed robot has two operation modes. The first operating mode is autonomous mode. In this mode, the robot detects the surroundings with the help of ultrasonic sensors placed around it, and keeps track of the places it passes by using the encoder. It is able to navigate without hitting any place and passing from where it passes, and it transmits the patient's pulse and temperature condition to the user by other systems installed on it. Also the IP camera sends the scene on the screen. The emergency button to be placed next to the patient sends information to the user in emergency situations. If the abnormality is detected in the temperature and pulse again, the user gives a message. When the pre-recorded drug use times come, the system can alert the patient. The second mode is manual mode. In this mode, the user can move the desired direction of the robot with the Android operating system. In addition, all data received in autonomous mode can be sent to the user. Thus, the user can control the mobile robot with the camera image even if it is not in the vicinity of the robot.
翻訳日:2021-03-22 03:13:41 公開日:2021-01-20
# (参考訳) 完全畳み込みネットワークを用いた手書き文書画像のテキスト行分割

Text Line Segmentation for Challenging Handwritten Document Images Using Fully Convolutional Network ( http://arxiv.org/abs/2101.08299v1 )

ライセンス: CC BY 4.0
Berat Barakat, Ahmad Droby, Majeed Kassis and Jihad El-Sana(参考訳) 本稿では,歴史的写本画像に対するテキストラインセグメンテーション手法を提案する。 これらの原稿画像は、触覚成分、母音記号の相互接続、フォントタイプとサイズが一致しない狭いインターライン空間を含んでいる。 さらに、複雑なページレイアウト内に、カーブ、マルチスキュー、複数方向のサイドノート行を含む。 したがって、バウンディングポリゴンラベリングは非常に困難で時間がかかります。 代わりに、同じテキストライン上のコンポーネントを接続するラインマスクに依存しています。 そして、これらラインマスクを完全畳み込みネットワーク(fcn)を用いて予測する。 文献では、FCNは通常の手書き文書画像のテキスト行のセグメンテーションに成功している。 本論文は,FCNが原稿画像の難読化にも有用であることを示す。 セグメンテーションやセグメンテーションに敏感な新しい評価指標を使用することで、公開に挑戦的な手書きデータセットのテスト結果は、同じデータセットに関する以前の作業の結果と同等になる。

This paper presents a method for text line segmentation of challenging historical manuscript images. These manuscript images contain narrow interline spaces with touching components, interpenetrating vowel signs and inconsistent font types and sizes. In addition, they contain curved, multi-skewed and multi-directed side note lines within a complex page layout. Therefore, bounding polygon labeling would be very difficult and time consuming. Instead we rely on line masks that connect the components on the same text line. Then these line masks are predicted using a Fully Convolutional Network (FCN). In the literature, FCN has been successfully used for text line segmentation of regular handwritten document images. The present paper shows that FCN is useful with challenging manuscript images as well. Using a new evaluation metric that is sensitive to over segmentation as well as under segmentation, testing results on a publicly available challenging handwritten dataset are comparable with the results of a previous work on the same dataset.
翻訳日:2021-03-22 03:00:04 公開日:2021-01-20
# (参考訳) 美学・パーソナライズ・レコメンデーション:ファッションにおける深層学習に関する調査

Aesthetics, Personalization and Recommendation: A survey on Deep Learning in Fashion ( http://arxiv.org/abs/2101.08301v1 )

ライセンス: CC0 1.0
Wei Gong, Laila Khalid(参考訳) 機械学習はファッション業界のトレンドを完全に変えつつある。 大企業から小規模企業まで、あらゆるブランドが機械学習技術を使って収益を上げ、顧客を増やし、トレンドを先取りしている。 人々はファッションに没頭し、何がベストか、どのようにスタイルを改善し、個性を向上できるかを知りたがっています。 ディープラーニング技術を使用し、コンピュータビジョン技術を使ってそれを活用することで、脳にインスパイアされたディープネットワークを利用し、神経美学に関わり、ganと協力し、トレーニングを行い、非構造化データで遊んだり、トランスフォーマーアーキテクチャーを悪用することは、ファッションドメインで触れられるようなハイライトにすぎない。 それは、ますます増加する需要に対応して、ファッションの側面に関する情報を教えてくれるシステムの設計に関するものだ。 パーソナライゼーション(パーソナライゼーション)は、顧客の消費選択に影響を与える大きな要因であり、この調査は、視覚データを解釈し、異なるモデルやアプローチに活用する方法を深く掘り下げることで、その課題を包含する顕著なアプローチも示している。 美学は衣服の推奨において重要な役割を担っており、利用者の判断は衣服が美学と一致しているかどうかに大きく依存するが、従来のイメージは直接これを描写することはできない。 この調査はまた、美学をアパレル推奨の重要な要素として認識する必要性を満たすために、テンソルファクタライゼーションモデルや条件付きランダムフィールドモデルなど、注目すべきモデルも強調している。これらのaiにインスパイアされた深層モデルは、顧客と最も共鳴する特定のスタイルを正確に特定することができ、新しいデザインがコミュニティとどのように結びつくかを理解することができる。 AIと機械学習によって、企業はファッショントレンドに先んじることができる。

Machine learning is completely changing the trends in the fashion industry. From big to small every brand is using machine learning techniques in order to improve their revenue, increase customers and stay ahead of the trend. People are into fashion and they want to know what looks best and how they can improve their style and elevate their personality. Using Deep learning technology and infusing it with Computer Vision techniques one can do so by utilizing Brain-inspired Deep Networks, and engaging into Neuroaesthetics, working with GANs and Training them, playing around with Unstructured Data,and infusing the transformer architecture are just some highlights which can be touched with the Fashion domain. Its all about designing a system that can tell us information regarding the fashion aspect that can come in handy with the ever growing demand. Personalization is a big factor that impacts the spending choices of customers.The survey also shows remarkable approaches that encroach the subject of achieving that by divulging deep into how visual data can be interpreted and leveraged into different models and approaches. Aesthetics play a vital role in clothing recommendation as users' decision depends largely on whether the clothing is in line with their aesthetics, however the conventional image features cannot portray this directly. For that the survey also highlights remarkable models like tensor factorization model, conditional random field model among others to cater the need to acknowledge aesthetics as an important factor in Apparel recommendation.These AI inspired deep models can pinpoint exactly which certain style resonates best with their customers and they can have an understanding of how the new designs will set in with the community. With AI and machine learning your businesses can stay ahead of the fashion trends.
翻訳日:2021-03-22 02:50:37 公開日:2021-01-20
# (参考訳) 最小トレーニングセットに基づく胸部x線肺と心臓分画

Chest X-ray lung and heart segmentation based on minimal training sets ( http://arxiv.org/abs/2101.08309v1 )

ライセンス: CC BY 4.0
Bal\'azs Maga(参考訳) 新型コロナウイルス(COVID-19)のパンデミックが世界中の医師の過剰な労働負荷を増大させ、医療画像解析におけるコンピュータ支援手法の需要はさらに増加した。 このようなツールは、より堅牢な診断パイプラインをもたらす可能性がある。 本稿では,Attention BCDU-Netと呼ぶディープニューラルネットワークを提案し,胸部X線(CXR)画像から肺と心臓のセグメンテーションのタスクに適用する。 また,日本放射線工学会(jsrt)のデータセットでは,この微調整モデルが先行研究結果の98.1\pm 0.1\%$ diceスコアと95.2\pm 0.1\%$ iouスコアを上回った。 さらに、Diceスコアでは9.7.0\pm 0.8\%$と9.3\pm 0.5$、IoUスコアでは9.2\pm 1.2\%$と9.3\pm 0.4\%$である。 これらのスコアを達成するために、ミキサアップ強化技術を利用して、サイズ10のセットアップで4\%以上のIoUスコアを得る。

As the COVID-19 pandemic aggravated the excessive workload of doctors globally, the demand for computer aided methods in medical imaging analysis increased even further. Such tools can result in more robust diagnostic pipelines which are less prone to human errors. In our paper, we present a deep neural network to which we refer to as Attention BCDU-Net, and apply it to the task of lung and heart segmentation from chest X-ray (CXR) images, a basic but ardous step in the diagnostic pipeline, for instance for the detection of cardiomegaly. We show that the fine-tuned model exceeds previous state-of-the-art results, reaching $98.1\pm 0.1\%$ Dice score and $95.2\pm 0.1\%$ IoU score on the dataset of Japanese Society of Radiological Technology (JSRT). Besides that, we demonstrate the relative simplicity of the task by attaining surprisingly strong results with training sets of size 10 and 20: in terms of Dice score, $97.0\pm 0.8\%$ and $97.3\pm 0.5$, respectively, while in terms of IoU score, $92.2\pm 1.2\%$ and $93.3\pm 0.4\%$, respectively. To achieve these scores, we capitalize on the mixup augmentation technique, which yields a remarkable gain above $4\%$ IoU score in the size 10 setup.
翻訳日:2021-03-22 02:49:21 公開日:2021-01-20
# (参考訳) 画像分割のための非パラメトリッククラスタリング

Nonparametric clustering for image segmentation ( http://arxiv.org/abs/2101.08345v1 )

ライセンス: CC BY 4.0
Giovanna Menardi(参考訳) 画像セグメント化は、画像内の関心領域を特定することを目的として、その特性に応じてピクセルをグループ化する。 このタスクはクラスタリングの統計的手法に似ているが、多くの標準的なクラスタリング手法は画像分割の基本的な要件を満たしていない。 非パラメトリッククラスタリングは原則としてこれらの制限から解放されており、画像セグメンテーションのタスクに特に適していることがわかった。 これはまた、トポロジカルなデータ分析や空間的テッセレーションを両方のフレームワークで活用するなど、いくつかの運用上の類似点によっても見られる。 画像分割への非パラメトリッククラスタリングの適用について検討し,このタスクに特有のアルゴリズムを提供する。 画素の類似性を色表現の密度の観点から評価し、画素の隣接構造を用いて画像セグメントを断続高密度領域として識別する簡易かつ効果的な方法を導入する。 提案手法は,画像のセグメント化と境界検出の両方に有効であり,しきい値の分類のカラー画像の一般化と見なすことができる。

Image segmentation aims at identifying regions of interest within an image, by grouping pixels according to their properties. This task resembles the statistical one of clustering, yet many standard clustering methods fail to meet the basic requirements of image segmentation: segment shapes are often biased toward predetermined shapes and their number is rarely determined automatically. Nonparametric clustering is, in principle, free from these limitations and turns out to be particularly suitable for the task of image segmentation. This is also witnessed by several operational analogies, as, for instance, the resort to topological data analysis and spatial tessellation in both the frameworks. We discuss the application of nonparametric clustering to image segmentation and provide an algorithm specific for this task. Pixel similarity is evaluated in terms of density of the color representation and the adjacency structure of the pixels is exploited to introduce a simple, yet effective method to identify image segments as disconnected high-density regions. The proposed method works both to segment an image and to detect its boundaries and can be seen as a generalization to color images of the class of thresholding methods.
翻訳日:2021-03-22 02:39:59 公開日:2021-01-20
# (参考訳) 深く行く必要があるのか? ビッグデータを用いた知識追跡

Do we need to go Deep? Knowledge Tracing with Big Data ( http://arxiv.org/abs/2101.08349v1 )

ライセンス: CC BY 4.0
Varun Mandalapu, Jiaqi Gong and Lujie Chen(参考訳) インタラクティブ教育システム(IES)により、研究者は異なるスキルの学生の知識を追跡でき、より良い学習パスを推奨できる。 学生の知識を推定し,さらにパフォーマンスを予測するために,iesが取得した学生インタラクションデータを活用した学習者パフォーマンスモデルの開発に関心が急速に高まっている。 さらに、コンピュータシステムの進歩に伴い、これらのiesシステムが取得するデータ量も増加し、ディープラーニングモデルが従来のロジスティックモデルやマルコフプロセスと競合するようになっている。 しかし、これらの深層モデルが、何百万もの学生の相互作用を持つデータセットの現在のスケールで従来のモデルを上回るかどうかは、まだ実証的に明らかではない。 本研究では,教育領域で公開されている最大規模の学生インタラクションデータセットであるednetを採用し,深層モデルと伝統的モデルの両方が将来の学生パフォーマンスをいかに正確に予測できるかを理解する。 我々の研究は、慎重に設計された特徴を持つロジスティック回帰モデルが広範な実験から深いモデルよりも優れていることを観察する。 この分析は,局所的に解釈可能なモデルに依存しない説明法(LIME)に基づく解釈研究を用いて,様々な特徴が最高のモデル予測に与える影響を理解する。

Interactive Educational Systems (IES) enabled researchers to trace student knowledge in different skills and provide recommendations for a better learning path. To estimate the student knowledge and further predict their future performance, the interest in utilizing the student interaction data captured by IES to develop learner performance models is increasing rapidly. Moreover, with the advances in computing systems, the amount of data captured by these IES systems is also increasing that enables deep learning models to compete with traditional logistic models and Markov processes. However, it is still not empirically evident if these deep models outperform traditional models on the current scale of datasets with millions of student interactions. In this work, we adopt EdNet, the largest student interaction dataset publicly available in the education domain, to understand how accurately both deep and traditional models predict future student performances. Our work observes that logistic regression models with carefully engineered features outperformed deep models from extensive experimentation. We follow this analysis with interpretation studies based on Locally Interpretable Model-agnostic Explanation (LIME) to understand the impact of various features on best performing model pre-dictions.
翻訳日:2021-03-22 01:58:40 公開日:2021-01-20
# (参考訳) 探索的アラビア語攻撃言語データセット解析

Exploratory Arabic Offensive Language Dataset Analysis ( http://arxiv.org/abs/2101.11434v1 )

ライセンス: CC BY 4.0
Fatemah Husain and Ozlem Uzuner(参考訳) 本稿では、アラビア語攻撃言語研究で使用されるリソースとデータセットについて、さらに洞察を加える。 本研究の目的は, アラビア語攻撃的言語の研究者が, その内容に基づいて適切なデータセットを選択し, 利用可能なデータセットをサポートし補完するための新しいアラビア語攻撃的言語リソースを作成することにある。

This paper adding more insights towards resources and datasets used in Arabic offensive language research. The main goal of this paper is to guide researchers in Arabic offensive language in selecting appropriate datasets based on their content, and in creating new Arabic offensive language resources to support and complement the available ones.
翻訳日:2021-03-22 01:46:26 公開日:2021-01-20
# 制約ベイズ最適化のための知識勾配に基づく新しい手法

A New Knowledge Gradient-based Method for Constrained Bayesian Optimization ( http://arxiv.org/abs/2101.08743v1 )

ライセンス: Link先を確認
Wenjie Chen, Shengcai Liu, and Ke Tang(参考訳) ブラックボックス問題は、構造設計、薬物実験、機械学習のような実生活で一般的である。 ブラックボックスシステムを最適化する場合、意思決定者は常に複数のパフォーマンスを検討し、包括的な評価によって最終決定を行う。 このような実用的なニーズに動機づけられ、目的と制約が既知の特別な構造を欠いている制約付きブラックボックス問題に焦点をあて、評価は高価であり、ノイズもある。 我々は知識勾配法(c-\rm{kg}$)に基づく新しい制約ベイズ最適化手法を開発した。 最適性と実現可能性を考慮したサンプルの次のバッチを決定するために,新たな取得関数を提案する。 新しい取得関数の勾配のバイアスのない推定器は、$c-\rm{KG}$アプローチを実装するために導かれる。

Black-box problems are common in real life like structural design, drug experiments, and machine learning. When optimizing black-box systems, decision-makers always consider multiple performances and give the final decision by comprehensive evaluations. Motivated by such practical needs, we focus on constrained black-box problems where the objective and constraints lack known special structure, and evaluations are expensive and even with noise. We develop a novel constrained Bayesian optimization approach based on the knowledge gradient method ($c-\rm{KG}$). A new acquisition function is proposed to determine the next batch of samples considering optimality and feasibility. An unbiased estimator of the gradient of the new acquisition function is derived to implement the $c-\rm{KG}$ approach.
翻訳日:2021-03-22 01:37:11 公開日:2021-01-20
# IntentNet: 生センサデータから意図を予測する学習

IntentNet: Learning to Predict Intention from Raw Sensor Data ( http://arxiv.org/abs/2101.07907v1 )

ライセンス: Link先を確認
Sergio Casas, Wenjie Luo, Raquel Urtasun(参考訳) 安全な操縦を計画するために、自動運転車は他の交通参加者の意図を理解する必要がある。 我々は、意図を、将来の動きを記述する連続的な軌跡と同様に、離散的なハイレベルな行動の組み合わせとして定義する。 本論文では,lidarセンサが生成する3次元点雲と,環境の動的地図の両方を利用する1段階の検出器と予測器を開発した。 マルチタスクモデルでは,各モジュールの計算時間を節約しながら,各モジュールの精度が向上する。

In order to plan a safe maneuver, self-driving vehicles need to understand the intent of other traffic participants. We define intent as a combination of discrete high-level behaviors as well as continuous trajectories describing future motion. In this paper, we develop a one-stage detector and forecaster that exploits both 3D point clouds produced by a LiDAR sensor as well as dynamic maps of the environment. Our multi-task model achieves better accuracy than the respective separate modules while saving computation, which is critical to reducing reaction time in self-driving applications.
翻訳日:2021-03-22 01:36:59 公開日:2021-01-20
# DSTC9対話評価トラックのためのWeChat AIのサブミッション

WeChat AI's Submission for DSTC9 Interactive Dialogue Evaluation Track ( http://arxiv.org/abs/2101.07947v1 )

ライセンス: Link先を確認
Zekang Li, Zongjia Li, Jinchao Zhang, Yang Feng and Jie Zhou(参考訳) 我々はdstc9インタラクティブ対話評価トラック(gunasekara et al.)に参加する。 英語) sub-task 1 (Knowledge Grounded Dialogue) と sub-task 2 (Interactive Dialogue)。 サブタスク1では,事前学習した言語モデルを用いてトピック関連応答を生成し,応答選択のための応答アンサンブル手法を提案する。 サブタスク2では,人間との対話における会話フローを捉えた対話計画モデル(dpm)を提案する。 また,前処理,対話モデル,スコアリングモデル,ポストプロセスを含む統合オープンドメイン対話システムの設計を行った。 サブタスク1では、人間格付けで1位、最高のMeteorとBert-scoreを、サブタスク2では対話的人間評価で3位にランク付けします。

We participate in the DSTC9 Interactive Dialogue Evaluation Track (Gunasekara et al. 2020) sub-task 1 (Knowledge Grounded Dialogue) and sub-task 2 (Interactive Dialogue). In sub-task 1, we employ a pre-trained language model to generate topic-related responses and propose a response ensemble method for response selection. In sub-task2, we propose a novel Dialogue Planning Model (DPM) to capture conversation flow in the interaction with humans. We also design an integrated open-domain dialogue system containing pre-process, dialogue model, scoring model, and post-process, which can generate fluent, coherent, consistent, and humanlike responses. We tie 1st on human ratings and also get the highest Meteor, and Bert-score in sub-task 1, and rank 3rd on interactive human evaluation in sub-task 2.
翻訳日:2021-03-22 01:36:50 公開日:2021-01-20
# SuGAR:強化ポーリングと自己監督型相互情報機構を備えたサブグラフニューラルネットワーク

SUGAR: Subgraph Neural Network with Reinforcement Pooling and Self-Supervised Mutual Information Mechanism ( http://arxiv.org/abs/2101.08170v1 )

ライセンス: Link先を確認
Qingyun Sun, Hao Peng, Jianxin Li, Jia Wu, Yuanxing Ning, Phillip S. Yu, Lifang He(参考訳) グラフ表現学習は研究の注目を集めている。 しかし、既存のほとんどの研究は全ての構造的特徴とノード属性を融合させ、グラフの全体的ビューを提供し、より微細な部分構造のセマンティクスを無視し、解釈の謎に苦しむ。 本稿では、より識別的な部分グラフ表現を学習し、説明的な方法で応答するために、グラフ分類のための新しい階層的なサブグラフレベル選択と埋め込みベースのグラフニューラルネットワーク、すなわちSUGARを提案する。 SUGARは、スケッチされたグラフを原グラフの代表部分として抽出して再構成し、サブグラフレベルのパターンを明らかにする。 先行知識のない打撃部分グラフを適応的に選択するために,モデルの一般化能力を向上させる強化プーリング機構を開発した。 グラフ間の部分グラフ表現を区別するために,その相互情報を最大化することにより,グラフ埋め込みを大域的グラフ構造特性に留意させる自己教師付き相互情報機構を提案する。 6つの典型的なバイオインフォマティクスデータセットに対する大規模な実験は、競争性能と解釈可能性を備えたモデル品質の顕著で一貫した改善を示している。

Graph representation learning has attracted increasing research attention. However, most existing studies fuse all structural features and node attributes to provide an overarching view of graphs, neglecting finer substructures' semantics, and suffering from interpretation enigmas. This paper presents a novel hierarchical subgraph-level selection and embedding based graph neural network for graph classification, namely SUGAR, to learn more discriminative subgraph representations and respond in an explanatory way. SUGAR reconstructs a sketched graph by extracting striking subgraphs as the representative part of the original graph to reveal subgraph-level patterns. To adaptively select striking subgraphs without prior knowledge, we develop a reinforcement pooling mechanism, which improves the generalization ability of the model. To differentiate subgraph representations among graphs, we present a self-supervised mutual information mechanism to encourage subgraph embedding to be mindful of the global graph structural properties by maximizing their mutual information. Extensive experiments on six typical bioinformatics datasets demonstrate a significant and consistent improvement in model quality with competitive performance and interpretability.
翻訳日:2021-03-22 01:35:31 公開日:2021-01-20
# リジッド舗装の性能に及ぼすベース層の感度改善

Improved Sensitivity of Base Layer on the Performance of Rigid Pavement ( http://arxiv.org/abs/2101.09167v1 )

ライセンス: Link先を確認
Sajib Saha, Fan Gu, Xue Luo, and Robert L. Lytton(参考訳) 硬質舗装の性能は, ベース/サブベース, サブグレード層の性質に大きく影響される。 しかし,AASHTOWare Pavement ME設計により予測された性能は,ベース層とサブグレード層の特性に対する感度が低かった。 感度の向上と非結合層の影響をよりよく反映するために,新しい改良されたモデルセット,すなわち弾性率(mr)と準次反応係数(k値)が本研究で採用されている。 有限要素(fe)解析に基づいて修正k値を予測するための人工ニューラルネットワーク(ann)モデルを開発した。 annモデルのトレーニングと検証データセットは,舗装層厚,層弾性率,スラブベース界面接着比の異なる27000のシミュレーションケースからなる。 舗装応答に対するMRおよびk値の変化の感度を調べるため,長期舗装性能(LTPP)データベースから8つの舗装区間データを収集し,FEソフトウェアISLAB2000を用いてモデル化した。 その結果, 舗装me設計モデルを用いた結果と比較して, 固定舗装の臨界応力および偏向応答に対する基層の水分に対する感度が改良されたmr値よりも高いことがわかった。 また、ANNモデルを用いたk-値には、部分結合条件で臨界舗装応答を予測する能力があるのに対し、Pavement ME設計モデルは2つの極端な結合条件(すなわち、完全結合と非結合)でしか計算できない。

The performance of rigid pavement is greatly affected by the properties of base/subbase as well as subgrade layer. However, the performance predicted by the AASHTOWare Pavement ME design shows low sensitivity to the properties of base and subgrade layers. To improve the sensitivity and better reflect the influence of unbound layers a new set of improved models i.e., resilient modulus (MR) and modulus of subgrade reaction (k-value) are adopted in this study. An Artificial Neural Network (ANN) model is developed to predict the modified k-value based on finite element (FE) analysis. The training and validation datasets in the ANN model consist of 27000 simulation cases with different combinations of pavement layer thickness, layer modulus and slab-base interface bond ratio. To examine the sensitivity of modified MR and k-values on pavement response, eight pavement sections data are collected from the Long-Term Pavement performance (LTPP) database and modeled by using the FE software ISLAB2000. The computational results indicate that the modified MR values have higher sensitivity to water content in base layer on critical stress and deflection response of rigid pavements compared to the results using the Pavement ME design model. It is also observed that the k-values using ANN model has the capability of predicting critical pavement response at any partially bonded conditions whereas the Pavement ME design model can only calculate at two extreme bonding conditions (i.e., fully bonding and no bonding).
翻訳日:2021-03-22 01:35:13 公開日:2021-01-20
# black-box knowledge distillationによる深部疫学モデル:新型コロナの正確な深部学習モデル

Deep Epidemiological Modeling by Black-box Knowledge Distillation: An Accurate Deep Learning Model for COVID-19 ( http://arxiv.org/abs/2101.10280v1 )

ライセンス: Link先を確認
Dongdong Wang, Shunpu Zhang, and Liqiang Wang(参考訳) 正確かつ効率的な予測システムは、公衆衛生における新型コロナウイルスなどの新興感染症の予防に不可欠である。 このシステムは、正確な過渡モデリング、計算コストの低減、観測データの減少を必要とする。 これら3つの課題に対処するために,ブラックボックスの知識蒸留を用いた新しい深層学習手法を提案する。 まず,混合モデルを用いて,精度,包括的,かつ実用的でないシミュレーションシステムを構築する。 次に、シミュレーションされた観測シーケンスを用いてシミュレーションシステムに問い合わせ、シミュレーションされた投影シーケンスを知識として検索する。 そして,得られたクエリデータを用いて,クエリ効率の向上,知識の多様性の向上,蒸留モデルの精度の向上を図る。 最後に,学習者の深層ニューラルネットワークに対して,実使用のために,検索および混合観測投影シーケンスを訓練する。 新型コロナウイルスのケーススタディは、我々のアプローチが観測データに制限がある場合、より少ない計算コストで感染を正確に予測することを正当化する。

An accurate and efficient forecasting system is imperative to the prevention of emerging infectious diseases such as COVID-19 in public health. This system requires accurate transient modeling, lower computation cost, and fewer observation data. To tackle these three challenges, we propose a novel deep learning approach using black-box knowledge distillation for both accurate and efficient transmission dynamics prediction in a practical manner. First, we leverage mixture models to develop an accurate, comprehensive, yet impractical simulation system. Next, we use simulated observation sequences to query the simulation system to retrieve simulated projection sequences as knowledge. Then, with the obtained query data, sequence mixup is proposed to improve query efficiency, increase knowledge diversity, and boost distillation model accuracy. Finally, we train a student deep neural network with the retrieved and mixed observation-projection sequences for practical use. The case study on COVID-19 justifies that our approach accurately projects infections with much lower computation cost when observation data are limited.
翻訳日:2021-03-22 01:34:49 公開日:2021-01-20
# BERTによる科学出版の分類 -自己認識は特徴選択法か?

Classifying Scientific Publications with BERT -- Is Self-Attention a Feature Selection Method? ( http://arxiv.org/abs/2101.08114v1 )

ライセンス: Link先を確認
Andres Garcia-Silva and Jose Manuel Gomez-Perez(参考訳) 本研究では,研究分野の分類学における理科論文の分類のための微調整シナリオにおいて,BERTの自己注意機構について検討する。 記事のドメインに強く関係する単語に自己注意がどのように焦点をあてるかを観察する。 特に、語彙の小さな部分集合は、ほとんどの注目を集める傾向にある。 本研究は, テキスト分類に通常用いられる特徴選択手法と, 最多単語のサブセットを比較し, 評価し, 特徴選択アプローチとして自己認識を特徴付ける。 また,conceptnet を基礎的真実として用いることで,論文の研究分野に参加者の言葉がより関連していることが分かる。 しかし、従来の特徴選択法は、スクラッチから分類器を学習するよりは良い選択肢である。 この結果は、自己注意がドメイン関連用語を認識する一方で、BERTの識別情報は文脈化された出力と分類層に符号化されていることを示唆している。 また、セルフアテンション機構に特徴選択メソッドを注入することでトランスフォーマーを用いた単一シーケンス分類をさらに最適化できるかどうかという疑問を提起する。

We investigate the self-attention mechanism of BERT in a fine-tuning scenario for the classification of scientific articles over a taxonomy of research disciplines. We observe how self-attention focuses on words that are highly related to the domain of the article. Particularly, a small subset of vocabulary words tends to receive most of the attention. We compare and evaluate the subset of the most attended words with feature selection methods normally used for text classification in order to characterize self-attention as a possible feature selection approach. Using ConceptNet as ground truth, we also find that attended words are more related to the research fields of the articles. However, conventional feature selection methods are still a better option to learn classifiers from scratch. This result suggests that, while self-attention identifies domain-relevant terms, the discriminatory information in BERT is encoded in the contextualized outputs and the classification layer. It also raises the question whether injecting feature selection methods in the self-attention mechanism could further optimize single sequence classification using transformers.
翻訳日:2021-03-22 01:34:34 公開日:2021-01-20
# ガウス過程予測分布の類似性尺度

A Similarity Measure of Gaussian Process Predictive Distributions ( http://arxiv.org/abs/2101.08061v1 )

ライセンス: Link先を確認
Lucia Asencio-Mart\'in, Eduardo C. Garrido-Merch\'an(参考訳) いくつかのシナリオは、以前の観測で条件付けられた目的関数に基づいて評価された新しい値の予測分布の計算を必要とする。 私たちは、予測しようとしている値を客観的関数に有効に仮定するモデルを使うことに興味があります。 これらの仮定のいくつかは滑らかさまたは定常性である。 ガウス過程 (GP) は確率的モデルであり、関数上の柔軟な分布と解釈できる。 彼らは共分散関数を通じて仮定を符号化し、古い観測に適合して予測分布を通じて新しいデータについての仮説を立てる。 複数のgpsを使用して異なる目的関数をモデル化するケースに直面することができる。 GPは非パラメトリックモデルであり、その複雑性は観測数の3乗である。 1つのgp予測分布が他とどの程度似ているかを表す尺度は、同じ入力空間のモデリング関数である場合、1つのgpを使用するのを止めるのに有用である。 2つの目的関数が相関していると本当に推測しているため、1つのgpは、逆相関の場合の他の関数の予測の変換を行うことで、両者をモデル化するのに十分である。 我々は,gpsの予測分布を比較し,その一方が同一入力空間で2つの相関関数を予測するのに十分であることを示す,一連の合成およびベンチマーク実験において実証的な証拠を示す。 この類似度計量は、ベイズ多目的最適化の目的を捨てるのに非常に有用である。

Some scenarios require the computation of a predictive distribution of a new value evaluated on an objective function conditioned on previous observations. We are interested on using a model that makes valid assumptions on the objective function whose values we are trying to predict. Some of these assumptions may be smoothness or stationarity. Gaussian process (GPs) are probabilistic models that can be interpreted as flexible distributions over functions. They encode the assumptions through covariance functions, making hypotheses about new data through a predictive distribution by being fitted to old observations. We can face the case where several GPs are used to model different objective functions. GPs are non-parametric models whose complexity is cubic on the number of observations. A measure that represents how similar is one GP predictive distribution with respect to another would be useful to stop using one GP when they are modelling functions of the same input space. We are really inferring that two objective functions are correlated, so one GP is enough to model both of them by performing a transformation of the prediction of the other function in case of inverse correlation. We show empirical evidence in a set of synthetic and benchmark experiments that GPs predictive distributions can be compared and that one of them is enough to predict two correlated functions in the same input space. This similarity metric could be extremely useful used to discard objectives in Bayesian many-objective optimization.
翻訳日:2021-03-22 01:33:43 公開日:2021-01-20
# 局所擬似乱数生成器から学習困難まで

From Local Pseudorandom Generators to Hardness of Learning ( http://arxiv.org/abs/2101.08303v1 )

ライセンス: Link先を確認
Amit Daniely and Gal Vardi(参考訳) 本研究では,ローカル擬似乱数生成器の存在を前提として,学習の難しさを実証する。 我々が示すように、この仮定は、現在の芸術の状態を超越し、様々な基本的な問題の困難さを証明し、今日までハードネスの結果は得られない。 Our results include: hardness of learning shallow ReLU neural networks under the Gaussian distribution and other distributions; hardness of learning intersections of $\omega(1)$ halfspaces, DNF formulas with $\omega(1)$ terms, and ReLU networks with $\omega(1)$ hidden neurons; hardness of weakly learning deterministic finite automata under the uniform distribution; hardness of weakly learning depth-$3$ Boolean circuits under the uniform distribution, as well as distribution-specific hardness results for learning DNF formulas and intersections of halfspaces. また、一定の数のハーフスペースの学習交叉と、一定の数の隠れニューロンを持つReLUネットワークの複雑さの低い境界を確立する。 さらに,本研究の結果は,これまで他の仮定では困難であった,事実上不適切なPAC学習問題(分布自由と分布特化の両方)の難しさを示唆している。

We prove hardness-of-learning results under a well-studied assumption on the existence of local pseudorandom generators. As we show, this assumption allows us to surpass the current state of the art, and prove hardness of various basic problems, with no hardness results to date. Our results include: hardness of learning shallow ReLU neural networks under the Gaussian distribution and other distributions; hardness of learning intersections of $\omega(1)$ halfspaces, DNF formulas with $\omega(1)$ terms, and ReLU networks with $\omega(1)$ hidden neurons; hardness of weakly learning deterministic finite automata under the uniform distribution; hardness of weakly learning depth-$3$ Boolean circuits under the uniform distribution, as well as distribution-specific hardness results for learning DNF formulas and intersections of halfspaces. We also establish lower bounds on the complexity of learning intersections of a constant number of halfspaces, and ReLU networks with a constant number of hidden neurons. Moreover, our results imply the hardness of virtually all improper PAC-learning problems (both distribution-free and distribution-specific) that were previously shown hard under other assumptions.
翻訳日:2021-03-22 01:33:23 公開日:2021-01-20
# 生成型adversarial networkにおける影響推定

Influence Estimation for Generative Adversarial Networks ( http://arxiv.org/abs/2101.08367v1 )

ライセンス: Link先を確認
Naoyuki Terashita, Hiroki Ohashi, Yuichi Nonaka, Takashi Kanemaru(参考訳) トレーニングデータセットに存在しない有害なインスタンスを特定することは、よりよい機械学習モデルを構築する上で重要である。 従来の研究では、教師付き設定下で有害なインスタンスを推定することに成功したが、GAN(Generative Adversarial Network)に自明に拡張することはできない。 これは,(1) トレーニングインスタンスの欠如が損失値に直接影響を及ぼすこと,(2) 損失の変化がモデルの実行に対するインスタンスの有害性を直接測定すること,という従来のアプローチが求められているためである。 しかし、GANトレーニングでは、どちらの要件も満たされていない。 これは、(1)ジェネレータの損失は、ジェネレータのトレーニングステップの一部ではないため、トレーニングインスタンスに直接影響されず、(2)GANの損失の値は、通常モデルの生成性能を捉えないためである。 To this end, (1) we propose an influence estimation method that uses the Jacobian of the gradient of the generator's loss with respect to the discriminator's parameters (and vice versa) to trace how the absence of an instance in the discriminator's training affects the generator's parameters, and (2) we propose a novel evaluation scheme, in which we assess harmfulness of each training instance on the basis of how GAN evaluation metric (e.g., inception score) is expect to change due to the removal of the instance. 提案手法がGAN評価指標の変化を正確に推定できることを実験的に検証した。 さらに, 同定された有害事象の除去により, GAN評価指標に対するモデル生成性能が向上することが実証された。

Identifying harmful instances, whose absence in a training dataset improves model performance, is important for building better machine learning models. Although previous studies have succeeded in estimating harmful instances under supervised settings, they cannot be trivially extended to generative adversarial networks (GANs). This is because previous approaches require that (1) the absence of a training instance directly affects the loss value and that (2) the change in the loss directly measures the harmfulness of the instance for the performance of a model. In GAN training, however, neither of the requirements is satisfied. This is because, (1) the generator's loss is not directly affected by the training instances as they are not part of the generator's training steps, and (2) the values of GAN's losses normally do not capture the generative performance of a model. To this end, (1) we propose an influence estimation method that uses the Jacobian of the gradient of the generator's loss with respect to the discriminator's parameters (and vice versa) to trace how the absence of an instance in the discriminator's training affects the generator's parameters, and (2) we propose a novel evaluation scheme, in which we assess harmfulness of each training instance on the basis of how GAN evaluation metric (e.g., inception score) is expect to change due to the removal of the instance. We experimentally verified that our influence estimation method correctly inferred the changes in GAN evaluation metrics. Further, we demonstrated that the removal of the identified harmful instances effectively improved the model's generative performance with respect to various GAN evaluation metrics.
翻訳日:2021-03-22 01:33:06 公開日:2021-01-20
# 決定木と森林への欲求--理論的実証

Dive into Decision Trees and Forests: A Theoretical Demonstration ( http://arxiv.org/abs/2101.08656v1 )

ライセンス: Link先を確認
Jinxiong Zhang(参考訳) 決定木に基づいて、近年多くの分野が大きな進歩を遂げている。 簡単に言えば、決定木は入力特徴とラベル間の依存性に関する複雑な問題を小さな問題に分割するために「分割と探索」という戦略を用いる。 決定木には長い歴史があるが、近年の進歩により、計算広告、推薦システム、情報検索などの性能が大幅に向上している。 一般的な木モデル(例えば、ベイジアンCART、ベイジアン回帰スプライン)とトレーニング技術(例えば、混合整数プログラミング、交互最適化、勾配降下)を導入する。 その過程で,木系モデルの確率的特性を強調し,その実用的および理論的利点を説明する。 機械学習とデータマイニングを除くと、統計学や運用研究など他の分野のツリーベースモデルにおける理論的進歩を示す。 各メソッドの最後に再現可能なリソースをリストアップする。

Based on decision trees, many fields have arguably made tremendous progress in recent years. In simple words, decision trees use the strategy of "divide-and-conquer" to divide the complex problem on the dependency between input features and labels into smaller ones. While decision trees have a long history, recent advances have greatly improved their performance in computational advertising, recommender system, information retrieval, etc. We introduce common tree-based models (e.g., Bayesian CART, Bayesian regression splines) and training techniques (e.g., mixed integer programming, alternating optimization, gradient descent). Along the way, we highlight probabilistic characteristics of tree-based models and explain their practical and theoretical benefits. Except machine learning and data mining, we try to show theoretical advances on tree-based models from other fields such as statistics and operation research. We list the reproducible resource at the end of each method.
翻訳日:2021-03-22 01:32:42 公開日:2021-01-20
# トランスフォーマーを用いたオープンドメイン対話型検索アシスタント

Open-Domain Conversational Search Assistant with Transformers ( http://arxiv.org/abs/2101.08197v1 )

ライセンス: Link先を確認
Rafael Ferreira, Mariana Leite, David Semedo and Joao Magalhaes(参考訳) オープンドメイン会話検索アシスタントは、オープントピックに関するユーザの質問に会話形式で答えることを目的としている。 本稿では,トランスフォーマーアーキテクチャが,オープンドメインの対話型検索に係わる対話型アシスタントを単一かつ有意義な回答で作成することにより,重要なIRタスクにおける最先端結果を実現する方法を示す。 特に,会話コンテキストを意識した検索と,第2の抽象的検索回答生成という2つの大きな課題に対処する,オープンドメインの抽象的対話型検索エージェントパイプラインを提案する。 最初の課題に対処するために、会話コンテキストは、適切な回答を検索するために、会話のコンテキストを特定の瞬間まで展開するクエリ書き換えメソッドでモデル化される。 これらの回答はTransformerベースのリランカに渡され、検索性能がさらに向上する。 第2の課題は、最近の抽象トランスフォーマーアーキテクチャに取り組み、最も関係のある最上位の通路のダイジェストを生成することである。 実験によると、Transformerは会話検索のすべてのタスクに対して安定したパフォーマンスを提供し、TREC CAsT 2019ベースラインで最高のパフォーマンスを発揮する。

Open-domain conversational search assistants aim at answering user questions about open topics in a conversational manner. In this paper we show how the Transformer architecture achieves state-of-the-art results in key IR tasks, leveraging the creation of conversational assistants that engage in open-domain conversational search with single, yet informative, answers. In particular, we propose an open-domain abstractive conversational search agent pipeline to address two major challenges: first, conversation context-aware search and second, abstractive search-answers generation. To address the first challenge, the conversation context is modeled with a query rewriting method that unfolds the context of the conversation up to a specific moment to search for the correct answers. These answers are then passed to a Transformer-based re-ranker to further improve retrieval performance. The second challenge, is tackled with recent Abstractive Transformer architectures to generate a digest of the top most relevant passages. Experiments show that Transformers deliver a solid performance across all tasks in conversational search, outperforming the best TREC CAsT 2019 baseline.
翻訳日:2021-03-22 01:32:27 公開日:2021-01-20
# PGT:グラフベースの変換器を用いた擬似関連フィードバック

PGT: Pseudo Relevance Feedback Using a Graph-Based Transformer ( http://arxiv.org/abs/2101.07918v1 )

ライセンス: Link先を確認
HongChien Yu, Zhuyun Dai, Jamie Callan(参考訳) 擬似関連フィードバック(PRF)に関するほとんどの研究はベクトル空間と確率的検索モデルで行われている。 本稿では、トランスフォーマーベースのリカウンタがprfが提供する余分なコンテキストによってもメリットがあることを示す。 PGTはグラフベースのTransformerで、ほとんどのTransformerアーキテクチャの計算複雑性を回避しつつ、PRFを有効にするためにグラフノード間の注意を分散する。 実験により、PGTは非PRFトランスフォーマー・リランカにより改善され、少なくとも完全な注意を払って計算コストを下げるTransformer PRFモデルと同程度に正確であることが示されている。

Most research on pseudo relevance feedback (PRF) has been done in vector space and probabilistic retrieval models. This paper shows that Transformer-based rerankers can also benefit from the extra context that PRF provides. It presents PGT, a graph-based Transformer that sparsifies attention between graph nodes to enable PRF while avoiding the high computational complexity of most Transformer architectures. Experiments show that PGT improves upon non-PRF Transformer reranker, and it is at least as accurate as Transformer PRF models that use full attention, but with lower computational costs.
翻訳日:2021-03-22 01:32:10 公開日:2021-01-20
# DynaComm: 動的通信スケジューリングによるエッジとクラウド間の分散CNNトレーニングの高速化

DynaComm: Accelerating Distributed CNN Training between Edges and Clouds through Dynamic Communication Scheduling ( http://arxiv.org/abs/2101.07968v1 )

ライセンス: Link先を確認
Shangming Cai, Dongsheng Wang, Haixia Wang, Yongqiang Lyu, Guangquan Xu, Xi Zheng and Athanasios V. Vasilakos(参考訳) アップロード帯域幅とアドレスプライバシの懸念を軽減するために、ネットワークエッジでのディープラーニングが注目されている。 通常、エッジデバイスはパラメータサーバーフレームワークを通じてリアルタイムに生成されたデータを使用して、共有モデルを協調的にトレーニングする。 すべてのエッジデバイスはコンピューティングワークロードを共有することができるが、エッジネットワーク上の分散トレーニングプロセスは、パラメータサーバとエッジデバイス間の送信手順のパラメータと勾配のため、依然として時間がかかる。 ネットワークエッジにおける分散畳み込みニューラルネットワーク(CNN)トレーニングの高速化に着目し,各送信手順を複数のセグメントに動的に分解し,実行時に重複する最適な通信と計算を実現する新しいスケジューラDynaCommを提案する。 実験により、DynaCommは、モデル精度が変化しないまま、競合する戦略と比較して、全てのケースに対して最適なスケジューリングを達成できることを確認した。

To reduce uploading bandwidth and address privacy concerns, deep learning at the network edge has been an emerging topic. Typically, edge devices collaboratively train a shared model using real-time generated data through the Parameter Server framework. Although all the edge devices can share the computing workloads, the distributed training processes over edge networks are still time-consuming due to the parameters and gradients transmission procedures between parameter servers and edge devices. Focusing on accelerating distributed Convolutional Neural Networks (CNNs) training at the network edge, we present DynaComm, a novel scheduler that dynamically decomposes each transmission procedure into several segments to achieve optimal communications and computations overlapping during run-time. Through experiments, we verify that DynaComm manages to achieve optimal scheduling for all cases compared to competing strategies while the model accuracy remains untouched.
翻訳日:2021-03-22 01:31:59 公開日:2021-01-20
# 軽量NASのためのゼロコストプロキシ

Zero-Cost Proxies for Lightweight NAS ( http://arxiv.org/abs/2101.08134v1 )

ライセンス: Link先を確認
Mohamed S. Abdelfattah, Abhinav Mehrotra, {\L}ukasz Dudziak, Nicholas D. Lane(参考訳) neural architecture search(nas)は、ニューラルネットワークモデルを設計するための標準的な方法論になりつつある。 しかしながら、NASは通常、最高のモデルを選択する前に複数のモデルを評価する必要があるため、計算集約的である。 計算能力と時間を削減するため、完全なトレーニングではなく、各モデルを評価するためにプロキシタスクが頻繁に使用される。 本稿では,従来の還元学習プロキシを評価し,最終訓練精度によるランキングと比較し,探索中における複数のモデル間のランキング保持率を定量化する。 本稿では,モデルスコアの計算に,トレーニングデータのミニバッチを1つだけ使用した,最近のプルーニング文献に基づくゼロコストプロキシを提案する。 ゼロコストプロキシは3桁の計算量が少ないが、従来のプロキシとマッチし、さらに優れています。 例えば、NAS-Bench-201上での最適ゼロコストプロキシと最終検証精度の相関係数は、EcoNAS(最近提案された縮小学習プロキシ)の0.61と比べて0.82である。 最後に,これらゼロコストプロキシを用いてランダム検索,強化学習,進化的検索,予測型検索などの既存のnas検索アルゴリズムを強化する。 すべての探索手法と3つのNASデータセットに対して,ゼロコストプロキシを用いることで,サンプル効率を大幅に向上し,計算量を削減することができる。 例えばNAS-Bench-101では、最良な前の結果よりも4$\times$の精度を達成しました。

Neural Architecture Search (NAS) is quickly becoming the standard methodology to design neural network models. However, NAS is typically compute-intensive because multiple models need to be evaluated before choosing the best one. To reduce the computational power and time needed, a proxy task is often used for evaluating each model instead of full training. In this paper, we evaluate conventional reduced-training proxies and quantify how well they preserve ranking between multiple models during search when compared with the rankings produced by final trained accuracy. We propose a series of zero-cost proxies, based on recent pruning literature, that use just a single minibatch of training data to compute a model's score. Our zero-cost proxies use 3 orders of magnitude less computation but can match and even outperform conventional proxies. For example, Spearman's rank correlation coefficient between final validation accuracy and our best zero-cost proxy on NAS-Bench-201 is 0.82, compared to 0.61 for EcoNAS (a recently proposed reduced-training proxy). Finally, we use these zero-cost proxies to enhance existing NAS search algorithms such as random search, reinforcement learning, evolutionary search and predictor-based search. For all search methodologies and across three different NAS datasets, we are able to significantly improve sample efficiency, and thereby decrease computation, by using our zero-cost proxies. For example on NAS-Bench-101, we achieved the same accuracy 4$\times$ quicker than the best previous result.
翻訳日:2021-03-22 01:31:43 公開日:2021-01-20
# 量子相関による生成モデルの強化

Enhancing Generative Models via Quantum Correlations ( http://arxiv.org/abs/2101.08354v1 )

ライセンス: Link先を確認
Xun Gao, Eric R. Anschuetz, Sheng-Tao Wang, J. Ignacio Cirac and Mikhail D. Lukin(参考訳) 確率分布から抽出したサンプルを用いた生成モデリングは教師なし機械学習の強力なアプローチである。 量子力学系は、古典モデルを用いて捉えるのが難しい量子相関を示す確率分布を生成することができる。 このような量子相関が生成モデリングの強力な資源であることを示す。 特に、ベイズネットワークと呼ばれる広く使われている生成モデルのクラスと、その最小量子拡張との間の表現力の無条件な分離証明を提供する。 この表現性アドバンテージは、量子非局所性と量子文脈性と関連していることを示す。 さらに,この分離を標準機械学習データセット上で数値的にテストし,実用的問題に対して有効であることを示す。 この研究で証明された量子アドバンテージの可能性は、有用な量子機械学習プロトコルの設計に光を当てるだけでなく、純粋に古典的なアルゴリズムを改善するために量子ファンデーションのアイデアに着想を与える。

Generative modeling using samples drawn from the probability distribution constitutes a powerful approach for unsupervised machine learning. Quantum mechanical systems can produce probability distributions that exhibit quantum correlations which are difficult to capture using classical models. We show theoretically that such quantum correlations provide a powerful resource for generative modeling. In particular, we provide an unconditional proof of separation in expressive power between a class of widely-used generative models, known as Bayesian networks, and its minimal quantum extension. We show that this expressivity advantage is associated with quantum nonlocality and quantum contextuality. Furthermore, we numerically test this separation on standard machine learning data sets and show that it holds for practical problems. The possibility of quantum advantage demonstrated in this work not only sheds light on the design of useful quantum machine learning protocols but also provides inspiration to draw on ideas from quantum foundations to improve purely classical algorithms.
翻訳日:2021-03-22 01:31:10 公開日:2021-01-20
# 視野からコマンドへのビジョンギャップをブリッジする:照度と詳細を取り入れたディープラーニングネットワーク

Bridge the Vision Gap from Field to Command: A Deep Learning Network Enhancing Illumination and Details ( http://arxiv.org/abs/2101.08039v1 )

ライセンス: Link先を確認
Zhuqing Jiang, Chang Liu, Ya'nan Wang, Kai Li, Aidong Men, Haiying Wang, Haiyong Luo(参考訳) 明るさを調整することを目的として、低光度画像強調は監視、リモートセンシング、計算写真など多くの応用を享受している。 低照度条件下で撮影された画像は視界が悪く、ぼやけていることが多い。 暗い領域だけを明るくすることは必然的にぼやけを増幅するので、細部が失われる可能性がある。 本稿では,多くの計算コストを伴わずに,明るさを調整し,細部を同時に強化する,シンプルで効果的な2ストリームフレームワークNEIDを提案する。 正確には、提案手法は、光強調(le)、詳細精細(dr)、機能融合(ff)モジュールの3つの部分から構成されている。 いくつかのベンチマークデータセットで行った広範囲な実験により、本手法の有効性と最先端手法に対する優位性が実証された。

With the goal of tuning up the brightness, low-light image enhancement enjoys numerous applications, such as surveillance, remote sensing and computational photography. Images captured under low-light conditions often suffer from poor visibility and blur. Solely brightening the dark regions will inevitably amplify the blur, thus may lead to detail loss. In this paper, we propose a simple yet effective two-stream framework named NEID to tune up the brightness and enhance the details simultaneously without introducing many computational costs. Precisely, the proposed method consists of three parts: Light Enhancement (LE), Detail Refinement (DR) and Feature Fusing (FF) module, which can aggregate composite features oriented to multiple tasks based on channel attention mechanism. Extensive experiments conducted on several benchmark datasets demonstrate the efficacy of our method and its superiority over state-of-the-art methods.
翻訳日:2021-03-22 01:30:45 公開日:2021-01-20
# コンポーネントツリー損失関数:定義と最適化

Component Tree Loss Function: Definition and Optimization ( http://arxiv.org/abs/2101.08063v1 )

ライセンス: Link先を確認
Benjamin Perret (LIGM), Jean Cousty (LIGM)(参考訳) 本稿では,勾配降下アルゴリズムにより最適化可能なコンポーネントツリーに基づく損失関数の設計手法を提案する。 このような階層的な画像表現のノードに付随する高度が、画像画素値に対してどのように区別できるかを示す。 この機能は、絶滅値などの様々な属性に基づいて画像の最大値を選択または破棄できる汎用的損失関数を設計するために使用される。 シミュレーションおよび実画像フィルタリングにおいて,提案手法の可能性を示す。

In this article, we propose a method to design loss functions based on component trees which can be optimized by gradient descent algorithms and which are therefore usable in conjunction with recent machine learning approaches such as neural networks. We show how the altitudes associated to the nodes of such hierarchical image representations can be differentiated with respect to the image pixel values. This feature is used to design a generic loss function that can select or discard image maxima based on various attributes such as extinction values. The possibilities of the proposed method are demonstrated on simulated and real image filtering.
翻訳日:2021-03-22 01:30:29 公開日:2021-01-20
# 安定で正確なニューラルネットワークは計算できるのか? --深層学習の障壁とスモール18号問題について

Can stable and accurate neural networks be computed? -- On the barriers of deep learning and Smale's 18th problem ( http://arxiv.org/abs/2101.08286v1 )

ライセンス: Link先を確認
Vegard Antun, Matthew J. Colbrook, Anders C. Hansen(参考訳) ディープラーニング(DL)は前例のない成功を収め、現在は全力で科学計算に参入している。 しかし、dlは安定ニューラルネットワーク(nns)の存在を保証する普遍的な近似特性にもかかわらず、不安定という普遍的な現象に苦しむ。 以下のパラドックスを示す。 科学的計算には、非常に近似品質の高いNNの存在を証明できる基本的な条件付き問題があるが、そのようなNNを訓練(あるいは計算)できるランダム化されたアルゴリズムは存在しない。 実際、任意の正の整数 $K > 2$ および $L$ に対して、同時に、 (a) ランダム化されたアルゴリズムは、1/2$ 以上の確率で NN を$K$ の桁に計算できる (b) NN を$K-1$ の桁で計算する決定論的アルゴリズムは存在するが、そのような (ランダム化された) アルゴリズムは任意の数のトレーニングデータを必要とする (c) NN を$K-2$ の桁で計算する決定論的アルゴリズムは、$L$ 以上のトレーニングサンプルを用いて存在する。 これらの結果は、Smaleの18番目の問題の基礎となり、与えられた精度の(安定な)NNをアルゴリズムで計算できる条件を記述する、潜在的に広大かつ重要な分類理論であることを示している。 この理論は圧縮センシングとdlの統一理論を開始し、逆問題において安定なnnsを計算するアルゴリズムが存在するための十分な条件を導いた。 我々は、Fast Iterative Restarted NETworks (FIRENETs)を紹介し、それを証明し、数値的に検証する。 さらに、逆問題(指数収束)に対する$\epsilon$正確な解には$\mathcal{O}(|\log(\epsilon)|)$層のみが必要であることを証明し、その層の内部次元が逆問題の次元を超えないことを証明した。 したがって、FIRENETは計算的に非常に効率的である。

Deep learning (DL) has had unprecedented success and is now entering scientific computing with full force. However, DL suffers from a universal phenomenon: instability, despite universal approximating properties that often guarantee the existence of stable neural networks (NNs). We show the following paradox. There are basic well-conditioned problems in scientific computing where one can prove the existence of NNs with great approximation qualities, however, there does not exist any algorithm, even randomised, that can train (or compute) such a NN. Indeed, for any positive integers $K > 2$ and $L$, there are cases where simultaneously: (a) no randomised algorithm can compute a NN correct to $K$ digits with probability greater than $1/2$, (b) there exists a deterministic algorithm that computes a NN with $K-1$ correct digits, but any such (even randomised) algorithm needs arbitrarily many training data, (c) there exists a deterministic algorithm that computes a NN with $K-2$ correct digits using no more than $L$ training samples. These results provide basic foundations for Smale's 18th problem and imply a potentially vast, and crucial, classification theory describing conditions under which (stable) NNs with a given accuracy can be computed by an algorithm. We begin this theory by initiating a unified theory for compressed sensing and DL, leading to sufficient conditions for the existence of algorithms that compute stable NNs in inverse problems. We introduce Fast Iterative REstarted NETworks (FIRENETs), which we prove and numerically verify are stable. Moreover, we prove that only $\mathcal{O}(|\log(\epsilon)|)$ layers are needed for an $\epsilon$ accurate solution to the inverse problem (exponential convergence), and that the inner dimensions in the layers do not exceed the dimension of the inverse problem. Thus, FIRENETs are computationally very efficient.
翻訳日:2021-03-22 01:30:22 公開日:2021-01-20
# ワッサースタイン汚染下におけるロバストW-GAN推定

Robust W-GAN-Based Estimation Under Wasserstein Contamination ( http://arxiv.org/abs/2101.07969v1 )

ライセンス: Link先を確認
Zheng Liu, Po-Ling Loh(参考訳) ロバスト推定は、データ生成分布が未汚染分布の周りで適切に定義された球内にある場合、合理的な推定器を提供することを目的とした統計学における重要な問題である。 近年ミニマックス推定が確立されているが、最適な収束率を持つ既存のロバスト推定器の多くは計算に難解である。 本稿では,ワッサースタイン汚染モデルに基づく推定問題をいくつか検討し,gans(generative adversarial networks)を動機とする計算可能な推定器を提案する。 具体的には,位置推定,共分散行列推定,線形回帰のためのwasserstein ganに基づく推定器の特性を分析し,提案する推定器が多くのシナリオにおいて最小最適であることを示す。 最後に,推定器の有効性を示す数値的な結果を示す。

Robust estimation is an important problem in statistics which aims at providing a reasonable estimator when the data-generating distribution lies within an appropriately defined ball around an uncontaminated distribution. Although minimax rates of estimation have been established in recent years, many existing robust estimators with provably optimal convergence rates are also computationally intractable. In this paper, we study several estimation problems under a Wasserstein contamination model and present computationally tractable estimators motivated by generative adversarial networks (GANs). Specifically, we analyze properties of Wasserstein GAN-based estimators for location estimation, covariance matrix estimation, and linear regression and show that our proposed estimators are minimax optimal in many scenarios. Finally, we present numerical results which demonstrate the effectiveness of our estimators.
翻訳日:2021-03-22 01:29:42 公開日:2021-01-20
# ディバイドとコンカー:ヒンディー語における宿主検出のためのアンサンブルアプローチ

Divide and Conquer: An Ensemble Approach for Hostile Post Detection in Hindi ( http://arxiv.org/abs/2101.07973v1 )

ライセンス: Link先を確認
Varad Bhatnagar, Prince Kumar, Sairam Moghili and Pushpak Bhattacharyya(参考訳) 最近、NLPコミュニティは、ホストポスト検出の困難なタスクに関心を示し始めている。 本稿では,HindiにおけるHostile Post Detectionについて,Constraint2021における共有タスクシステムを提案する。 この共有タスクのデータは、twitterとfacebookから収集されたhindi devanagariスクリプトで提供される。 これは、各データインスタンスがフェイク、ヘイト、攻撃、破壊、非敵対の5つのクラスのうちの1つまたはそれ以上に注釈付けされるマルチラベルのマルチクラス分類問題である。 この問題を解決するために,bertベースの分類器と統計分類器からなる2階層アーキテクチャを提案する。 私たちのチームである"Albatross"は,ヒンディー語サブタスクにおける宿主ポスト検出において,粗い敵意F1スコアを0.9709点獲得し,45チーム中2位を確保しました。 我々の応募は156件中2位と3位にランクされ、それぞれ0.9709点と0.9703点の粗い敵意F1点が与えられた。 きめ細かいスコアも非常に有益で、さらに微調整することで改善できます。 コードは公開されている。

Recently the NLP community has started showing interest towards the challenging task of Hostile Post Detection. This paper present our system for Shared Task at Constraint2021 on "Hostile Post Detection in Hindi". The data for this shared task is provided in Hindi Devanagari script which was collected from Twitter and Facebook. It is a multi-label multi-class classification problem where each data instance is annotated into one or more of the five classes: fake, hate, offensive, defamation, and non-hostile. We propose a two level architecture which is made up of BERT based classifiers and statistical classifiers to solve this problem. Our team 'Albatross', scored 0.9709 Coarse grained hostility F1 score measure on Hostile Post Detection in Hindi subtask and secured 2nd rank out of 45 teams for the task. Our submission is ranked 2nd and 3rd out of a total of 156 submissions with Coarse grained hostility F1 score of 0.9709 and 0.9703 respectively. Our fine grained scores are also very encouraging and can be improved with further finetuning. The code is publicly available.
翻訳日:2021-03-22 01:29:10 公開日:2021-01-20
# ペルシア語ユーザ生成テキストコンテンツの課題--機械学習に基づくアプローチ

The Challenges of Persian User-generated Textual Content: A Machine Learning-Based Approach ( http://arxiv.org/abs/2101.08087v1 )

ライセンス: Link先を確認
Mohammad Kasra Habib(参考訳) 近年、大量のユーザ生成コンテンツから恩恵を受け、その上にインテリジェントな予測モデルを構築する効果的なアプローチの開発について、多くの研究論文や研究が出版されている。 この研究は、ペルシャのユーザーが生成したテキストコンテンツのハードルに対処するために機械学習に基づくアプローチを適用する。 残念ながら、ペルシア語のテキストを分類/クラスタ化するための機械学習アプローチを利用するには、依然として不十分な研究がある。 さらにペルシャのテキストの分析は、特にデータセットやテキスト操作ツールのリソース不足に苦しむ。 ペルシア語の構文と意味は英語や他の言語とは異なるため、これらの言語から得られる資源はペルシャ語ですぐには利用できない。 加えて、名詞や代名詞の認識、言語タグ付け、単語の境界の発見、ペルシャ語に対する語源や文字操作は、さらなる研究を必要とする未解決の問題である。 そのため,本研究ではいくつかの課題に対処する努力がなされている。 このアプローチでは、ペルシャ語の感情分析に機械翻訳データセットを使用する。 最後に、データセットは異なる分類器と機能エンジニアリングアプローチでリハーサルされている。 実験の結果、従来の取り組みとは対照的に最先端のパフォーマンスが期待でき、最高の分類器は91.22%の精度、91.71%のリコール、91.46%のF1スコアを達成したサポートベクトルマシンであった。

Over recent years a lot of research papers and studies have been published on the development of effective approaches that benefit from a large amount of user-generated content and build intelligent predictive models on top of them. This research applies machine learning-based approaches to tackle the hurdles that come with Persian user-generated textual content. Unfortunately, there is still inadequate research in exploiting machine learning approaches to classify/cluster Persian text. Further, analyzing Persian text suffers from a lack of resources; specifically from datasets and text manipulation tools. Since the syntax and semantics of the Persian language is different from English and other languages, the available resources from these languages are not instantly usable for Persian. In addition, recognition of nouns and pronouns, parts of speech tagging, finding words' boundary, stemming or character manipulations for Persian language are still unsolved issues that require further studying. Therefore, efforts have been made in this research to address some of the challenges. This presented approach uses a machine-translated datasets to conduct sentiment analysis for the Persian language. Finally, the dataset has been rehearsed with different classifiers and feature engineering approaches. The results of the experiments have shown promising state-of-the-art performance in contrast to the previous efforts; the best classifier was Support Vector Machines which achieved a precision of 91.22%, recall of 91.71%, and F1 score of 91.46%.
翻訳日:2021-03-22 01:28:52 公開日:2021-01-20
# Data-Scarce Domain BERT 知識蒸留のための拡張学習

Learning to Augment for Data-Scarce Domain BERT Knowledge Distillation ( http://arxiv.org/abs/2101.08106v1 )

ライセンス: Link先を確認
Lingyun Feng, Minghui Qiu, Yaliang Li, Hai-Tao Zheng, Ying Shen(参考訳) BERTのような事前訓練された言語モデルは、幅広い自然言語処理タスクにおいて魅力的なパフォーマンスを達成しているが、リアルタイムアプリケーションにデプロイするには計算コストがかかる。 典型的な方法は、これらの大きな事前訓練されたモデル(教師モデル)を小さな学生モデルに圧縮するために知識蒸留を採用することである。 しかし、学習データが少ない対象領域では、教師が生徒に有用な知識を渡すことはほとんどなく、生徒モデルの性能劣化をもたらす。 この問題を解決するために,資源豊富なソースドメインの助けを借りてターゲットを自動的に拡張するクロスドメイン操作方式を学習することにより,データ共有ドメインBERT知識蒸留の強化を学ぶ方法を提案する。 具体的には、対象データ近傍の定常分布から得られたサンプルを生成し、強化セレクタを採用し、生徒のパフォーマンスに応じて拡張戦略を自動的に洗練する。 大規模な実験により、提案手法は4つの異なるタスクにおいて最先端のベースラインを著しく上回り、データスカース領域では、圧縮された学生モデルは元の大きな教師モデルよりも優れた性能を示し、ラベル付き例がいくつかある場合に、パラメータがはるかに少ない(${\sim}13.3\%$)。

Despite pre-trained language models such as BERT have achieved appealing performance in a wide range of natural language processing tasks, they are computationally expensive to be deployed in real-time applications. A typical method is to adopt knowledge distillation to compress these large pre-trained models (teacher models) to small student models. However, for a target domain with scarce training data, the teacher can hardly pass useful knowledge to the student, which yields performance degradation for the student models. To tackle this problem, we propose a method to learn to augment for data-scarce domain BERT knowledge distillation, by learning a cross-domain manipulation scheme that automatically augments the target with the help of resource-rich source domains. Specifically, the proposed method generates samples acquired from a stationary distribution near the target data and adopts a reinforced selector to automatically refine the augmentation strategy according to the performance of the student. Extensive experiments demonstrate that the proposed method significantly outperforms state-of-the-art baselines on four different tasks, and for the data-scarce domains, the compressed student models even perform better than the original large teacher model, with much fewer parameters (only ${\sim}13.3\%$) when only a few labeled examples available.
翻訳日:2021-03-22 01:28:12 公開日:2021-01-20
# 分類学は役立つか? 質問分類を用いた意味的質問照合の改善

Can Taxonomy Help? Improving Semantic Question Matching using Question Taxonomy ( http://arxiv.org/abs/2101.08201v1 )

ライセンス: Link先を確認
Deepak Gupta, Rajkumar Pujari, Asif Ekbal, Pushpak Bhattacharyya, Anutosh Maitra, Tom Jain, Shubhashis Sengupta(参考訳) 本稿では,意味的質問マッチングのためのハイブリッド手法を提案する。 提案手法は,ディープラーニングに基づく問合せ分類器から得られた問合せクラスを用いて,最先端のディープラーニングモデルを拡張することにより,英語質問に対する2層分類法を提案する。 3つのオープンドメインデータセットで実験を行い、提案手法の有効性を示した。 偏順質問ランキング(POQR)ベンチマークデータセットを用いて、最先端の結果を得る。 我々の実証分析は、標準的な分布特性(質問エンコーダによって提供される)と分類学からの知識との結合が、深層学習(DL)や分類学に基づく知識よりも効果的であることを示している。

In this paper, we propose a hybrid technique for semantic question matching. It uses our proposed two-layered taxonomy for English questions by augmenting state-of-the-art deep learning models with question classes obtained from a deep learning based question classifier. Experiments performed on three open-domain datasets demonstrate the effectiveness of our proposed approach. We achieve state-of-the-art results on partial ordering question ranking (POQR) benchmark dataset. Our empirical analysis shows that coupling standard distributional features (provided by the question encoder) with knowledge from taxonomy is more effective than either deep learning (DL) or taxonomy-based knowledge alone.
翻訳日:2021-03-22 01:27:35 公開日:2021-01-20
# 生成的質問応答による対話状態追跡におけるゼロショット一般化

Zero-shot Generalization in Dialog State Tracking through Generative Question Answering ( http://arxiv.org/abs/2101.08333v1 )

ライセンス: Link先を確認
Shuyang Li, Jin Cao, Mukund Sridhar, Henghui Zhu, Shang-Wen Li, Wael Hamza, Julian McAuley(参考訳) ダイアログ状態追跡(DST)は、タスク指向ダイアログにおけるユーザの好みや制約(スロット)を追跡することを目的としている。 常に変化するサービスを持つ現実世界では、DSTシステムは新しいドメインと見えないスロットタイプに一般化する必要がある。 DSTの既存のメソッドは、新しいスロット名をうまく一般化せず、多くはスロットタイプと推論の値の既知のオントロジーを必要とする。 マルチドメインタスク指向ダイアログにおける制約やスロットに対する自然言語クエリをサポートする新しいオントロジーフリーフレームワークを提案する。 本手法は,英語副詞に事前学習した条件付き言語モデルを用いた生成的質問応答に基づく。 我々のモデルは、MultiWOZ 2.1データセットの以前の最先端技術よりも、ゼロショットドメイン適応設定における共同ゴール精度を9%(絶対)向上させる。

Dialog State Tracking (DST), an integral part of modern dialog systems, aims to track user preferences and constraints (slots) in task-oriented dialogs. In real-world settings with constantly changing services, DST systems must generalize to new domains and unseen slot types. Existing methods for DST do not generalize well to new slot names and many require known ontologies of slot types and values for inference. We introduce a novel ontology-free framework that supports natural language queries for unseen constraints and slots in multi-domain task-oriented dialogs. Our approach is based on generative question-answering using a conditional language model pre-trained on substantive English sentences. Our model improves joint goal accuracy in zero-shot domain adaptation settings by up to 9% (absolute) over the previous state-of-the-art on the MultiWOZ 2.1 dataset.
翻訳日:2021-03-22 01:27:26 公開日:2021-01-20
# オントロジーにおけるバイアス-予備評価

Bias in ontologies -- a preliminary assessment ( http://arxiv.org/abs/2101.08035v1 )

ライセンス: Link先を確認
C. Maria Keet(参考訳) コンピューティングやITにおけるオントロジーや類似のアーティファクトの形での論理理論は、データの構造化、注釈付け、クエリに使われ、アルゴリズムに入力されるものに関するデータ分析に影響を与えている。 アルゴリズムバイアスはよく知られた概念だが、バイアスはアルゴリズムの入力を構造化するメカニズムを提供するオントロジーの文脈において何を意味するのか? バイアスの源は何で、どうやってオントロジーに現れますか? 我々はオントロジーに関連するバイアスの種類と、それらが明示的か暗黙的かを調査し、列挙する。 これらの8つのタイプは、現存する生産レベルのオントロジーと文献からのサンプルの例で示される。 次に、バイアスに関する3つの同時に開発されたcovid-19オントロジーを評価し、それぞれのバイアスの異なるサブセットを多かれ少なかれ検出した。 この最初の特徴付けは、情報と知識の表現を主眼とするオントロジーの倫理的側面の感性化に寄与する。

Logical theories in the form of ontologies and similar artefacts in computing and IT are used for structuring, annotating, and querying data, among others, and therewith influence data analytics regarding what is fed into the algorithms. Algorithmic bias is a well-known notion, but what does bias mean in the context of ontologies that provide a structuring mechanism for an algorithm's input? What are the sources of bias there and how would they manifest themselves in ontologies? We examine and enumerate types of bias relevant for ontologies, and whether they are explicit or implicit. These eight types are illustrated with examples from extant production-level ontologies and samples from the literature. We then assessed three concurrently developed COVID-19 ontologies on bias and detected different subsets of types of bias in each one, to a greater or lesser extent. This first characterisation aims contribute to a sensitisation of ethical aspects of ontologies primarily regarding representation of information and knowledge.
翻訳日:2021-03-22 01:27:13 公開日:2021-01-20
# mt5b3: 自律企業構築のためのフレームワーク

mt5b3: A Framework for Building AutonomousTraders ( http://arxiv.org/abs/2101.08169v1 )

ライセンス: Link先を確認
Paulo Andr\'e Lima de Castro(参考訳) 自律的なトレーディングロボットは、長い間、アーティフィシャルインテリジェンスエリアで研究されてきた。 畳み込みニューラルネットワークや深層強化学習(deep reinforcement learning)といった最近のアプローチを含む金融分野では、多くのai技術がテストされてきた。 しかし、これらのロボットが実際の市場や、訓練や評価に頻繁に使われないデータで使用される場合、リスクやリターンの面では非常に低いパフォーマンスを示す。 本稿では,自律取引業者のモデリングと金融界である複雑な環境に関する基礎的側面について概説する。 さらに,自律トレーダの開発とテストを支援するフレームワークも提示した。 また、金融市場における実物や模擬業務にも利用することができる。 最後に,この領域のオープンな問題について論じ,課題の進展に寄与するであろう興味深い技術について指摘した。 mt5b3は新しい自律型トレーダーの開発にも寄与すると信じている。

Autonomous trading robots have been studied in ar-tificial intelligence area for quite some time. Many AI techniqueshave been tested in finance field including recent approaches likeconvolutional neural networks and deep reinforcement learning.There are many reported cases, where the developers are suc-cessful in creating robots with great performance when executingwith historical price series, so called backtesting. However, whenthese robots are used in real markets or data not used intheir training or evaluation frequently they present very poorperformance in terms of risks and return. In this paper, wediscussed some fundamental aspects of modelling autonomoustraders and the complex environment that is the financialworld. Furthermore, we presented a framework that helps thedevelopment and testing of autonomous traders. It may also beused in real or simulated operation in financial markets. Finally,we discussed some open problems in the area and pointed outsome interesting technologies that may contribute to advancein such task. We believe that mt5b3 may also contribute todevelopment of new autonomous traders.
翻訳日:2021-03-22 01:26:41 公開日:2021-01-20
# セマンティックセグメンテーションのための特徴共有協調ネットワーク

Feature Sharing Cooperative Network for Semantic Segmentation ( http://arxiv.org/abs/2101.07905v1 )

ライセンス: Link先を確認
Ryota Ikedo, Kazuhiro Hotta(参考訳) 近年,深層ニューラルネットワークは画像認識の分野で高い精度を実現している。 人間の学習から着想を得て,グループ学習に類似した情報を共有する協調学習を用いた意味的セグメンテーション手法を提案する。 2つのネットワーク間でフィーチャーマップを送信するのに、2つの同じネットワークとパスを使用します。 2つのネットワークを同時に訓練する。 特徴マップを共有することにより、2つのネットワークのうちの1つが1つのネットワークで取得できない情報を得ることができる。 また,協調の度合いを高めるために,同一層と複数層のみを接続する2種類の手法を提案する。 提案するアイデアを2種類のネットワークで評価した。 1つはDANet(Dual Attention Network)、もう1つはDeepLabv3+である。 提案手法は,従来の単一ネットワークやネットワークのアンサンブルよりも高いセグメンテーション精度を実現する。

In recent years, deep neural networks have achieved high ac-curacy in the field of image recognition. By inspired from human learning method, we propose a semantic segmentation method using cooperative learning which shares the information resembling a group learning. We use two same networks and paths for sending feature maps between two networks. Two networks are trained simultaneously. By sharing feature maps, one of two networks can obtain the information that cannot be obtained by a single network. In addition, in order to enhance the degree of cooperation, we propose two kinds of methods that connect only the same layer and multiple layers. We evaluated our proposed idea on two kinds of networks. One is Dual Attention Network (DANet) and the other one is DeepLabv3+. The proposed method achieved better segmentation accuracy than the conventional single network and ensemble of networks.
翻訳日:2021-03-22 01:26:26 公開日:2021-01-20
# 弱教師付き物体検出のためのオンラインアクティブ提案セット生成

Online Active Proposal Set Generation for Weakly Supervised Object Detection ( http://arxiv.org/abs/2101.07929v1 )

ライセンス: Link先を確認
Ruibing Jin, Guosheng Lin, and Changyun Wen(参考訳) ボックスレベルのアノテーションの消費電力を減らすため,画像レベルのアノテーションのみを必要とする弱教師付きオブジェクト検出法が近年提案されている。 これらの方法のトレーニングプロセスを2つのステップに定式化する。 まず、弱い監督下でニューラルネットワークをトレーニングし、擬似基底真理(PGT)を生成する。 そして、これらのPGTは、完全な監視下で別のネットワークをトレーニングするために使用される。 完全教師付き手法と比較して、弱教師付き手法の訓練プロセスはより複雑で時間がかかる。 さらに、最初の段階では圧倒的な否定的な提案が絡み合っている。 これはほとんどの手法で無視されており、トレーニングネットワークは負の提案に偏り、PGTの品質が低下し、トレーニングネットワークの性能が2番目のステップで制限される。 オンライン提案サンプリングはこれらの問題に対する直感的な解決策である。 しかし、適切なラベル付けがないため、簡単なオンライン提案サンプリングにより、トレーニングネットワークをローカルなミニマに固定することができる。 そこで本研究では,オンラインアクティブ・プロポーザル・セット生成(OPG)アルゴリズムを提案する。 提案アルゴリズムは動的提案制約 (DPC) と提案分割 (PP) の2つの部分から構成される。 DPCは、現在のトレーニング状況に応じて異なる提案サンプリング戦略を動的に決定する。 PPは各提案をスコアリングし、提案を異なるセットに分割し、ネットワーク最適化のためのアクティブな提案セットを生成する。 実験により,提案したOPGは, PASCAL VOC 2007 と 2012 の両データセットに対して一貫した, 有意な改善を示した。

To reduce the manpower consumption on box-level annotations, many weakly supervised object detection methods which only require image-level annotations, have been proposed recently. The training process in these methods is formulated into two steps. They firstly train a neural network under weak supervision to generate pseudo ground truths (PGTs). Then, these PGTs are used to train another network under full supervision. Compared with fully supervised methods, the training process in weakly supervised methods becomes more complex and time-consuming. Furthermore, overwhelming negative proposals are involved at the first step. This is neglected by most methods, which makes the training network biased towards to negative proposals and thus degrades the quality of the PGTs, limiting the training network performance at the second step. Online proposal sampling is an intuitive solution to these issues. However, lacking of adequate labeling, a simple online proposal sampling may make the training network stuck into local minima. To solve this problem, we propose an Online Active Proposal Set Generation (OPG) algorithm. Our OPG algorithm consists of two parts: Dynamic Proposal Constraint (DPC) and Proposal Partition (PP). DPC is proposed to dynamically determine different proposal sampling strategy according to the current training state. PP is used to score each proposal, part proposals into different sets and generate an active proposal set for the network optimization. Through experiments, our proposed OPG shows consistent and significant improvement on both datasets PASCAL VOC 2007 and 2012, yielding comparable performance to the state-of-the-art results.
翻訳日:2021-03-22 01:26:18 公開日:2021-01-20
# 微調整を超えて:機能保存変換を用いた高分解能マンモグラムの分類

Beyond Fine-tuning: Classifying High Resolution Mammograms using Function-Preserving Transformations ( http://arxiv.org/abs/2101.07945v1 )

ライセンス: Link先を確認
Tao Wei, Angelica I Aviles-Rivero, Shuo Wang, Yuan Huang, Fiona J Gilbert, Carola-Bibiane Sch\"onlieb, Chang Wen Chen(参考訳) マンモグラフィーの分類は,高解像度画像では病変が小さいため,非常に困難である。 医用画像分類における現在の最先端のアプローチは、ConvNetsのデファクト方式(ファクトチューニング)に頼っている。 しかし、自然画像と医学画像には根本的な違いがあり、文献からの既存の証拠に基づき、アルゴリズムによる設計による全体的な性能向上が制限されている。 本稿では,新しいトランスファー学習方式を強調するmorphhrと呼ばれる新しいフレームワークを導入することで,微調整を超越することを提案する。 提案されたフレームワークの背景にあるアイデアは、任意の連続的な非線形活性化ニューロンに対して機能保存変換を統合することで、マンモグラム分類を改善するネットワークを内部的に調整することである。 提案するソリューションは,既存の技術に対して2つの大きなメリットがある。 まず、微調整とは異なり、提案されたアプローチでは、最後のいくつかのレイヤだけでなく、Deep ConvNetの最初のレイヤも修正できる。 これによって、ドメイン固有の機能を学ぶのに適したネットワークフロントを設計することができます。 第二に、提案方式はハードウェアにスケーラブルである。 したがって、標準的なGPUメモリに高解像度の画像が収まる。 高解像度画像を用いることで,関連情報の消失を防止できることを示す。 数値的および視覚的な実験を通して,提案手法は最先端技術よりも分類性能が著しく向上し,放射線学の専門家と同等であることを示す。 さらに,本手法の汎用化のために,ChestX-ray14という別の大規模データセットに対する学習手法の有効性を示す。

The task of classifying mammograms is very challenging because the lesion is usually small in the high resolution image. The current state-of-the-art approaches for medical image classification rely on using the de-facto method for ConvNets - fine-tuning. However, there are fundamental differences between natural images and medical images, which based on existing evidence from the literature, limits the overall performance gain when designed with algorithmic approaches. In this paper, we propose to go beyond fine-tuning by introducing a novel framework called MorphHR, in which we highlight a new transfer learning scheme. The idea behind the proposed framework is to integrate function-preserving transformations, for any continuous non-linear activation neurons, to internally regularise the network for improving mammograms classification. The proposed solution offers two major advantages over the existing techniques. Firstly and unlike fine-tuning, the proposed approach allows for modifying not only the last few layers but also several of the first ones on a deep ConvNet. By doing this, we can design the network front to be suitable for learning domain specific features. Secondly, the proposed scheme is scalable to hardware. Therefore, one can fit high resolution images on standard GPU memory. We show that by using high resolution images, one prevents losing relevant information. We demonstrate, through numerical and visual experiments, that the proposed approach yields to a significant improvement in the classification performance over state-of-the-art techniques, and is indeed on a par with radiology experts. Moreover and for generalisation purposes, we show the effectiveness of the proposed learning scheme on another large dataset, the ChestX-ray14, surpassing current state-of-the-art techniques.
翻訳日:2021-03-22 01:25:55 公開日:2021-01-20
# クラスワイド型拡張による水中物体検出データセットの作成

Class balanced underwater object detection dataset generated by class-wise style augmentation ( http://arxiv.org/abs/2101.07959v1 )

ライセンス: Link先を確認
Long Chen, Junyu Dong and Huiyu Zhou(参考訳) 水中物体検出技術は水中の様々な用途において非常に重要である。 しかし、クラス不均衡問題は現在の水中物体検出アルゴリズムの未解決のボトルネックである。 その結果,より訓練データの多い支配クラスの方が検出精度が高く,訓練データが少ないマイノリティクラスでは検出精度がはるかに低いクラス間で大きな精度差が生じた。 本稿では,公衆コンテスト水中データセット URPC2018 からクラスバランス付き水中データセット Balance18 を生成するための,新しいクラスワイド型拡張アルゴリズムを提案する。 CWSAは、マイノリティクラスの様々な色、テクスチャ、コントラストを生成することで、マイノリティクラスのトレーニングデータを増強する新しいタイプのデータ拡張技術である。 CWSAは、フリップ、トリミング、ローテーションといった従来のデータ拡張アルゴリズムと比較して、多様な色歪みとヘイズ効果を持つバランスのとれた水中データセットを生成することができる。

Underwater object detection technique is of great significance for various applications in underwater the scenes. However, class imbalance issue is still an unsolved bottleneck for current underwater object detection algorithms. It leads to large precision discrepancies among different classes that the dominant classes with more training data achieve higher detection precisions while the minority classes with fewer training data achieves much lower detection precisions. In this paper, we propose a novel class-wise style augmentation (CWSA) algorithm to generate a class-balanced underwater dataset Balance18 from the public contest underwater dataset URPC2018. CWSA is a new kind of data augmentation technique which augments the training data for the minority classes by generating various colors, textures and contrasts for the minority classes. Compare with previous data augmentation algorithms such flipping, cropping and rotations, CWSA is able to generate a class balanced underwater dataset with diverse color distortions and haze-effects.
翻訳日:2021-03-22 01:25:29 公開日:2021-01-20
# FedNS: モバイルクライアントにおける協調画像分類のためのフェデレーション学習の改善

FedNS: Improving Federated Learning for collaborative image classification on mobile clients ( http://arxiv.org/abs/2101.07995v1 )

ライセンス: Link先を確認
Yaoxin Zhuo, Baoxin Li(参考訳) Federated Learning(FL)は、集中型サーバの助けを借りてグローバルモデルを学ぶ際に、疎結合なクライアントをサポートするためのパラダイムである。 最も一般的なFLアルゴリズムはFederated Averaging (FedAvg) であり、これはクライアントモデルの重み付け平均に基づいており、その重みはクライアントのデータセットサイズに基づいて決定される。 本稿では、fl設定におけるサーバのグローバルモデル集約のためのフェデレーションノード選択(fedns)と呼ばれる新しい手法を提案する。 fednは、クライアントのモデルをノード/カーネルレベルでフィルタリングし、再重み付けすることで、クライアントの最良のコンポーネントを融合することで、潜在的に優れたグローバルモデルを実現することができる。 協調画像分類を例として、FedNSがFedAvgよりも継続的に性能を向上できる複数のデータセットとネットワークの実験を示す。

Federated Learning (FL) is a paradigm that aims to support loosely connected clients in learning a global model collaboratively with the help of a centralized server. The most popular FL algorithm is Federated Averaging (FedAvg), which is based on taking weighted average of the client models, with the weights determined largely based on dataset sizes at the clients. In this paper, we propose a new approach, termed Federated Node Selection (FedNS), for the server's global model aggregation in the FL setting. FedNS filters and re-weights the clients' models at the node/kernel level, hence leading to a potentially better global model by fusing the best components of the clients. Using collaborative image classification as an example, we show with experiments from multiple datasets and networks that FedNS can consistently achieve improved performance over FedAvg.
翻訳日:2021-03-22 01:24:24 公開日:2021-01-20
# 画像キャプションのためのテキスト生成のマクロ制御

Macroscopic Control of Text Generation for Image Captioning ( http://arxiv.org/abs/2101.08000v1 )

ライセンス: Link先を確認
Zhangzi Zhu, Tianlei Wang, and Hong Qu(参考訳) 画像キャプションモデルが与えられた画像に対して印象的な記述を生成できたという事実にもかかわらず、(1)既存のモデルの制御可能性と多様性はまだ十分ではない。 本稿では, 2つの新しい手法をそれぞれ導入し, 課題を解決した。 具体的には,前者問題に対して,文の質,文長,文時制,名詞数などのマクロな文属性を制御可能な制御信号を導入する。 このような制御信号により、既存のキャプションモデルの制御性と多様性が向上する。 後者の問題に対して,画像テキストマッチングモデルを用いて,前向きと後向きの両方で生成した文の品質を測定し,最終的に適切な文を選択する戦略を革新的に提案する。 その結果、この戦略は質の低い文の割合を効果的に減らすことができる。 提案手法は,ほとんどの画像キャプションモデルに容易に適用でき,全体的な性能が向上する。 Up-Downモデルに基づく実験の結果,MSCOCO KarpathyテストではBLEU4/CIDEr/SPICEスコアが37.5/120.3/21.5であり,クロスエントロピー・トレーニングでは,クロスエントロピー・ロスによって訓練された他の最先端手法よりも優れていることがわかった。

Despite the fact that image captioning models have been able to generate impressive descriptions for a given image, challenges remain: (1) the controllability and diversity of existing models are still far from satisfactory; (2) models sometimes may produce extremely poor-quality captions. In this paper, two novel methods are introduced to solve the problems respectively. Specifically, for the former problem, we introduce a control signal which can control the macroscopic sentence attributes, such as sentence quality, sentence length, sentence tense and number of nouns etc. With such a control signal, the controllability and diversity of existing captioning models are enhanced. For the latter problem, we innovatively propose a strategy that an image-text matching model is trained to measure the quality of sentences generated in both forward and backward directions and finally choose the better one. As a result, this strategy can effectively reduce the proportion of poorquality sentences. Our proposed methods can be easily applie on most image captioning models to improve their overall performance. Based on the Up-Down model, the experimental results show that our methods achieve BLEU- 4/CIDEr/SPICE scores of 37.5/120.3/21.5 on MSCOCO Karpathy test split with cross-entropy training, which surpass the results of other state-of-the-art methods trained by cross-entropy loss.
翻訳日:2021-03-22 01:24:07 公開日:2021-01-20
# 小さな電球で現実の赤外線歩行者検知器を騙す

Fooling thermal infrared pedestrian detectors in real world using small bulbs ( http://arxiv.org/abs/2101.08154v1 )

ライセンス: Link先を確認
Xiaopei Zhu, Xiao Li, Jianmin Li, Zheyao Wang, Xiaolin Hu(参考訳) 赤外線検知システムは、夜間の安全、自律運転、体温検出など多くの分野で重要な役割を果たしている。 パッシブイメージング、温度感度、浸透率というユニークな利点がある。 しかし、システム自体のセキュリティは十分に検討されておらず、システムの適用にリスクが伴う。 本研究では,基板上に小さな電球を配置した物理攻撃方式を提案する。 我々の目標は、赤外線歩行者検出器が現実世界の歩行者を検知できないようにすることです。 この目的に向けて,まず2種類のパッチを用いて,yolov3に基づく赤外線歩行者検出器を攻撃できることを実証した。 デジタル世界では平均精度 (ap) が64.12%減少し、同じ大きさの空板がapを29.69%減少させた。 その後、我々は物理基板を設計・製造し、現実世界でYOLOv3を攻撃した。 記録されたビデオでは、物理基板はターゲット検出器のAPを34.48%低下させ、一方同じ大きさのブランクボードはAPを14.91%低下させた。 アンサンブル攻撃技術により、設計された物理基板は、見えない検出器への転送性に優れた。

Thermal infrared detection systems play an important role in many areas such as night security, autonomous driving, and body temperature detection. They have the unique advantages of passive imaging, temperature sensitivity and penetration. But the security of these systems themselves has not been fully explored, which poses risks in applying these systems. We propose a physical attack method with small bulbs on a board against the state of-the-art pedestrian detectors. Our goal is to make infrared pedestrian detectors unable to detect real-world pedestrians. Towards this goal, we first showed that it is possible to use two kinds of patches to attack the infrared pedestrian detector based on YOLOv3. The average precision (AP) dropped by 64.12% in the digital world, while a blank board with the same size caused the AP to drop by 29.69% only. After that, we designed and manufactured a physical board and successfully attacked YOLOv3 in the real world. In recorded videos, the physical board caused AP of the target detector to drop by 34.48%, while a blank board with the same size caused the AP to drop by 14.91% only. With the ensemble attack techniques, the designed physical board had good transferability to unseen detectors.
翻訳日:2021-03-22 01:23:10 公開日:2021-01-20
# 正確なバウンディングボックス回帰のための焦点・効率の良いIOU損失

Focal and Efficient IOU Loss for Accurate Bounding Box Regression ( http://arxiv.org/abs/2101.08158v1 )

ライセンス: Link先を確認
Yi-Fan Zhang, Weiqiang Ren, Zhang Zhang, Zhen Jia, Liang Wang, Tieniu Tan(参考訳) オブジェクト検出において、バウンディングボックス回帰(BBR)は、オブジェクトのローカライゼーション性能を決定する重要なステップである。 i) $\ell_n$-norm と iou-based の両方の損失関数は、bbrの目的を描くのに非効率であり、収束が遅く、回帰結果が不正確である。 (ii) 損失関数のほとんどがbbrにおける不均衡問題を無視しており、対象ボックスとの重なりが小さい多数のアンカーボックスがbbrの最適化に大きく寄与している。 そこで, 本論文では, BBR損失の可能性を活かすための徹底的な研究を行った。 まず, BBRにおける3つの幾何学的因子,すなわち重なり領域, 中心点, 側長の相違を明示的に測定する, 連合(EIOU)損失に対する効率的な断面積を提案する。 その後、効果的なサンプルマイニング(eem)問題を述べ、回帰過程を高品質アンカーボックスに集中させるために焦点損失の回帰バージョンを提案する。 最後に、上記の2つの部品を組み合わせて新たな損失関数、すなわちFocal-EIOU損失を得る。 合成データセットと実データセットの両方に関する大規模な実験を行う。 他のBBR損失よりも収束速度と局所化精度の両方において顕著な優位性が得られる。

In object detection, bounding box regression (BBR) is a crucial step that determines the object localization performance. However, we find that most previous loss functions for BBR have two main drawbacks: (i) Both $\ell_n$-norm and IOU-based loss functions are inefficient to depict the objective of BBR, which leads to slow convergence and inaccurate regression results. (ii) Most of the loss functions ignore the imbalance problem in BBR that the large number of anchor boxes which have small overlaps with the target boxes contribute most to the optimization of BBR. To mitigate the adverse effects caused thereby, we perform thorough studies to exploit the potential of BBR losses in this paper. Firstly, an Efficient Intersection over Union (EIOU) loss is proposed, which explicitly measures the discrepancies of three geometric factors in BBR, i.e., the overlap area, the central point and the side length. After that, we state the Effective Example Mining (EEM) problem and propose a regression version of focal loss to make the regression process focus on high-quality anchor boxes. Finally, the above two parts are combined to obtain a new loss function, namely Focal-EIOU loss. Extensive experiments on both synthetic and real datasets are performed. Notable superiorities on both the convergence speed and the localization accuracy can be achieved over other BBR losses.
翻訳日:2021-03-22 01:22:54 公開日:2021-01-20
# 軌道対応マルチモーダル特徴を用いた映像関係検出

Video Relation Detection with Trajectory-aware Multi-modal Features ( http://arxiv.org/abs/2101.08165v1 )

ライセンス: Link先を確認
Wentao Xie, Guanghui Ren, Si Liu(参考訳) ビデオ関係検出問題は、空間的関係やアクション関係など、ビデオ内の異なるオブジェクト間の関係を検出することを指す。 本稿では,この課題を解決するために,トラジェクトリ対応マルチモーダル特徴を用いた映像関係検出を提案する。 ビデオにおける視覚的関係検出の複雑さを考慮すると、このタスクをオブジェクト検出、軌道提案、関係予測の3つのサブタスクに分解する。 我々は,最先端の物体検出法を用いて,物体の軌跡検出精度とマルチモーダル特徴表現の精度を保証し,物体間の関係の予測を支援する。 本手法は,ACM Multimedia 2020におけるビデオ関係理解グランドチャレンジの動画関係検出タスクにおいて,11.74 % mAP を突破し,他の手法を大差で上回った。

Video relation detection problem refers to the detection of the relationship between different objects in videos, such as spatial relationship and action relationship. In this paper, we present video relation detection with trajectory-aware multi-modal features to solve this task. Considering the complexity of doing visual relation detection in videos, we decompose this task into three sub-tasks: object detection, trajectory proposal and relation prediction. We use the state-of-the-art object detection method to ensure the accuracy of object trajectory detection and multi-modal feature representation to help the prediction of relation between objects. Our method won the first place on the video relation detection task of Video Relation Understanding Grand Challenge in ACM Multimedia 2020 with 11.74\% mAP, which surpasses other methods by a large margin.
翻訳日:2021-03-22 01:22:33 公開日:2021-01-20
# PCAによる異方性拡散に基づくSARと光データ融合とLCPを用いたパッチを用いた分類

SAR and Optical data fusion based on Anisotropic Diffusion with PCA and Classification using Patch-based with LBP ( http://arxiv.org/abs/2101.08215v1 )

ライセンス: Link先を確認
Achala Shakya, Mantosh Biswas, Mahesh Pal(参考訳) sar(vv,vh偏光)と光学データは画像融合において広く使われ、相互の補足情報を利用し、改良された分類結果のために(空間的およびスペクトル的特徴の観点から)より高品質な画像を得る。 本稿では、SARと光データの融合にPCAと異方性拡散を用い、LBP(LBP-PSVM)を用いたパッチベースのSVM分類を行う。 VV分極による核融合は, 核融合法によるVH分極よりも良好であった。 分類では、S1(VV)とS2(VH)を併用したLBP-PSVMの性能を、SVM分類器(パッチなし)とPSVM分類器(パッチなし)と比較する。 分類結果から, LBP-PSVM分類器は, SVMとPSVM分類器よりも有効であることが示唆された。

SAR (VV and VH polarization) and optical data are widely used in image fusion to use the complimentary information of each other and to obtain the better-quality image (in terms of spatial and spectral features) for the improved classification results. This paper uses anisotropic diffusion with PCA for the fusion of SAR and optical data and patch-based SVM Classification with LBP (LBP-PSVM). Fusion results with VV polarization performed better than VH polarization using considered fusion method. For classification, the performance of LBP-PSVM using S1 (VV) with S2, S1 (VH) with S2 is compared with SVM classifier (without patch) and PSVM classifier (with patch), respectively. Classification results suggests that the LBP-PSVM classifier is more effective in comparison to SVM and PSVM classifiers for considered data.
翻訳日:2021-03-22 01:22:21 公開日:2021-01-20
# SCADAデータに基づく風車ブレードのインテリジェントアイシング検出モデル

Intelligent Icing Detection Model of Wind Turbine Blades Based on SCADA data ( http://arxiv.org/abs/2101.07914v1 )

ライセンス: Link先を確認
Wenqian Jiang, Junyang Jin(参考訳) 風力タービンの羽根に氷が付着していることの診断は、風力発電所の状況監視において、常に困難である。 既存の手法では, ic化過程の機構解析, 特徴工学の偏差度解析に焦点をあてている。 しかし、現在、この分野にニューラルネットワークを応用した深い研究は行われていない。 監視制御とデータ取得(SCADA)により、風力タービンの運転パラメータと性能パラメータだけでなく、環境パラメータと運転モードを継続的に提供し、ネットワークを訓練することができる。 本稿では、畳み込みニューラルネットワーク(CNN)、生成敵対ネットワーク(GAN)、ドメイン適応学習を用いて、異なるトレーニングシナリオ下でインテリジェントな診断フレームワークを確立する可能性について検討する。 具体的には, PGANC と PGANT は, 目標風力タービンラベル付きデータに対して, それぞれ十分かつ不十分であることを示す。 基本的な考え方は、通常のサンプルとアイシングサンプルの固有の特徴を捉えるために、並列GANを用いた2段階の訓練を行い、その後、様々なトレーニングケースでCNNやドメイン適応モジュールを分類することである。 3つの風力タービンSCADAデータのモデル検証は、2段階の訓練がモデル性能を効果的に改善できることを示している。 さらに、実際の産業実践において非常に一般的な目標タービンに十分なラベル付きデータがない場合、ドメイン適応学習の追加により、訓練されたモデルの性能が向上する。 提案するインテリジェント診断フレームワークは,他の機械学習モデルや従来のCNNと比較して,同じ風力タービン上でのより正確な検出と,新しい風力タービン上でのより汎用的な機能を実現することができる。

Diagnosis of ice accretion on wind turbine blades is all the time a hard nut to crack in condition monitoring of wind farms. Existing methods focus on mechanism analysis of icing process, deviation degree analysis of feature engineering. However, there have not been deep researches of neural networks applied in this field at present. Supervisory control and data acquisition (SCADA) makes it possible to train networks through continuously providing not only operation parameters and performance parameters of wind turbines but also environmental parameters and operation modes. This paper explores the possibility that using convolutional neural networks (CNNs), generative adversarial networks (GANs) and domain adaption learning to establish intelligent diagnosis frameworks under different training scenarios. Specifically, PGANC and PGANT are proposed for sufficient and non-sufficient target wind turbine labeled data, respectively. The basic idea is that we consider a two-stage training with parallel GANs, which are aimed at capturing intrinsic features for normal and icing samples, followed by classification CNN or domain adaption module in various training cases. Model validation on three wind turbine SCADA data shows that two-stage training can effectively improve the model performance. Besides, if there is no sufficient labeled data for a target turbine, which is an extremely common phenomenon in real industrial practices, the addition of domain adaption learning makes the trained model show better performance. Overall, our proposed intelligent diagnosis frameworks can achieve more accurate detection on the same wind turbine and more generalized capability on a new wind turbine, compared with other machine learning models and conventional CNNs.
翻訳日:2021-03-22 01:22:01 公開日:2021-01-20
# 産業品質関連パフォーマンスモデリングとモニタリングのための表象評価ブロック型教師・学生ネットワーク

Representation Evaluation Block-based Teacher-Student Network for the Industrial Quality-relevant Performance Modeling and Monitoring ( http://arxiv.org/abs/2101.07976v1 )

ライセンス: Link先を確認
Dan Yang, Xin Peng, Yusheng Lu, Haojie Huang, Weimin Zhong(参考訳) 品質関連障害検出は産業プロセスにおいて重要な役割を担う一方で、現在のニューラルネットワークに基づく品質関連障害検出手法は、プロセス関連変数に主に集中し、プロセス監視の適用を制限する品質関連変数を無視している。 そこで本研究では,品質関連故障検出のための改良型教師学生ネットワークに基づく故障検出手法を提案する。 従来の教師・生徒ネットワークでは、教師ネットワークと生徒ネットワーク間の特徴差が生徒ネットワークのパフォーマンス低下を引き起こすため、表出評価ブロック(reb)が教師と生徒ネットワーク間の特徴差を定量化するために提案され、不確実性モデリングを用いて、特徴差の低減や学生ネットワークのパフォーマンス向上に有用なモデリングプロセスにこの差を加える。 したがって、教師-学生ネットワークにおいて、REBと不確実性モデリングを、教師-学生オートエンコーダ(tsuAE)として適用する。 次に,提案手法をプロセス監視に適用し,プロセス関連部分空間と品質関連部分空間の障害を効果的に検出する。 提案手法は, 故障検出性能が他の故障検出法と比較して良好であることを示す2つのシミュレーション実験で検証された。

Quality-relevant fault detection plays an important role in industrial processes, while the current quality-related fault detection methods based on neural networks main concentrate on process-relevant variables and ignore quality-relevant variables, which restrict the application of process monitoring. Therefore, in this paper, a fault detection scheme based on the improved teacher-student network is proposed for quality-relevant fault detection. In the traditional teacher-student network, as the features differences between the teacher network and the student network will cause performance degradation on the student network, representation evaluation block (REB) is proposed to quantify the features differences between the teacher and the student networks, and uncertainty modeling is used to add this difference in modeling process, which are beneficial to reduce the features differences and improve the performance of the student network. Accordingly, REB and uncertainty modeling is applied in the teacher-student network named as uncertainty modeling teacher-student uncertainty autoencoder (TSUAE). Then, the proposed TSUAE is applied to process monitoring, which can effectively detect faults in the process-relevant subspace and quality-relevant subspace simultaneously. The proposed TSUAE-based fault detection method is verified in two simulation experiments illustrating that it has satisfactory fault detection performance compared to other fault detection methods.
翻訳日:2021-03-22 01:21:36 公開日:2021-01-20
# 一般化Weisfeiler-Lehmanグラフカーネル

A Generalized Weisfeiler-Lehman Graph Kernel ( http://arxiv.org/abs/2101.08104v1 )

ライセンス: Link先を確認
Till Hendrik Schulz, Tam\'as Horv\'ath, Pascal Welke, Stefan Wrobel(参考訳) Weisfeiler-Lehmanグラフカーネルは、その顕著な時間複雑性と予測性能のため、最も一般的なグラフカーネルの一つである。 彼らの鍵となる概念は、等式(すなわち同型)に関して木を表す近傍の暗黙の比較に基づいている。 しかし、この2値比較はグラフ上の適切な類似度尺度を定義するには厳密すぎる。 この制限を克服するために,木間の類似性を考慮したweisfeiler-lehmanグラフカーネルの一般化を提案する。 本研究は, 効率良く計算できる既知のツリー編集距離の具体的変動を用いて実現する。 分子グラフ以外の構造的に複雑なグラフを含むデータセットの予測性能において,本手法が最先端の手法を著しく上回ることを示す。

The Weisfeiler-Lehman graph kernels are among the most prevalent graph kernels due to their remarkable time complexity and predictive performance. Their key concept is based on an implicit comparison of neighborhood representing trees with respect to equality (i.e., isomorphism). This binary valued comparison is, however, arguably too rigid for defining suitable similarity measures over graphs. To overcome this limitation, we propose a generalization of Weisfeiler-Lehman graph kernels which takes into account the similarity between trees rather than equality. We achieve this using a specifically fitted variation of the well-known tree edit distance which can efficiently be calculated. We empirically show that our approach significantly outperforms state-of-the-art methods in terms of predictive performance on datasets containing structurally more complex graphs beyond the typically considered molecular graphs.
翻訳日:2021-03-22 01:21:15 公開日:2021-01-20
# エンサンブル多様体に基づく認知能力予測のための正規化マルチモーダルグラフ畳み込みネットワーク

Ensemble manifold based regularized multi-modal graph convolutional network for cognitive ability prediction ( http://arxiv.org/abs/2101.08316v1 )

ライセンス: Link先を確認
Gang Qu, Li Xiao, Wenxing Hu, Kun Zhang, Vince D. Calhoun, Yu-Ping Wang(参考訳) 目的: マルチモーダル機能的磁気共鳴イメージング(fMRI)は、脳の接続ネットワークに基づいて、個人の行動特性や認知特性を予測するために用いられる。 方法: 多モードfMRIの相補的情報を活用するため,fMRI時系列と各脳領域間の機能接続(FC)を組み込んだ,解釈可能な多モードグラフ畳み込みネットワーク(MGCN)モデルを提案する。 具体的には,マルチモーダルデータから得られた個々の脳ネットワークからグラフ埋め込みを学習する。 多様体に基づく正規化項は、モダリティ内およびモダリティ間の対象の関係を考えるために強制される。 さらに,認知関連バイオマーカーを同定するために,勾配重み付き回帰アクティベーションマッピング (Grad-RAM) とエッジマスク学習 (エッジマスク学習) を提案する。 結果: フィラデルフィア神経発達コホートにおけるmgcnモデルの有効性を検証し, 個人の広域達成テスト(wrat)スコアを予測した。 このモデルは単一のモダリティと他の競合するアプローチでgcnよりも優れた予測性能を得る。 同定されたバイオマーカーは異なるアプローチから相互に検証される。 結論と意義:本稿は認知能力予測のための新しい解釈可能なグラフ深層学習フレームワークを開発した。 この結果は、マルチモーダルfMRIの解析と、ヒト脳研究における重要なバイオマーカー発見におけるMGCNの力を示すものである。

Objective: Multi-modal functional magnetic resonance imaging (fMRI) can be used to make predictions about individual behavioral and cognitive traits based on brain connectivity networks. Methods: To take advantage of complementary information from multi-modal fMRI, we propose an interpretable multi-modal graph convolutional network (MGCN) model, incorporating the fMRI time series and the functional connectivity (FC) between each pair of brain regions. Specifically, our model learns a graph embedding from individual brain networks derived from multi-modal data. A manifold-based regularization term is then enforced to consider the relationships of subjects both within and between modalities. Furthermore, we propose the gradient-weighted regression activation mapping (Grad-RAM) and the edge mask learning to interpret the model, which is used to identify significant cognition-related biomarkers. Results: We validate our MGCN model on the Philadelphia Neurodevelopmental Cohort to predict individual wide range achievement test (WRAT) score. Our model obtains superior predictive performance over GCN with a single modality and other competing approaches. The identified biomarkers are cross-validated from different approaches. Conclusion and Significance: This paper develops a new interpretable graph deep learning framework for cognitive ability prediction, with the potential to overcome the limitations of several current data-fusion models. The results demonstrate the power of MGCN in analyzing multi-modal fMRI and discovering significant biomarkers for human brain studies.
翻訳日:2021-03-22 01:20:44 公開日:2021-01-20
# NEMR:関係のメトリクスに関するネットワーク埋め込み

NEMR: Network Embedding on Metric of Relation ( http://arxiv.org/abs/2101.08020v1 )

ライセンス: Link先を確認
Luodi Xie, Hong Shen, Jiaxin Ren(参考訳) ネットワーク埋め込みは、与えられたネットワークのノードを低次元空間にマッピングし、ノード間のセマンティックな類似性を効果的に推測する。 既存のアプローチでは、ノード間の類似度を測定するためにノード埋め込みの内積を使用するため、ノード間の複雑な関係をキャプチャする能力が欠如している。 さらに、ノード埋め込みを推測する場合、ネットワーク内のパスは構造的な補助情報として、ネットワーク内のパスは意味的に関連があり無視できないリッチなユーザ情報で形成される。 本稿では,関係計量空間におけるノードの埋め込みを効率的に学習する,NEMR(Network Embedding on the Metric of Relation)と呼ばれる新しい手法を提案する。 まず、我々のNEMRは、不確かさを捉えるために、ノードの関係をガウス分布にマッピングする変分推論を含む深層学習手法を用いて、計量空間内のノード間の関係をモデル化する。 第2に,複数パスの等価性だけでなく,ノードの埋め込みを推測する場合の単一パスの自然な順序も考慮し,複数のパスがリッチなユーザ情報,例えば年齢,趣味,職業などを含むため,ノード間の多重関係を捉えることができる。 いくつかの公開データセットの実験結果は、NEMRがリンク予測やノード分類を含む関連する推論タスクにおいて最先端の手法より優れていることを示している。

Network embedding maps the nodes of a given network into a low-dimensional space such that the semantic similarities among the nodes can be effectively inferred. Most existing approaches use inner-product of node embedding to measure the similarity between nodes leading to the fact that they lack the capacity to capture complex relationships among nodes. Besides, they take the path in the network just as structural auxiliary information when inferring node embeddings, while paths in the network are formed with rich user informations which are semantically relevant and cannot be ignored. In this paper, We propose a novel method called Network Embedding on the Metric of Relation, abbreviated as NEMR, which can learn the embeddings of nodes in a relational metric space efficiently. First, our NEMR models the relationships among nodes in a metric space with deep learning methods including variational inference that maps the relationship of nodes to a gaussian distribution so as to capture the uncertainties. Secondly, our NEMR considers not only the equivalence of multiple-paths but also the natural order of a single-path when inferring embeddings of nodes, which makes NEMR can capture the multiple relationships among nodes since multiple paths contain rich user information, e.g., age, hobby and profession. Experimental results on several public datasets show that the NEMR outperforms the state-of-the-art methods on relevant inference tasks including link prediction and node classification.
翻訳日:2021-03-22 01:20:19 公開日:2021-01-20
# 高齢者の転倒予防のための個人情報更新システム

Obsolete Personal Information Update System for the Prevention of Falls among Elderly Patients ( http://arxiv.org/abs/2101.10132v1 )

ライセンス: Link先を確認
Salma Chaieb and Brahim Hnich and Ali Ben Mrad(参考訳) 転倒は高齢者に共通する問題であり、公衆衛生の問題でもある。 世界保健機関(who)は、65歳以上の成人の3人に1人が、80歳以上の成人の半数が毎年転倒していると報告している。 近年、より効果的な転倒予防介入を提供するために、ますます多くのアプリケーションが開発されている。 これらのアプリケーションはすべて、病院や相互健康、高齢者の世話をする組織から収集された巨大な高齢者データベースに依存している。 高齢者に関する情報は常に進化し続けており、ある瞬間に時代遅れになり、我々がすでに知っていることと矛盾する可能性がある。 そのため、データベースの一貫性を回復し、より良いサービスを提供するために、継続的にチェックおよび更新する必要があります。 本稿では,高齢者の転倒防止プロジェクトにおけるOIUS(Obsolete Personal Information Update System)の概要について述べる。 我々のOIUSは、高齢者の情報をリアルタイムで管理・更新し、オンデマンドで一貫した情報を提供し、介護者や転倒リスクのある患者に適切な介入を提供する。 この目的のために概説したアプローチは、老人データを表す因果ベイズネットワーク上に構築された多項式時間アルゴリズムに基づいている。 結果は、ある程度の精度のレコメンデーションツリーとして与えられる。 このようなモデルについて高齢者の個人情報ベースで徹底的な実証研究を行う。 実験によりOIUSの有効性と有効性が確認された。

Falls are a common problem affecting the older adults and a major public health issue. Centers for Disease Control and Prevention, and World Health Organization report that one in three adults over the age of 65 and half of the adults over 80 fall each year. In recent years, an ever-increasing range of applications have been developed to help deliver more effective falls prevention interventions. All these applications rely on a huge elderly personal database collected from hospitals, mutual health, and other organizations in caring for elderly. The information describing an elderly is continually evolving and may become obsolete at a given moment and contradict what we already know on the same person. So, it needs to be continuously checked and updated in order to restore the database consistency and then provide better service. This paper provides an outline of an Obsolete personal Information Update System (OIUS) designed in the context of the elderly-fall prevention project. Our OIUS aims to control and update in real-time the information acquired about each older adult, provide on-demand consistent information and supply tailored interventions to caregivers and fall-risk patients. The approach outlined for this purpose is based on a polynomial-time algorithm build on top of a causal Bayesian network representing the elderly data. The result is given as a recommendation tree with some accuracy level. We conduct a thorough empirical study for such a model on an elderly personal information base. Experiments confirm the viability and effectiveness of our OIUS.
翻訳日:2021-03-22 01:19:56 公開日:2021-01-20
# 特徴ランダム拡張モジュールによる細胞画像のセグメンテーション

Cell image segmentation by Feature Random Enhancement Module ( http://arxiv.org/abs/2101.07983v1 )

ライセンス: Link先を確認
Takamasa Ando, Kazuhiro Hotta(参考訳) エンコーダを用いて優れた特徴を抽出し,高精度なセマンティックセグメンテーションを実現することが重要である。 損失関数は深層ニューラルネットワークのトレーニングに最適化されているが、損失関数を演算するための層から遠い層は訓練が難しい。 スキップ接続はこの問題に有効であるが、損失関数からは程遠い層がある。 本稿では,学習のみにおいてランダムに機能を強化する機能ランダム拡張モジュールを提案する。 損失関数から遠方にある機能を強調することで、これらのレイヤをうまくトレーニングでき、精度が向上した。 実験では,提案モジュールを2種類のセルイメージデータセット上で評価し,実験段階での計算コストを増加させることなく,セグメンテーション精度を改善した。

It is important to extract good features using an encoder to realize semantic segmentation with high accuracy. Although loss function is optimized in training deep neural network, far layers from the layers for computing loss function are difficult to train. Skip connection is effective for this problem but there are still far layers from the loss function. In this paper, we propose the Feature Random Enhancement Module which enhances the features randomly in only training. By emphasizing the features at far layers from loss function, we can train those layers well and the accuracy was improved. In experiments, we evaluated the proposed module on two kinds of cell image datasets, and our module improved the segmentation accuracy without increasing computational cost in test phase.
翻訳日:2021-03-22 01:19:39 公開日:2021-01-20
# SplitSR: モバイルデバイスの超解法へのエンドツーエンドアプローチ

SplitSR: An End-to-End Approach to Super-Resolution on Mobile Devices ( http://arxiv.org/abs/2101.07996v1 )

ライセンス: Link先を確認
Xin Liu, Yuang Li, Josh Fromm, Yuntao Wang, Ziheng Jiang, Alex Mariakakis, Shwetak Patel(参考訳) Super- resolution (SR) は、基本的なカメラアプリからモバイル健康まで、モバイルアプリケーションのための画像処理技術である。 既存のSRアルゴリズムは、大きなメモリ要件を持つディープラーニングモデルに依存しているため、モバイルデバイスにデプロイされず、クラウドで運用することで、実現可能な推論時間を実現している。 この欠点は、ほぼリアルタイムレイテンシを必要とするアプリケーションで既存のSRメソッドが使用されるのを防ぐ。 本研究では、SplitSRと呼ばれる新しいハイブリッドアーキテクチャと、SplitSRBlockと呼ばれる新しい軽量残差ブロックを用いて、デバイス上の超分解能の最先端レイテンシと精度を示す。 splitsrblockはチャネル分割をサポートし、残余ブロックが空間情報を保持でき、チャネル次元での計算を削減できる。 SplitSRは標準の畳み込みブロックと軽量な残留ブロックからなるハイブリッド設計で、計算予算のためにSplitSRをチューニングできる。 我々は,我々のシステムをローエンドのARM CPU上で評価し,従来の手法に比べて高い精度と最大5倍高速な推論を実証した。 次に、当社のモデルをZoomSRというアプリでスマートフォンにデプロイし、デバイス上での深層学習ベースのSRの最初の事例を実演し、15人の参加者とユーザスタディを行い、SplitSRが後処理した画像の品質を評価させた。 両画像(z=-9.270, p<0.01)とテキスト(z=-6.486, p<0.01)の両方を見ると統計的に有意な傾向を示した。

Super-resolution (SR) is a coveted image processing technique for mobile apps ranging from the basic camera apps to mobile health. Existing SR algorithms rely on deep learning models with significant memory requirements, so they have yet to be deployed on mobile devices and instead operate in the cloud to achieve feasible inference time. This shortcoming prevents existing SR methods from being used in applications that require near real-time latency. In this work, we demonstrate state-of-the-art latency and accuracy for on-device super-resolution using a novel hybrid architecture called SplitSR and a novel lightweight residual block called SplitSRBlock. The SplitSRBlock supports channel-splitting, allowing the residual blocks to retain spatial information while reducing the computation in the channel dimension. SplitSR has a hybrid design consisting of standard convolutional blocks and lightweight residual blocks, allowing people to tune SplitSR for their computational budget. We evaluate our system on a low-end ARM CPU, demonstrating both higher accuracy and up to 5 times faster inference than previous approaches. We then deploy our model onto a smartphone in an app called ZoomSR to demonstrate the first-ever instance of on-device, deep learning-based SR. We conducted a user study with 15 participants to have them assess the perceived quality of images that were post-processed by SplitSR. Relative to bilinear interpolation -- the existing standard for on-device SR -- participants showed a statistically significant preference when looking at both images (Z=-9.270, p<0.01) and text (Z=-6.486, p<0.01).
翻訳日:2021-03-22 01:19:28 公開日:2021-01-20
# 自己教師付き事前訓練はSentinel-2画像の変化検出を増強する

Self-supervised pre-training enhances change detection in Sentinel-2 imagery ( http://arxiv.org/abs/2101.08122v1 )

ライセンス: Link先を確認
Marrit Leenstra, Diego Marcos, Francesca Bovolo, Devis Tuia(参考訳) 衛星画像を用いた変更検出のための注釈付き画像の入手は少なく、費用もかかるが、毎日大量のラベルなし画像が生成される。 本研究では,これらのデータを利用して変化検出に適した画像表現を学習するために,Sentinel-2の時系列の時間的一貫性を利用した自己教師付き学習信号を求める。 このために、世界中の1520都市地域のマルチテンポラルイメージペアを含むSentinel-2 Multitemporal Cities Pairs (S2MTCP)データセットを構築し、公開する(https://zenodo.org/record/4280482)。 変更検出のための事前学習モデルのための複数の自己教師型学習手法の結果を検証し、Sentinel-2イメージペア(OSCD)を用いた公開変更検出データセットに適用する。

While annotated images for change detection using satellite imagery are scarce and costly to obtain, there is a wealth of unlabeled images being generated every day. In order to leverage these data to learn an image representation more adequate for change detection, we explore methods that exploit the temporal consistency of Sentinel-2 times series to obtain a usable self-supervised learning signal. For this, we build and make publicly available (https://zenodo.org/record/4280482) the Sentinel-2 Multitemporal Cities Pairs (S2MTCP) dataset, containing multitemporal image pairs from 1520 urban areas worldwide. We test the results of multiple self-supervised learning methods for pre-training models for change detection and apply it on a public change detection dataset made of Sentinel-2 image pairs (OSCD).
翻訳日:2021-03-22 01:18:44 公開日:2021-01-20
# シミュレーショントレーニングのための断面モデルスライスからの超音波レンダリング学習

Learning Ultrasound Rendering from Cross-Sectional Model Slices for Simulated Training ( http://arxiv.org/abs/2101.08339v1 )

ライセンス: Link先を確認
Lin Zhang, Tiziano Portenier, Orcun Goksel(参考訳) 目的。 超音波画像のナビゲーションと解釈に必要な高度な専門知識を考えると、計算シミュレーションはバーチャルリアリティーにおけるそのようなスキルの訓練を促進することができる。 レイトレーシングに基づくシミュレーションにより、現実的な超音波画像を生成することができる。 しかし、相互作用性に対する計算上の制約のため、画像の品質を妥協する必要がある。 方法。 そこで本研究では,非時間クリティカルなオフラインステージにおいて,このようなシミュレーションを行い,クロスセクションモデルスライスからシミュレーションフレームへの画像変換を学習することにより,インタラクティブな時間におけるレンダリングとシミュレーションのプロセスをバイパスする手法を提案する。 我々は,ネットワークパラメータを増大させることなく画像品質を大幅に向上させる,専用のジェネレータアーキテクチャと入力供給方式を備えた生成的対向フレームワークを使用する。 クロスセクションモデルスライスから導出される積分減衰マップ、テクスチャフレンドリーなストレート畳み込み、中間層に確率的ノイズと入力マップを提供して局所性を保つことにより、翻訳作業が大幅に容易になることを示す。 結果。 いくつかの品質指標から, 組織マップのみを入力とする提案手法は, 低品質超音波画像を用いた最先端技術に匹敵する, あるいは優れた結果をもたらすことを示す。 広範なアブレーション研究は、質的例と定量的超音波類似度指標に基づいて、本研究で利用される個々の貢献の必要性と利益を示している。 そこで,超音波画像間の局所的差異を可視化するために,局所ヒストグラム統計に基づく誤差メトリックを提案する。

Purpose. Given the high level of expertise required for navigation and interpretation of ultrasound images, computational simulations can facilitate the training of such skills in virtual reality. With ray-tracing based simulations, realistic ultrasound images can be generated. However, due to computational constraints for interactivity, image quality typically needs to be compromised. Methods. We propose herein to bypass any rendering and simulation process at interactive time, by conducting such simulations during a non-time-critical offline stage and then learning image translation from cross-sectional model slices to such simulated frames. We use a generative adversarial framework with a dedicated generator architecture and input feeding scheme, which both substantially improve image quality without increase in network parameters. Integral attenuation maps derived from cross-sectional model slices, texture-friendly strided convolutions, providing stochastic noise and input maps to intermediate layers in order to preserve locality are all shown herein to greatly facilitate such translation task. Results. Given several quality metrics, the proposed method with only tissue maps as input is shown to provide comparable or superior results to a state-of-the-art that uses additional images of low-quality ultrasound renderings. An extensive ablation study shows the need and benefits from the individual contributions utilized in this work, based on qualitative examples and quantitative ultrasound similarity metrics. To that end, a local histogram statistics based error metric is proposed and demonstrated for visualization of local dissimilarities between ultrasound images.
翻訳日:2021-03-22 01:18:27 公開日:2021-01-20
# 局地的気候ダウンスケーリングのための畳み込み条件ニューラルプロセス

Convolutional conditional neural processes for local climate downscaling ( http://arxiv.org/abs/2101.07950v1 )

ライセンス: Link先を確認
Anna Vaughan, Will Tebbutt, J.Scott Hosking and Richard E. Turner(参考訳) 畳み込み条件付きニューラルプロセス (convCNPs) を用いて, 温度と降水量の多地点統計的ダウンスケーリングを行う。 ConvCNPは、最近開発されたモデルのクラスであり、オフザグリッド時空間データにディープラーニング技術を適用することができる。 このモデルは、トレーニングデータの可用性に関係なく、トレーニングされたモデルが任意の場所でマルチサイト予測を生成することができるという点において、既存のダウンスケーリング手法に対して大きな利点がある。 コンブCNPモデルは、VALUE相互比較プロジェクトから採取した温度と降水の両方において、ヨーロッパにおける既存のダウンスケーリング手法のアンサンブルよりも優れていた。 このモデルはまた、ガウス過程を用いて、見えない場所でシングルサイトダウンスケーリングモデルを補間するアプローチよりも優れている。 重要なことは、極端な降水現象の表現においてかなりの改善が見られることである。 以上の結果から,convCNPは,気候影響研究における局所的な予測生成に適した強靭なダウンスケーリングモデルであり,統計的ダウンスケーリングにおける深層学習技術の適用に関するさらなる研究を動機付けていると考えられる。

A new model is presented for multisite statistical downscaling of temperature and precipitation using convolutional conditional neural processes (convCNPs). ConvCNPs are a recently developed class of models that allow deep learning techniques to be applied to off-the-grid spatio-temporal data. This model has a substantial advantage over existing downscaling methods in that the trained model can be used to generate multisite predictions at an arbitrary set of locations, regardless of the availability of training data. The convCNP model is shown to outperform an ensemble of existing downscaling techniques over Europe for both temperature and precipitation taken from the VALUE intercomparison project. The model also outperforms an approach that uses Gaussian processes to interpolate single-site downscaling models at unseen locations. Importantly, substantial improvement is seen in the representation of extreme precipitation events. These results indicate that the convCNP is a robust downscaling model suitable for generating localised projections for use in climate impact studies, and motivates further research into applications of deep learning techniques in statistical downscaling.
翻訳日:2021-03-22 01:18:00 公開日:2021-01-20
# PyTorch-Direct:不規則アクセスを用いた大規模ニューラルネットワークトレーニングのためのGPU中心データアクセスの実現

PyTorch-Direct: Enabling GPU Centric Data Access for Very Large Graph Neural Network Training with Irregular Accesses ( http://arxiv.org/abs/2101.07956v1 )

ライセンス: Link先を確認
Seung Won Min, Kun Wu, Sitao Huang, Mert Hidayeto\u{g}lu, Jinjun Xiong, Eiman Ebrahimi, Deming Chen, Wen-mei Hwu(参考訳) 機械学習コミュニティにおけるグラフニューラルネットワーク(GNN)の採用の増加に伴い、GPUはGNNトレーニングを加速するための重要なツールとなっている。 しかし、GPUメモリに適合しない非常に大きなグラフでGNNをトレーニングすることは依然として難しい課題である。 従来のニューラルネットワークとは異なり、GNNのミニバッチ入力サンプルは、隣接するノードをトラバースしたり、特徴値を集めるといった複雑なタスクを必要とする。 このプロセスはトレーニング時間の大部分を占めるが、PyTorchのような一般的なディープニューラルネットワーク(DNN)ライブラリを使用した既存のGNN実装は、データ準備全体のCPU中心のアプローチに限定されている。 この"オールインCPU"アプローチは、CPUリソースを過剰に活用し、GNNトレーニングのGPUアクセラレーションを妨げるため、全体的なGNNトレーニングパフォーマンスに悪影響を及ぼす。 このような制限を克服するために、GNNトレーニングのためのGPU中心のデータアクセスパラダイムを可能にするPyTorch-Directを導入する。 PyTorch-Directでは、GPUはCPUの介入なしにホストメモリの複雑なデータ構造に直接効率的にアクセスすることができる。 マイクロベンチマークとエンドツーエンドのGNNトレーニングの結果から,PyTorch-Directはデータ転送時間を平均47.1%削減し,GNNトレーニングを最大1.6倍高速化した。 さらに、CPU使用率を下げることで、PyTorch-Directはトレーニング中にシステム電力を12.4%から17.5%削減する。 プログラマの労力を最小限に抑えるため、PyTorchメモリアロケータ、ディスパッチロジック、配置ルールの変更とともに、新しい"統一テンソル"型を導入する。 その結果、ユーザーは各テンソルオブジェクトに対してPyTorch-Directを利用するために、PyTorch GNNトレーニングコードの少なくとも2行を変更する必要がある。

With the increasing adoption of graph neural networks (GNNs) in the machine learning community, GPUs have become an essential tool to accelerate GNN training. However, training GNNs on very large graphs that do not fit in GPU memory is still a challenging task. Unlike conventional neural networks, mini-batching input samples in GNNs requires complicated tasks such as traversing neighboring nodes and gathering their feature values. While this process accounts for a significant portion of the training time, we find existing GNN implementations using popular deep neural network (DNN) libraries such as PyTorch are limited to a CPU-centric approach for the entire data preparation step. This "all-in-CPU" approach has negative impact on the overall GNN training performance as it over-utilizes CPU resources and hinders GPU acceleration of GNN training. To overcome such limitations, we introduce PyTorch-Direct, which enables a GPU-centric data accessing paradigm for GNN training. In PyTorch-Direct, GPUs are capable of efficiently accessing complicated data structures in host memory directly without CPU intervention. Our microbenchmark and end-to-end GNN training results show that PyTorch-Direct reduces data transfer time by 47.1% on average and speeds up GNN training by up to 1.6x. Furthermore, by reducing CPU utilization, PyTorch-Direct also saves system power by 12.4% to 17.5% during training. To minimize programmer effort, we introduce a new "unified tensor" type along with necessary changes to the PyTorch memory allocator, dispatch logic, and placement rules. As a result, users need to change at most two lines of their PyTorch GNN training code for each tensor object to take advantage of PyTorch-Direct.
翻訳日:2021-03-22 01:17:44 公開日:2021-01-20
# ロバストなブロックチェーン準備指数モデル

A Robust Blockchain Readiness Index Model ( http://arxiv.org/abs/2101.09162v1 )

ライセンス: Link先を確認
Elias Iosif and Klitos Christodoulou and Andreas Vlachos(参考訳) ブロックチェーンエコシステムが成熟するにつれ、多くの企業や投資家、起業家がブロックチェーンシステムや暗号通貨を扱う機会を求めている。 これらのアクターにとって重要な課題は、ビジネスをスタートまたは発展させるのに最適な環境を特定することである。 一般的に、どの国がブロックチェーンベースのアクティビティをホストし、イノベーティブなプロジェクトを実行するのに最適な条件を提供しているかを特定することが問題です。 Blockchain Readiness Index(BRI)は、ブロックチェーンと暗号通貨を採用する国の成熟度/完成度レベルを測定する数値指標(ブロックチェーン準備度スコア)を提供する。 その際、BRIは情報検索の技術を活用し、一連の国でインデックスランキングをアルゴリズムで導き出す。 この指標は、政府の規制、研究、技術、産業、ユーザーエンゲージメントの5つの柱の下に整理された指標を考慮に入れている。 本稿では,指標の欠落情報の存在下においても,指標を国レベルで導出する能力を有するBRIをさらに拡張する。 そこで我々は,指標値の初期推定値の精算のために,線形重み付けとsgmoid重み付けという2つの重み付けスキームを提案する。 分類精度を有意に向上させた開発手法の有効性を評価するため,分類枠組みを適用した。

As the blockchain ecosystem gets more mature many businesses, investors, and entrepreneurs are seeking opportunities on working with blockchain systems and cryptocurrencies. A critical challenge for these actors is to identify the most suitable environment to start or evolve their businesses. In general, the question is to identify which countries are offering the most suitable conditions to host their blockchain-based activities and implement their innovative projects. The Blockchain Readiness Index (BRI) provides a numerical metric (referred to as the blockchain readiness score) in measuring the maturity/readiness levels of a country in adopting blockchain and cryptocurrencies. In doing so, BRI leverages on techniques from information retrieval to algorithmically derive an index ranking for a set of countries. The index considers a range of indicators organized under five pillars: Government Regulation, Research, Technology, Industry, and User Engagement. In this paper, we further extent BRI with the capability of deriving the index - at the country level - even in the presence of missing information for the indicators. In doing so, we are proposing two weighting schemes namely, linear and sigmoid weighting for refining the initial estimates for the indicator values. A classification framework was employed to evaluate the effectiveness of the developed techniques which yielded to a significant classification accuracy.
翻訳日:2021-03-22 01:16:40 公開日:2021-01-20
# 教師なし学習を用いた室内環境の可視光通信によるモニタリング

Visible light communication-based monitoring for indoor environments using unsupervised learning ( http://arxiv.org/abs/2101.10838v1 )

ライセンス: Link先を確認
Mehmet C. Ilter, Alexis A. Dowhuszko, Jyri H\"am\"al\"ainen and Risto Wichman(参考訳) 可視光通信(vlc)システムは、照明やデータ通信だけでなく、受信した光信号に異なる事象が生ずる効果が適切に追跡される場合の屋内監視サービスも提供する。 この目的のために、VLC受信機が演算してOFDM信号のサブキャリアを等化するチャンネル状態情報も再利用でき、教師なし学習分類器を訓練することができる。 このようにして、収集されたCSIデータ上に異なるクラスタを作成することができ、そのクラスタは、所定の位置に新しいオブジェクトが存在することや、指定されたオブジェクトの位置の変化など、屋内環境で監視される関連するイベントにマッピングされる。 教師付き学習アルゴリズムと比較すると、提案されたアプローチはトレーニングデータにタグを追加する必要はなく、特に機械学習分類器の実装を単純化する。 モニタリング手法の実際的な検証はofdmに基づくソフトウェア定義のvlcリンクを用いて行われ、蛍光変換ledからの強度変調信号のコピーを一対の光検出器~(pds)で捉えた。 実験vlcベースの監視デモの性能評価により,多数のセンサを配置したり,対象物にvlc対応センサを装着したりすることなく,数センチ範囲での測位精度が達成された。

Visible Light Communication~(VLC) systems provide not only illumination and data communication, but also indoor monitoring services if the effect that different events create on the received optical signal is properly tracked. For this purpose, the Channel State Information that a VLC receiver computes to equalize the subcarriers of the OFDM signal can be also reused to train an Unsupervised Learning classifier. This way, different clusters can be created on the collected CSI data, which could be then mapped into relevant events to-be-monitored in the indoor environments, such as the presence of a new object in a given position or the change of the position of a given object. When compared to supervised learning algorithms, the proposed approach does not need to add tags in the training data, simplifying notably the implementation of the machine learning classifier. The practical validation the monitoring approach was done with the aid of a software-defined VLC link based on OFDM, in which a copy of the intensity modulated signal coming from a Phosphor-converted LED was captured by a pair of Photodetectors~(PDs). The performance evaluation of the experimental VLC-based monitoring demo achieved a positioning accuracy in the few-centimeter-range, without the necessity of deploying a large number of sensors and/or adding a VLC-enabled sensor on the object to-be-tracked.
翻訳日:2021-03-22 01:16:19 公開日:2021-01-20
# 画像の重み付きガウス曲率の離散的計算法

A Discrete Scheme for Computing Image's Weighted Gaussian Curvature ( http://arxiv.org/abs/2101.07927v1 )

ライセンス: Link先を確認
Yuanhao Gong, Wenming Tang, Lebin Zhou, Lantao Yu, Guoping Qiu(参考訳) 重み付きガウス曲線は画像にとって重要な測定値である。 しかし、従来の計算方式は性能が低く、精度が低く、入力画像が2次微分可能である必要がある。 これら3つの問題に対処するために,重み付きガウス曲率に対する新しい離散計算方式を提案する。 我々のスキームは二階微分性を必要としない。 さらに,提案手法はより正確で,サポート領域が小さく,従来の方式よりも計算効率がよい。 したがって, 画像平滑化, マンガテクスチャ分解, 光流量推定など, 重み付きガウス曲率が必要となる広い範囲の応用が期待できる。

Weighted Gaussian Curvature is an important measurement for images. However, its conventional computation scheme has low performance, low accuracy and requires that the input image must be second order differentiable. To tackle these three issues, we propose a novel discrete computation scheme for the weighted Gaussian curvature. Our scheme does not require the second order differentiability. Moreover, our scheme is more accurate, has smaller support region and computationally more efficient than the conventional schemes. Therefore, our scheme holds promise for a large range of applications where the weighted Gaussian curvature is needed, for example, image smoothing, cartoon texture decomposition, optical flow estimation, etc.
翻訳日:2021-03-22 01:15:49 公開日:2021-01-20
# エッジ認識画像処理のためのクォータラプラシアンフィルタ

Quarter Laplacian Filter for Edge Aware Image Processing ( http://arxiv.org/abs/2101.07933v1 )

ライセンス: Link先を確認
Yuanhao Gong, Wenming Tang, Lebin Zhou, Lantao Yu, Guoping Qiu(参考訳) 本稿では,画像平滑化時に角と縁を保存できる4次ラプラシアンフィルタを提案する。 サポートリージョンは$2\times2$で、ラプラシアンフィルタの$3\times3$サポートリージョンより小さい。 そのため、より地方的である。 さらに,このフィルタを従来のボックスフィルタで実装することで,リアルタイムアプリケーションの性能向上を実現している。 最後に,画像の平滑化,テクスチャの強化,低照度画像の強調など,画像処理タスクにおけるエッジ保存性を示す。 提案するフィルタは,幅広い画像処理アプリケーションに適用可能である。

This paper presents a quarter Laplacian filter that can preserve corners and edges during image smoothing. Its support region is $2\times2$, which is smaller than the $3\times3$ support region of Laplacian filter. Thus, it is more local. Moreover, this filter can be implemented via the classical box filter, leading to high performance for real time applications. Finally, we show its edge preserving property in several image processing tasks, including image smoothing, texture enhancement, and low-light image enhancement. The proposed filter can be adopted in a wide range of image processing applications.
翻訳日:2021-03-22 01:15:38 公開日:2021-01-20
# 合成学習を用いたC.elegansのニューロン追跡と同定のための高速深層学習対応

Fast deep learning correspondence for neuron tracking and identification in C.elegans using synthetic training ( http://arxiv.org/abs/2101.08211v1 )

ライセンス: Link先を確認
Xinwei Yu, Matthew S. Creamer, Francesco Randi, Anuj K. Sharma, Scott W. Linderman, Andrew M. Leifer(参考訳) 本稿では,C. elegans のニューロンの追跡と同定を行う "fast Deep Learning Cor correspondingence" あるいは fDLC という,トランスフォーマーネットワークアーキテクチャに基づく自動手法を提案する。 このモデルは、経験的な合成データに基づいて一度訓練され、転送学習を通じて、保持された実動物間の神経対応を予測する。 同じ事前訓練されたモデルは、時間にわたってニューロンを追跡し、個々のニューロンを識別する。 パフォーマンスはneuropal [1]を含む手書きのデータセットに対して評価される。 位置情報のみを用いて、個体内のニューロンを追跡する精度は80.0%、個体間の神経細胞を特定する精度は65.8%である。 公開されたデータセット [2] の精度はさらに高い。 NeuroPALの色情報を使用する場合、精度は76.5%に達する。 従来の方法とは異なり、fDLCは動物を正準座標系に変換する必要はない。 この手法は高速で、10ミリ秒で対応を予測し、将来のリアルタイムアプリケーションに適している。

We present an automated method to track and identify neurons in C. elegans, called "fast Deep Learning Correspondence" or fDLC, based on the transformer network architecture. The model is trained once on empirically derived synthetic data and then predicts neural correspondence across held-out real animals via transfer learning. The same pre-trained model both tracks neurons across time and identifies corresponding neurons across individuals. Performance is evaluated against hand-annotated datasets, including NeuroPAL [1]. Using only position information, the method achieves 80.0% accuracy at tracking neurons within an individual and 65.8% accuracy at identifying neurons across individuals. Accuracy is even higher on a published dataset [2]. Accuracy reaches 76.5% when using color information from NeuroPAL. Unlike previous methods, fDLC does not require straightening or transforming the animal into a canonical coordinate system. The method is fast and predicts correspondence in 10 ms making it suitable for future real-time applications.
翻訳日:2021-03-22 01:15:29 公開日:2021-01-20
# インテリジェント需要応答とスマートグリッドのためのディープラーニング:包括的調査

Deep Learning for Intelligent Demand Response and Smart Grids: A Comprehensive Survey ( http://arxiv.org/abs/2101.08013v1 )

ライセンス: Link先を確認
Prabadevi B, Quoc-Viet Pham, Madhusanka Liyanage, N Deepa, Mounik VVSS, Shivani Reddy, Praveen Kumar Reddy Maddikunta, Neelu Khare, Thippa Reddy Gadekallu, Won-Joo Hwang(参考訳) 今日、電気は人類にとって必須の商品の1つである。 従来の送電網における課題や課題に対処するため,スマートグリッドと需要応答の概念が開発されている。 このようなシステムでは、発電(風力タービンなど)、送電・配電(マイクログリッドや故障検知装置)、負荷管理(スマートメータやスマート家電など)といった様々なソースから、大量のデータが毎日生成される。 近年のビッグデータとコンピューティング技術の進歩により、Deep Learning(DL)は、生成されたデータからパターンを学び、電力とピーク時間の需要を予測するために利用することができる。 スマートグリッドの深層学習の利点を活かした本論文では,知的スマートグリッドに対するDLの適用状況と需要応答に関する総合的な調査を行う。 まず、DLの基本、スマートグリッド、需要応答、そしてDLの使用の背後にあるモチベーションを示す。 第2に、電力負荷予測、状態推定、エネルギー盗難検出、エネルギー共有、取引など、スマートグリッドおよび需要応答におけるDLの最先端応用について概観する。 さらに,様々なユースケースやプロジェクトを通じて,DLの実用性を説明する。 最後に,既存研究における課題を強調し,スマートグリッドと需要応答におけるDLの利用における重要な課題と潜在的方向性を強調した。

Electricity is one of the mandatory commodities for mankind today. To address challenges and issues in the transmission of electricity through the traditional grid, the concepts of smart grids and demand response have been developed. In such systems, a large amount of data is generated daily from various sources such as power generation (e.g., wind turbines), transmission and distribution (microgrids and fault detectors), load management (smart meters and smart electric appliances). Thanks to recent advancements in big data and computing technologies, Deep Learning (DL) can be leveraged to learn the patterns from the generated data and predict the demand for electricity and peak hours. Motivated by the advantages of deep learning in smart grids, this paper sets to provide a comprehensive survey on the application of DL for intelligent smart grids and demand response. Firstly, we present the fundamental of DL, smart grids, demand response, and the motivation behind the use of DL. Secondly, we review the state-of-the-art applications of DL in smart grids and demand response, including electric load forecasting, state estimation, energy theft detection, energy sharing and trading. Furthermore, we illustrate the practicality of DL via various use cases and projects. Finally, we highlight the challenges presented in existing research works and highlight important issues and potential directions in the use of DL for smart grids and demand response.
翻訳日:2021-03-22 01:15:14 公開日:2021-01-20
# Sparkデータ分析の性能チューニングのためのニューラルベースモデリング

Neural-based Modeling for Performance Tuning of Spark Data Analytics ( http://arxiv.org/abs/2101.08167v1 )

ライセンス: Link先を確認
Khaled Zaouk, Fei Song, Chenghao Lyu and Yanlei Diao(参考訳) クラウドデータ分析は、データ駆動の洞察発見のためのエンタープライズビジネスオペレーションの不可欠な部分となっている。 クラウドデータ分析のパフォーマンスモデリングは、クラウドのパフォーマンスチューニングやその他の重要な操作に不可欠である。 従来のモデリングテクニックは、このドメインにおけるワークロードやシステムの振る舞いの多様さに適応できません。 本稿では,Sparkデータ分析を代表的ワークロードとして重視した,クラウドデータ分析の自動パフォーマンスモデリングのプロセスに,近年のDeep Learning技術を導入します。 私たちの研究の核心は、異なるジョブの基本的な計算特性を表現するために(望ましいプロパティのセットとともに)ワークロードの埋め込みを学習することであり、リソース割り当てやその他のシステムノブを制御するジョブ構成とともに、パフォーマンス予測を可能にします。 私たちの研究は、要求に合致するさまざまなモデリング選択に関する詳細な研究を提供します。 広範な実験の結果、異なるモデリング方法の長所と限界、そしてクラウド分析のための最先端のモデリングツールよりも最高の実行方法のパフォーマンスが明らかになった。

Cloud data analytics has become an integral part of enterprise business operations for data-driven insight discovery. Performance modeling of cloud data analytics is crucial for performance tuning and other critical operations in the cloud. Traditional modeling techniques fail to adapt to the high degree of diversity in workloads and system behaviors in this domain. In this paper, we bring recent Deep Learning techniques to bear on the process of automated performance modeling of cloud data analytics, with a focus on Spark data analytics as representative workloads. At the core of our work is the notion of learning workload embeddings (with a set of desired properties) to represent fundamental computational characteristics of different jobs, which enable performance prediction when used together with job configurations that control resource allocation and other system knobs. Our work provides an in-depth study of different modeling choices that suit our requirements. Results of extensive experiments reveal the strengths and limitations of different modeling methods, as well as superior performance of our best performing method over a state-of-the-art modeling tool for cloud analytics.
翻訳日:2021-03-22 01:14:53 公開日:2021-01-20
# トレーニングデータを用いた非凸圧縮センシング

Non-Convex Compressed Sensing with Training Data ( http://arxiv.org/abs/2101.08310v1 )

ライセンス: Link先を確認
G. Welper(参考訳) 未決定線型系のスパース解に対する効率的なアルゴリズムは、制限等尺性(RIP)のような適切な仮定を満たす行列に対して$Ax = b$ が知られている。 そのような仮定がなければほとんど知られておらず、$A$の仮定がなければ、問題は$NP$-hardである。 一般的なアプローチは、$\ell_1$を$\ell_p$ minimizationを$0 < p < 1$に置き換えることである。 そこで本研究では,初期値に代えて,圧縮センシング問題に関連する追加のトレーニング問題として$Ax = B_l$, $l=1, \dots, p$が提供される。 これにより、元の問題である$Ax = b$の解を1層線形ニューラルネットワークの範囲内で高い確率で見つけることができ、行列$A$に対する仮定は比較的少ない。

Efficient algorithms for the sparse solution of under-determined linear systems $Ax = b$ are known for matrices $A$ satisfying suitable assumptions like the restricted isometry property (RIP). Without such assumptions little is known and without any assumptions on $A$ the problem is $NP$-hard. A common approach is to replace $\ell_1$ by $\ell_p$ minimization for $0 < p < 1$, which is no longer convex and typically requires some form of local initial values for provably convergent algorithms. In this paper, we consider an alternative, where instead of suitable initial values we are provided with extra training problems $Ax = B_l$, $l=1, \dots, p$ that are related to our compressed sensing problem. They allow us to find the solution of the original problem $Ax = b$ with high probability in the range of a one layer linear neural network with comparatively few assumptions on the matrix $A$.
翻訳日:2021-03-22 01:14:20 公開日:2021-01-20
# 単一マシン上の巨大なグラフ埋め込みを学習する

Learning Massive Graph Embeddings on a Single Machine ( http://arxiv.org/abs/2101.08358v1 )

ライセンス: Link先を確認
Jason Mohoney, Roger Waleffe, Yiheng Xu, Theodoros Rekatsinas, Shivaram Venkataraman(参考訳) 大規模グラフの埋め込みを1台のマシンで計算するための新しいフレームワークを提案する。 グラフ埋め込みはグラフの各ノード(および/またはエッジタイプ)に対する固定長ベクトル表現であり、グラフに現代的な機械学習を適用するデファクトアプローチとして登場した。 大規模グラフの埋め込みを学習するための現在のシステムは,データ移動によってボトルネックとなり,リソース利用率の低下と非効率なトレーニングにつながる。 これらの制限は、最先端のシステムが複数のマシンにトレーニングを分散する必要がある。 分割キャッシュとバッファアウェアデータ順序付けを利用してディスクアクセスを最小化し,データ移動を計算でインターリーブし,利用を最大化するグラフ埋め込みの効率的なトレーニングシステムであるgaiusを提案する。 gaiusと最先端の2つの産業システムを比較し,様々なベンチマークを行った。 ガイウスは同じレベルの精度を達成できるが、最大で1桁高速であることを示す。 また、Gaiusは、単一のマシンのGPUとCPUメモリ容量を超える規模のデータセットにトレーニングをスケールできることを示し、単一のAWS P3.2xLargeインスタンス上で10億以上のエッジと550GBのパラメータを持つ構成のトレーニングを可能にした。

We propose a new framework for computing the embeddings of large-scale graphs on a single machine. A graph embedding is a fixed length vector representation for each node (and/or edge-type) in a graph and has emerged as the de-facto approach to apply modern machine learning on graphs. We identify that current systems for learning the embeddings of large-scale graphs are bottlenecked by data movement, which results in poor resource utilization and inefficient training. These limitations require state-of-the-art systems to distribute training across multiple machines. We propose Gaius, a system for efficient training of graph embeddings that leverages partition caching and buffer-aware data orderings to minimize disk access and interleaves data movement with computation to maximize utilization. We compare Gaius against two state-of-the-art industrial systems on a diverse array of benchmarks. We demonstrate that Gaius achieves the same level of accuracy but is up to one order-of magnitude faster. We also show that Gaius can scale training to datasets an order of magnitude beyond a single machine's GPU and CPU memory capacity, enabling training of configurations with more than a billion edges and 550GB of total parameters on a single AWS P3.2xLarge instance.
翻訳日:2021-03-22 01:14:04 公開日:2021-01-20
# 観測データ拡張による深層学習推論による中性子星の状態方程式の広範的研究

Extensive Studies of the Neutron Star Equation of State from the Deep Learning Inference with the Observational Data Augmentation ( http://arxiv.org/abs/2101.08156v1 )

ライセンス: Link先を確認
Yuki Fujimoto, Kenji Fukushima, Koichi Murase(参考訳) 中性子星の状態方程式(EoS)の深層学習推定について,質量と半径の実観測データを用いて検討した。 従来の多項式回帰とニューラルネットワークによるeosパラメトリゼーションを定量的に比較した。 観測に不確実性を組み込む深層学習法では,観測の不確実性に対応する雑音変動を伴うトレーニングデータを増強する。 推定されたEoSsは、弱い一階相転移に対応でき、おそらく一階領域のヒストグラムを作成する。 また, 観測データの増大は, 過度に適合する行動を抑える副産物であることがわかった。 データ拡張によって性能が向上するのを確認するために,ダブルピーク関数を復元し,検証損失を監視するための最も単純な推論問題として,toyモデルを設定した。 我々は、データ拡張は、ドロップアウトを挿入するなどのニューラルネットワークアーキテクチャをチューニングすることなく、過剰フィッティングを回避するのに有用なテクニックであると結論づける。

We discuss deep learning inference for the neutron star equation of state (EoS) using the real observational data of the mass and the radius. We make a quantitative comparison between the conventional polynomial regression and the neural network approach for the EoS parametrization. For our deep learning method to incorporate uncertainties in observation, we augment the training data with noise fluctuations corresponding to observational uncertainties. Deduced EoSs can accommodate a weak first-order phase transition, and we make a histogram for likely first-order regions. We also find that our observational data augmentation has a byproduct to tame the overfitting behavior. To check the performance improved by the data augmentation, we set up a toy model as the simplest inference problem to recover a double-peaked function and monitor the validation loss. We conclude that the data augmentation could be a useful technique to evade the overfitting without tuning the neural network architecture such as inserting the dropout.
翻訳日:2021-03-22 01:13:45 公開日:2021-01-20