このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20210104となっている論文です。

PDF登録状況(公開日: 20210104)

TitleAuthorsAbstract論文公表日・翻訳日
# スピングラフにおける量子絡み合いの生成とロバスト性

Generation and Robustness of Quantum Entanglement in Spin Graphs ( http://arxiv.org/abs/2002.07683v2 )

ライセンス: Link先を確認
Jan Riegelmeyer, Dan Wignall, Marta P. Estarellas, Irene D'Amico, and Timothy P. Spiller(参考訳) 絡み合いは量子情報処理にとって重要なリソースであり、様々なハードウェアプラットフォーム上で高忠実な絡み合い状態を生成するプロトコルが要求されている。 スピン鎖は絡み合いを生成するために広範囲に研究されてきたが、グラフ構造もそのような可能性を持っている。 本稿では、2つの異なる結合強度を含む特定の結合スキームを、2つの相互接続された3\times3$平方グラフのグラフに適用し、3つの欠陥を効果的に含むようにする。 本稿では,この構造が選択結合比に依存するベル状態の生成を可能にすることを示す。 グラフの次元を小さくするために分割グラフ理論を適用し、縮小グラフや縮小連鎖を用いることで、同じダイナミックスで同じプロトコルをシミュレートできることを示す。 最後に, 製造誤差がエンタングルメント生成プロトコルにどのように影響するか, また, 異なる等価構造がどのような影響を与えるかを検討した。

Entanglement is a crucial resource for quantum information processing, and so protocols to generate high fidelity entangled states on various hardware platforms are in demand. While spin chains have been extensively studied to generate entanglement, graph structures also have such potential; however, only a few classes of graphs have been explored for this specific task. In this paper, we apply a particular coupling scheme involving two different coupling strengths to a graph of two interconnected $3\times3$ square graphs such that it effectively contains three defects. We show how this structure allows generation of a Bell state whose fidelity depends on the chosen coupling ratio. We apply partitioned graph theory in order to reduce the dimension of the graph and show that, using a reduced graph or a reduced chain, we can still simulate the same protocol with identical dynamics. Finally, we investigate how fabrication errors affect the entanglement generation protocol and how the different equivalent structures are affected, finding that for some specific coupling ratios they are extremely robust.
翻訳日:2023-06-03 07:10:58 公開日:2021-01-04
# 逐次量子計測とフィードバックによる絡み合い保存限界サイクル

Entanglement-Preserving Limit Cycles from Sequential Quantum Measurements and Feedback ( http://arxiv.org/abs/2003.02952v2 )

ライセンス: Link先を確認
Philippe Lewalle, Cyril Elouard, Andrew N. Jordan(参考訳) 絡み合いの生成と保存は量子情報処理における重要な課題であり、自発放出を測定することで、リモートキュービットを絡める様々なプロトコルが存在する。 本稿では、2つの量子ビットの蛍光を観測し、制御に局所的なpiパルスのみを用いるフィードバック手法を提案し、絡み合った2量子ビット状態の収量および寿命を増加させる。 具体的には,自然発振の光検出(量子ジャンプ軌道を用いた)に基づくプロトコルについて述べる。 次に、ホモダイン測定に基づく最近のフィードバックスキーム(すなわち、拡散量子軌道を用いて) [L. S. Martin と K. B. Whaley, arXiv:1912.00067] に類似した修正を施すことで、その絡み合いの寿命を延長できることを示した。 提案手法は, 測定効率の向上に最も有効であり, 測定効率の低下による影響を定量化する。 ここで述べる方法は、実証済みの技術を新しい方法で組み合わせ、既存のプロトコルを補完し、様々な用途で使用できるように、絡み合った状態を生成して保護するための経路を提供する。

Entanglement generation and preservation is a key task in quantum information processing, and a variety of protocols exist to entangle remote qubits via measurement of their spontaneous emission. We here propose feedback methods, based on monitoring the fluorescence of two qubits and using only local pi-pulses for control, to increase the yield and/or lifetime of entangled two-qubit states. Specifically, we describe a protocol based on photodetection of spontaneous emission (i.e. using quantum jump trajectories) which allows for entanglement preservation via measurement undoing, creating a limit cycle around a Bell states. We then demonstrate that a similar modification can be made to a recent feedback scheme based on homodyne measurement (i.e. using diffusive quantum trajectories), [L. S. Martin and K. B. Whaley, arXiv:1912.00067] in order to increase the lifetime of the entanglement it creates. Our schemes are most effective for high measurement efficiencies, and the impact of less-than-ideal measurement efficiency is quantified. The method we describe here combines proven techniques in a novel way, complementing existing protocols, and offering a pathway towards generating and protecting entangled states so that they may be used in various applications on demand.
翻訳日:2023-05-30 11:27:42 公開日:2021-01-04
# 非エルミートスカラー場の量子論における離散時空対称性と粒子混合

Discrete spacetime symmetries and particle mixing in non-Hermitian scalar quantum field theories ( http://arxiv.org/abs/2006.06656v3 )

ライセンス: Link先を確認
Jean Alexandre, John Ellis, Peter Millington(参考訳) pt対称性を持つ自由非エルミートスカラー量子論における第二量子化、離散対称性変換、内積について論じ、反エルミート質量混合を持つ2つの複素スカラー場のプロトタイプモデルに着目する。 内積の定義はエルミート・ハミルトニアンによって記述された理論に特有のものであるが、その定式化は非エルミート・ハミルトニアンに特有のものではない。 エネルギー固有状態は従来のディラック内積に対して直交しないので、正定ノルムを定義するためにさらに離散変換を考える必要がある。 量子力学系で以前に導入された離散対称性 c' を導入することで、c'pt 内積は正定値ノルムを生じさせ、従ってエネルギー固有状態の項で pt 対称性を持つ非エルミートモデルにおけるフォック空間を定義するのに適していることを示す。 また、PT対称非エルミートスカラー場の量子論とエルミート理論の類似性変換についても論じ、相互作用の存在において修正が必要であることを示す。 議論の例として、エルミート理論と対応する非エルミートモデルにおける粒子混合とPT対称性を比較し、後者がユニタリティを維持し、スカラーと擬スカラーのボソンの混合を示すことを示す。

We discuss second quantization, discrete symmetry transformations and inner products in free non-Hermitian scalar quantum field theories with PT symmetry, focusing on a prototype model of two complex scalar fields with anti-Hermitian mass mixing. Whereas the definition of the inner product is unique for theories described by Hermitian Hamiltonians, its formulation is not unique for non-Hermitian Hamiltonians. Energy eigenstates are not orthogonal with respect to the conventional Dirac inner product, so we must consider additional discrete transformations to define a positive-definite norm. We clarify the relationship between canonical-conjugate operators and introduce the additional discrete symmetry C', previously introduced for quantum-mechanical systems, and show that the C'PT inner product does yield a positive-definite norm, and hence is appropriate for defining the Fock space in non-Hermitian models with PT symmetry in terms of energy eigenstates. We also discuss similarity transformations between PT-symmetric non-Hermitian scalar quantum field theories and Hermitian theories, showing that they would require modification in the presence of interactions. As an illustration of our discussion, we compare particle mixing in a Hermitian theory and in the corresponding non-Hermitian model with PT symmetry, showing how the latter maintains unitarity and exhibits mixing between scalar and pseudoscalar bosons.
翻訳日:2023-05-16 00:30:14 公開日:2021-01-04
# スピン軌道-Angular-Momentum結合によるフェルミ超流体中の巨大渦の生成

Generating Giant Vortex in a Fermi Superfluid via Spin-Orbital-Angular-Momentum Coupling ( http://arxiv.org/abs/2006.08898v2 )

ライセンス: Link先を確認
Ke-Ji Chen, Fan Wu, Shi-Guo Peng, Wei Yi, and Lianyi He(参考訳) スピン軌道-角運動量(SOAM)カップリングは、ボース=アインシュタイン凝縮体(Chen et al., Phys. Rev. 121, 113204 (2018) and Zhang et al., Phys. Rev. 122, 110402 (2019))の最近の実験で実現され、そこでは軌道角運動量がボソンにインプリントされる。 フェルミオンの場合、このようなエキゾチックな合成ゲージ場は、興味深いペアリングスキームやリッチな超流動相のための豊かな基礎を提供することができる。 ここでは,フェルミ表面の変形下でのスピン軌道結合誘起フルド・フェレル状態の角的類似物と見なすことができる一意な機構を用いて,soam結合がフェルミ超流体の渦を安定化させる様子を示す。 特筆すべきは、渦の大きさがラマンレーザーのビームウエストに匹敵し、SOAM結合が生じることである。 可変サイズとコア構造を持つこれらの巨大渦状態は、フェルミ超流体のトポロジカル欠陥に対する前例のない実験的アクセスを提供する。

Spin-orbital-angular-momentum (SOAM) coupling has been realized in recent experiments of Bose-Einstein condensates [Chen et al., Phys. Rev. Lett. 121, 113204 (2018) and Zhang et al., Phys. Rev. Lett. 122, 110402 (2019)], where the orbital angular momentum imprinted upon bosons leads to quantized vortices. For fermions, such an exotic synthetic gauge field can provide fertile ground for fascinating pairing schemes and rich superfluid phases, which are yet to be explored. Here we demonstrate how SOAM coupling stabilizes vortices in Fermi superfluids through a unique mechanism that can be viewed as the angular analog to that of the spin-orbit-coupling-induced Fulde-Ferrell state under a Fermi surface deformation. Remarkably, the vortex size is comparable with the beam waist of Raman lasers generating the SOAM coupling, which is typically much larger than previously observed vortices in Fermi superfluids. With tunable size and core structure, these giant vortex states provide unprecedented experimental access to topological defects in Fermi superfluids.
翻訳日:2023-05-13 18:18:45 公開日:2021-01-04
# コヒーレントワンウェイ量子鍵分布の上位セキュリティ境界

Upper security bounds for coherent-one-way quantum key distribution ( http://arxiv.org/abs/2006.16891v2 )

ライセンス: Link先を確認
Javier Gonz\'alez-Payo, R\'obert Tr\'enyi, Weilong Wang, Marcos Curty(参考訳) 量子鍵分布(QKD)の性能は、光子数分割攻撃によりレーザー源から放出される多重光子パルスによって著しく制限される。 コヒーレントワンウェイ(COW)QKDは、この制限を克服し、実用的なQKDの達成可能な距離を延長する有望な解決策として導入された。 実際、実験的なシンプルさのおかげで、COWプロトコルはすでに商用アプリケーションで使われている。 ここでは、その秘密鍵レートの単純な上層セキュリティ境界を導出し、システムの透過率と最大二乗的にスケールできることを示し、長期にわたる問題を解く。 すなわち、主張とは対照的に、このアプローチは長距離qkd伝送には不適切である。 注目すべきことに,これまでのCOWプロトコルの実装は安全でないことが示唆された。

The performance of quantum key distribution (QKD) is severely limited by multi-photon pulses emitted by laser sources due to the photon-number splitting attack. Coherent-one-way (COW) QKD has been introduced as a promising solution to overcome this limitation, and thus extend the achievable distance of practical QKD. Indeed, thanks to its experimental simplicity, the COW protocol is already used in commercial applications. Here, we derive simple upper security bounds on its secret key rate, which demonstrate that it scales at most quadratically with the system's transmittance, thus solving a long-standing problem. That is, in contrast to what has been claimed, this approach is inappropriate for long-distance QKD transmission. Remarkably, our findings imply that all implementations of the COW protocol performed so far are insecure.
翻訳日:2023-05-12 01:15:27 公開日:2021-01-04
# 離散位相ランダム源を用いた双フィールド量子鍵分布

Twin-field quantum key distribution with discrete-phase-randomized sources ( http://arxiv.org/abs/2008.05277v3 )

ライセンス: Link先を確認
Chun-Mei Zhang, Yi-Wei Xu, Rong Wang, and Qin Wang(参考訳) 第三者による単一光子干渉により、twin-field quantun key distribution (tf-qkd)プロトコルとその変種は、量子リピータを使わずによく知られたレート損失を上回ることができ、関連する実験が最近実施されている。 一般に、これらのスキームの量子状態は、コードモードとテストモードの間でランダムに切り替わるべきである。 標準デコイ状態法を採用するために、テストモードにおけるコヒーレント状態源の位相を連続的にランダム化すると仮定する。 しかし、このような重要な仮定は実験的な実装では十分満足できない。 本稿では,理論と実践のギャップを埋めるため,コードモードとテストモードの両方において離散位相分散源を持つtf-qkd変種を提案し,集合攻撃に対する安全性を証明する。 シミュレーションの結果, 離散位相数が少ない場合, 離散位相ランダム化源の性能は速度損失を克服し, 連続位相ランダム化源にアプローチできることがわかった。

Thanks to the single-photon interference at a third untrusted party, the twin-field quantun key distribution (TF-QKD) protocol and its variants can beat the well-known rate-loss bound without quantum repeaters, and related experiments have been implemented recently. Generally, quantum states in these schemes should be randomly switched between the code mode and test mode. To adopt the standard decoy-state method, phases of coherent state sources in the test mode are assumed to be continuously randomized. However, such a crucial assumption cannot be well satisfied in experimental implementations. In this paper, to bridge the gap between theory and practice, we propose a TF-QKD variant with discrete-phase-randomized sources both in the code mode and test mode, and prove its security against collective attacks. Our simulation results indicate that, with only a small number of discrete phases, the performance of discrete-phase-randomized sources can overcome the rate-loss bound and approach that of continuous-phase-randomized sources.
翻訳日:2023-05-06 11:36:10 公開日:2021-01-04
# 『ビッグデータ』とその起源

"Big Data" and its Origins ( http://arxiv.org/abs/2008.05835v6 )

ライセンス: Link先を確認
Francis X. Diebold(参考訳) データ量、速度、バラエティにおける爆発的な成長の背景に対して、私は「ビッグデータ」という用語の起源を調べます。 その起源はやや不安定で、学術、産業、統計、コンピュータ科学の両方を巻き込み、最終的に1990年代半ばにsgi(silicon graphics inc.)でランチテーブルの会話に戻った。 ビッグデータ現象は相変わらず続き、統計的機械学習ツールの継続的な開発は、私たちがそれに取り組むのに役立ちます。

Against the background of explosive growth in data volume, velocity, and variety, I investigate the origins of the term "Big Data". Its origins are a bit murky and hence intriguing, involving both academics and industry, statistics and computer science, ultimately winding back to lunch-table conversations at Silicon Graphics Inc. (SGI) in the mid 1990s. The Big Data phenomenon continues unabated, and the ongoing development of statistical machine learning tools continues to help us confront it.
翻訳日:2023-05-06 09:16:22 公開日:2021-01-04
# 量子コンピュータ上の周期系に対する運動量空間ユニタリ結合クラスターと翻訳量子部分空間展開

Momentum-Space Unitary Coupled Cluster and Translational Quantum Subspace Expansion for Periodic Systems on Quantum Computers ( http://arxiv.org/abs/2008.08694v2 )

ライセンス: Link先を確認
David Zsolt Manrique, Irfan T. Khan, Kentaro Yamamoto, Vijja Wichitwechkarn, David Mu\~noz Ramo(参考訳) 固体結晶材料を模擬するための変分量子固有解法(VQE)の応用を実証する。 我々は、実空間および運動量空間表現における周期的境界条件にユニタリ結合クラスタアンサッツを適用し、複素クラスタ演算子を直接量子回路アンサッツにマッピングし、運動量保存による励起演算子とハミルトン項の減少を利用する。 さらに, uccsd振幅数, 回路深度, 必要な量子ビット数, 測定回路数など, 必要な量子資源を削減するため, 周期ハミルトニアンの局所化表現のための翻訳量子部分空間展開法(transqse)について検討した。 さらに,周期系への点群対称性に基づくキュービットテーパリング法の拡張も示す。 我々は,2次元水素,ヘリウム,水素化リチウムの1次元鎖の精度と計算コストを運動量空間格子点数の増加とともに比較するとともに,2次元および3次元水素およびヘリウム格子のVQE計算を実証した。 提案手法により,短期量子ハードウェアを用いて変動量子アルゴリズムによる固体シミュレーションを行うことができる。

We demonstrate the use of the Variational Quantum Eigensolver (VQE) to simulate solid state crystalline materials. We adapt the Unitary Coupled Cluster ansatz to periodic boundary conditions in real space and momentum space representations and directly map complex cluster operators to a quantum circuit ansatz to take advantage of the reduced number of excitation operators and Hamiltonian terms due to momentum conservation. To further reduce required quantum resources, such as the number of UCCSD amplitudes, circuit depth, required number of qubits and number of measurement circuits, we investigate a translational Quantum Subspace Expansion method (TransQSE) for the localized representation of the periodic Hamiltonian. Additionally, we also demonstrate an extension of the point group symmetry based qubit tapering method to periodic systems. We compare accuracy and computational costs for a range of geometries for 1D chains of dimerized hydrogen, helium and lithium hydride with increasing number of momentum space grid points and also demonstrate VQE calculations for 2D and 3D hydrogen and helium lattices. Our presented strategies enable the use of near-term quantum hardware to perform solid state simulation with variational quantum algorithms.
翻訳日:2023-05-05 20:16:21 公開日:2021-01-04
# 制約付き多体量子カオス系のスペクトル統計

Spectral statistics in constrained many-body quantum chaotic systems ( http://arxiv.org/abs/2009.11863v2 )

ライセンス: Link先を確認
Sanjay Moudgalya, Abhinav Prem, David A. Huse, Amos Chan(参考訳) 本研究では, 空間的に拡張した多体量子系のスペクトル統計をオンサイトアベリア対称性や局所制約を用いて検討し, 保存ダイポールと高次モーメントに着目した。 大きな局所ヒルベルト空間次元の極限において、フロッケランダム回路のスペクトル形式因子 $k(t)$ は古典マルコフ回路に正確にマッピングでき、後期にはフラストレーションのないロクサー・キヴェルソン(rk)型のハミルトニアン(英語版)の分割関数と関係している。 この写像を通して、rk-ハミルトニアン下のスペクトルギャップの逆は、基礎となる回路のthouless time $t_{\mathrm{th}}$ であることを示す。 保存された高次モーメントを持つ系に対しては、有効スピンチェーンのヒルベルト空間に対する一般化された高さ場表現を提案して対応するrk-ハミルトニアンに対する場理論を導出する。 場理論の定式化を用いて、連続体極限におけるrk-ハミルトニアンの低次励起の分散を得ることにより、$t_{\mathrm{th}}$を抽出することができる。 特に、$m^{th}$ multipole moment を保存する長さ $L$ のシステムでは、$t_{\mathrm{Th}}$ は $L^{2(m+1)}$ として半微分的にスケールする。 また、我々の形式主義はより高次元の回路に直接一般化し、$m^{th}$ の多重極モーメントの任意の成分を保存する系では、$t_{\mathrm{th}}$ はシステムの線形サイズと同じスケーリングを持つことを示した。 そこで本研究は,制約付き多体カオス系におけるスペクトル統計学の一般的なアプローチを提供する。

We study the spectral statistics of spatially-extended many-body quantum systems with on-site Abelian symmetries or local constraints, focusing primarily on those with conserved dipole and higher moments. In the limit of large local Hilbert space dimension, we find that the spectral form factor $K(t)$ of Floquet random circuits can be mapped exactly to a classical Markov circuit, and, at late times, is related to the partition function of a frustration-free Rokhsar-Kivelson (RK) type Hamiltonian. Through this mapping, we show that the inverse of the spectral gap of the RK-Hamiltonian lower bounds the Thouless time $t_{\mathrm{Th}}$ of the underlying circuit. For systems with conserved higher moments, we derive a field theory for the corresponding RK-Hamiltonian by proposing a generalized height field representation for the Hilbert space of the effective spin chain. Using the field theory formulation, we obtain the dispersion of the low-lying excitations of the RK-Hamiltonian in the continuum limit, which allows us to extract $t_{\mathrm{Th}}$. In particular, we analytically argue that in a system of length $L$ that conserves the $m^{th}$ multipole moment, $t_{\mathrm{Th}}$ scales subdiffusively as $L^{2(m+1)}$. We also show that our formalism directly generalizes to higher dimensional circuits, and that in systems that conserve any component of the $m^{th}$ multipole moment, $t_{\mathrm{Th}}$ has the same scaling with the linear size of the system. Our work therefore provides a general approach for studying spectral statistics in constrained many-body chaotic systems.
翻訳日:2023-05-01 02:24:20 公開日:2021-01-04
# ループホールフリープラグアンドプレイ量子鍵分布

Loophole-free plug-and-play quantum key distribution ( http://arxiv.org/abs/2010.05503v3 )

ライセンス: Link先を確認
Ruoyang Qi, Haoran Zhang, Jiancun Gao, Liuguo Yin and Gui-Lu Long(参考訳) ロバストで単純で柔軟な量子鍵分布(QKD)は、この手法の実用的な応用を実現する上で不可欠である。 典型的な位相符号化QKD方式とは対照的に、プラグアンドプレイQKD設計ではアクティブフィードバックなしで1つの腕長非感性干渉計しか必要とせず、ノイズは双方向構造によって自動的に補償される。 しかし、一般的なプラグアンドプレイ設計には、考慮と厳密な監視を必要とする抜け穴がある可能性がある。 本研究では,双方向プロトコルを用いたループホールフリープラグアンドプレイQKDスキームを提案し,その実験例を示す。 セキュリティは、decoy state methodによって支援された集団攻撃シナリオで分析される。 この方式はアクティブなフィードバックなしに50.4kmの商業用繊維で実装された。 このシステムは、非常に低いエラーレートで高いロバスト性能を示し、24時間にわたる大きな環境変化を通じて0.09947+/-0.0002の超高視認性を維持した。

Robust, simple, and flexible quantum key distribution (QKD) is vital for realising practical applications of this technique. Contrary to typical phase-coded QKD schemes, the plug-and-play QKD design requires only one arm-length-insensitive interferometer without active feedback, in which the noise is automatically compensated by the two-way structure. However, there are certain possible loopholes in the typical plug-and-play designs, which require consideration and strict monitoring. This study proposes a loophole-free plug-and-play QKD scheme with two-way protocol and presents an experimental demonstration of said scheme. The security is analysed under a collective attack scenario assisted by the decoy state method. The scheme was implemented in a 50.4 km commercial fibre without active feedback. The system showed highly robust performance with an ultra-low error rate and maintained an ultra-high visibility of 0.9947+/-0.0002 through significant environmental changes over 24 hours.
翻訳日:2023-04-29 07:26:59 公開日:2021-01-04
# クラインのパラドックスを解く

Solving Klein's paradox ( http://arxiv.org/abs/2010.08340v2 )

ライセンス: Link先を確認
Huai-Yu Wang(参考訳) ディラック粒子が無限幅のステップポテンシャルに遭遇したときの反射問題から生じる有名なクラインのパラドックスを解明する。 鍵となるのは、粒子のエネルギー E がポテンシャル V よりも大きい(無)領域において、正の(負の)エネルギー分岐の解が採用されるような方法でディラック方程式を個々に解くことである。 Klein-Gordon方程式の1次定数ポテンシャルの場合、この方程式は正および負のエネルギー方程式に分離され、反射問題は同様の方法で解決される。 無限大および有限大のポテンシャルも考慮される。 反射係数は1を超えない。 その結果, 粒子の透過性は, 質量が小さいか, 質量が小さいか検討した。

We figure out the famous Klein's paradox arising from the reflection problem when a Dirac particle encounters a step potential with infinite width. The key is to piecewise solve Dirac equation in such a way that in the region where the particle's energy E is greater (less) than the potential V, the solution of the positive (negative) energy branch is adopted. In the case of Klein-Gordon equation with a piecewise constant potential, the equation is decoupled to positive and negative energy equations, and reflection problem is solved in the same way. Both infinitely and finitely wide potentials are considered. The reflection coefficient never exceeds 1. The results are applied to discuss the transmissions of particles with no mass or with very small mass.
翻訳日:2023-04-29 04:47:07 公開日:2021-01-04
# 協調原子反応におけるパリティ時対称性とコヒーレント完全吸収

Parity-time symmetry and coherent perfect absorption in a cooperative atom response ( http://arxiv.org/abs/2012.04393v2 )

ライセンス: Link先を確認
K. E. Ballantine, J. Ruostekoski(参考訳) Parity-Time ($\mathcal{PT}$)対称性は、一方向輸送や非相互反射のようなエキゾチックな機能を持つ合成光学材料の設計において重要な概念となっている。 例外的に、この対称性は自発的に崩壊し、保存された強度を持つものから指数関数的な成長や崩壊へと解が遷移する。 ここでは、強い協調多体相互作用を媒介する光で配列内の原子の1つの層によって形成される量子フォトニック表面を解析する。 局所化された集合励起固有モデムは、有効$\mathcal{PT}$対称性と非指数崩壊を示す。 この有効対称性は、サブラジアントダークモードからの損失と明るいモードの散乱のバランスをとることにより、利得のない受動的システムで達成される。 これらのモードは、コヒーレントな完全な吸収の出現によって証明され、コヒーレントな入射光が完全に吸収され、非コヒーレントにのみ散乱する。 また,集合モードの異なる分極間の散乱と損失のバランスをとることで,全反射と全反射において$\mathcal{pt}$ symmetry がどのように生成されるかを示す。

Parity-Time ($\mathcal{PT}$) symmetry has become an important concept in the design of synthetic optical materials, with exotic functionalities such as unidirectional transport and non-reciprocal reflection. At exceptional points, this symmetry is spontaneously broken, and solutions transition from those with conserved intensity to exponential growth or decay. Here we analyze a quantum-photonic surface formed by a single layer of atoms in an array with light mediating strong cooperative many-body interactions. We show how delocalized collective excitation eigenmodes can exhibit an effective $\mathcal{PT}$ symmetry and non-exponential decay. This effective symmetry is achieved in a passive system without gain by balancing the scattering of a bright mode with the loss from a subradiant dark mode. These modes coalesce at exceptional points, evidenced by the emergence of coherent perfect absorption where coherent incoming light is perfectly absorbed and scattered only incoherently. We also show how $\mathcal{PT}$ symmetry can be generated in total reflection and by balancing scattering and loss between different polarizations of collective modes.
翻訳日:2023-04-21 18:33:43 公開日:2021-01-04
# sagnac干渉計の弱測定による回転速度の増幅

Amplification of rotation velocity using weak measurements in Sagnac's interferometer ( http://arxiv.org/abs/2101.00857v1 )

ライセンス: Link先を確認
Jing-Hui Huang and Xue-Ying Duan and Xiang-Yun Hu(参考訳) 弱値増幅の概念に基づき, sagnac干渉計を用いて回転速度の増幅について検討した。 運動量空間におけるプローブとサニャック干渉計の異なる方式を用いて、サニャック効果の位相シフトを増幅することにより、小さな回転速度を検出するための新しい弱い測度プロトコルを実証した。 初期スペクトルの最大入射強度,分光器の強度の検出限界,角速度測定の精度を考慮すれば,実験前に適切なポット選択と光路面積の最小化を理論的に行うことができる。 また,光路面積を増加させ,干渉計のサイズを小さくして計器サイズの限界を克服するための新しい光学設計を行った。 最後に,弱測定に基づくsagnac干渉計の改良は,小型回転速度信号の検出を革新的かつ効率的に行う。

We study the amplification of rotation velocity with the Sagnac interferometer based on the concept of weak-value amplification. By using a different scheme to perform the Sagnac interferometer with the probe in momentum space, we have demonstrated the new weak measure protocol to detect the small rotation velocity by amplifying the phase shift of the Sagnac effect. At the given the maximum incident intensity of the initial spectrum, the detection limit of the intensity of the spectrometer and the accuracy of angular velocity measurement, we can theoretical give the appropriate potselection and the minimum of optical path area before experiment. In addition, we put forward a new optical design to increase the optical path area and decrease the size of the interferometer to overcome the limit of instrument size. Finally, our modified Sagnac's interferometer based on weak measurement is innovative and efficient probing the small rotation velocity signal.
翻訳日:2023-04-17 22:26:00 公開日:2021-01-04
# デ・シッター空間におけるガウス状態の量子コヒーレンス分布と生成

Distribution and generation of quantum coherence for Gaussian states in de Sitter space ( http://arxiv.org/abs/2101.00832v1 )

ライセンス: Link先を確認
Qianqian Liu, Cuihong Wen, Jieci Wang, Jiliang Jing(参考訳) ド・ジッター空間における2モードおよびマルチモードガウス状態の量子コヒーレンス分布と生成について検討する。 量子コヒーレンス (quantum coherence) は、ド・ジッター空間の曲率効果の下で異なる開チャートのモードの間で再分配される。 特に、初期相関状態に対するガウス的コヒーレンス(英語版)は無限曲率の極限で存続し、この極限では量子エンタングルメントが消滅する。 絡み合いやステアリングとは異なり、巨大なスカラー場のコヒーレンスはド・ジッター空間の曲率の影響下で質量のないフィールドよりも頑丈である。 さらに、2モードのガウス状態と3モードのガウス状態の量子コヒーレンスを、観測者は因果的に非連結な領域に局在しているにもかかわらず生成することを示した。 重力が生成する3モードコヒーレンスは、共形および質量のないスカラー場の曲率効果に非常に敏感であり、宇宙曲率の効果的な検出器を設計するために原則的に用いられる。

We study the distribution and generation of quantum coherence for two-mode and multi-mode Gaussian states in de Sitter space. It is found that the quantum coherence is redistributed among the mode in different open charts under the curvature effect of de Sitter space. In particular, the Gaussian coherence for the initially correlated state is found to survive in the limit of infinite curvature, while quantum entanglement vanishing in this limit. Unlike entanglement and steering, the coherence of a massive scalar field is more robust than a massless field under the influence of curvature of de Sitter space. In addition, it is shown that the curvature generates two-mode Gaussian state and three-mode Gaussian state quantum coherence among the open charts, even though the observers are localized in causally disconnected regions. It is worth noting that the gravity-generated three-mode coherence is extremely sensitive to the curvature effect for the conformal and massless scalar fields, which may be in principle employed to design an effective detector for the space curvature.
翻訳日:2023-04-17 22:25:36 公開日:2021-01-04
# 非平衡量子系の過渡状態と定常状態の間のギャップを橋渡しする

Bridging the Gap Between the Transient and the Steady State of a Nonequilibrium Quantum System ( http://arxiv.org/abs/2101.00795v1 )

ライセンス: Link先を確認
Herbert F. Fotso, Eric Dohner, Alexander Kemper, and James K. Freericks(参考訳) 非平衡の多体量子系は多体物理学のフロンティアの一つである。 様々な数値アルゴリズムを用いてこれらのシステムの短時間進化を記述することは大きな進歩であるが、駆動場が適用される前の平衡状態から長時間安定(周期的に振動する)状態へとシステムを進化させることは非常に困難である。 これらの力学は複雑であり、遅延された量はより少ない(あるいは大きい)量よりも長い時間制限に近づく傾向にある。 直流電界における強相関電子の研究は、時間的有効ゆらぎ散逸定理に従う準熱状態を通じて系が進化することを示した。 本稿では, 短時間の過渡計算を用いて遅延量を求め, より少ない/大きい量の時間変化を抽出し, 計算コストを最小限に抑えながら, 数値解を定常状態まで拡張する補間手法を実証する。 提案手法は, 電子的自己エネルギーを外挿し, グリーン関数と種々の実験的予測値を決定することに焦点を当てる。

Many-body quantum systems in nonequilibrium remain one of the frontiers of many-body physics. While there has been significant advances in describing the short-time evolution of these systems using a variety of different numerical algorithms, it has been quite difficult to evolve a system from an equilibrium state prior to the application of a driving field, to the long-time steady (or periodically oscillating) state. These dynamics are complex: the retarded quantities tend to approach their long-time limit much faster than the lesser (or greater) quantities. Recent work on strongly correlated electrons in DC electric fields illustrated that the system may evolve through successive quasi-thermal states obeying an effective fluctuation-dissipation theorem in time. We demonstrate an extrapolation scheme that uses the short-time transient calculation to obtain the retarded quantities and to extract how the lesser/greater quantities vary with time and then extend the numerical solutions all the way to the steady state, with minimal additional computational cost. Our approach focuses on extrapolating the electronic self-energy and then employing that to determine the Green's function and various experimentally relevant expectation values.
翻訳日:2023-04-17 22:25:15 公開日:2021-01-04
# covert embodied choice: バイオメトリックス・サーベイランスにおける意思決定とプライバシーの限界

Covert Embodied Choice: Decision-Making and the Limits of Privacy Under Biometric Surveillance ( http://arxiv.org/abs/2101.00771v1 )

ライセンス: Link先を確認
Jeremy Gordon, Max Curran, John Chuang, Coye Cheshire(参考訳) リッチな行動と生体計測データを利用して個々の属性や行動を予測するアルゴリズムは、公的および私的な生活を浸透させ続けている。 基本的なリスクは、そのようなデータの感度に関する誤解や、きめ細かな(そしておそらくは不随意な)行動が追跡された場合のプライバシーを保護する個人機関から生じます。 本研究では,意図のアルゴリズム的予測を避けるために,インセンティブを付与された個人がどのように行動を調整するかを検討する。 我々は、視線、運動、その他の生理的信号を追跡するバーチャルリアリティータスクの結果を提示する。 参加者は、アルゴリズム上の敵が選択を予想せずに選択するカードを決定する。 参加者はさまざまな戦略を使っているが、収集したデータは高い予測値(80%の正確さ)のままである。 さらに、参加者のかなりの部分は難解化の努力にもかかわらず予測しやすくなり、おそらくアルゴリズム予測のダイナミクスに関する誤解の前兆を示している。

Algorithms engineered to leverage rich behavioral and biometric data to predict individual attributes and actions continue to permeate public and private life. A fundamental risk may emerge from misconceptions about the sensitivity of such data, as well as the agency of individuals to protect their privacy when fine-grained (and possibly involuntary) behavior is tracked. In this work, we examine how individuals adjust their behavior when incentivized to avoid the algorithmic prediction of their intent. We present results from a virtual reality task in which gaze, movement, and other physiological signals are tracked. Participants are asked to decide which card to select without an algorithmic adversary anticipating their choice. We find that while participants use a variety of strategies, data collected remains highly predictive of choice (80% accuracy). Additionally, a significant portion of participants became more predictable despite efforts to obfuscate, possibly indicating mistaken priors about the dynamics of algorithmic prediction.
翻訳日:2023-04-17 22:24:28 公開日:2021-01-04
# 1d rydberg原子の交換融解におけるlifshitz点

Lifshitz point at commensurate melting of 1D Rydberg atoms ( http://arxiv.org/abs/2101.00999v1 )

ライセンス: Link先を確認
Natalia Chepiga and Fr\'ed\'eric Mila(参考訳) ライドバーグ原子の鎖に関する最近の研究は、現在の研究の焦点にコンメンシュレート不規則遷移の問題をもたらした。 2次元古典系や1次元量子系では、pが4より大きい周期p相の可換融解は、ドメイン壁または粒子の相関がパワー法則としてのみ減衰する中間浮動位相を通じて行われることが知られているが、pが3または4に等しいとき、huseとフィッシャーによって、遷移は1よりも大きい動的指数を持つ非共形キラル普遍性クラスにおいて直接かつ連続であるという主張がなされている。 しかし、浮動小数点が共形点に到達する前にリフシッツ点で終了すると、それ以来議論される可能性がある。 ここでは, 浮遊相の指数がポクロフスキー・タラポフ遷移に沿って変化し, 浮遊相が不安定となる値に達することができるため, 粒子数が保存されないモデルの一般的な特徴であると主張する。 さらに, このシナリオは, ハードコアボソンが生成・消滅するライドバーグ鎖の周期-3相の有効モデルにおいて, ポクロフスキー-タラポフ遷移に沿って, ルッティンガー液体パラメータが臨界値 $p^2/8=9/8$ に達し, キラル遷移から浮動相を分離するリフシッツ点へと導かれることを数値的に示す。 ライドバーグ原子を超える意味は簡単に議論される。

The recent investigation of chains of Rydberg atoms has brought back the problem of commensurate-incommensurate transitions into the focus of current research. In 2D classical systems, or in 1D quantum systems, the commensurate melting of a period-p phase with p larger than 4 is known to take place through an intermediate floating phase where correlations between domain walls or particles decay only as a power law, but when p is equal to 3 or 4, it has been argued by Huse and Fisher that the transition could also be direct and continuous in a non-conformal chiral universality class with a dynamical exponent larger than 1. This is only possible however if the floating phase terminates at a Lifshitz point before reaching the conformal point, a possibility debated since then. Here we argue that this is a generic feature of models where the number of particles is not conserved because the exponent of the floating phase changes along the Pokrovsky-Talapov transition and can thus reach the value at which the floating phase becomes unstable. Furthermore, we show numerically that this scenario is realized in an effective model of the period-3 phase of Rydberg chains in which hard-core bosons are created and annihilated three by three: The Luttinger liquid parameter reaches the critical value $p^2/8=9/8$ along the Pokrovsky-Talapov transition, leading to a Lifshitz point that separates the floating phase from a chiral transition. Implications beyond Rydberg atoms are briefly discussed.
翻訳日:2023-04-17 22:17:02 公開日:2021-01-04
# 量子多体系における非局所性、エントロピー生成および絡み合い

Nonlocality, entropy creation, and entanglement in quantum many-body systems ( http://arxiv.org/abs/2101.00994v1 )

ライセンス: Link先を確認
Marc Dvorak(参考訳) 正規化を重視した非相対論的量子多体理論において、単一粒子グリーン関数の再解釈と再構成を提案する。 フォック空間のすべてを覆う相関関数を可観測部分へダウンフォールドすることで、未知のダウンフォールディング周波数に依存する非局所ダイソン方程式を導出する。 ダウンフォールディング周波数は、単粒子プロパゲータのスペクトル関数がdirac-$\delta$関数となるように逆問題を解くことによって決定される。 測定すると、システムは確率的にこれらの正規化解の1つに崩壊する。 この崩壊は粒子の経路に非局所的な影響を持ち、量子の絡み合いと一致している。 各量子化溶液の多重度は、粒子の測定によって生成されるアンサンブル平均スペクトルとエントロピーと直接関係していると仮定する。 最後に、量子多体系におけるダイナミクスの新たな図を概説する。 結合強度の関数として、崩壊の多重度は量子化条件の形状によって複雑になる。 この構造は量子化解を数えることによってエントロピックな力を生み出すが、それらは主に魅力的であるが、弱いカップリングでは狭い反発的レジームを持つ。 崩壊すると、確率的多体状態の減少から得られる情報を運ぶために、2つの点の間に内部時空が形成される。 これらの時空橋の繰り返し作成は、複雑な形状と歴史を持つ内部時空を定義する。 我々は、量子系を、正規化結果に関する情報を保持する有限情報資源として扱い、衝突に遭遇した後、波動関数を崩壊させてリセットし、崩壊するたびに得られる情報を運ぶ内部時空を作成する。

We propose a reinterpretation and reformulation of the single-particle Green's function in nonrelativistic quantum many-body theory with an emphasis on normalization. By downfolding a correlation function covering all of Fock space into the observable portion, we derive a nonlocal Dyson equation which depends on an unknown downfolding frequency. The downfolding frequency is determined by solving the inverse problem so that the spectral function of the single-particle propagator is a Dirac-$\delta$ function. Upon measurement, the system collapses stochastically onto one of these normalized solutions. This collapse has a nonlocal effect on the path the particle takes, in agreement with quantum entanglement. We postulate that the multiplicity of each quantized solution is directly related to the ensemble averaged spectrum and the entropy created by measurement of the particle. In the final part, we outline a new picture of dynamics in quantum many-body systems. As a function of the coupling strength, the multiplicity for collapse has a complicated form due to the shape of the quantization condition. This structure creates an entropic force from counting quantized solutions which is predominantly attractive but likely also has a narrow repulsive regime at weak coupling. Upon collapse, an internal spacetime forms between the two points in order to carry the information gained from the reduction of the probabilistic many-body state. The repeated creation of these spacetime bridges defines an internal spacetime with a complicated shape and history. We treat the quantum system as a finite informational resource that holds information about possible normalized outcomes, collapses the wave function to reset after encountering a conflict, and creates an internal spacetime to carry the information gained with every collapse.
翻訳日:2023-04-17 22:16:28 公開日:2021-01-04
# ネットワークレベルのドナツ可視化と地域社会ネットワークの概観

Donut visualizations for network-level and regional-level overview of Spatial Social Networks ( http://arxiv.org/abs/2101.00929v1 )

ライセンス: Link先を確認
Dipto Sarkar, Piyush Yadav(参考訳) 空間ソーシャルネットワーク (SSN) は、空間情報を組み込んで、SNA(Social Network Analysis)で使用されるノードとエッジ構造の上に構築される。 したがって、SSNは位相データと空間データの両方を含む。 ノードの地理的埋め込みはノードを自由に移動させることが不可能となり、SNAで使用される標準的なトポロジアルゴリズム(例えば、力配置アルゴリズム)をSSN社会図を可視化するのに効果的にレンダリングする。 本稿では,空間的および社会的情報を利用して接続の向きや規模に関する情報を提供する新しいssns可視化手法を提案する。 ドーナツ視覚化はネットワーク全体を要約したり、ネットワークの一部で使用することができる。 文献における2つの標準SSNにおけるドーナツ可視化の有効性を示す。

Spatial Social Networks (SSN) build on the node and edge structure used in Social Network Analysis (SNA) by incorporating spatial information. Thus, SSNs include both topological and spatial data. The geographic embedding of the nodes makes it impossible to move the nodes freely, rendering standard topological algorithms (e.g. force layout algorithms) used in SNA ineffective to visualize SSN sociograms. We propose a new visualization technique for SSNs that utilize the spatial and social information to provide information about the orientation and scale of connections. The donut visualization can be used to summarize the entire network or can be used on a part of the network. We demonstrate the effectiveness of the donut visualization on two standard SSNs used in literature.
翻訳日:2023-04-17 22:15:32 公開日:2021-01-04
# コミュニケーションと職業スキルに関する学生中心講座は長期の学生にどのように影響するか

How Does a Student-Centered Course on Communication and Professional Skills Impact Students in the Long Run? ( http://arxiv.org/abs/2101.00883v1 )

ライセンス: Link先を確認
Renate Motschnig, Michael Silber, Valdemar \v{S}v\'abensk\'y(参考訳) 本論文は,学生中心コースがコミュニケーションや専門的スキルが学生の思考,態度,行動に与える影響について長期にわたる研究である。 このコースはヨーロッパの大学でコンピュータサイエンスの修士課程の一部として提供されている。 本稿では、10年遅れてmixed-methodsアプローチを採用した縦断研究の設計と課題について述べる。 結果の提示と解釈に加えて,どの特徴が学生の心に残り,社会におけるその存在や行動に影響を及ぼすかを明らかにした。 さらに,他の視点への開放性の向上など,建設的かつ持続的な効果を最大化するために,比較コースにおける設計と実践の意義を提案する。 これらはコンピュータサイエンスの専門家にとって欠かせないものである。 このコースは, 対面を念頭に置いたまま提示したり, ストレスを管理したり, 話すのが恥ずかしくなったりといった側面を含む, 大多数の回答者に大きな学習をもたらしたことが示唆された。 全体として、我々は学生中心の姿勢を持つ技術的に焦点を絞ったカリキュラムのインストラクタに対して、証拠に基づく動機づけの源泉を提供することを目標としている。

This Full Paper in the Research-To-Practice Category presents a long-term study about the effects of a student-centered course on communication and professional skills on students' thoughts, attitudes, and behavior. The course is offered at a European university as part of a computer science master's program. This paper shares the design and challenges of a longitudinal study that reaches ten years behind and employs a mixed-methods approach. Besides presenting and interpreting the findings, we shed light on which features tend to stay on students' minds and impact their way of being and acting in society. Moreover, we suggest implications for the design and practice in comparable courses to maximize constructive, sustainable effects, such as improved active listening, presentation skills, and openness to other perspectives. These are essential (not only) for computer science professionals. Our findings suggest that the course provided significant learning for the vast majority of respondents, including aspects such as presenting while keeping the other side in mind, managing one's stress, and becoming less shy to speak up. All in all, we aim to contribute an evidence-based source of motivation for instructors in technically focused curricula who hold a student-centered stance.
翻訳日:2023-04-17 22:15:19 公開日:2021-01-04
# 非エルミート線形系における対称性保護散乱

Symmetry-Protected Scattering in Non-Hermitian Linear Systems ( http://arxiv.org/abs/2101.00871v1 )

ライセンス: Link先を確認
L. Jin, Z. Song(参考訳) 対称性は物理学および非エルミート物理学における対称性の変化の性質において基本的な役割を果たす。 ここで、非エルミート線型系の対称性保護散乱は、ランダム行列を分類する離散対称性を用いて研究される。 等間隔対称性は散乱係数に厳密な制約を課す: 時間反転(CとK)対称性は対称的な透過または反射を保護し、擬ハーミティシティ(Q対称性)または反転(P対称性は対称的な透過と反射を保護している。 逆合成時間反転対称性では、伝送と反射の交換に対称的な特徴がある。 粒子-ホール対称性、カイラル対称性、サブラティス対称性を含む奇数パリティ対称性は、散乱が対称であることを保証することができない。 これらの導出原理はエルミート系と非エルミート系の両方に有効である。 本研究は, 凝縮物質物理学から量子物理学, 光学まで, 対称性と散乱に関する基本的な知見を提供する。

Symmetry plays fundamental role in physics and the nature of symmetry changes in non-Hermitian physics. Here the symmetry-protected scattering in non-Hermitian linear systems is investigated by employing the discrete symmetries that classify the random matrices. The even-parity symmetries impose strict constraints on the scattering coefficients: the time-reversal (C and K) symmetries protect the symmetric transmission or reflection; the pseudo-Hermiticity (Q symmetry) or the inversion (P) symmetry protects the symmetric transmission and reflection. For the inversion-combined time-reversal symmetries, the symmetric features on the transmission and reflection interchange. The odd-parity symmetries including the particle-hole symmetry, chiral symmetry, and sublattice symmetry cannot ensure the scattering to be symmetric. These guiding principles are valid for both Hermitian and non-Hermitian linear systems. Our findings provide fundamental insights into symmetry and scattering ranging from condensed matter physics to quantum physics and optics.
翻訳日:2023-04-17 22:14:52 公開日:2021-01-04
# スケーラブル量子情報処理のためのTSV集積表面電極イオントラップ

TSV-integrated Surface Electrode Ion Trap for Scalable Quantum Information Processing ( http://arxiv.org/abs/2101.00869v1 )

ライセンス: Link先を確認
P. Zhao, J.-P. Likforman (MPQ), H. Y. Li, J. Tao, T. Henner, Y. D. Lim, W. W. Seit, C. S. Tan, Luca Guidoni (MPQ (UMR\_7162))(参考訳) 本研究では,最初のCu充填シリコン(TSV)集積イオントラップについて報告する。 tsvはイオントラップとガラスインターポーサの垂直相互接続として電極の直下に置かれ、電極数の増加と複雑さの増大により任意の形状設計が容易になる。 TSVの統合により、イオントラップのフォームファクターが80%以上減少し、寄生容量を32pFから3pFに最小化する。 地盤遮蔽層が存在しないにもかかわらず、低いRF散逸を実現する。 製造プロセス全体は12インチのウエハで、既存のCMOSバックエンドプロセスと互換性がある。 88sr+イオンの搭載とレーザー冷却により,トラップの基本機能を示す。 加熱速度 (17 Quanta/ms for a axial frequency of 300 kHz) と寿命 (~30分) は、同様の次元のトラップと同等である。 この研究は、TSV統合イオントラップの開発の先駆者であり、スケーラブルな量子コンピューティングのためのツールボックスを充実させた。

In this study, we report the first Cu-filled through silicon via (TSV) integrated ion trap. TSVs are placed directly underneath electrodes as vertical interconnections between ion trap and a glass interposer, facilitating the arbitrary geometry design with increasing electrodes numbers and evolving complexity. The integration of TSVs reduces the form factor of ion trap by more than 80%, minimizing parasitic capacitance from 32 to 3 pF. A low RF dissipation is achieved in spite of the absence of ground screening layer. The entire fabrication process is on 12-inch wafer and compatible with established CMOS back end process. We demonstrate the basic functionality of the trap by loading and laser-cooling single 88Sr+ ions. It is found that both heating rate (17 quanta/ms for an axial frequency of 300 kHz) and lifetime (~30 minutes) are comparable with traps of similar dimensions. This work pioneers the development of TSV-integrated ion traps, enriching the toolbox for scalable quantum computing.
翻訳日:2023-04-17 22:14:35 公開日:2021-01-04
# ワークフロー駆動ビジネスプロセスのためのクラウドソーシングの展開

Deploying Crowdsourcing for Workflow Driven Business Process ( http://arxiv.org/abs/2101.01168v1 )

ライセンス: Link先を確認
Rafa{\l} Mas{\l}yk, Kinga Skorupska, Piotr Gago, Marcin Niewi\'nski, Barbara Karpowicz, Anna Jaskulska, Katarzyna Abramczuk, Wies{\l}aw Kope\'c(参考訳) 本論文の目的は,クラウドソーシングプラットフォームとワークフローを支援するシステムを統合することによって,より広い範囲の人々のビジネスタスクへの関与とインタラクションを可能にする方法を検討することである。 このように、この作業は、選択されたプロセスタスクを無制限の人的資源で実行可能にすることで、典型的なビジネスシステムの機能拡張の試みである。 クラウドソーシングにビジネスタスクを開放することで、確立されたビジネスプロセスマネジメントシステム(BPMS)内では、企業のプロセスの柔軟性が向上し、作業負荷の低減と現場で雇用されたスタッフの専門性の向上が可能になる。 提示された概念的な仕事は、workflows management coalitionによって推進されるこの分野の現在の国際標準に基づいている。 この目的のために、ビジネスプラットフォームの機能を分析し、その機能を視覚的に提示し、続いて、ワークフローシステムへのクラウドソーシングの実装方法に関する提案と議論を行った。

The main goal of this paper is to discuss how to integrate the possibilities of crowdsourcing platforms with systems supporting workflow to enable the engagement and interaction with business tasks of a wider group of people. Thus, this work is an attempt to expand the functional capabilities of typical business systems by allowing selected process tasks to be performed by unlimited human resources. Opening business tasks to crowdsourcing, within established Business Process Management Systems (BPMS) will improve the flexibility of company processes and allow for lower work-load and greater specialization among the staff employed on-site. The presented conceptual work is based on the current international standards in this field, promoted by Workflows Management Coalition. To this end, the functioning of business platforms was analysed and their functionality was presented visually, followed by a proposal and a discussion of how to implement crowdsourcing into workflow systems.
翻訳日:2023-04-17 22:07:20 公開日:2021-01-04
# ポテンシャル対幾何学

Potentials versus Geometry ( http://arxiv.org/abs/2101.01107v1 )

ライセンス: Link先を確認
T. Curtright and S. Subedi(参考訳) ポテンシャルを受ける粒子と背景幾何学上を自由に移動する粒子の非相対論的量子力学との同値関係について考察する。 特に、選択された測地が特異ポテンシャルを正則化する方法について説明する。

We discuss some equivalence relations between the non-relativistic quantum mechanics for particles subjected to potentials and for particles moving freely on background geometries. In particular, we illustrate how selected geometries can be used to regularize singular potentials.
翻訳日:2023-04-17 22:06:33 公開日:2021-01-04
# 0kで多くの体波関数を持つ有限温度での量子振動力学のシミュレーション

Simulating quantum vibronic dynamics at finite temperatures with many body wave functions at 0K ( http://arxiv.org/abs/2101.01098v1 )

ライセンス: Link先を確認
Angus J. Dunnett and Alex W. Chin(参考訳) 複雑な分子の場合、原子核の自由度は電子的「システム」変数の環境として作用し、開量子系の理論や概念を適用することができる。 しかし、分子系-環境相互作用が非摂動的かつ非マルコフ的である場合、システム-環境波動関数の数値シミュレーションが必要となる。 これらの多くのボディダイナミクスは、シミュレーションに非常に費用がかかり、有限温度の結果を抽出できます。 本稿では,有限温度における散逸環境効果を1つのゼロ温度波動関数シミュレーションから効率的に抽出できる最近の理論結果を活用した数値シミュレーションを行う。 数値的に正確な時間依存性の変動行列積状態を用いて、この手法がビブロニックトンネル系に適用可能であることを検証し、計算時間を超える高温で現れる急激な数値解析要求のような理論のエレガンスの背後にある実践的な問題について考察する。

For complex molecules, nuclear degrees of freedom can act as an environment for the electronic `system' variables, allowing the theory and concepts of open quantum systems to be applied. However, when molecular system-environment interactions are non-perturbative and non-Markovian, numerical simulations of the complete system-environment wave function become necessary. These many body dynamics can be very expensive to simulate, and extracting finite-temperature results - which require running and averaging over many such simulations - becomes especially challenging. Here, we present numerical simulations that exploit a recent theoretical result that allows dissipative environmental effects at finite temperature to be extracted efficiently from a single, zero-temperature wave function simulation. Using numerically exact time-dependent variational matrix product states, we verify that this approach can be applied to vibronic tunneling systems and provide insight into the practical problems lurking behind the elegance of the theory, such as the rapidly growing numerical demands that can appear for high temperatures over the length of computations.
翻訳日:2023-04-17 22:06:30 公開日:2021-01-04
# Hulth\'en と Coulomb 様テンソル相互作用を含む湯川ポテンシャルのクラスを持つディラック方程式の解析的境界状態解

Analytical bound state solutions of the Dirac equation with the Hulth\'en plus a class of Yukawa potential including a Coulomb-like tensor interaction ( http://arxiv.org/abs/2101.01050v1 )

ライセンス: Link先を確認
A.I. Ahmadov, M. Demirci, M. F. Mustamin, S. M. Aslanova, M. Sh. Orujova(参考訳) スピンと擬スピン対称性の下でのディラック方程式のバウンド状態解を、ハルテンとクーロンのようなテンソル相互作用を含むユカワポテンシャルのクラスで検討する。 遠心 (pseudo-centrifugal) という用語を扱うために改良されたスキームが用いられる。 ニキフォロフ・ウバロフ法とSUSYQM法を用いて、波動関数の相対論的エネルギー固有値と関連するディラックスピノル成分を解析的に開発する。 両方の方法が全く同じ結果をもたらすことが分かりました。 他の物理システムにとって有用な、いくつかの特定の可能性ケースへの結果の修正も議論されている。 我々は過去の研究結果と完全に一致している。 種々のレベルのスピンおよび擬スピン束縛状態エネルギースペクトルは、テンソルカップリングの存在だけでなく、不在でも示される。 両方のエネルギースペクトルは、量子数 $\kappa$ と $n$ とパラメータ $\delta$ に関して敏感である。 また、diracスピンとpseudospin doublet固有状態パートナーの縮退はテンソル相互作用によって完全に除去される。 最後に、ポテンシャル強度$V_0$の許容有界状態領域のパラメータ空間を、共に考慮された対称性極限$C_S$と$C_{PS}$の定数で提示する。

We examine the bound state solutions of the Dirac equation under the spin and pseudospin symmetries for a new suggested combined potential, Hulten plus a class of Yukawa potential including a Coulomb-like tensor interaction. An improved scheme is employed to deal with the centrifugal (pseudo-centrifugal) term. Using the Nikiforov-Uvarov and SUSYQM methods, we analytically develop the relativistic energy eigenvalues and associated Dirac spinor components of wave functions. We find that both methods give entirely the same results. Modifiable of our results into some particular potential cases, useful for other physical systems, are also discussed. We obtain complete agreement with the findings of previous works. The spin and pseudospin bound state energy spectra for various levels are presented in the absence as well as the presence of tensor coupling. Both energy spectrums are sensitive with regards to the quantum numbers $\kappa$ and $n$, as well as the parameter $\delta$. We also notice that the degeneracies between Dirac spin and pseudospin doublet eigenstate partners are completely removed by the tensor interaction. Finally, we present the parameter space of allowable bound state regions of potential strength $V_0$ with constants for both considered symmetry limits $C_S$ and $C_{PS}$.
翻訳日:2023-04-17 22:06:11 公開日:2021-01-04
# 量子力学における状態の時間進化

The Time-Evolution of States in Quantum Mechanics ( http://arxiv.org/abs/2101.01044v1 )

ライセンス: Link先を確認
J\"urg Fr\"ohlich and Alessandro Pizzo(参考訳) Schr\"odinger方程式は、イベントを特徴とする孤立(開)系の状態の量子力学的時間進化の正確な記述を得られない、と論じられている。 Schr\\odinger方程式を置き換える状態の時間発展に関する正確な一般法則は、いわゆるETH-Approach to Quantum Mechanicsの中で定式化されている。 「我々の一般的な結果は、光速が無限になる限界において、量子化された放射場と結合した非常に重い原子を記述する単純なモデルの解析によって示される。 これらのモデルの議論が本論文の主テーマである。

It is argued that the Schr\"odinger equation does not yield a correct description of the quantum-mechanical time evolution of states of isolated (open) systems featuring events. A precise general law for the time evolution of states replacing the Schr\"odinger equation is formulated within the so-called ETH-Approach to Quantum Mechanics. This law eliminates the infamous "measurement problem." Our general results are illustrated by an analysis of simple models describing a very heavy atom coupled to the quantized radiation field in a limit where the speed of light tends to infinity. The discussion of these models is the main subject of our paper.
翻訳日:2023-04-17 22:05:36 公開日:2021-01-04
# 都市イベントの多言語・時間・知覚的距離読解

Multilingual, Temporal and Sentimental Distant-Reading of City Events ( http://arxiv.org/abs/2102.09350v1 )

ライセンス: Link先を確認
Mehmet Can Yavuz(参考訳) ライプニッツのモナドロジーでは、市内の個人の知覚的・感情的変化について言及している。 それは人々と人や出来事との相互作用です。 映画祭は多文化都市の感情的な行事である。 それぞれの映画は異なる感情効果を持ち、映画との相互作用はソーシャルメディアで観察できる反射を持つ。 この分析は、フェスティバル中に収集されたベルリンのツイートを遠方から読み取ることを目的としている。 クローズリーディングとは対照的に、遠方の読書は、著者が大量のデータ収集のパターンを観察することを可能にする。 この分析は多言語領域において時間的・感情的であり、強い正および負の時間間隔を解析する。 この目的のために,多言語組込みを用いた深い感情ネットワークを訓練した。 これらの多言語埋め込みは潜在空間に整列する。 我々は、英語、ドイツ語、スペイン語の3言語で多言語データセットを用いてネットワークを訓練した。 トレーニングされたアルゴリズムは0.78のテストスコアを持ち、フェスティバル中にBerlinaleハッシュタグでツイートに適用される。 感傷的分析は受賞した映画を反映していないが、感情的分析を誤解させる可能性のある感情的関係に関する週次ルーチンを観察する。 また、監督や俳優の人気についても言及している。

Leibniz's Monadology mentions perceptional and sentimental variations of the individual in the city. It is the interaction of people with people and events. Film festivals are highly sentimental events of multicultural cities. Each movie has a different sentimental effect and the interactions with the movies have reflections that can be observed on social media. This analysis aims to apply distant reading on Berlinale tweets collected during the festival. On contrary to close reading, distant reading let authors to observe patterns in large collection of data. The analysis is temporal and sentimental in multilingual domain and strongly positive and negative time intervals are analysed. For this purpose, we trained a deep sentiment network with multilingual embeddings. These multilingual embeddings are aligned in latent space. We trained the network with a multilingual dataset in three languages English, German and Spanish. The trained algorithm has a 0.78 test score and applied on Tweets with Berlinale hashtag during the festival. Although the sentimental analysis does not reflect the award-winning films, we observe weekly routine on the relationship between sentimentality, which can mislead a close reading analysis. We have also remarks on popularity of the director or actors.
翻訳日:2023-04-17 21:58:49 公開日:2021-01-04
# 虐待広告:ブラックボックス分析における社会的関連アルゴリズムの精査と医療部門における脆弱な患者グループへの影響の検討

Abusive Advertising: Scrutinizing socially relevant algorithms in a black box analysis to examine their impact on vulnerable patient groups in the health sector ( http://arxiv.org/abs/2101.02018v1 )

ライセンス: Link先を確認
Martin Reber(参考訳) 疑わしいオンライン業界による未承認幹細胞治療のダイレクト・ツー・カストマーマーケティングは、治療を期待してインターネットを検索する脆弱なユーザーを対象としている。 この行動は、人生の中で絶望的で絶望的な段階にいる個人に特に脅威をもたらす。 治療のみを約束するが科学的に証明されていない治療法を試すことへの抵抗性は低いかもしれない。 最悪の場合、深刻な副作用に悩まされる。 そこで本論文では、パーキンソン病、多発性硬化症、糖尿病の未承認幹細胞治療の広告をGoogleの結果ページに掲載する。 同社は2019年9月に、問題のプラクティスを禁止し、禁止する方針変更を発表した。 しかし、これらの広告がまだ配信されているという証拠があった。 firefoxとchrome用のブラウザ拡張機能が開発され、クラウドソースのブラックボックス分析を行うために配布された。 オーストラリア、カナダ、アメリカ、イギリスのボランティアと仮想マシンに配布された。 検索結果、広告、トップストーリーのデータを収集し分析した。 結果は、Googleがプラットフォームから広告を削除したとしても、まだ疑わしい広告があることを示している。

The targeted direct-to-customer marketing of unapproved stem cell treatments by a questionable online industry is directed at vulnerable users who search the Internet in the hope of a cure. This behavior especially poses a threat to individuals who find themselves in hopeless and desperate phases in their lives. They might show low reluctance to try therapies that solely promise a cure but are not scientifically proven to do so. In the worst case, they suffer serious side-effects. Therefore, this thesis examines the display of advertisements of unapproved stem cell treatments for Parkinson's Disease, Multiple Sclerosis, Diabetes on Google's results page. The company announced a policy change in September 2019 that was meant to prohibit and ban the practices in question. However, there was evidence that those ads were still being delivered. A browser extension for Firefox and Chrome was developed and distributed to conduct a crowdsourced Black Box analysis. It was delivered to volunteers and virtual machines in Australia, Canada, the USA and the UK. Data on search results, advertisements and top stories was collected and analyzed. The results showed that there still is questionable advertising even though Google announced to purge it from its platform.
翻訳日:2023-04-17 21:58:33 公開日:2021-01-04
# オンラインコミュニティマネジメントにおけるユーザ名検証のためのユーティリティの利用効率

Efficiency of Using Utility for Usernames Verification in Online Community Management ( http://arxiv.org/abs/2101.01718v1 )

ライセンス: Link先を確認
Solomiia Fedushko, Yuriy Syerov, Oleksandr Skybinskyi, Nataliya Shakhovska, Zoryana Kunch(参考訳) 本研究は,コミュニケーション行動の結果をコンピュータ言語学的に分析し,オンラインコミュニティのユーザ名の信頼性を確認する手法と手段を取り扱う。 この研究の方法論的基礎は、グローバルな情報環境のウクライナ地区におけるオンラインコミュニティのデータ検証研究における一般的な科学的手法と特別なアプローチの組み合わせである。 オンラインコミュニティユーザ名のユーティリティ検証機能を機能させるアルゴリズムを開発した。 オンラインコミュニティのユーザ名をチェックする自動手段の情報モデルが設計されている。 オンラインコミュニティにおいて、オンラインコミュニティユーザ名データ検証システム適用のユーティリティ検証が実現される。 データ検証システムの有効性の指標を決定する。

The study deals with the methods and means of checking the reliability of usernames of online communities on the basis of computer-linguistic analysis of the results of their communicative interaction. The methodological basis of the study is a combination of general scientific methods and special approaches to the study of the data verification of online communities in the Ukrainian segment of the global information environment. The algorithm of functioning of the utility Verifier of online community username is developed. The informational model of the automated means of checking the usernames of online community is designed. The utility Verifier of online community username data validation system approbation is realized in the online community. The indicator of the data verification system effectiveness is determined.
翻訳日:2023-04-17 21:58:13 公開日:2021-01-04
# ローレンツ対称性の量子的側面は、非一様電場Eurにおける電子に違反する。 Phys J. Plus (2020) 135:623

Comment on: "Quantum aspects of the Lorentz symmetry violation on an electron in a nonuniform electric field'' Eur. Phys. J. Plus (2020) 135:623 ( http://arxiv.org/abs/2101.01574v1 )

ライセンス: Link先を確認
Paolo Amore and Francisco M. Fern\'andez(参考訳) 固定空間的ベクトル場によって決定されるローレンツ対称性の破れの背景と、非相対論的電子と一様電荷分布によって生成される非一様電界との相互作用に対するこの背景の量子効果の解析により、時空における特権的方向の仮説を近年解析した。 著者らによって導かれる結論は、拡張係数のツリー終端反復関係を用いてフロベニウス級数の切り離しの成果であることを示す。 したがって、この手順から生じる許容角周波数の存在は無意味で非物理的である。

We analyze recent results concerning the hypothesis of a privileged direction in the space-time that is made by considering a background of the Lorentz symmetry violation determined by a fixed spacelike vector field and the analysis of quantum effects of this background on the interaction of a nonrelativistic electron with a nonuniform electric field produced by a uniform electric charge distribution. We show that the conclusions derived by the authors are an artifact of the truncation of the Frobenius series by means of the tree-term recurrence relation for the expansion coefficients. Thus, the existence of allowed angular frequencies stemming from this procedure is meaningless and unphysical.
翻訳日:2023-04-17 21:58:04 公開日:2021-01-04
# 米国産業社会におけるコンピューティングの基盤の進展

Advancing Computing's Foundation of US Industry & Society ( http://arxiv.org/abs/2101.01284v1 )

ライセンス: Link先を確認
Thomas M. Conte, Ian T. Foster, William Gropp, and Mark D. Hill(参考訳) 過去の情報技術(IT)の進歩は社会に変化をもたらしたが、将来の進歩はさらに大きな可能性を秘めている。 例えば、人工知能(AI)、特に機械学習(ML)から変化を享受し始めたばかりです。 ITの影響下にあるのは、コンピュータハードウェアの劇的な改善であり、新しい機能をアンロックするパフォーマンスを提供する。 例えば、最近のAI/MLの成功は、改良されたアルゴリズムとハードウェアアーキテクチャ(例えば汎用グラフィック処理ユニット)の相乗効果を必要とした。 しかし、20世紀や2000年代前半と異なり、ムーアの法則とデンナード・スケーリングによって提供されていた半導体スケーリングを継続することなく、明日のパフォーマンスは達成されなければならない。 次の100倍の能力改善を、同じような、あるいは少ないコストで、大きな価値を実現するにはどうすればよいのか? 100倍のハードウェアを使わずに次のAIを飛躍させることができるか? この白書は、ムーアの法則を超えた新しいコンピューティングアプローチを開発し、コンピューティングがアメリカの産業、教育、医学、科学、政府にもたらす基盤を前進させるための多方面の努力を主張する。 この影響はit業界自体に及ばず、現在では半自律走行車、遠隔教育、健康ウェアラブル、ウイルス分析、効率的な管理など、社会全体に価値を提供する中心となっている。 本稿では、CRAのコンピューティングコミュニティコンソーシアム(CCC)とIEEEリブートコンピューティングイニシアチブ(IEEE RCI)による、産業、アカデミック、米国政府からの思想的リーダーの入力によって実現された、かなりのビジョンの成果について述べる。

While past information technology (IT) advances have transformed society, future advances hold even greater promise. For example, we have only just begun to reap the changes from artificial intelligence (AI), especially machine learning (ML). Underlying IT's impact are the dramatic improvements in computer hardware, which deliver performance that unlock new capabilities. For example, recent successes in AI/ML required the synergy of improved algorithms and hardware architectures (e.g., general-purpose graphics processing units). However, unlike in the 20th Century and early 2000s, tomorrow's performance aspirations must be achieved without continued semiconductor scaling formerly provided by Moore's Law and Dennard Scaling. How will one deliver the next 100x improvement in capability at similar or less cost to enable great value? Can we make the next AI leap without 100x better hardware? This whitepaper argues for a multipronged effort to develop new computing approaches beyond Moore's Law to advance the foundation that computing provides to US industry, education, medicine, science, and government. This impact extends far beyond the IT industry itself, as IT is now central for providing value across society, for example in semi-autonomous vehicles, tele-education, health wearables, viral analysis, and efficient administration. Herein we draw upon considerable visioning work by CRA's Computing Community Consortium (CCC) and the IEEE Rebooting Computing Initiative (IEEE RCI), enabled by thought leader input from industry, academia, and the US government.
翻訳日:2023-04-17 21:57:33 公開日:2021-01-04
# 次世代無線ネットワークにおけるコンピューティング研究の課題

Computing Research Challenges in Next Generation Wireless Networking ( http://arxiv.org/abs/2101.01279v1 )

ライセンス: Link先を確認
Elisa Bertino, Daniel Bliss, Daniel Lopresti, Larry Peterson, and Henning Schulzrinne(参考訳) あらゆる手段によって、ワイヤレスネットワークは過去10年間で爆発的な成長を遂げている。 第4世代長期進化(4G LTE)セル技術は、携帯電話の帯域幅を増大させ、本質的にモバイルデバイスにブロードバンド速度を提供する。 最新の5g技術は、伝送速度とセル容量をさらに向上させ、異なる無線技術の使用によるレイテンシを削減し、4g lteよりも桁違いに速いインターネット接続を提供することが期待されている。 しかし、技術は急速に進歩し続けており、次世代の6Gはすでに計画されている。 6Gはホログラフィックテレプレゼンス、遠隔医療、遠隔教育、ユビキタスロボティクスと自動運転車、スマートシティとコミュニティ(IoT)、先進的な製造(Industry 4.0、時には第4次産業革命と呼ばれる)など、幅広い新しい応用を可能にする。 ハードウェアレベルで開始され、ソフトウェア"スタック"の最上部まであらゆる方向に拡張される予定である。人工知能(ai)もまた、ネットワークの全レベルにわたってアプリケーションに組み込まれることで、無線ネットワークインフラストラクチャの開発と管理において大きな役割を果たすようになるだろう。 社会にもたらす利益は膨大になるだろう。 同時に、これらのエキサイティングな新しいワイヤレス機能が急速に登場し、幅広い研究課題が待ち受けている。 これらは、ハードウェアとソフトウェアシステムの複雑さの増大と、ユーザのプライバシを同時に保護しながら、堅牢でセキュアなインフラストラクチャを提供する必要性に起因している。 ここでは、これらの課題のいくつかを概説し、それらに取り組むために必要な研究について推奨する。

By all measures, wireless networking has seen explosive growth over the past decade. Fourth Generation Long Term Evolution (4G LTE) cellular technology has increased the bandwidth available for smartphones, in essence, delivering broadband speeds to mobile devices. The most recent 5G technology is further enhancing the transmission speeds and cell capacity, as well as, reducing latency through the use of different radio technologies and is expected to provide Internet connections that are an order of magnitude faster than 4G LTE. Technology continues to advance rapidly, however, and the next generation, 6G, is already being envisioned. 6G will make possible a wide range of powerful, new applications including holographic telepresence, telehealth, remote education, ubiquitous robotics and autonomous vehicles, smart cities and communities (IoT), and advanced manufacturing (Industry 4.0, sometimes referred to as the Fourth Industrial Revolution), to name but a few. The advances we will see begin at the hardware level and extend all the way to the top of the software "stack." Artificial Intelligence (AI) will also start playing a greater role in the development and management of wireless networking infrastructure by becoming embedded in applications throughout all levels of the network. The resulting benefits to society will be enormous. At the same time these exciting new wireless capabilities are appearing rapidly on the horizon, a broad range of research challenges loom ahead. These stem from the ever-increasing complexity of the hardware and software systems, along with the need to provide infrastructure that is robust and secure while simultaneously protecting the privacy of users. Here we outline some of those challenges and provide recommendations for the research that needs to be done to address them.
翻訳日:2023-04-17 21:57:05 公開日:2021-01-04
# ポスト量子暗号:準備の整った挑戦と接近する嵐

Post Quantum Cryptography: Readiness Challenges and the Approaching Storm ( http://arxiv.org/abs/2101.01269v1 )

ライセンス: Link先を確認
Matt Campagna, Brian LaMacchia, and David Ott(参考訳) 量子コンピューティングの進歩は、科学の発展の新たな機会(物質科学や機械学習など)を約束するが、今日のデジタルセキュリティとプライバシの基礎である広くデプロイされている暗号アルゴリズムを脅かすことも認識していない。 モバイル通信からオンラインバンキング、個人データのプライバシーまで、文字通り何十億ものインターネットユーザーが毎日暗号化を使ってプライベートなコミュニケーションとデータを秘密にしている。 実際、パブリックインターネットと電子商取引の出現と成長は、公開鍵暗号の発明によって可能になった。 公開鍵暗号の重要な利点は、これまで通信したことのない2つのパーティが、プライベートでないネットワーク(例えばインターネット)上でセキュアでプライベートな通信チャネルを確立することができることである。 量子コンピューティングの信号の最近の進歩は、我々が次の暗号アルゴリズムへの移行の先駆者であり、量子後暗号への移行は、以前の移行よりも複雑で、多くのシステムや利害関係者に影響を与えるだろう。 この移行はIT業界における大きなディスラプションであり、グローバルコマースからソーシャルメディア、政府など、私たちのデジタル生活のほぼすべての領域に影響を与えるだろう。 暗号アルゴリズムの移行には時間がかかり、世界中の計算インフラの構築と運用に携わる多くの利害関係者の間で広範な協調作業が伴う。 これらの新しいアルゴリズムへの今後の移行に備えることで、より秩序的で、コストが低く、最小限の変革を保証できるのです。

While advances in quantum computing promise new opportunities for scientific advancement (e.g., material science and machine learning), many people are not aware that they also threaten the widely deployed cryptographic algorithms that are the foundation of today's digital security and privacy. From mobile communications to online banking to personal data privacy, literally billions of Internet users rely on cryptography every day to ensure that private communications and data stay private. Indeed, the emergence and growth of the public Internet and electronic commerce was arguably enabled by the invention of public-key cryptography. The key advantage offered by public-key cryptography is that it allows two parties who have never communicated previously to nevertheless establish a secure, private, communication channel over a non-private network (e.g., the Internet). Recent advances in quantum computing signal that we are on the cusp of our next cryptographic algorithm transition, and this transition to post-quantum cryptography will be more complicated and impact many more systems and stakeholders, than any of the prior migrations. This transition represents a major disruption within the IT industry and will broadly impact nearly every domain of our digital lives, from global commerce to social media to government and more. Cryptographic algorithm transitions take time and involve an extensive coordination effort across many stakeholders who are involved in building and operating the world's compute infrastructure. By preparing now for the upcoming transition to these new algorithms, we can ensure a more orderly, less costly, and minimally disruptive changeover.
翻訳日:2023-04-17 21:56:37 公開日:2021-01-04
# セキュアコンピューティングのための研究エコシステム

A Research Ecosystem for Secure Computing ( http://arxiv.org/abs/2101.01264v1 )

ライセンス: Link先を確認
Nadya Bliss, Lawrence A. Gordon, Daniel Lopresti, Fred Schneider, and Suresh Venkatasubramanian(参考訳) コンピューティングデバイスは現代生活のあらゆる領域に不可欠であり、社会のあらゆる側面に浸透する。 新型コロナウイルス(COVID-19)のパンデミックにより、コンピューティングの普遍性とそれへの依存が加速し、増幅されています。 教育から職場環境、医療、防衛、エンタテインメントに至るまで、コンピューティングによって触れられていない現代生活のセグメントを想像するのは困難です。 コンピュータ、システム、アプリケーションのセキュリティは、コンピュータ科学において数十年にわたって活発な研究領域であった。 しかし、相互接続されたシステムの規模と人工知能の採用の増加の両方が合わさることで、社会が利益を享受し、リスクを最小限に抑えるためにコミュニティが直面するべき多くの研究課題が存在する。 それらの課題は、情報エコシステムのセキュリティと信頼から、敵の人工知能や機械学習まで多岐にわたる。 基本的な研究課題に加えて、システムのセキュリティは設計やデプロイ後にも発生します。つまり、セキュリティコミュニティは定期的にキャッチアップを行い、いつでも悪用される可能性のある脆弱性をパッチしようと試みています。 暗号化や認証といったセキュリティ対策は広く採用されているが、セキュリティに関する疑問はアプリケーション機能に次いでいる。 新しいインセンティブと教育がこの変革の核心にあるのです。 今こそ、相互に連携した技術を開発するための研究コミュニティの努力を再焦点化し、将来有望な研究開発を確実に採用するエコシステムを創出する時だ。 このビジョンを実現するには、エコシステムの2つの追加要素が必要です – 適切な採用インセンティブ構造と、脆弱性やリスクに精通した教育を受けた市民です。

Computing devices are vital to all areas of modern life and permeate every aspect of our society. The ubiquity of computing and our reliance on it has been accelerated and amplified by the COVID-19 pandemic. From education to work environments to healthcare to defense to entertainment - it is hard to imagine a segment of modern life that is not touched by computing. The security of computers, systems, and applications has been an active area of research in computer science for decades. However, with the confluence of both the scale of interconnected systems and increased adoption of artificial intelligence, there are many research challenges the community must face so that our society can continue to benefit and risks are minimized, not multiplied. Those challenges range from security and trust of the information ecosystem to adversarial artificial intelligence and machine learning. Along with basic research challenges, more often than not, securing a system happens after the design or even deployment, meaning the security community is routinely playing catch-up and attempting to patch vulnerabilities that could be exploited any minute. While security measures such as encryption and authentication have been widely adopted, questions of security tend to be secondary to application capability. There needs to be a sea-change in the way we approach this critically important aspect of the problem: new incentives and education are at the core of this change. Now is the time to refocus research community efforts on developing interconnected technologies with security "baked in by design" and creating an ecosystem that ensures adoption of promising research developments. To realize this vision, two additional elements of the ecosystem are necessary - proper incentive structures for adoption and an educated citizenry that is well versed in vulnerabilities and risks.
翻訳日:2023-04-17 21:56:10 公開日:2021-01-04
# 量子乱数生成器の出力におけるアルゴリズム的ランダム性と計算不可能性の証拠の探索

Searching for evidence of algorithmic randomness and incomputability in the output of quantum random number generators ( http://arxiv.org/abs/2101.01238v1 )

ライセンス: Link先を確認
John T. Kavulich, Brennan P. Van Deren, Maximilian Schlosshauer(参考訳) 理想的量子乱数生成器(QRNG)は、擬似ランダム数生成器とは対照的に、アルゴリズム的にランダムで計算不可能なシーケンスを生成することができる。 しかし、アルゴリズム的ランダム性と計算不可能性の存在の検証は非自明なタスクである。 本稿では,2種類のQRNGから得られるアルゴリズム的ランダム性と計算不能性の探索結果について,Solovay-StrassenテストとChaitin-Schwartz定理に基づく検証を行った。 最初のqrngは量子真空ゆらぎの測定を用いる。 第2のQRNGは、絡み合った単一光子の偏光測定に基づいており、このジェネレータではループされた(そして非常に圧縮可能な)文字列を使用して、繰り返しビットパターンを検出するテストの能力を評価する。 従来のアルゴリズムによるランダム性探索と比較して,統計量は3桁近く増加した。

Ideal quantum random number generators (QRNGs) can produce algorithmically random and thus incomputable sequences, in contrast to pseudo-random number generators. However, the verification of the presence of algorithmic randomness and incomputability is a nontrivial task. We present the results of a search for algorithmic randomness and incomputability in the output from two different QRNGs, performed by applying tests based on the Solovay-Strassen test of primality and the Chaitin-Schwartz theorem. The first QRNG uses measurements of quantum vacuum fluctuations. The second QRNG is based on polarization measurements on entangled single photons; for this generator, we use looped (and thus highly compressible) strings that also allow us to assess the ability of the tests to detect repeated bit patterns. Compared to a previous search for algorithmic randomness, our study increases statistical power by almost 3 orders of magnitude.
翻訳日:2023-04-17 21:55:45 公開日:2021-01-04
# ニューラルネットワークによる天気予報のためのアンサンブル手法

Ensemble methods for neural network-based weather forecasts ( http://arxiv.org/abs/2002.05398v3 )

ライセンス: Link先を確認
Sebastian Scher and Gabriele Messori(参考訳) アンサンブルの天気予報は、アンサンブルの広がりを計算することによって、各予測に不確実性の尺度を付けることができる。 しかし、スプレッド・エラー関係の良好なアンサンブルの生成は、ささいなことではなく、これを達成するための幅広いアプローチが、主に数値気象予測モデル(英語版)の文脈で検討されてきた。 本稿では,決定論的ニューラルネットワーク天気予報システムをアンサンブル予測システムに変換することを目的とする。 我々は、ランダム初期摂動、ニューラルネットワークの再訓練、ネットワークにおけるランダムなドロップアウトの使用、特異ベクトル分解による初期摂動の生成の4つの手法をテストした。 後者の手法は数値気象予測モデルで広く使われているが、ニューラルネットワークではまだテストされていない。 これら4つのアプローチから得られたアンサンブル平均予測は、すべて未成熟のニューラルネットワーク予測を破り、リトレーニング手法は最高の改善をもたらす。 しかし、ニューラルネットワークの予測のスキルは、最先端の数値気象予測モデルよりも体系的に低い。

Ensemble weather forecasts enable a measure of uncertainty to be attached to each forecast, by computing the ensemble's spread. However, generating an ensemble with a good spread-error relationship is far from trivial, and a wide range of approaches to achieve this have been explored -- chiefly in the context of numerical weather prediction models. Here, we aim to transform a deterministic neural network weather forecasting system into an ensemble forecasting system. We test four methods to generate the ensemble: random initial perturbations, retraining of the neural network, use of random dropout in the network, and the creation of initial perturbations with singular vector decomposition. The latter method is widely used in numerical weather prediction models, but is yet to be tested on neural networks. The ensemble mean forecasts obtained from these four approaches all beat the unperturbed neural network forecasts, with the retraining method yielding the highest improvement. However, the skill of the neural network forecasts is systematically lower than that of state-of-the-art numerical weather prediction models.
翻訳日:2023-01-01 13:49:53 公開日:2021-01-04
# autolr: ディープネットワークの微調整における層毎のpruningと学習率の自動チューニング

AutoLR: Layer-wise Pruning and Auto-tuning of Learning Rates in Fine-tuning of Deep Networks ( http://arxiv.org/abs/2002.06048v3 )

ライセンス: Link先を確認
Youngmin Ro, Jin Young Choi(参考訳) 既存の微調整方法は、すべてのレイヤで単一の学習レートを使用する。 本稿ではまず,単一学習率を用いた微調整による層間重量変動の傾向が,低層層が一般的な特徴を抽出し,高層層が特定の特徴を抽出するというよく知られた概念と一致しないことを示す。 そこで本研究では,層間プルーニングと層間学習率の自動調整により,細粒度調整性能の向上とネットワーク複雑性の低減を図るアルゴリズムを提案する。 提案アルゴリズムは,画像検索ベンチマークデータセット(CUB-200,Cars-196,Stanford Online Product,Inshop)上で,最先端のパフォーマンスを達成して有効性を検証した。 コードはhttps://github.com/youngminPIL/AutoLRで入手できる。

Existing fine-tuning methods use a single learning rate over all layers. In this paper, first, we discuss that trends of layer-wise weight variations by fine-tuning using a single learning rate do not match the well-known notion that lower-level layers extract general features and higher-level layers extract specific features. Based on our discussion, we propose an algorithm that improves fine-tuning performance and reduces network complexity through layer-wise pruning and auto-tuning of layer-wise learning rates. The proposed algorithm has verified the effectiveness by achieving state-of-the-art performance on the image retrieval benchmark datasets (CUB-200, Cars-196, Stanford online product, and Inshop). Code is available at https://github.com/youngminPIL/AutoLR.
翻訳日:2023-01-01 04:58:19 公開日:2021-01-04
# HAM:シークエンシャルレコメンデーションのためのハイブリッドアソシエーションモデル

HAM: Hybrid Associations Models for Sequential Recommendation ( http://arxiv.org/abs/2002.11890v3 )

ライセンス: Link先を確認
Bo Peng, Zhiyun Ren, Srinivasan Parthasarathy and Xia Ning(参考訳) シーケンシャルレコメンデーションは、ユーザの購入/評価の軌跡を考えると、ユーザが購入/レビューする可能性が最も高いユーザのために、次のいくつかの項目を特定し、推奨することを目的としている。 これは、ユーザーがさまざまなオプションから好きなアイテムを選択するのに役立つ効果的なツールになる。 本書では,3つの要因を用いて逐次レコメンデーションを生成するハイブリッドアソシエーションモデル(HAM)を開発した。 1)利用者の長期的嗜好 2)最近のユーザの購買・評価における逐次的・高次・低次関連パターン,および 3)これらの項目の相乗効果 HAMは単純なプーリングを用いて関連内の項目の集合を表現し、要素的積は任意の順序の項目のシナジーを表現する。 我々は、HAMモデルと最新の最先端の手法を、6つの公開ベンチマークデータセットで3つの異なる実験環境で比較した。 実験結果は,ハムモデルがすべての実験環境において,芸術の状態を著しく上回っており,46.6%の改善が見られた。 さらに、テストにおける実行時の性能比較では、HAMモデルは最先端の手法よりもはるかに効率的であり、最大139.7倍のスピードアップを達成できることが示されている。

Sequential recommendation aims to identify and recommend the next few items for a user that the user is most likely to purchase/review, given the user's purchase/rating trajectories. It becomes an effective tool to help users select favorite items from a variety of options. In this manuscript, we developed hybrid associations models (HAM) to generate sequential recommendations using three factors: 1) users' long-term preferences, 2) sequential, high-order and low-order association patterns in the users' most recent purchases/ratings, and 3) synergies among those items. HAM uses simplistic pooling to represent a set of items in the associations, and element-wise product to represent item synergies of arbitrary orders. We compared HAM models with the most recent, state-of-the-art methods on six public benchmark datasets in three different experimental settings. Our experimental results demonstrate that HAM models significantly outperform the state of the art in all the experimental settings, with an improvement as much as 46.6%. In addition, our run-time performance comparison in testing demonstrates that HAM models are much more efficient than the state-of-the-art methods, and are able to achieve significant speedup as much as 139.7 folds.
翻訳日:2022-12-28 09:25:40 公開日:2021-01-04
# 政策グラディエント手法のための政策意識モデル学習

Policy-Aware Model Learning for Policy Gradient Methods ( http://arxiv.org/abs/2003.00030v2 )

ライセンス: Link先を確認
Romina Abachi, Mohammad Ghavamzadeh, Amir-massoud Farahmand(参考訳) 本稿では,モデルベース強化学習(MBRL)におけるモデル学習の問題について考察する。 MBRLアルゴリズムの計画モジュールがモデルをどのように利用するかを検討するとともに、モデル学習モジュールは、プランナーがモデルを使用する方法を組み込むことを提案する。 これは、モデルとプランナーの相互作用を明示的に考慮せずに、環境の予測モデルを学習する、最大確率推定に基づくような従来のモデル学習アプローチとは対照的である。 政策勾配型計画アルゴリズムに焦点をあて、プランナーがモデルをどのように利用するかを含むモデル学習のための新しい損失関数を導出する。 このアプローチをPAML(Policy-Aware Model Learning)と呼ぶ。 理論的にモデルに基づくポリシー勾配アルゴリズムを解析し、最適化されたポリシーに対する収束保証を提供する。 また,いくつかのベンチマーク問題に対してPAMLを実験的に評価し,有望な結果を示した。

This paper considers the problem of learning a model in model-based reinforcement learning (MBRL). We examine how the planning module of an MBRL algorithm uses the model, and propose that the model learning module should incorporate the way the planner is going to use the model. This is in contrast to conventional model learning approaches, such as those based on maximum likelihood estimate, that learn a predictive model of the environment without explicitly considering the interaction of the model and the planner. We focus on policy gradient type of planning algorithms and derive new loss functions for model learning that incorporate how the planner uses the model. We call this approach Policy-Aware Model Learning (PAML). We theoretically analyze a generic model-based policy gradient algorithm and provide a convergence guarantee for the optimized policy. We also empirically evaluate PAML on some benchmark problems, showing promising results.
翻訳日:2022-12-28 02:23:40 公開日:2021-01-04
# 確率勾配降下による次元独立一般化誤差

Dimension Independent Generalization Error by Stochastic Gradient Descent ( http://arxiv.org/abs/2003.11196v2 )

ライセンス: Link先を確認
Xi Chen and Qiang Liu and Xin T. Tong(参考訳) 統計学の古典的なカノンの一つは、大きなモデルは過剰適合しがちであり、高次元データにはモデル選択手順が必要であるということである。 しかし、ニューラルネットワークのような超パラメータモデルの多くは、単純なオンライン手法や正規化で訓練されることが多いが、実際に非常によく機能する。 過パラメータ化モデルの実証的な成功は、しばしば良性過剰適合として知られているが、オンライン最適化のための統計一般化理論を新たに検討する動機となっている。 特に、凸関数と局所凸損失関数の両方に対する確率勾配降下(SGD)解の一般化誤差に関する一般的な理論を示す。 我々はさらに ``low effective dimension' につながるデータとモデル条件についても論じる。 これらの条件下では、一般化誤差は周囲次元$p$に依存しないか、あるいは多対数因子を介して$p$に依存していることを示す。 また,いくつかの統計モデルにおいて,'low effective dimension'' が過剰パラメータ設定で自然に現れることを実証した。 研究された統計応用には、線形回帰やロジスティック回帰のような凸モデルと、$M$-estimatorや2層ニューラルネットワークのような非凸モデルの両方が含まれる。

One classical canon of statistics is that large models are prone to overfitting, and model selection procedures are necessary for high dimensional data. However, many overparameterized models, such as neural networks, perform very well in practice, although they are often trained with simple online methods and regularization. The empirical success of overparameterized models, which is often known as benign overfitting, motivates us to have a new look at the statistical generalization theory for online optimization. In particular, we present a general theory on the generalization error of stochastic gradient descent (SGD) solutions for both convex and locally convex loss functions. We further discuss data and model conditions that lead to a ``low effective dimension". Under these conditions, we show that the generalization error either does not depend on the ambient dimension $p$ or depends on $p$ via a poly-logarithmic factor. We also demonstrate that in several widely used statistical models, the ``low effective dimension'' arises naturally in overparameterized settings. The studied statistical applications include both convex models such as linear regression and logistic regression and non-convex models such as $M$-estimator and two-layer neural networks.
翻訳日:2022-12-20 03:05:57 公開日:2021-01-04
# ディープラーニングに基づくテキスト分類:包括的レビュー

Deep Learning Based Text Classification: A Comprehensive Review ( http://arxiv.org/abs/2004.03705v3 )

ライセンス: Link先を確認
Shervin Minaee, Nal Kalchbrenner, Erik Cambria, Narjes Nikzad, Meysam Chenaghlu, Jianfeng Gao(参考訳) ディープラーニングベースのモデルは、感情分析、ニュース分類、質問応答、自然言語推論など、さまざまなテキスト分類タスクにおける古典的な機械学習ベースのアプローチを上回っている。 本稿では,近年開発された150以上の深層学習に基づくテキスト分類モデルの包括的レビューを行い,その技術的貢献,類似性,強みについて考察する。 テキスト分類に広く使われている40以上の人気データセットの要約も提供している。 最後に,一般的なベンチマークを用いた異なるディープラーニングモデルの性能の定量的解析を行い,今後の研究の方向性について考察する。

Deep learning based models have surpassed classical machine learning based approaches in various text classification tasks, including sentiment analysis, news categorization, question answering, and natural language inference. In this paper, we provide a comprehensive review of more than 150 deep learning based models for text classification developed in recent years, and discuss their technical contributions, similarities, and strengths. We also provide a summary of more than 40 popular datasets widely used for text classification. Finally, we provide a quantitative analysis of the performance of different deep learning models on popular benchmarks, and discuss future research directions.
翻訳日:2022-12-16 05:16:07 公開日:2021-01-04
# 歩行者帯における軌道予測のためのエンドツーエンド学習手法

An End-to-End Learning Approach for Trajectory Prediction in Pedestrian Zones ( http://arxiv.org/abs/2004.04787v2 )

ライセンス: Link先を確認
Ha Q. Ngo, Christoph Henke, Frank Hees(参考訳) 本稿では,社会的ダイナミクスの表現が大きな課題である異種歩行者帯における軌道予測の問題を検討することを目的とする。 マルチファクタ入力からソーシャルインタラクションを学習するための注意機構に基づく,予測精度向上のためのエンドツーエンド学習フレームワークを提案する。

This paper aims to explore the problem of trajectory prediction in heterogeneous pedestrian zones, where social dynamics representation is a big challenge. Proposed is an end-to-end learning framework for prediction accuracy improvement based on an attention mechanism to learn social interaction from multi-factor inputs.
翻訳日:2022-12-15 02:28:58 公開日:2021-01-04
# ネットワークモーメントのためのエッジワース拡張

Edgeworth expansions for network moments ( http://arxiv.org/abs/2004.06615v2 )

ライセンス: Link先を確認
Yuan Zhang, Dong Xia(参考訳) モーメントのネットワーク法 arxiv:1202.5101 は非パラメトリックネットワーク推論の重要なツールである。 しかし,ネットワークモーメント統計のサンプリング分布の正確な記述についてはほとんど調査されていない。 本稿では,Edgeworth拡張による学生ネットワークモーメントのサンプリングCDFに対して,最初の高次精度近似を提案する。 ノイズのないU-統計学に関する古典文学とは対照的に、ノイズの多いU-統計学としてのネットワークモーメントのエッジワース展開は、非格子や滑らかさの仮定なしに高次精度を達成できるが、弱い正規性条件を必要とする。 この結果の背後には、ネットワーク分析の典型的な2つの要因、すなわちスパーシティとエッジサイドの観測誤差が、ネットワークモーメント統計において重要な自己喫煙効果を寄与し、分析的に扱いやすい役割を担っているという驚くべき発見があります。 我々の仮定は関連する文献の最小要件と一致する。 スパースネットワークの場合、単純な正規近似は、ネットワークがスペーサーになるにつれて徐々に劣化するベリー・エッシー境界を実現する。 この結果はまた、前回の最良の理論結果を洗練する。 実践者にとって、Edgeworthの拡張は極めて正確で、高速で実装が容易です。 総合シミュレーション研究により,本手法の利点を明らかにした。 ネットワーク推論における結果の応用例を3つ紹介する。 我々の知る限り、ネットワークブートストラップ方式の高次精度に関する最初の理論的保証と、ネットワークサブサンプリングのためのサブサンプルサイズを選択するための最初の理論的ガイダンスを証明している。 また, 信頼度とI型誤差の高次精度制御により, 与えられたモーメントに対して, 単サンプル試験とコーニッシュ・フィッシャー信頼区間を導出する。

Network method of moments arXiv:1202.5101 is an important tool for nonparametric network inference. However, there has been little investigation on accurate descriptions of the sampling distributions of network moment statistics. In this paper, we present the first higher-order accurate approximation to the sampling CDF of a studentized network moment by Edgeworth expansion. In sharp contrast to classical literature on noiseless U-statistics, we show that the Edgeworth expansion of a network moment statistic as a noisy U-statistic can achieve higher-order accuracy without non-lattice or smoothness assumptions but just requiring weak regularity conditions. Behind this result is our surprising discovery that the two typically-hated factors in network analysis, namely, sparsity and edge-wise observational errors, jointly play a blessing role, contributing a crucial self-smoothing effect in the network moment statistic and making it analytically tractable. Our assumptions match the minimum requirements in related literature. For sparse networks, our theory shows a simple normal approximation achieves a gradually depreciating Berry-Esseen bound as the network becomes sparser. This result also refines the best previous theoretical result. For practitioners, our empirical Edgeworth expansion is highly accurate, fast and easy to implement. We demonstrate the clear advantage of our method by comprehensive simulation studies. We showcase three applications of our results in network inference. We prove, to our knowledge, the first theoretical guarantee of higher-order accuracy for some network bootstrap schemes, and moreover, the first theoretical guidance for selecting the sub-sample size for network sub-sampling. We also derive one-sample test and Cornish-Fisher confidence interval for a given moment with higher-order accurate controls of confidence level and type I error, respectively.
翻訳日:2022-12-13 10:18:54 公開日:2021-01-04
# FedNASによる非I.D.と不可視データに向けて:ニューラルアーキテクチャサーチによる深層学習

Towards Non-I.I.D. and Invisible Data with FedNAS: Federated Deep Learning via Neural Architecture Search ( http://arxiv.org/abs/2004.08546v4 )

ライセンス: Link先を確認
Chaoyang He, Murali Annavaram, Salman Avestimehr(参考訳) フェデレートラーニング(FL)は、プライバシ、通信コスト、規制規制のためにデータが集中できない場合に有効な学習フレームワークであることが証明されている。 fl設定下でディープラーニングモデルをトレーニングする場合、集中型環境で発見された事前定義されたモデルアーキテクチャを採用する。 しかし、この事前定義されたアーキテクチャは、データを識別できない独立分布(非IID)に適合しないため、最適な選択ではないかもしれない。 そこで我々は,モデル精度を向上し,手作業による設計作業を減らすために,自動学習(AutoFL)を提唱する。 設計プロセスを自動化するニューラルネットワークサーチ(NAS)を用いてAutoFLを特に研究する。 本稿では,より高精度なアーキテクチャの探索を支援するために,フェデレートNAS(FedNAS)アルゴリズムを提案する。 FedNASに基づくシステムも構築しています。 非IIDデータセットに対する実験により、FedNASが検索したアーキテクチャは、手動で定義したアーキテクチャよりも優れていることが示された。

Federated Learning (FL) has been proved to be an effective learning framework when data cannot be centralized due to privacy, communication costs, and regulatory restrictions. When training deep learning models under an FL setting, people employ the predefined model architecture discovered in the centralized environment. However, this predefined architecture may not be the optimal choice because it may not fit data with non-identical and independent distribution (non-IID). Thus, we advocate automating federated learning (AutoFL) to improve model accuracy and reduce the manual design effort. We specifically study AutoFL via Neural Architecture Search (NAS), which can automate the design process. We propose a Federated NAS (FedNAS) algorithm to help scattered workers collaboratively searching for a better architecture with higher accuracy. We also build a system based on FedNAS. Our experiments on non-IID dataset show that the architecture searched by FedNAS can outperform the manually predefined architecture.
翻訳日:2022-12-12 05:00:41 公開日:2021-01-04
# 自然言語編集における学習表現の変分推論

Variational Inference for Learning Representations of Natural Language Edits ( http://arxiv.org/abs/2004.09143v4 )

ライセンス: Link先を確認
Edison Marrese-Taylor, Machel Reid, Yutaka Matsuo(参考訳) 文書編集は、編集を効率的に保存し、適用できるようにするバージョン管理システムによって、情報生成の幅広いコンポーネントとなっている。 これを踏まえて,編集の分散表現を学習するタスクが最近提案されている。 そこで本研究では,変動推論を用いてベクトル表現の連続的潜在空間を学習し,文書編集プロセスにおいて基礎となる意味情報を取得する新しい手法を提案する。 上記の特徴を明示的にモデル化する潜在変数を導入することで、これを実現する。 この潜在変数はドキュメント表現と組み合わせられ、このドキュメントの編集バージョンの生成をガイドする。 また,これまで直接入力に大きく依存していた編集表現の標準化された自動評価を容易にするため,自然言語処理の文脈における編集表現の質を測定するために,下流タスクの組であるPEERを提案する。

Document editing has become a pervasive component of the production of information, with version control systems enabling edits to be efficiently stored and applied. In light of this, the task of learning distributed representations of edits has been recently proposed. With this in mind, we propose a novel approach that employs variational inference to learn a continuous latent space of vector representations to capture the underlying semantic information with regard to the document editing process. We achieve this by introducing a latent variable to explicitly model the aforementioned features. This latent variable is then combined with a document representation to guide the generation of an edited version of this document. Additionally, to facilitate standardized automatic evaluation of edit representations, which has heavily relied on direct human input thus far, we also propose a suite of downstream tasks, PEER, specifically designed to measure the quality of edit representations in the context of natural language processing.
翻訳日:2022-12-11 18:38:41 公開日:2021-01-04
# 信用リスクモデルにおける超アプリケーション行動パターン:財務・統計・規制含意

Super-App Behavioral Patterns in Credit Risk Models: Financial, Statistical and Regulatory Implications ( http://arxiv.org/abs/2005.14658v2 )

ライセンス: Link先を確認
Luisa Roa, Alejandro Correa-Bahnsen, Gabriel Suarez, Fernando Cort\'es-Tejada, Mar\'ia A. Luque and Cristi\'an Bravo(参考訳) 本稿では,従来の官僚データとは対照的に,アプリケーションベースのマーケットプレースを起源とする代替データの影響について述べる。 これらの代替データソースは、従来銀行や金融機関が保有していたセグメントの借り手行動を予測する上で、非常に強力なものであることを示している。 2つの国にまたがって検証した結果、これらの新たなデータソースは、特に、代替貸付業者と関わる可能性が最も高い低賃金・若年者の金融行動を予測するのに有用であることが示された。 さらに,Stochastic Gradient Boostingの解釈にTreeSHAP法を用いることで,従来の銀行では利用できないアプリから派生した変数の非線形傾向が明らかになった。 我々の結果は、テクノロジー企業が代替データソースを正しく識別し、新しい情報を適切に扱うことによって、従来の銀行をディスラプトする機会である。 同時に、さまざまな司法管轄区域で規制上のハードルを克服するために、代替データが慎重に検証されなければならない。

In this paper we present the impact of alternative data that originates from an app-based marketplace, in contrast to traditional bureau data, upon credit scoring models. These alternative data sources have shown themselves to be immensely powerful in predicting borrower behavior in segments traditionally underserved by banks and financial institutions. Our results, validated across two countries, show that these new sources of data are particularly useful for predicting financial behavior in low-wealth and young individuals, who are also the most likely to engage with alternative lenders. Furthermore, using the TreeSHAP method for Stochastic Gradient Boosting interpretation, our results also revealed interesting non-linear trends in the variables originating from the app, which would not normally be available to traditional banks. Our results represent an opportunity for technology companies to disrupt traditional banking by correctly identifying alternative data sources and handling this new information properly. At the same time alternative data must be carefully validated to overcome regulatory hurdles across diverse jurisdictions.
翻訳日:2022-12-05 06:52:32 公開日:2021-01-04
# 有界サイズのニューラルネットワークによるナップサック問題の正当な解法

Provably Good Solutions to the Knapsack Problem via Neural Networks of Bounded Size ( http://arxiv.org/abs/2005.14105v2 )

ライセンス: Link先を確認
Christoph Hertrich and Martin Skutella(参考訳) ニューラルネットワークの性能に関する満足度と厳密な数学的理解の発展は、人工知能における大きな課題である。 この背景に対して,従来のnp-hard knapsack問題の例を通して,ニューラルネットワークの表現力について検討する。 我々の主な貢献は、Knapsackインスタンスの各項目に反復的に適用される整列線形ユニットを持つリカレントニューラルネットワーク(RNN)のクラスであり、それによって最適または証明可能な優れた解値を計算する。 最適ナップサック溶液の利益に二次的に依存する深さ4および幅のrnnが最適ナップサック溶液を見つけるのに十分であることを示す。 また、RNNのサイズと計算されたKnapsackソリューションの品質のトレードオフも証明する:$n$アイテム、深さ5のRNN、幅$w$からなるKnapsackインスタンスは、少なくとも1-\mathcal{O}(n^2/\sqrt{w})の値の解を計算する。 この結果は,クナプサック問題の古典的な動的計画法と,クナプサック問題に対するよく知られた完全多項式時間近似スキームの核となる利益値の慎重な丸めを基礎としている。 注意深く実施した計算研究は、理論的なサイズ境界を定性的に支持する。 最後に, 様々な最短経路問題, 長期共通列問題, トラベリングセールスパーソン問題など, 動的プログラミング解法を許容する多くの組合せ最適化問題に対して, 結果の一般化が可能であることを指摘する。

The development of a satisfying and rigorous mathematical understanding of the performance of neural networks is a major challenge in artificial intelligence. Against this background, we study the expressive power of neural networks through the example of the classical NP-hard Knapsack Problem. Our main contribution is a class of recurrent neural networks (RNNs) with rectified linear units that are iteratively applied to each item of a Knapsack instance and thereby compute optimal or provably good solution values. We show that an RNN of depth four and width depending quadratically on the profit of an optimum Knapsack solution is sufficient to find optimum Knapsack solutions. We also prove the following tradeoff between the size of an RNN and the quality of the computed Knapsack solution: for Knapsack instances consisting of $n$ items, an RNN of depth five and width $w$ computes a solution of value at least $1-\mathcal{O}(n^2/\sqrt{w})$ times the optimum solution value. Our results build upon a classical dynamic programming formulation of the Knapsack Problem as well as a careful rounding of profit values that are also at the core of the well-known fully polynomial-time approximation scheme for the Knapsack Problem. A carefully conducted computational study qualitatively supports our theoretical size bounds. Finally, we point out that our results can be generalized to many other combinatorial optimization problems that admit dynamic programming solution methods, such as various Shortest Path Problems, the Longest Common Subsequence Problem, and the Traveling Salesperson Problem.
翻訳日:2022-11-27 04:26:51 公開日:2021-01-04
# 価値改善パス:強化学習のためのより良い表現を目指して

The Value-Improvement Path: Towards Better Representations for Reinforcement Learning ( http://arxiv.org/abs/2006.02243v2 )

ライセンス: Link先を確認
Will Dabney, Andr\'e Barreto, Mark Rowland, Robert Dadashi, John Quan, Marc G. Bellemare, David Silver(参考訳) 値に基づく強化学習(RL)では、教師付き学習とは異なり、エージェントは単一の定常近似問題ではなく、一連の値予測問題に直面している。 政策が改善するたびに、問題の性質が変化し、状態の分布と値の両方が変化する。 本稿では,rlエージェントが直面する価値予測問題は,単独でではなく,単独で総括的な予測問題として扱うべきである,という新たな視点を取り上げる。 RLアルゴリズムは、少なくとも概ね最適なポリシーに向けて改善される一連のポリシーを生成する。 我々は、関連する値関数のシーケンスを明示的に特徴付け、それを値改善パスと呼ぶ。 当社の主なアイデアは,現在のポリシの価値関数のみを追跡するよりも,価値改善パスを階層的に近似することにあります。 具体的には,RLの全体観が表現学習に与える影響について論じる。 我々は、過去の価値改善パスにまたがる表現が、将来の政策改善に正確な価値近似をもたらすことを実証する。 この洞察は、既存の補助的なタスクのアプローチをよりよく理解し、新しいタスクを提案するのに役立ちます。 仮説を実証的に検証するために、我々は、値改善パスを学習する補助的なタスクで標準深度RLエージェントを拡張した。 Atari 2600ゲームの研究において、補助エージェントはベースラインエージェントの平均と中央値の約2倍の性能を達成した。

In value-based reinforcement learning (RL), unlike in supervised learning, the agent faces not a single, stationary, approximation problem, but a sequence of value prediction problems. Each time the policy improves, the nature of the problem changes, shifting both the distribution of states and their values. In this paper we take a novel perspective, arguing that the value prediction problems faced by an RL agent should not be addressed in isolation, but rather as a single, holistic, prediction problem. An RL algorithm generates a sequence of policies that, at least approximately, improve towards the optimal policy. We explicitly characterize the associated sequence of value functions and call it the value-improvement path. Our main idea is to approximate the value-improvement path holistically, rather than to solely track the value function of the current policy. Specifically, we discuss the impact that this holistic view of RL has on representation learning. We demonstrate that a representation that spans the past value-improvement path will also provide an accurate value approximation for future policy improvements. We use this insight to better understand existing approaches to auxiliary tasks and to propose new ones. To test our hypothesis empirically, we augmented a standard deep RL agent with an auxiliary task of learning the value-improvement path. In a study of Atari 2600 games, the augmented agent achieved approximately double the mean and median performance of the baseline agent.
翻訳日:2022-11-25 17:29:00 公開日:2021-01-04
# L_2$正規化による深層ネットワークのトレーニング力学について

On the training dynamics of deep networks with $L_2$ regularization ( http://arxiv.org/abs/2006.08643v2 )

ライセンス: Link先を確認
Aitor Lewkowycz and Guy Gur-Ari(参考訳) 本研究では,ディープラーニングにおける$l_2$正規化の役割について検討し,モデルの性能,$l_2$係数,学習率,トレーニングステップ数との関係を明らかにする。 これらの経験的関係は、ネットワークが過度にパラメータ化されると成り立つ。 与えられたモデルの最適な正規化パラメータを予測するために使用できる。 また,これらの観測結果に基づいて,正規化パラメータの動的スケジュールを提案し,性能の向上とトレーニングの高速化を図る。 最新の画像分類設定でこれらの提案を検証する。 最後に,これらの経験的関係を無限大ネットワークの文脈で理論的に理解できることを示す。 このようなネットワークの勾配流れのダイナミクスを導出し、この文脈における$l_2$正規化の役割を線形モデルの役割と比較する。

We study the role of $L_2$ regularization in deep learning, and uncover simple relations between the performance of the model, the $L_2$ coefficient, the learning rate, and the number of training steps. These empirical relations hold when the network is overparameterized. They can be used to predict the optimal regularization parameter of a given model. In addition, based on these observations we propose a dynamical schedule for the regularization parameter that improves performance and speeds up training. We test these proposals in modern image classification settings. Finally, we show that these empirical relations can be understood theoretically in the context of infinitely wide networks. We derive the gradient flow dynamics of such networks, and compare the role of $L_2$ regularization in this context with that of linear models.
翻訳日:2022-11-21 03:25:15 公開日:2021-01-04
# リスクに敏感な学習のための学習限界

Learning Bounds for Risk-sensitive Learning ( http://arxiv.org/abs/2006.08138v2 )

ライセンス: Link先を確認
Jaeho Lee, Sejun Park, Jinwoo Shin(参考訳) リスクセンシティブな学習では、標準的な期待損失ではなく、リスク回避(あるいはリスク発見)の損失を最小化する仮説を見つけることを目指している。 本稿では、最適化された確実性等価性(OCE)によって最適化された最適条件が記述されるリスク感受性学習スキームの一般化特性について検討し、この一般的なスキームは、例えばエントロピーリスク、平均分散、条件付き値-リスクなど、様々な既知のリスクを扱うことができる。 我々は経験的OCE最小化器の性能に関する2つの学習境界を提供する。 最初の結果は、仮説空間のラデマッハ平均に基づいてOCE保証を与え、予測損失と条件付き値-リスクに関する既存の結果を一般化し改善する。 第2の結果は, OCEの新規な分散に基づく評価に基づいて, 選択したOCEの滑らかさへの依存性を抑えながら, 期待される損失保証を与える。 最後に,ニューラルネットワークの探索実験を通じて,提案する境界の実用的意義を示す。

In risk-sensitive learning, one aims to find a hypothesis that minimizes a risk-averse (or risk-seeking) measure of loss, instead of the standard expected loss. In this paper, we propose to study the generalization properties of risk-sensitive learning schemes whose optimand is described via optimized certainty equivalents (OCE): our general scheme can handle various known risks, e.g., the entropic risk, mean-variance, and conditional value-at-risk, as special cases. We provide two learning bounds on the performance of empirical OCE minimizer. The first result gives an OCE guarantee based on the Rademacher average of the hypothesis space, which generalizes and improves existing results on the expected loss and the conditional value-at-risk. The second result, based on a novel variance-based characterization of OCE, gives an expected loss guarantee with a suppressed dependence on the smoothness of the selected OCE. Finally, we demonstrate the practical implications of the proposed bounds via exploratory experiments on neural networks.
翻訳日:2022-11-21 02:48:05 公開日:2021-01-04
# Flow Machinesによる音楽制作支援 : 新しいカテゴリーに向けて

Assisted music creation with Flow Machines: towards new categories of new ( http://arxiv.org/abs/2006.09232v3 )

ライセンス: Link先を確認
Fran\c{c}ois Pachet and Pierre Roy and Benoit Carr\'e(参考訳) この章は、AIによる音楽合成、特にFlow Machinesプロジェクトにおける約10年間の研究を反映している。 このようなプロジェクトの動機,その背景,その主な成果と影響,技術と音楽の両面で,完成から数年を経た今,我々はその成果を振り返る。 我々は、新しい素材を生成するためにAI技術が多用された新しいカテゴリの提案を締めくくった。

This chapter reflects on about 10 years of research in AI- assisted music composition, in particular during the Flow Machines project. We reflect on the motivations for such a project, its background, its main results and impact, both technological and musical, several years after its completion. We conclude with a proposal for new categories of new, created by the many uses of AI techniques to generate novel material.
翻訳日:2022-11-20 21:49:54 公開日:2021-01-04
# 幾何学的jensen-shannon発散による変分推論の制約

Constraining Variational Inference with Geometric Jensen-Shannon Divergence ( http://arxiv.org/abs/2006.10599v3 )

ライセンス: Link先を確認
Jacob Deasy, Nikola Simidjievski, Pietro Li\`o(参考訳) 変分オートエンコーダにおける潜在空間正規化のための発散制御の問題について検討する。 具体的には、例 $x\in\mathbb{R}^{m}$ via latent space $z\in\mathbb{R}^{n}$$n\leq m$ を再構成しようとするとき、これを一般化可能な潜在表現の必要性とバランスさせる。 本稿では、スキュー幾何学的Jensen-Shannon divergence $\left(\textrm{JS}^{\textrm{G}_{\alpha}}\right)$に基づく正規化機構を提案する。 限定的なケースによって動機付けられた$\textrm{js}^{\textrm{g}_{\alpha}}$ のバリエーションを見いだすと、分布と発散の両方の空間における前方と逆klの直観的な補間につながる。 定量的および定性的な結果を示す前に、低次元の例を通してVAEに対する潜在的な利点を動機づける。 我々の実験では、$\textrm{js}^{\textrm{g}_{\alpha}}$の文脈で、$\textrm{js}^{\textrm{g}_{\alpha}}$-vaesの変形を歪めれば、いくつかのベースラインのvaeと比較して、より優れた再構築と生成につながることが示されています。 我々のアプローチは完全に教師なしであり、潜在空間で容易に解釈できる1つのハイパーパラメータのみを利用する。

We examine the problem of controlling divergences for latent space regularisation in variational autoencoders. Specifically, when aiming to reconstruct example $x\in\mathbb{R}^{m}$ via latent space $z\in\mathbb{R}^{n}$ ($n\leq m$), while balancing this against the need for generalisable latent representations. We present a regularisation mechanism based on the skew-geometric Jensen-Shannon divergence $\left(\textrm{JS}^{\textrm{G}_{\alpha}}\right)$. We find a variation in $\textrm{JS}^{\textrm{G}_{\alpha}}$, motivated by limiting cases, which leads to an intuitive interpolation between forward and reverse KL in the space of both distributions and divergences. We motivate its potential benefits for VAEs through low-dimensional examples, before presenting quantitative and qualitative results. Our experiments demonstrate that skewing our variant of $\textrm{JS}^{\textrm{G}_{\alpha}}$, in the context of $\textrm{JS}^{\textrm{G}_{\alpha}}$-VAEs, leads to better reconstruction and generation when compared to several baseline VAEs. Our approach is entirely unsupervised and utilises only one hyperparameter which can be easily interpreted in latent space.
翻訳日:2022-11-19 12:47:37 公開日:2021-01-04
# 非共生19肺病変は有効か? CT画像分割における転写性の検討

Does Non-COVID19 Lung Lesion Help? Investigating Transferability in COVID-19 CT Image Segmentation ( http://arxiv.org/abs/2006.13877v2 )

ライセンス: Link先を確認
Yixin Wang, Yao Zhang, Yang Liu, Jiang Tian, Cheng Zhong, Zhongchao Shi, Yang Zhang, Zhiqiang He(参考訳) コロナウイルス感染症2019(COVID-19)は、世界中に広がる感染症である。 深層学習は、CT画像からのCOVID-19の検出とセグメンテーションを支援する効果的な手法として採用されている。 最大の課題は、新型コロナウイルス(COVID-19)のデータセットが不十分であることだ。 近年,トランスファー学習は,ある課題を解き,別の問題に適用しながら得られる知識を活用する手法として広く利用されている。 しかし、新型コロナウイルス感染症領域の分断に様々な非19の肺病変が寄与するかどうかや、この移行手順の実施方法については明らかになっていない。 本稿では,非共生19肺病変の転移性を理解する方法を提案する。 3D U-Netを標準エンコーダ・デコーダ法として用いた4つのトランスファー学習手法を,公開のCOVID-19 CTデータセットと3つの公開非COVID19データセットに基づいて評価した。 その結果,非共発性肺病変からの知識伝達の利点が明らかとなり,複数の肺病変データセットからの学習によりより一般的な特徴が抽出され,正確かつ堅牢な事前訓練モデルが得られた。 さらに,肺病変の特徴表現を学習するエンコーダの能力を示し,セグメンテーション精度を改善し,コンバージェンス訓練を容易にする。 さらに,提案手法では,非covid19データセットからの肺病変を効果的に導入し,有意な改善を実現する。 これらの知見は、他の医療タスクにさらに一般化できる、COVID-19 CT画像セグメンテーションのためのトランスファーラーニングの新しい洞察を促進する。

Coronavirus disease 2019 (COVID-19) is a highly contagious virus spreading all around the world. Deep learning has been adopted as an effective technique to aid COVID-19 detection and segmentation from computed tomography (CT) images. The major challenge lies in the inadequate public COVID-19 datasets. Recently, transfer learning has become a widely used technique that leverages the knowledge gained while solving one problem and applying it to a different but related problem. However, it remains unclear whether various non-COVID19 lung lesions could contribute to segmenting COVID-19 infection areas and how to better conduct this transfer procedure. This paper provides a way to understand the transferability of non-COVID19 lung lesions. Based on a publicly available COVID-19 CT dataset and three public non-COVID19 datasets, we evaluate four transfer learning methods using 3D U-Net as a standard encoder-decoder method. The results reveal the benefits of transferring knowledge from non-COVID19 lung lesions, and learning from multiple lung lesion datasets can extract more general features, leading to accurate and robust pre-trained models. We further show the capability of the encoder to learn feature representations of lung lesions, which improves segmentation accuracy and facilitates training convergence. In addition, our proposed Hybrid-encoder learning method incorporates transferred lung lesion features from non-COVID19 datasets effectively and achieves significant improvement. These findings promote new insights into transfer learning for COVID-19 CT image segmentation, which can also be further generalized to other medical tasks.
翻訳日:2022-11-17 23:45:46 公開日:2021-01-04
# フィードフォワードネットワークの動的インバージョンによる生体クレジット割り当て

Biological credit assignment through dynamic inversion of feedforward networks ( http://arxiv.org/abs/2007.05112v2 )

ライセンス: Link先を確認
William F. Podlaski, Christian K. Machens(参考訳) 学習は、脳内の深いシナプス接続の変化に依存する。 多層ネットワークでは、これらの変化は、一般的にフィードフォワード処理ステップを段階的に反転させることで、出力から返されるエラー信号によって引き起こされる。 このプロセスの金の標準 -- バックプロパゲーション -- は、人工ニューラルネットワークでうまく機能するが、生物学的には不可能である。 この問題に対処するための最近の提案はいくつかあるが、生物学的に証明可能なスキームの多くは、独立したフィードバック接続の集合を学習することに基づいている。 これにより、各シナプスへの誤りの割り当ては、第2の学習問題に依存し、それらを保証するのではなく、反転に適合させることによって複雑になる。 本稿では,フィードフォワードネットワーク変換を動的に逆変換できることを示す。 この動的インバージョンは、前方変換を再利用し、固定あるいはランダムなフィードバックと動的に相互作用し、後方通過時にエラー信号を伝搬するフィードバック制御の観点から導出する。 重要な点として、このスキームは、ネットワークダイナミクスによって正確な逆転が保証されるため、フィードバックのための第2の学習問題に依存しない。 我々はこれらのダイナミクスを汎用フィードフォワードネットワークにマッピングし、その結果のアルゴリズムが教師なしおよび教師なしのデータセットでうまく動作することを示す。 最後に、動的反転と2次最適化の潜在的なリンクについて論じる。 全体として、本研究は、脳における信用割当に関する別の視点を導入し、学習中の時間的ダイナミクスとフィードバック制御の特別な役割を提案する。

Learning depends on changes in synaptic connections deep inside the brain. In multilayer networks, these changes are triggered by error signals fed back from the output, generally through a stepwise inversion of the feedforward processing steps. The gold standard for this process -- backpropagation -- works well in artificial neural networks, but is biologically implausible. Several recent proposals have emerged to address this problem, but many of these biologically-plausible schemes are based on learning an independent set of feedback connections. This complicates the assignment of errors to each synapse by making it dependent upon a second learning problem, and by fitting inversions rather than guaranteeing them. Here, we show that feedforward network transformations can be effectively inverted through dynamics. We derive this dynamic inversion from the perspective of feedback control, where the forward transformation is reused and dynamically interacts with fixed or random feedback to propagate error signals during the backward pass. Importantly, this scheme does not rely upon a second learning problem for feedback because accurate inversion is guaranteed through the network dynamics. We map these dynamics onto generic feedforward networks, and show that the resulting algorithm performs well on several supervised and unsupervised datasets. Finally, we discuss potential links between dynamic inversion and second-order optimization. Overall, our work introduces an alternative perspective on credit assignment in the brain, and proposes a special role for temporal dynamics and feedback control during learning.
翻訳日:2022-11-11 20:56:07 公開日:2021-01-04
# 高速再トレーニングを伴うディープネットワーク

Deep Networks with Fast Retraining ( http://arxiv.org/abs/2008.07387v2 )

ライセンス: Link先を確認
Wandong Zhang (1 and 2), Yimin Yang (2 and 3), Jonathan Wu (1) ((1) University of Windsor, (2) Lakehead University, (3) Vector Institute for Artificial Intelligence)(参考訳) 最近の研究[1]は、ディープ畳み込みニューラルネットワーク(DCNN)学習におけるムーア・ペンローズ(MP)の逆効果を利用しており、確率勾配降下(SGD)パイプラインによるDCNNの一般化性能を向上させる。 しかし、ヤンの研究はハイパーパラメータの高感度と計算資源の厳密な要求のため、実際にはあまり人気を得られていない。 本稿では,その適用性を高めるために,新しいMP逆ベース高速リトレーニング戦略を提案する。 各トレーニングエポックでは、後進パスでトレーニングされた畳み込み層の数を制御するランダム学習戦略が最初に利用される。 次に,産業規模の計算資源にアクセスせずにネットワークを実装可能なmp逆バッチ・バイ・バッチ学習戦略を開発し,密層パラメータを洗練する。 実験により、高速リトレーニングはDCNNで使用できる統一戦略であることを実証した。 他の学習戦略と比較して,提案した学習パイプラインはハイパーパラメータに対して頑健であり,計算資源の要求は大幅に低減される。 [1] y. yang, j. wu, x. feng, a. thangarajah, and recomputation of dense layers for the perfor-238mance improvement of dcnn”. ieee trans. (英語) パターンアナル。 マッハ インテリ。 , 2019.

Recent work [1] has utilized Moore-Penrose (MP) inverse in deep convolutional neural network (DCNN) learning, which achieves better generalization performance over the DCNN with a stochastic gradient descent (SGD) pipeline. However, Yang's work has not gained much popularity in practice due to its high sensitivity of hyper-parameters and stringent demands of computational resources. To enhance its applicability, this paper proposes a novel MP inverse-based fast retraining strategy. In each training epoch, a random learning strategy that controls the number of convolutional layers trained in the backward pass is first utilized. Then, an MP inverse-based batch-by-batch learning strategy, which enables the network to be implemented without access to industrial-scale computational resources, is developed to refine the dense layer parameters. Experimental results empirically demonstrate that fast retraining is a unified strategy that can be used for all DCNNs. Compared to other learning strategies, the proposed learning pipeline has robustness against the hyper-parameters, and the requirement of computational resources is significantly reduced. [1] Y. Yang, J. Wu, X. Feng, and A. Thangarajah, "Recomputation of dense layers for the perfor-238mance improvement of dcnn," IEEE Trans. Pattern Anal. Mach. Intell., 2019.
翻訳日:2022-10-30 23:40:35 公開日:2021-01-04
# WNTRAC:世界中に感染する非医薬品の追跡をAIが支援

WNTRAC: AI Assisted Tracking of Non-pharmaceutical Interventions Implemented Worldwide for COVID-19 ( http://arxiv.org/abs/2009.07057v4 )

ライセンス: Link先を確認
Parthasarathy Suryanarayanan, Ching-Huei Tsou, Ananya Poddar, Diwakar Mahajan, Bharath Dandala, Piyush Madan, Anshul Agrawal, Charles Wachira, Osebe Mogaka Samuel, Osnat Bar-Shira, Clifton Kipchirchir, Sharon Okwako, William Ogallo, Fred Otieno, Timothy Nyota, Fiona Matu, Vesna Resende Barros, Daniel Shats, Oren Kagan, Sekou Remy, Oliver Bent, Pooja Guhan, Shilpa Mahatma, Aisha Walcott-Bryant, Divya Pathak, Michal Rosen-Zvi(参考訳) 新型コロナウイルス(COVID-19)の世界的なパンデミックは、世界中の人の社会のほとんどを変革させた。 ウイルスの拡散を遅らせるために、世界各国の政府は非薬理学的介入(npi:non-pharmaceutical intervention)を実施している。 このような介入の例としては、コミュニティ活動(学校閉鎖、集団集会の制限など)、個人行動(マスク着用、自己隔離など)、環境行動(公共施設の清掃など)がある。 新型コロナウイルス(COVID-19, WNTRAC)は, パンデミックの開始以来, 全世界で6,000 NPI以上の包括的データセットである。 WNTRACは261の国と領域にまたがるNPIをカバーし、NPI対策を16のNPIタイプに分類する。 NPI測度は、自然言語処理技術を用いてウィキペディアの記事から自動的に抽出され、手作業による検証により精度と正確性を保証する。 このデータセットが、新型コロナウイルスの拡散を制御するためのモデリングと分析の取り組みにおいて、政策立案者、公衆衛生のリーダー、研究者にとって価値があることを願っています。

The Coronavirus disease 2019 (COVID-19) global pandemic has transformed almost every facet of human society throughout the world. Against an emerging, highly transmissible disease with no definitive treatment or vaccine, governments worldwide have implemented non-pharmaceutical intervention (NPI) to slow the spread of the virus. Examples of such interventions include community actions (e.g. school closures, restrictions on mass gatherings), individual actions (e.g. mask wearing, self-quarantine), and environmental actions (e.g. public facility cleaning). We present the Worldwide Non-pharmaceutical Interventions Tracker for COVID-19 (WNTRAC), a comprehensive dataset consisting of over 6,000 NPIs implemented worldwide since the start of the pandemic. WNTRAC covers NPIs implemented across 261 countries and territories, and classifies NPI measures into a taxonomy of sixteen NPI types. NPI measures are automatically extracted daily from Wikipedia articles using natural language processing techniques and manually validated to ensure accuracy and veracity. We hope that the dataset is valuable for policymakers, public health leaders, and researchers in modeling and analysis efforts for controlling the spread of COVID-19.
翻訳日:2022-10-22 18:54:03 公開日:2021-01-04
# 距離ベース分離性尺度を用いた内部クラスタ妥当性指標

An Internal Cluster Validity Index Using a Distance-based Separability Measure ( http://arxiv.org/abs/2009.01328v2 )

ライセンス: Link先を確認
Shuyue Guan, Murray Loew(参考訳) クラスタリング結果を評価することは、クラスタ分析の重要な部分である。 典型的な教師なし学習では、クラスタリングのための真のクラスラベルはありません。 このように、予測されたラベルとデータを使用する多くの内部評価が作成されている。 また、内部クラスタ妥当性指標 (CVIs) とも呼ばれる。 真のラベルがなければ、効果的なCVIを設計するのは、クラスタリングメソッドを作成するのと似ているため、簡単ではない。 そして、より多くのCVIを持つことは、すべてのデータセットを測定するために使用できる普遍的なCVIがなく、真のラベルのないクラスタに対して適切なCVIを選択するための特定の方法がないため、非常に重要です。 したがって、クラスタリング結果を評価するためにより多くのCVIを適用する必要がある。 本稿では,データ分離可能性尺度に基づく,距離ベース分離性指数(DSI)と呼ばれる新しいCVIを提案する。 我々はDunn (1974) の初期の研究と最近のCVDD (2019) の8つの内部CVIを比較検討した。 我々は、12の実データと97の合成データセット上の5つのクラスタリングアルゴリズムのクラスタリング結果に、外部のCVIを用いた。 結果は、DSIが他の比較CVIと比較して効果的で、ユニークで、競争力のあるCVIであることを示している。 さらに,CVI 評価の一般的なプロセスを要約し,CVI の評価結果を比較する新しい手法であるランク差を作成した。

To evaluate clustering results is a significant part of cluster analysis. There are no true class labels for clustering in typical unsupervised learning. Thus, a number of internal evaluations, which use predicted labels and data, have been created. They are also named internal cluster validity indices (CVIs). Without true labels, to design an effective CVI is not simple because it is similar to create a clustering method. And, to have more CVIs is crucial because there is no universal CVI that can be used to measure all datasets, and no specific method for selecting a proper CVI for clusters without true labels. Therefore, to apply more CVIs to evaluate clustering results is necessary. In this paper, we propose a novel CVI - called Distance-based Separability Index (DSI), based on a data separability measure. We applied the DSI and eight other internal CVIs including early studies from Dunn (1974) to most recent studies CVDD (2019) as comparison. We used an external CVI as ground truth for clustering results of five clustering algorithms on 12 real and 97 synthetic datasets. Results show DSI is an effective, unique, and competitive CVI to other compared CVIs. In addition, we summarized the general process to evaluate CVIs and created a new method - rank difference - to compare the results of CVIs.
翻訳日:2022-10-22 18:26:51 公開日:2021-01-04
# 深層学習無線周波数システムのためのトレーニングデータ強化

Training Data Augmentation for Deep Learning Radio Frequency Systems ( http://arxiv.org/abs/2010.00178v4 )

ライセンス: Link先を確認
William H. Clark IV, Steven Hauser, William C. Headley, and Alan J. Michaels(参考訳) 機械学習の応用には、最終的なパフォーマンス指標に寄与する3つの主要なコンポーネントがある。 ニューラルネットワークと特にディープラーニングのカテゴリの中で、最初の2つは、トレーニングされるモデルのアーキテクチャと、使用されるトレーニングアプローチである。 この作業は、トレーニングで使用されるデータである第3のコンポーネントに焦点を当てている。 主な質問は、状況把握のためのツールの例として、自動変調分類(amc)の高周波機械学習(rfml)分野を考察した「データに何があるのか」と「データに何があるのか」であり、合成、キャプチャ、拡張データの使用を調べて比較し、所望の性能レベルを達成するために必要な利用可能なデータの量と品質に関する洞察を提供する。 本研究では,(1)合成中の環境を考慮せずにデプロイする場合に,合成訓練されたシステムがどの程度有用か,(2)rfmlドメイン内で拡張をどのように活用できるか,(3)伝送路に起因する信号の劣化の知識がシステムの性能にどのような影響を与えるか,という3つの疑問が議論されている。 一般に、検査されたデータ型はそれぞれ最終アプリケーションに有用なコントリビューションを持っているが、意図されたユースケースに対するキャプチャされたデータは常により重要な情報を提供し、最大のパフォーマンスを実現する。 キャプチャーデータの利点にもかかわらず、ライブコレクションから生じる困難さとコストは、ピークパフォーマンスを達成するために必要なデータ量を非現実的にすることが多い。 本稿では,実データと合成データのバランスを定量化し,トレーニングデータのサイズとソースがパラメトリックに変化する具体的な例を示す。

Applications of machine learning are subject to three major components that contribute to the final performance metrics. Within the category of neural networks, and deep learning specifically, the first two are the architecture for the model being trained and the training approach used. This work focuses on the third component, the data used during training. The primary questions that arise are ``what is in the data'' and ``what within the data matters?'' Looking into the Radio Frequency Machine Learning (RFML) field of Automatic Modulation Classification (AMC) as an example of a tool used for situational awareness, the use of synthetic, captured, and augmented data are examined and compared to provide insights about the quantity and quality of the available data necessary to achieve desired performance levels. There are three questions discussed within this work: (1) how useful a synthetically trained system is expected to be when deployed without considering the environment within the synthesis, (2) how can augmentation be leveraged within the RFML domain, and lastly, (3) what impact knowledge of degradations to the signal caused by the transmission channel contributes to the performance of a system. In general, the examined data types each have useful contributions to a final application, but captured data germane to the intended use case will always provide more significant information and enable the greatest performance. Despite the benefit of captured data, the difficulties and costs that arise from live collection often make the quantity of data needed to achieve peak performance impractical. This paper helps quantify the balance between real and synthetic data, offering concrete examples where training data is parametrically varied in size and source.
翻訳日:2022-10-12 08:46:05 公開日:2021-01-04
# Bongard-LOGO: ヒューマンレベル概念学習と推論のための新しいベンチマーク

Bongard-LOGO: A New Benchmark for Human-Level Concept Learning and Reasoning ( http://arxiv.org/abs/2010.00763v4 )

ライセンス: Link先を確認
Weili Nie, Zhiding Yu, Lei Mao, Ankit B. Patel, Yuke Zhu, Animashree Anandkumar(参考訳) 人間は、少数のサンプルから新しい概念を学び、これらの概念を異なる状況に一般化する能力を持っている。 今日の機械学習モデルは、標準的な認識タスクのトレーニングデータを多用しているが、マシンレベルのパターン認識と人間レベルの概念学習の間には、かなりのギャップがある。 このギャップを狭めるために、ボナード問題(BP)は知的システムにおける視覚的認知へのインスピレーションとして導入された。 表現学習と学習の新たな進歩にもかかわらず、BPは現代のAIにとって驚くべき課題である。 従来の100BPにヒントを得て,人間レベルの概念学習と推論のためのベンチマークBongard-LOGOを提案する。 我々は,アクション指向のLOGO言語において,人間の解釈可能な視覚認知問題を多数生成するプログラム誘導生成手法を開発した。 私たちのベンチマークは、人間の認知の3つのコア特性を捉えています。 1) 同一の対象が異なる文脈によって異なる解釈を持つことができる文脈依存の知覚 2) 有意義な概念が他の有意義な概念と交換される類推的知覚 3) 少数のサンプルを持つが無限語彙の知覚。 実験では,最先端の深層学習手法が人体よりも著しく優れており,中核的な人間の認知特性を捉えることができないことが示唆された。 最後に、このベンチマークに取り組むための視覚的推論のための汎用アーキテクチャに向けた研究の方向性について論じる。

Humans have an inherent ability to learn novel concepts from only a few samples and generalize these concepts to different situations. Even though today's machine learning models excel with a plethora of training data on standard recognition tasks, a considerable gap exists between machine-level pattern recognition and human-level concept learning. To narrow this gap, the Bongard problems (BPs) were introduced as an inspirational challenge for visual cognition in intelligent systems. Despite new advances in representation learning and learning to learn, BPs remain a daunting challenge for modern AI. Inspired by the original one hundred BPs, we propose a new benchmark Bongard-LOGO for human-level concept learning and reasoning. We develop a program-guided generation technique to produce a large set of human-interpretable visual cognition problems in action-oriented LOGO language. Our benchmark captures three core properties of human cognition: 1) context-dependent perception, in which the same object may have disparate interpretations given different contexts; 2) analogy-making perception, in which some meaningful concepts are traded off for other meaningful concepts; and 3) perception with a few samples but infinite vocabulary. In experiments, we show that the state-of-the-art deep learning methods perform substantially worse than human subjects, implying that they fail to capture core human cognition properties. Finally, we discuss research directions towards a general architecture for visual reasoning to tackle this benchmark.
翻訳日:2022-10-12 00:22:40 公開日:2021-01-04
# 対照的な説明の効率的な計算

Efficient computation of contrastive explanations ( http://arxiv.org/abs/2010.02647v2 )

ライセンス: Link先を確認
Andr\'e Artelt and Barbara Hammer(参考訳) 機械学習システムの実践的な展開の増加に伴い、透明性と説明可能性が深刻な問題となっている。 対照的な説明は有益で直感的なものと考えられており、特に人間が説明する方法を模倣しているため、人を配置する決定について説明する場合が多い。 しかし、これまでのところ、説明の独特性と最適性を保証し、追加の制約を容易に組み込むことができる計算可能な技術に対処する研究はほとんどない。 ここでは、ブラックボックス技術ではなく、特定のタイプのモデルに焦点を当てます。 比較的および反事実的説明の関係について検討し、多くの標準機械学習モデルの有意な正を効率的に計算する2相アルゴリズムとともに数学的形式化を提案する。

With the increasing deployment of machine learning systems in practice, transparency and explainability have become serious issues. Contrastive explanations are considered to be useful and intuitive, in particular when it comes to explaining decisions to lay people, since they mimic the way in which humans explain. Yet, so far, comparably little research has addressed computationally feasible technologies, which allow guarantees on uniqueness and optimality of the explanation and which enable an easy incorporation of additional constraints. Here, we will focus on specific types of models rather than black-box technologies. We study the relation of contrastive and counterfactual explanations and propose mathematical formalizations as well as a 2-phase algorithm for efficiently computing (plausible) pertinent positives of many standard machine learning models.
翻訳日:2022-10-10 05:36:04 公開日:2021-01-04
# 教師付きスパース符号化の逆ロバスト性

Adversarial Robustness of Supervised Sparse Coding ( http://arxiv.org/abs/2010.12088v2 )

ライセンス: Link先を確認
Jeremias Sulam, Ramchandran Muthukumar, Raman Arora(参考訳) いくつかの最近の結果は、敵の例の現象に関する理論的洞察を与えている。 しかし、既存の結果はしばしば、研究されたモデルの単純さと実際にデプロイされたモデルの複雑さのギャップのために制限される。 本研究では,表現の学習を伴うモデルを考えると同時に,正確な一般化境界とロバスト性証明を与えることにより,より優れたバランスをとる。 線形分類器と結合したスパルシリティプロモーティングエンコーダを組み合わせることにより得られた仮説クラスに着目し,(教師あり)表現写像の表現性と安定性と特徴空間におけるマージンの概念との間に興味深い相互作用を示す。 我々は、トレーニングデータに緩やかなエンコーダギャップを達成できる辞書によってパラメータ化された仮説の頑健なリスク($\ell_2$-bounded perturbations)に縛り付ける。 さらに、エンドツーエンド分類のための堅牢性証明を提供する。 実データ上での認証精度の計算による解析の適用性を実証し,信頼性の高い他の代替手法と比較する。

Several recent results provide theoretical insights into the phenomena of adversarial examples. Existing results, however, are often limited due to a gap between the simplicity of the models studied and the complexity of those deployed in practice. In this work, we strike a better balance by considering a model that involves learning a representation while at the same time giving a precise generalization bound and a robustness certificate. We focus on the hypothesis class obtained by combining a sparsity-promoting encoder coupled with a linear classifier, and show an interesting interplay between the expressivity and stability of the (supervised) representation map and a notion of margin in the feature space. We bound the robust risk (to $\ell_2$-bounded perturbations) of hypotheses parameterized by dictionaries that achieve a mild encoder gap on training data. Furthermore, we provide a robustness certificate for end-to-end classification. We demonstrate the applicability of our analysis by computing certified accuracy on real data, and compare with other alternatives for certified robustness.
翻訳日:2022-10-04 05:49:31 公開日:2021-01-04
# ベイズ適応型深層モデルに基づく政策最適化

Bayes-Adaptive Deep Model-Based Policy Optimisation ( http://arxiv.org/abs/2010.15948v3 )

ライセンス: Link先を確認
Tai Hoang and Ngo Anh Vien(参考訳) 本稿では,モデルの不確かさを捉え,サンプル効率のよいポリシ最適化を実現するベイズモデルに基づく強化学習手法(rombrl)を提案する。 本稿では,ベイズ適応マルコフ決定プロセス(BAMDP)として,モデルに基づく政策最適化問題を定式化する。 RoMBRLは、確率勾配のハミルトニアン・モンテカルロによってサンプルが生成されるディープベイズニューラルネットワークを介して、信念分布を介してモデル不確実性を維持する。 不確実性は、サンプルモデルと履歴ベースのポリシーによって制御されるシミュレーションによって伝播される。 信条は訪問履歴にエンコードされるため、歴史空間をまたがる汎用化をエンドツーエンドで訓練し、信頼地域政策の最適化を反復して訓練できる、歴史ベースの政策ネットワークを提案する。 また,RoMBRLは,サンプルの複雑度やタスク性能の観点から,多くの困難な制御ベンチマークタスクにおいて,既存の手法よりも優れていることを示す。 本論文のソースコードはhttps://github.com/thobotics/RoMBRLでも公開されている。

We introduce a Bayesian (deep) model-based reinforcement learning method (RoMBRL) that can capture model uncertainty to achieve sample-efficient policy optimisation. We propose to formulate the model-based policy optimisation problem as a Bayes-adaptive Markov decision process (BAMDP). RoMBRL maintains model uncertainty via belief distributions through a deep Bayesian neural network whose samples are generated via stochastic gradient Hamiltonian Monte Carlo. Uncertainty is propagated through simulations controlled by sampled models and history-based policies. As beliefs are encoded in visited histories, we propose a history-based policy network that can be end-to-end trained to generalise across history space and will be trained using recurrent Trust-Region Policy Optimisation. We show that RoMBRL outperforms existing approaches on many challenging control benchmark tasks in terms of sample complexity and task performance. The source code of this paper is also publicly available on https://github.com/thobotics/RoMBRL.
翻訳日:2022-10-01 23:45:27 公開日:2021-01-04
# ソフトウェアエンジニアをAIエンジニアに変える

Turning Software Engineers into AI Engineers ( http://arxiv.org/abs/2011.01590v2 )

ライセンス: Link先を確認
Petra Heck and Gerard Schouten(参考訳) 業界だけでなく、教育や学者においても、ソフトウェアアプリケーションに機械学習を適用するための知識の必要性が高まっています。 Fontys UASのICT & AI教育プログラムでは、"ソフトウェアエンジニアをAIエンジニアにするために、どのように教育すべきか? 本稿では,我々の教育プログラム,使用するオープンソースツール,それに基づく文献について述べる。 3年間の経験を積み、実際に教育機関とソフトウェアエンジニアの両方で学んだ教訓を提示する。

In industry as well as education as well as academics we see a growing need for knowledge on how to apply machine learning in software applications. With the educational programme ICT & AI at Fontys UAS we had to find an answer to the question: "How should we educate software engineers to become AI engineers?" This paper describes our educational programme, the open source tools we use, and the literature it is based on. After three years of experience, we present our lessons learned for both educational institutions and software engineers in practice.
翻訳日:2022-09-30 05:47:29 公開日:2021-01-04
# 畳み込みニューラルネットワークによる空間充足曲線を持つ非構造メッシュデータの適用

Applying Convolutional Neural Networks to Data on Unstructured Meshes with Space-Filling Curves ( http://arxiv.org/abs/2011.14820v2 )

ライセンス: Link先を確認
Claire E. Heaney, Yuling Li, Omar K. Matar and Christopher C. Pain(参考訳) 本稿では,非構造有限要素メッシュや制御ボリュームグリッドのデータに直接適用可能な,最初の古典的畳み込みニューラルネットワーク(CNN)を提案する。 CNNは画像分類や画像圧縮の分野で大きな影響を与えており、どちらも通常、構造化グリッド上のデータを扱う。 非構造メッシュは偏微分方程式の解法としてよく用いられ、特にメッシュが複雑なジオメトリに従う必要がある問題や可変メッシュ解決を必要とする問題に適している。 アプローチの中心となるのは、(エッジ数の観点から)可能な限り短いパスをたどるメッシュのノードやセルを横断し、各ノードやセルを正確に1度訪問する、スペースフィルング曲線である。 空間充填曲線(sfc)は、非構造メッシュ上の多次元解を1次元(1d)表現に変換し、1次元畳み込み層を適用できるノードやセルの順序を求めるために用いられる。 2次元で開発されたが、このアプローチは高次元問題に適用できる。 このアプローチを実証するために、私たちが選択したネットワークは、他のタイプのCNNを使用することができるが、畳み込みオートエンコーダ(CAE)である。 このアプローチは、SFCで再注文されたデータセットにCAEを適用することでテストされる。 オートエンコーダの入力および出力にスパース層を用い,複数のSFCの利用について検討した。 本研究では, 有限要素法と非構造メッシュ法を用いて得られたシリンダを過ぎる流れの解に対して, SFC系CAEの精度と, 2つの理想化問題に適用した古典的CAEの精度を比較した。

This paper presents the first classical Convolutional Neural Network (CNN) that can be applied directly to data from unstructured finite element meshes or control volume grids. CNNs have been hugely influential in the areas of image classification and image compression, both of which typically deal with data on structured grids. Unstructured meshes are frequently used to solve partial differential equations and are particularly suitable for problems that require the mesh to conform to complex geometries or for problems that require variable mesh resolution. Central to the approach are space-filling curves, which traverse the nodes or cells of a mesh tracing out a path that is as short as possible (in terms of numbers of edges) and that visits each node or cell exactly once. The space-filling curves (SFCs) are used to find an ordering of the nodes or cells that can transform multi-dimensional solutions on unstructured meshes into a one-dimensional (1D) representation, to which 1D convolutional layers can then be applied. Although developed in two dimensions, the approach is applicable to higher dimensional problems. To demonstrate the approach, the network we choose is a convolutional autoencoder (CAE) although other types of CNN could be used. The approach is tested by applying CAEs to data sets that have been reordered with an SFC. Sparse layers are used at the input and output of the autoencoder, and the use of multiple SFCs is explored. We compare the accuracy of the SFC-based CAE with that of a classical CAE applied to two idealised problems on structured meshes, and then apply the approach to solutions of flow past a cylinder obtained using the finite-element method and an unstructured mesh.
翻訳日:2022-09-21 14:29:17 公開日:2021-01-04
# 5G/B5GインテリジェントネットワークのためのTrue-data Testbed

True-data Testbed for 5G/B5G Intelligent Network ( http://arxiv.org/abs/2011.13152v2 )

ライセンス: Link先を確認
Yongming Huang, Shengheng Liu, Cheng Zhang, Xiaohu You, Hequan Wu(参考訳) 今後、第5世代(B5G)と第6世代(6G)のモバイルコミュニケーションは、対人コミュニケーションの促進から、ビッグデータと人工知能(AI)の完全統合によるインテリジェントなコミュニケーションが、ネットワーク効率の向上と高品質なサービス提供において重要な役割を果たすようになる。 急速な進化のパラダイムとして、AIを活用したモバイル通信は、体系的なテストと検証のために、実際のネットワーク環境から取得した大量のデータを要求する。 したがって、5G/B5Gのオンサイト実験ネットワーク、データ取得とデータウェアハウス、AIエンジンとネットワーク最適化を含む、5G/B5Gインテリジェントネットワーク(TTIN)のための世界初の真のデータテストベッドを構築します。 TTINでは、真のネットワークデータ取得、ストレージ、標準化、分析が利用可能であり、B5G/6G指向キー技術のシステムレベルのオンライン検証を可能にし、クローズドループ制御機構によるデータ駆動ネットワーク最適化をサポートする。 本稿では,TTINのシステムアーキテクチャとモジュール設計について詳述する。 詳細な技術仕様と確立されたユースケースも紹介されている。

Future beyond fifth-generation (B5G) and sixth-generation (6G) mobile communications will shift from facilitating interpersonal communications to supporting Internet of Everything (IoE), where intelligent communications with full integration of big data and artificial intelligence (AI) will play an important role in improving network efficiency and providing high-quality service. As a rapid evolving paradigm, the AI-empowered mobile communications demand large amounts of data acquired from real network environment for systematic test and verification. Hence, we build the world's first true-data testbed for 5G/B5G intelligent network (TTIN), which comprises 5G/B5G on-site experimental networks, data acquisition & data warehouse, and AI engine & network optimization. In the TTIN, true network data acquisition, storage, standardization, and analysis are available, which enable system-level online verification of B5G/6G-orientated key technologies and support data-driven network optimization through the closed-loop control mechanism. This paper elaborates on the system architecture and module design of TTIN. Detailed technical specifications and some of the established use cases are also showcased.
翻訳日:2022-09-20 12:25:01 公開日:2021-01-04
# (参考訳) 量子回路設計の探索

Quantum Circuit Design Search ( http://arxiv.org/abs/2012.04046v2 )

ライセンス: CC BY 4.0
Mohammad Pirhooshyaran, Tamas Terlaky(参考訳) 本稿では、パラメータ化量子回路の設計のための探索戦略について述べる。 本稿では,データセット上のマルチラベル分類などの特定のタスクに対して,量子回路を自動設計する意思決定者として,ランダム探索,フィッツテストの生存,古典およびハイブリッド量子古典コントローラによる強化学習,ベイズ最適化などの最適化手法を提案する。 我々は,ハンドデザインとトレーサビリティの面での効率のよい非自明な回路アーキテクチャを導入する。 さらに,量子回路への初期データの再アップロードを,より汎用的な設計を求めるオプションとして導入する。 提案したIrisデータセットのアーキテクチャのいくつかは、文献で確立されたパラメータ化量子回路設計と比較して、より良い結果が得られることを示す。 さらに, 未知のデータセットガラス上でのこれらの構造のトレーニング可能性について検討した。 提案する設計が本質的により訓練可能であるという事実を裏付けるglassデータセットの分類のベンチマークよりも有意義な利点を報告する。

This article explores search strategies for the design of parameterized quantum circuits. We propose several optimization approaches including random search plus survival of the fittest, reinforcement learning both with classical and hybrid quantum classical controllers and Bayesian optimization as decision makers to design a quantum circuit in an automated way for a specific task such as multi-labeled classification over a dataset. We introduce nontrivial circuit architectures that are arduous to be hand-designed and efficient in terms of trainability. In addition, we introduce reuploading of initial data into quantum circuits as an option to find more general designs. We numerically show that some of the suggested architectures for the Iris dataset accomplish better results compared to the established parameterized quantum circuit designs in the literature. In addition, we investigate the trainability of these structures on the unseen dataset Glass. We report meaningful advantages over the benchmarks for the classification of the Glass dataset which supports the fact that the suggested designs are inherently more trainable.
翻訳日:2021-05-18 06:53:32 公開日:2021-01-04
# (参考訳) 点に基づくx線画像における骨折検出と位置推定のための新しい窓損失関数

A New Window Loss Function for Bone Fracture Detection and Localization in X-ray Images with Point-based Annotation ( http://arxiv.org/abs/2012.04066v2 )

ライセンス: CC BY 4.0
Xinyu Zhang, Yirui Wang, Chi-Tung Cheng, Le Lu, Adam P. Harrison, Jing Xiao, Chien-Hung Liao, Shun Miao(参考訳) 医療画像を用いたコンピュータ支援診断には物体検出法が広く採用されている。 異常な発見は通常、境界ボックスによって記述されるオブジェクトとして扱われる。 しかし、骨骨折などの多くの病理所見は、かなりの例、形状、境界の曖昧さのため、境界ボックスによって明確に定義できない。 これにより、バウンディングボックスアノテーションとその関連する損失は、非常に不適切なものになる。 本研究では,x線画像に対する新しい骨折検出法を提案する。対象範囲や境界の明確さのない異常発見に適した労力効率と柔軟なアノテーションスキームに基づいて,x線画像の骨折検出手法を提案する。 本手法は,局所的な病理情報をマークするために,単純で直感的で情報に富んだポイントベースのアノテーションプロトコルを用いる。 点(s)を経由したアノテートされたフラクチャースケールの不確実性に対処するため、アノテーションを、正、負、不確実な領域を持つ下および上界を用いた画素単位の監視に変換する。 その後、不確実領域外の予測のみを罰する新しいウィンドウロスが提案されている。 骨盤X線像4410例に対して,本法を広範囲に評価した。 実験の結果,AUROCは0.983,FROCは89.6%であり,従来の最先端画像分類や物体検出基準よりも優れていることがわかった。

Object detection methods are widely adopted for computer-aided diagnosis using medical images. Anomalous findings are usually treated as objects that are described by bounding boxes. Yet, many pathological findings, e.g., bone fractures, cannot be clearly defined by bounding boxes, owing to considerable instance, shape and boundary ambiguities. This makes bounding box annotations, and their associated losses, highly ill-suited. In this work, we propose a new bone fracture detection method for X-ray images, based on a labor effective and flexible annotation scheme suitable for abnormal findings with no clear object-level spatial extents or boundaries. Our method employs a simple, intuitive, and informative point-based annotation protocol to mark localized pathology information. To address the uncertainty in the fracture scales annotated via point(s), we convert the annotations into pixel-wise supervision that uses lower and upper bounds with positive, negative, and uncertain regions. A novel Window Loss is subsequently proposed to only penalize the predictions outside of the uncertain regions. Our method has been extensively evaluated on 4410 pelvic X-ray images of unique patients. Experiments demonstrate that our method outperforms previous state-of-the-art image classification and object detection baselines by healthy margins, with an AUROC of 0.983 and FROC score of 89.6%.
翻訳日:2021-05-18 05:57:24 公開日:2021-01-04
# シミュレーション駆動エンジン設計を高速化する新しい機械学習に基づく最適化アルゴリズム(activo)

A novel machine learning-based optimization algorithm (ActivO) for accelerating simulation-driven engine design ( http://arxiv.org/abs/2012.04649v2 )

ライセンス: Link先を確認
Opeoluwa Owoyele, Pinaki Pal(参考訳) 機械学習アルゴリズムのアンサンブルを用いた新しい設計最適化手法(ActivO)を提案する。 提案手法は,弱い学習者と強い学習者の予測をアクティブな学習ループ内で活用するサロゲートに基づくスキームである。 弱い学習者は設計空間内の有望な領域を探索するために使用され、強い学習者は有望な領域内の最適位置を正確に決定するために使用される。 設計イテレーション毎に、弱い学習者予測のフィットネスが高い領域内で評価ポイントをランダムに選択することで探索を行う。 また、強学習者を代理として用いることで得られる大域的最適度を評価し、最も有望な領域が特定されれば、迅速な収束を可能にする。 まず,25の局所最適値と1つの大域最適値を持つコサイン混合関数において,ActivOの性能を他の5つのオプティマイザと比較した。 第2の問題は、圧縮着火内燃機関(IC)の特定の燃料消費を最小限に抑えつつ、気筒内圧力と排気に関する所望の制約に固執することであった。 提案手法の有効性は,エンジン最適化のために内燃機関のコミュニティで広く利用されている遺伝的アルゴリズムと比較され, ActivOはグローバルな最適点に到達するために必要な機能評価の数を削減し, 設計までの時間を80%削減することを示した。 さらに、エンジン設計パラメータの最適化は、運用可能性と許容される汚染物質排出を維持しながら、エネルギー消費量の約1.9%の節約につながる。

A novel design optimization approach (ActivO) that employs an ensemble of machine learning algorithms is presented. The proposed approach is a surrogate-based scheme, where the predictions of a weak leaner and a strong learner are utilized within an active learning loop. The weak learner is used to identify promising regions within the design space to explore, while the strong learner is used to determine the exact location of the optimum within promising regions. For each design iteration, exploration is done by randomly selecting evaluation points within regions where the weak learner-predicted fitness is high. The global optimum obtained by using the strong learner as a surrogate is also evaluated to enable rapid convergence once the most promising region has been identified. First, the performance of ActivO was compared against five other optimizers on a cosine mixture function with 25 local optima and one global optimum. In the second problem, the objective was to minimize indicated specific fuel consumption of a compression-ignition internal combustion (IC) engine while adhering to desired constraints associated with in-cylinder pressure and emissions. Here, the efficacy of the proposed approach is compared to that of a genetic algorithm, which is widely used within the internal combustion engine community for engine optimization, showing that ActivO reduces the number of function evaluations needed to reach the global optimum, and thereby time-to-design by 80%. Furthermore, the optimization of engine design parameters leads to savings of around 1.9% in energy consumption, while maintaining operability and acceptable pollutant emissions.
翻訳日:2021-05-16 21:03:49 公開日:2021-01-04
# 文脈認識補助指導による画像キャプション

Image Captioning with Context-Aware Auxiliary Guidance ( http://arxiv.org/abs/2012.05545v2 )

ライセンス: Link先を確認
Zeliang Song, Xiaofei Zhou, Zhendong Mao, Jianlong Tan(参考訳) 画像キャプションは、画像の自然言語記述を生成することを目的としたコンピュータビジョンタスクである。 最近の研究は、現在の予測のために前回生成された単語に大きく依存するエンコーダ・デコーダ・フレームワークに従っている。 このような手法は、将来予測される情報を効果的に活用して完全な意味論を学ぶことはできない。 本稿では,キャプションモデルを用いてグローバルコンテキストを認識できるcaag(context-aware auxiliary guidance)機構を提案する。 キャプションモデルでは、CAAGは、現在の世代を再現するために、グローバル予測の有用な情報に選択的に集中するセマンティックアテンションを実行する。 提案手法の適応性を検証するため,CAAGを3つの一般的なキャプタに適用し,Microsoft COCOイメージキャプタリングベンチマークにおける競合性能を実現する。 132.2 CIDEr-D score on Karpathy と 130.7 CIDEr-D (c40) score on official online evaluation server。

Image captioning is a challenging computer vision task, which aims to generate a natural language description of an image. Most recent researches follow the encoder-decoder framework which depends heavily on the previous generated words for the current prediction. Such methods can not effectively take advantage of the future predicted information to learn complete semantics. In this paper, we propose Context-Aware Auxiliary Guidance (CAAG) mechanism that can guide the captioning model to perceive global contexts. Upon the captioning model, CAAG performs semantic attention that selectively concentrates on useful information of the global predictions to reproduce the current generation. To validate the adaptability of the method, we apply CAAG to three popular captioners and our proposal achieves competitive performance on the challenging Microsoft COCO image captioning benchmark, e.g. 132.2 CIDEr-D score on Karpathy split and 130.7 CIDEr-D (c40) score on official online evaluation server.
翻訳日:2021-05-15 06:38:39 公開日:2021-01-04
# (参考訳) SpAtten: カスケードトークンとヘッドプルーニングによる効率的なスパースアテンションアーキテクチャ

SpAtten: Efficient Sparse Attention Architecture with Cascade Token and Head Pruning ( http://arxiv.org/abs/2012.09852v2 )

ライセンス: CC BY 4.0
Hanrui Wang and Zhekai Zhang and Song Han(参考訳) 自然言語処理(NLP)アプリケーションでは注目のメカニズムがますます普及しており、畳み込みや繰り返しのアーキテクチャよりも優れたパフォーマンスを示している。 しかし、CPUやGPUのような汎用プラットフォームは、複雑なデータ移動と演算強度の低いため、注意推論を行う際に非効率である。 さらに、既存のNNアクセラレータは主に畳み込みモデルやリカレントモデルの最適化に重点を置いており、注意を効率的に支援することはできない。 本稿では,トークンスパース性,頭部スパース性,量子化の機会を活かし,注意力計算とメモリアクセスを削減した効率的なアルゴリズムアーキテクチャコデザインであるs spattenを提案する。 人間言語の冗長性の高さに触発されて,文中の重要でないトークンを削り取るために,新しいカスケードトークンの刈り取りを提案する。 また,不要な頭部を除去するカスケードヘッドプルーニングを提案する。 注意機構に訓練可能な重みがないため、カスケードプルーニングは、基本的に重量プルーニングと異なり、プルーニングされたトークンとヘッドがフライで選択される。 ハードウェア上でそれらを効率的にサポートするために,トークンと頭部重大スコアを高いスループットでランク付けする新しいトップkエンジンを設計する。 さらに、まずMSBのみをフェッチし、その計算を実行するプログレッシブ量子化を提案し、信頼度が低ければLSBをフェッチし、アテンション出力を再計算し、メモリ削減のためのトレーディング計算を行う。 30のベンチマークにおいて、SpAttenは平均してDRAMアクセスを10.0xの精度で削減し、1.6x, 3.0x, 162x, 347xのスピードアップと1,4x, 3.2x, 1193x, 4059xの省エネをA3アクセラレータ、MNNFastアクセラレータ、TITAN Xp GPU、Xeon CPUで達成している。

The attention mechanism is becoming increasingly popular in Natural Language Processing (NLP) applications, showing superior performance than convolutional and recurrent architectures. However, general-purpose platforms such as CPUs and GPUs are inefficient when performing attention inference due to complicated data movement and low arithmetic intensity. Moreover, existing NN accelerators mainly focus on optimizing convolutional or recurrent models, and cannot efficiently support attention. In this paper, we present SpAtten, an efficient algorithm-architecture co-design that leverages token sparsity, head sparsity, and quantization opportunities to reduce the attention computation and memory access. Inspired by the high redundancy of human languages, we propose the novel cascade token pruning to prune away unimportant tokens in the sentence. We also propose cascade head pruning to remove unessential heads. Cascade pruning is fundamentally different from weight pruning since there is no trainable weight in the attention mechanism, and the pruned tokens and heads are selected on the fly. To efficiently support them on hardware, we design a novel top-k engine to rank token and head importance scores with high throughput. Furthermore, we propose progressive quantization that first fetches MSBs only and performs the computation; if the confidence is low, it fetches LSBs and recomputes the attention outputs, trading computation for memory reduction. Extensive experiments on 30 benchmarks show that, on average, SpAtten reduces DRAM access by 10.0x with no accuracy loss, and achieves 1.6x, 3.0x, 162x, 347x speedup, and 1,4x, 3.2x, 1193x, 4059x energy savings over A3 accelerator, MNNFast accelerator, TITAN Xp GPU, Xeon CPU, respectively.
翻訳日:2021-05-02 12:39:26 公開日:2021-01-04
# 深層学習と高調波発生

Deep learning and high harmonic generation ( http://arxiv.org/abs/2012.10328v2 )

ライセンス: Link先を確認
M. Lytova and M. Spanner and I. Tamblyn(参考訳) 機械学習を用いて,高調波発生(hhg)シナリオに適用した場合,様々な深層ニューラルネットワーク(nn)の有用性を検討する。 まず、ランダムに生成されたパラメータ(レーザーパルス強度、核間距離、分子配向)の集合に基づいて、二原子系および三原子系の低次元モデルから時間依存双極子およびhhg放出スペクトルを予測するためにnnsを訓練する。 トレーニングされたネットワークは,システムのHHGスペクトルを高速に生成するための有用なツールである。 同様に、我々は、HHGスペクトルまたは双極子加速度データに基づいて分子パラメータを決定するためにNNを訓練した。 これらのタイプのネットワークは、システムの物理パラメータを回復するためにhhgスペクトルを反転させる分光器として使用できる。 次に,トランスファー学習をネットワークに適用し,トレーニングセットに新たなテストケースを追加するだけで,ネットワークの適用範囲を拡大できることを実証する。 最後に、分子をdiまたは三原子、対称または非対称の型で分類するために使用できるnnを示す。 実験データを用いたトレーニングの展望により、これらのnnトポロジーはhhg実験に組み込むことができる新しい分光ツールセットを提供する。

Using machine learning, we explore the utility of various deep neural networks (NN) when applied to high harmonic generation (HHG) scenarios. First, we train the NNs to predict the time-dependent dipole and spectra of HHG emission from reduced-dimensionality models of di- and triatomic systems based of on sets of randomly generated parameters (laser pulse intensity, internuclear distance, and molecular orientation). These networks, once trained, are useful tools to rapidly generate the HHG spectra of our systems. Similarly, we have trained the NNs to solve the inverse problem - to determine the molecular parameters based on HHG spectra or dipole acceleration data. These types of networks could then be used as spectroscopic tools to invert HHG spectra in order to recover the underlying physical parameters of a system. Next, we demonstrate that transfer learning can be applied to our networks to expand the range of applicability of the networks with only a small number of new test cases added to our training sets. Finally, we demonstrate NNs that can be used to classify molecules by type: di- or triatomic, symmetric or asymmetric, wherein we can even rely on fairly simple fully connected neural networks. With outlooks toward training with experimental data, these NN topologies offer a novel set of spectroscopic tools that could be incorporated into HHG experiments.
翻訳日:2021-05-01 17:57:53 公開日:2021-01-04
# (参考訳) 誰でもサインできるのか? 2次元ポーズによる手話ビデオ生成の検討

Can Everybody Sign Now? Exploring Sign Language Video Generation from 2D Poses ( http://arxiv.org/abs/2012.10941v2 )

ライセンス: CC BY 4.0
Lucas Ventura, Amanda Duarte, Xavier Giro-i-Nieto(参考訳) 最近の研究は、手話のための人間の関節の2D/3D座標で表される人間のポーズの生成に対処している。 モーション転送のためのディープラーニングの最先端技術を用いて,アメリカの手話データセットhow2signを用いて,手話を実行する手話映像を2次元ポーズスケルトンで生成する。 筆者らは,手作業の細部が不足しているため,手話の適切なビデオを生成するには,現在のモデルでは不十分であることを示す。

Recent work have addressed the generation of human poses represented by 2D/3D coordinates of human joints for sign language. We use the state of the art in Deep Learning for motion transfer and evaluate them on How2Sign, an American Sign Language dataset, to generate videos of signers performing sign language given a 2D pose skeleton. We evaluate the generated videos quantitatively and qualitatively showing that the current models are not enough to generated adequate videos for Sign Language due to lack of detail in hands.
翻訳日:2021-05-01 07:56:10 公開日:2021-01-04
# 制御デトキシ化によるニューラルネットワークの深部空間トロイの木馬攻撃

Deep Feature Space Trojan Attack of Neural Networks by Controlled Detoxification ( http://arxiv.org/abs/2012.11212v2 )

ライセンス: Link先を確認
Siyuan Cheng, Yingqi Liu, Shiqing Ma, Xiangyu Zhang(参考訳) トロイの木馬(バックドア)攻撃はディープニューラルネットワークに対する敵攻撃の一種であり、攻撃者は悪意のあるデータに基づいて訓練・規制されたモデルを提供する。 バックドアは、通常の入力がトリガーと呼ばれる特定のパターンでスタンプされたときに起動され、誤分類を引き起こす。 既存のトロイの木馬攻撃の多くは、入力空間パッチ/オブジェクト(例えば、固体色のポリゴン)またはinstagramフィルタのような単純な入力変換である。 これらの単純なトリガーは、最近のバックドア検出アルゴリズムに影響を受けやすい。 提案手法は, 有効性, ステルス性, 制御性, 堅牢性, 信頼性の5つの特徴を持つ, 宇宙トロイの木馬攻撃である。 我々は、imagenetを含む様々なデータセット上で9つの画像分類器に関する広範囲な実験を行い、これらの特性を実証し、攻撃が最先端の防御を回避できることを実証する。

Trojan (backdoor) attack is a form of adversarial attack on deep neural networks where the attacker provides victims with a model trained/retrained on malicious data. The backdoor can be activated when a normal input is stamped with a certain pattern called trigger, causing misclassification. Many existing trojan attacks have their triggers being input space patches/objects (e.g., a polygon with solid color) or simple input transformations such as Instagram filters. These simple triggers are susceptible to recent backdoor detection algorithms. We propose a novel deep feature space trojan attack with five characteristics: effectiveness, stealthiness, controllability, robustness and reliance on deep features. We conduct extensive experiments on 9 image classifiers on various datasets including ImageNet to demonstrate these properties and show that our attack can evade state-of-the-art defense.
翻訳日:2021-04-27 06:44:16 公開日:2021-01-04
# ネットワークメカニズムの実証分類

Empirically Classifying Network Mechanisms ( http://arxiv.org/abs/2012.15863v2 )

ライセンス: Link先を確認
Ryan E. Langendorf and Matthew G. Burgess(参考訳) ネットワークモデルは、多くの物理的、生物学的、社会的分野にわたる相互接続システムの研究に使用される。 このようなモデルはしばしば特定のネットワーク生成機構を仮定し、データに適合するとシステムがどのように機能するかを記述するメカニズム固有のパラメータの見積もりを生成する。 例えば、ソーシャルネットワークモデルでは、新しい個人が既存のコネクションの数に比例する確率で他人とつながり("preferential attachment")を仮定し、同じ資格を持つ有名人と無名の個人間の相互作用の違いを推定する。 しかし、仮定されたメカニズムの関連性をテストする手段がなければ、そのようなモデルの結論は誤解を招く可能性がある。 本稿では,任意のネットワークデータを機械的に分類できる単純な経験的手法を提案する。 提案手法は,経験的ネットワークと,ユーザが提案するメカニズムからネットワークをモデル化し,各ネットワークを高い精度で分類する。 我々は、最も広く研究されている5つのネットワークメカニズムに対して、373の実証ネットワークをテストし、ほとんどの(228)がこれらのメカニズムと異なることを突き止めた。 これにより、いくつかの経験的ネットワークが機構の混合から生じる可能性が高まる。 異なる混合物が機能的に等価なネットワークを生成できるため、混合物はしばしば識別できない。 複数の機構によって制御されるそのようなシステムでは、我々の手法は依然として正確にサンプル外機能特性を予測できる。

Network models are used to study interconnected systems across many physical, biological, and social disciplines. Such models often assume a particular network-generating mechanism, which when fit to data produces estimates of mechanism-specific parameters that describe how systems function. For instance, a social network model might assume new individuals connect to others with probability proportional to their number of pre-existing connections ('preferential attachment'), and then estimate the disparity in interactions between famous and obscure individuals with similar qualifications. However, without a means of testing the relevance of the assumed mechanism, conclusions from such models could be misleading. Here we introduce a simple empirical approach which can mechanistically classify arbitrary network data. Our approach compares empirical networks to model networks from a user-provided candidate set of mechanisms, and classifies each network--with high accuracy--as originating from either one of the mechanisms or none of them. We tested 373 empirical networks against five of the most widely studied network mechanisms and found that most (228) were unlike any of these mechanisms. This raises the possibility that some empirical networks arise from mixtures of mechanisms. We show that mixtures are often unidentifiable because different mixtures can produce functionally equivalent networks. In such systems, which are governed by multiple mechanisms, our approach can still accurately predict out-of-sample functional properties.
翻訳日:2021-04-26 07:13:55 公開日:2021-01-04
# ハードケースによる自己教師型事前トレーニングによる視覚表現の改善

Self-supervised Pre-training with Hard Examples Improves Visual Representations ( http://arxiv.org/abs/2012.13493v2 )

ライセンス: Link先を確認
Chunyuan Li, Xiujun Li, Lei Zhang, Baolin Peng, Mingyuan Zhou, Jianfeng Gao(参考訳) 自己教師付き事前学習(ssp)は、ランダムな画像変換を用いて視覚表現学習のためのトレーニングデータを生成する。 本稿では,既存のSSP手法を擬似ラベル予測学習として統合したモデリングフレームワークを提案する。 次に,擬似ラベルがランダムな画像変換によって生成されたものよりも予測が難しい訓練例を生成するための新しいデータ拡張手法を提案する。 具体的には、adversarial trainingとcutmixを使用して、moco-v2とdeepcluster-v2の拡張ビューとして使用するためのハードサンプル(hexa)を作成しました。 実験では,imagenet上でモデルを事前学習し,複数の公開ベンチマークで評価した。 評価の結果,この2つのアルゴリズムは,従来のアルゴリズムよりも優れており,タスクの監督が制限されるような幅広いタスクにおいて,新たな最先端を実現することができた。 これらの結果は、厳密な例が事前訓練されたモデルの一般化に有効であることを示す。

Self-supervised pre-training (SSP) employs random image transformations to generate training data for visual representation learning. In this paper, we first present a modeling framework that unifies existing SSP methods as learning to predict pseudo-labels. Then, we propose new data augmentation methods of generating training examples whose pseudo-labels are harder to predict than those generated via random image transformations. Specifically, we use adversarial training and CutMix to create hard examples (HEXA) to be used as augmented views for MoCo-v2 and DeepCluster-v2, leading to two variants HEXA_{MoCo} and HEXA_{DCluster}, respectively. In our experiments, we pre-train models on ImageNet and evaluate them on multiple public benchmarks. Our evaluation shows that the two new algorithm variants outperform their original counterparts, and achieve new state-of-the-art on a wide range of tasks where limited task supervision is available for fine-tuning. These results verify that hard examples are instrumental in improving the generalization of the pre-trained models.
翻訳日:2021-04-25 04:39:35 公開日:2021-01-04
# POPO:悲観的なオフラインポリシー最適化

POPO: Pessimistic Offline Policy Optimization ( http://arxiv.org/abs/2012.13682v2 )

ライセンス: Link先を確認
Qiang He, Xinwen Hou(参考訳) オフライン強化学習(英: offline reinforcement learning, rl)は、環境との相互作用なしに、大規模な事前記録されたデータセットからのポリシーを最適化することを目的としている。 この設定は、多種多様なプレコンパイルデータセットを利用して、コスト、リスク、アクティブな探索なしにポリシーを得る、という約束を提供する。 しかし、一般的には、q-learningやactor-criticに基づくオフポリシーアルゴリズムは、静的データセットから学習する場合、パフォーマンスが悪くなる。 本研究では,オフライン設定において,オフラインでrlメソッドが学習できない理由について検討し,強ポリシーを得るために悲観的オフラインポリシー最適化(popo)と呼ばれる新しいオフラインrlアルゴリズムを提案する。 我々はPOPOが驚くほどよく機能し、高次元の状態と行動空間を持つタスクにスケールし、ベンチマークタスクでいくつかの最先端のオフラインRLアルゴリズムを比較したり、性能を上げたりすることを発見した。

Offline reinforcement learning (RL), also known as batch RL, aims to optimize policy from a large pre-recorded dataset without interaction with the environment. This setting offers the promise of utilizing diverse, pre-collected datasets to obtain policies without costly, risky, active exploration. However, commonly used off-policy algorithms based on Q-learning or actor-critic perform poorly when learning from a static dataset. In this work, we study why off-policy RL methods fail to learn in offline setting from the value function view, and we propose a novel offline RL algorithm that we call Pessimistic Offline Policy Optimization (POPO), which learns a pessimistic value function to get a strong policy. We find that POPO performs surprisingly well and scales to tasks with high-dimensional state and action space, comparing or outperforming several state-of-the-art offline RL algorithms on benchmark tasks.
翻訳日:2021-04-25 01:14:08 公開日:2021-01-04
# 角度同期問題の不均一な設定への拡張

An extension of the angular synchronization problem to the heterogeneous setting ( http://arxiv.org/abs/2012.14932v2 )

ライセンス: Link先を確認
Mihai Cucuringu and Hemant Tyagi(参考訳) G = ([n], E)$ が与えられたとき、古典的な角度同期問題は未知のアングル $\theta_1,\dots,\theta_n$ を $(\theta_i - \theta_j) \mod 2\pi$ という形のノイズの多い対の値の集まりから、それぞれ $\{i,j\} \in E$ を復元する。 この問題は、コンピュータビジョン、分散ネットワークの時間同期、選好関係からのランキングなど、さまざまなアプリケーションで発生します。 本稿では、$k$未知の角度群$\theta_{l,1}, \dots,\theta_{l,n}$, for $l=1,\dots,k$ の集合への一般化を考える。 それぞれの ${i,j\} \in E$ に対して、未知の $\ell \in \{1,2,\ldots,k\}$ に対して $\theta_{\ell,i} - \theta_{\ell,j}$ という形のノイズ対の測定が与えられる。 これは角同期問題から多角群の不均一な設定への自然な拡張と見なすことができ、そこでの測定グラフは未知のエッジ分離分解$G = G_1 \cup G_2 \ldots \cup G_k$, ここでは、$G_i$'sは各群に対応するエッジの部分グラフを表す。 本稿では, この問題に対する確率的生成モデルと, サンプリング間隔と雑音の両方に対する堅牢性の観点から, 詳細な理論的解析を行うスペクトルアルゴリズムを提案する。 理論的知見は,様々なパラメータ条件下でのアルゴリズムの有効性を示す,総合的な数値実験によって補完される。 最後に,グラフ実現問題に対するバイ同期化の適用について考察し,検討したすべての実験において最終的な回復精度を向上させることが示されるように,グラフのサブグラフである $G_i$, $i=1,\ldots,k$ を探索する反復グラフ解離手順を提案する。

Given an undirected measurement graph $G = ([n], E)$, the classical angular synchronization problem consists of recovering unknown angles $\theta_1,\dots,\theta_n$ from a collection of noisy pairwise measurements of the form $(\theta_i - \theta_j) \mod 2\pi$, for each $\{i,j\} \in E$. This problem arises in a variety of applications, including computer vision, time synchronization of distributed networks, and ranking from preference relationships. In this paper, we consider a generalization to the setting where there exist $k$ unknown groups of angles $\theta_{l,1}, \dots,\theta_{l,n}$, for $l=1,\dots,k$. For each $ \{i,j\} \in E$, we are given noisy pairwise measurements of the form $\theta_{\ell,i} - \theta_{\ell,j}$ for an unknown $\ell \in \{1,2,\ldots,k\}$. This can be thought of as a natural extension of the angular synchronization problem to the heterogeneous setting of multiple groups of angles, where the measurement graph has an unknown edge-disjoint decomposition $G = G_1 \cup G_2 \ldots \cup G_k$, where the $G_i$'s denote the subgraphs of edges corresponding to each group. We propose a probabilistic generative model for this problem, along with a spectral algorithm for which we provide a detailed theoretical analysis in terms of robustness against both sampling sparsity and noise. The theoretical findings are complemented by a comprehensive set of numerical experiments, showcasing the efficacy of our algorithm under various parameter regimes. Finally, we consider an application of bi-synchronization to the graph realization problem, and provide along the way an iterative graph disentangling procedure that uncovers the subgraphs $G_i$, $i=1,\ldots,k$ which is of independent interest, as it is shown to improve the final recovery accuracy across all the experiments considered.
翻訳日:2021-04-18 20:41:22 公開日:2021-01-04
# 解剖学的脳バリアセグメンテーションのための組立ResUnet

Ensembled ResUnet for Anatomical Brain Barriers Segmentation ( http://arxiv.org/abs/2012.14567v2 )

ライセンス: Link先を確認
Munan Ning, Cheng Bian, Chenglang Yuan, Kai Ma, Yefeng Zheng(参考訳) 脳構造の高精度分割はグリオーマや放射線治療計画に有用である。 しかし、異なるモダリティの視覚的および解剖学的差異により、脳構造の正確なセグメンテーションが困難になる。 この問題に対処するために、我々はまずディープエンコーダと浅層デコーダを備えた残差ブロックベースのU字型ネットワークを構築し、フレームワークの性能と効率をトレードオフできる。 次に,異なる前景と背景クラス間のクラス不均衡の問題に対処するために,Tversky損失を導入する。 最後に,モデルアンサンブル戦略を用いて,異常値の除去とさらなる性能向上を図る。

Accuracy segmentation of brain structures could be helpful for glioma and radiotherapy planning. However, due to the visual and anatomical differences between different modalities, the accurate segmentation of brain structures becomes challenging. To address this problem, we first construct a residual block based U-shape network with a deep encoder and shallow decoder, which can trade off the framework performance and efficiency. Then, we introduce the Tversky loss to address the issue of the class imbalance between different foreground and the background classes. Finally, a model ensemble strategy is utilized to remove outliers and further boost performance.
翻訳日:2021-04-18 20:30:59 公開日:2021-01-04
# (参考訳) ディープトランスファー学習を用いたネットワークトラフィックモニタリングに向けて

Towards Network Traffic Monitoring Using Deep Transfer Learning ( http://arxiv.org/abs/2101.00731v1 )

ライセンス: CC BY 4.0
Harsh Dhillon, Anwar Haque(参考訳) ネットワークトラフィックは世界中で増加傾向にある。 現代のネットワークインフラストラクチャは、古典的ネットワーク侵入検出手法を効率の悪いものにし、巨大なネットワークトラフィックの流入を分類する。 本稿では,様々な深層学習手法を用いて,ネットワーク侵入検知システム(NIDS)の構築に向けた最新のアプローチを提案する。 提案手法をさらに改良し,実世界の環境において有効にするために,本手法では,本手法で学習した知識を,豊富な計算資源とデータ資源を持つソースドメインから,両リソースの少ないターゲットドメインに転送する深層移動学習手法を用いる。 提案手法では,ソース領域で98.30%の分類精度,ターゲット領域で98.43%の分類精度が向上し,unsw-15データセットを用いた分類速度が向上した。 本研究は,ネットワーク分類を行うための大規模深層学習モデルの構築を可能にし,実世界対象領域に展開することで,リソースのアクセシビリティに制限があるにも関わらず,その分類性能を維持でき,分類速度を向上できることを実証する。

Network traffic is growing at an outpaced speed globally. The modern network infrastructure makes classic network intrusion detection methods inefficient to classify an inflow of vast network traffic. This paper aims to present a modern approach towards building a network intrusion detection system (NIDS) by using various deep learning methods. To further improve our proposed scheme and make it effective in real-world settings, we use deep transfer learning techniques where we transfer the knowledge learned by our model in a source domain with plentiful computational and data resources to a target domain with sparse availability of both the resources. Our proposed method achieved 98.30% classification accuracy score in the source domain and an improved 98.43% classification accuracy score in the target domain with a boost in the classification speed using UNSW-15 dataset. This study demonstrates that deep transfer learning techniques make it possible to construct large deep learning models to perform network classification, which can be deployed in the real world target domains where they can maintain their classification performance and improve their classification speed despite the limited accessibility of resources.
翻訳日:2021-04-12 09:01:19 公開日:2021-01-04
# (参考訳) 教師なしディープニューラルネットワークによる制約下での最適学習

Learning to Optimize Under Constraints with Unsupervised Deep Neural Networks ( http://arxiv.org/abs/2101.00744v1 )

ライセンス: CC BY 4.0
Seyedrazieh Bayati, Faramarz Jabbarvaziri(参考訳) 本稿では,一般的な制約付き連続最適化問題の解法を学ぶための機械学習(ML)手法を提案する。 我々の知る限り、最適化を学習し、制約のない最適化問題に焦点を合わせ、制約された問題に対処する一般的な手法は、簡単には一般化できない。 このアプローチは、問題のパラメータが絶えず変化し、パラメータ更新毎に最適化タスクを解決する必要がある最適化タスクで非常に有用である。 このような問題において、勾配降下法や内点法のような最適化アルゴリズムの計算複雑性は、リアルタイムアプリケーションにおける準最適設計を妨げる。 本稿では,主計算負荷をオフライン学習フェーズに回帰することで,制約付き最適化問題をリアルタイムに解くための教師なしディープラーニング(DL)ソリューションを提案する。 本論文の主な貢献は、汎用最適化タスクのためのdl生成解に等式と不等式制約を課す方法を提案することである。

In this paper, we propose a machine learning (ML) method to learn how to solve a generic constrained continuous optimization problem. To the best of our knowledge, the generic methods that learn to optimize, focus on unconstrained optimization problems and those dealing with constrained problems are not easy-to-generalize. This approach is quite useful in optimization tasks where the problem's parameters constantly change and require resolving the optimization task per parameter update. In such problems, the computational complexity of optimization algorithms such as gradient descent or interior point method preclude near-optimal designs in real-time applications. In this paper, we propose an unsupervised deep learning (DL) solution for solving constrained optimization problems in real-time by relegating the main computation load to offline training phase. This paper's main contribution is proposing a method for enforcing the equality and inequality constraints to the DL-generated solutions for generic optimization tasks.
翻訳日:2021-04-12 08:45:37 公開日:2021-01-04
# (参考訳) DSXplore:スライディングチャネル畳み込みによる畳み込みニューラルネットワークの最適化

DSXplore: Optimizing Convolutional Neural Networks via Sliding-Channel Convolutions ( http://arxiv.org/abs/2101.00745v1 )

ライセンス: CC BY 4.0
Yuke Wang, Boyuan Feng, Yufei Ding(参考訳) 畳み込みニューラルネットワーク(CNN)の鍵となる進歩として、モデル精度を維持しながらCNNの計算とパラメータサイズを削減する最も一般的な手法の1つとして、深層的に分離可能な畳み込み(DSC)がある。 また、計算能力やメモリに乏しいモバイルデバイスのような幅広いアプリケーションに対して、計算集約型およびメモリ集約型cnnの適用性を改善することにも大きな影響を与える。 しかし、dscsにおけるこれまでの研究は、既存のdsc設計の限られた組み合わせに重点を置いているため、より良い精度と高い計算/パラメータ削減を達成する可能性の高い設計を探求する機会を欠いている。 さらに、既製の畳み込み実装は限定的な計算スキームを提供するため、異なる畳み込みパターンを持つDSCをサポートしていない。 この目的のために我々は,CNN上でDSCを探索するための最初の最適化設計であるDSXploreを紹介する。 具体的には、アルゴリズムレベルでは、DSXploreは、精度性能と計算とメモリコストの削減のバランスをとるために、入力チャネルオーバーラップを特徴とする、新しいファクタライズドカーネル -- スライドチャネル畳み込み(SCC)を組み込んでいる。 SCCはまた、調整可能なカーネルパラメータを導入することで、設計の探索に膨大なスペースを提供する。 さらに,実装レベルでは,入力中心の後方設計やチャネル循環最適化など,SCC用に最適化されたGPU実装を実行する。 主流のcnn間で異なるデータセットに対する集中的な実験は、標準畳み込みと既存のdscsに対する精度と計算/パラメータのバランスにおけるdsxploreの利点を示している。

As the key advancement of the convolutional neural networks (CNNs), depthwise separable convolutions (DSCs) are becoming one of the most popular techniques to reduce the computations and parameters size of CNNs meanwhile maintaining the model accuracy. It also brings profound impact to improve the applicability of the compute- and memory-intensive CNNs to a broad range of applications, such as mobile devices, which are generally short of computation power and memory. However, previous research in DSCs are largely focusing on compositing the limited existing DSC designs, thus, missing the opportunities to explore more potential designs that can achieve better accuracy and higher computation/parameter reduction. Besides, the off-the-shelf convolution implementations offer limited computing schemes, therefore, lacking support for DSCs with different convolution patterns. To this end, we introduce, DSXplore, the first optimized design for exploring DSCs on CNNs. Specifically, at the algorithm level, DSXplore incorporates a novel factorized kernel -- sliding-channel convolution (SCC), featured with input-channel overlapping to balance the accuracy performance and the reduction of computation and memory cost. SCC also offers enormous space for design exploration by introducing adjustable kernel parameters. Further, at the implementation level, we carry out an optimized GPU-implementation tailored for SCC by leveraging several key techniques, such as the input-centric backward design and the channel-cyclic optimization. Intensive experiments on different datasets across mainstream CNNs show the advantages of DSXplore in balancing accuracy and computation/parameter reduction over the standard convolution and the existing DSCs.
翻訳日:2021-04-12 08:40:21 公開日:2021-01-04
# (参考訳) 勾配上のL2ノルム上のL1最小化

Minimizing L1 over L2 norms on the gradient ( http://arxiv.org/abs/2101.00809v1 )

ライセンス: CC BY 4.0
Chao Wang, Min Tao, Chen-Nee Chuah, James Nagy, Yifei Lou(参考訳) 本稿では,画像用勾配のl1/l2最小化について検討する。 いくつかの最近の研究により、L1/L2はL0ノルムを近似して疎性を促進する際にL1ノルムよりも優れていることが示されている。 したがって、画像勾配にl1/l2を適用することは、画像勾配のスパーシティを強制する古典的な全変動(勾配上のl1ノルム)よりも良いと仮定する。 この仮説を検証するために,L1/L2のL1に対する優位性に関する実証的な証拠を,低周波測定から断片的定値信号の復元に用いた。 数値解析により,乗算器の交互方向法 (ADMM) の逐次収束性を証明できる特定の分割方式を設計する。 実験的に,低周波計測による画像回復のためのL1/L2および他の非凸正則化の可視的改善とMRIとCTの2つの医学的応用を示した。 すべての数値結果は,提案手法の有効性を示す。

In this paper, we study the L1/L2 minimization on the gradient for imaging applications. Several recent works have demonstrated that L1/L2 is better than the L1 norm when approximating the L0 norm to promote sparsity. Consequently, we postulate that applying L1/L2 on the gradient is better than the classic total variation (the L1 norm on the gradient) to enforce the sparsity of the image gradient. To verify our hypothesis, we consider a constrained formulation to reveal empirical evidence on the superiority of L1/L2 over L1 when recovering piecewise constant signals from low-frequency measurements. Numerically, we design a specific splitting scheme, under which we can prove the subsequential convergence for the alternating direction method of multipliers (ADMM). Experimentally, we demonstrate visible improvements of L1/L2 over L1 and other nonconvex regularizations for image recovery from low-frequency measurements and two medical applications of MRI and CT reconstruction. All the numerical results show the efficiency of our proposed approach.
翻訳日:2021-04-12 07:17:07 公開日:2021-01-04
# (参考訳) マイクロアレイデータのためのアンサンブル分類器を用いた新しいバイオインスパイアハイブリッドマルチフィルタラッパー遺伝子選択法

A Novel Bio-Inspired Hybrid Multi-Filter Wrapper Gene Selection Method with Ensemble Classifier for Microarray Data ( http://arxiv.org/abs/2101.00819v1 )

ライセンス: CC BY 4.0
Babak Nouri-Moghaddam, Mehdi Ghazanfari, Mohammad Fathian(参考訳) マイクロアレイ技術はDNA発現データを収集するための最も重要なツールの1つとして知られている。 この技術により、研究者は病気の種類とその起源を調査し、調査することができる。 しかしながら、マイクロアレイデータは、小さなサンプルサイズ、かなりの数の遺伝子、不均衡なデータなどの課題としばしば関連づけられる。 分類モデルが非効率になります そこで,マルチフィルタと適応型カオス型多目的フォレスト最適化アルゴリズム(ac-mofoa)に基づく新しいハイブリッドソリューションを提案し,遺伝子選択問題を解き,アンサンブル分類器を構築する。 提案手法では、データセットの次元を減らすために、5つのフィルタ法を組み合わせて冗長で無関係な遺伝子を除去する。 そこで,非支配的ソート,群集距離,カオス理論,適応演算子の概念に基づくAC-MOFOAを提案する。 AC-MOFOAは,データセット次元の削減,KELMの最適化,分類精度の向上を目的としたラッパー手法である。 次に、AC-MOFOA結果を用いてアンサンブル分類器モデルを示し、マイクロアレイデータの分類を行う。 提案アルゴリズムの性能を9つの公開マイクロアレイデータセットで評価し, 選択された遺伝子数, 分類効率, 実行時間, 時間複雑性, および5つのハイブリッドマルチオブジェクト法によるハイパーボリュームインジケータ基準と比較した。 その結果,提案手法は,データセットの次元を小さくすることで,ほとんどのデータセットにおけるKELMの精度を向上し,他の多目的手法と比較して類似あるいは優れた性能が得られることがわかった。 さらに,従来のアンサンブル法と比較して,マイクロアレイデータの分類精度と一般化性の向上が期待できる。

Microarray technology is known as one of the most important tools for collecting DNA expression data. This technology allows researchers to investigate and examine types of diseases and their origins. However, microarray data are often associated with challenges such as small sample size, a significant number of genes, imbalanced data, etc. that make classification models inefficient. Thus, a new hybrid solution based on multi-filter and adaptive chaotic multi-objective forest optimization algorithm (AC-MOFOA) is presented to solve the gene selection problem and construct the Ensemble Classifier. In the proposed solution, to reduce the dataset's dimensions, a multi-filter model uses a combination of five filter methods to remove redundant and irrelevant genes. Then, an AC-MOFOA based on the concepts of non-dominated sorting, crowding distance, chaos theory, and adaptive operators is presented. AC-MOFOA as a wrapper method aimed at reducing dataset dimensions, optimizing KELM, and increasing the accuracy of the classification, simultaneously. Next, in this method, an ensemble classifier model is presented using AC-MOFOA results to classify microarray data. The performance of the proposed algorithm was evaluated on nine public microarray datasets, and its results were compared in terms of the number of selected genes, classification efficiency, execution time, time complexity, and hypervolume indicator criterion with five hybrid multi-objective methods. According to the results, the proposed hybrid method could increase the accuracy of the KELM in most datasets by reducing the dataset's dimensions and achieve similar or superior performance compared to other multi-objective methods. Furthermore, the proposed Ensemble Classifier model could provide better classification accuracy and generalizability in microarray data compared to conventional ensemble methods.
翻訳日:2021-04-12 06:54:17 公開日:2021-01-04
# (参考訳) アライメントとエッジ検出による絵画への関心の中心の同定:Luc Tuymansの作品の事例研究

Identifying centres of interest in paintings using alignment and edge detection: Case studies on works by Luc Tuymans ( http://arxiv.org/abs/2101.00858v1 )

ライセンス: CC BY 4.0
Sinem Aslan, Luc Steels(参考訳) アーティストがオリジナルイメージから絵画へ移行する、創造的なプロセスとは何か? コンピュータビジョンとパターン認識の手法を用いてこの過程を検証できるだろうか? ここでは、アーティストが原画に適用する変換の一部をアルゴリズム的に分解して、意味を持つ絵画の焦点領域である関心の中心を確立するための最初の予備的なステップを設定します。 本研究は,まず,絵画をベースとした原画から最小部分を切り離し,その画をこの源泉と整列させ,興味の中心を特定するための微差を調査し,その役割を理解しようとする比較手法を提案する。 本稿では,エッジに関するマイクロディファレンスにのみ焦点をあてる。 アーティストが絵画に興味を持つ場所と方法の研究は、キュレーター、美術史家、視聴者、美術教育者にとって貴重なものであり、アーティストが自身の芸術的手法を理解し、洗練するのを手助けするかもしれない。

What is the creative process through which an artist goes from an original image to a painting? Can we examine this process using techniques from computer vision and pattern recognition? Here we set the first preliminary steps to algorithmically deconstruct some of the transformations that an artist applies to an original image in order to establish centres of interest, which are focal areas of a painting that carry meaning. We introduce a comparative methodology that first cuts out the minimal segment from the original image on which the painting is based, then aligns the painting with this source, investigates micro-differences to identify centres of interest and attempts to understand their role. In this paper we focus exclusively on micro-differences with respect to edges. We believe that research into where and how artists create centres of interest in paintings is valuable for curators, art historians, viewers, and art educators, and might even help artists to understand and refine their own artistic method.
翻訳日:2021-04-12 06:24:42 公開日:2021-01-04
# (参考訳) 決定木分類器の公正な訓練

Fair Training of Decision Tree Classifiers ( http://arxiv.org/abs/2101.00909v1 )

ライセンス: CC BY 4.0
Francesco Ranzato, Caterina Urban, Marco Zanella(参考訳) 本研究では,決定木アンサンブルの個々フェアネスを形式的に検証する問題と,精度と個々フェアネスを最大化する木モデルの訓練について検討する。 本手法では, 正当性検証と正当性意識訓練の両方が, 対向機械学習における入力摂動下での標準頑健性の変種である分類モデルの安定性に依拠している。 本手法は,決定木の安定性特性に関するアサーションを自動推論できる静的プログラム解析のための確立された手法である。 本手法は, 判定木に対する対人訓練ツールを用いて, フェアネス認識学習法を実装し, フェアネス特性の評価に用いる基準データセットを用いて実験的に評価した。 実験結果から,本手法は個体の公正度が高い木モデルを訓練することができることがわかった。 自然の最先端のCARTの木と無作為な森林。 さらに、副産物として、これらの公正決定木は著しくコンパクトであることが判明し、そのフェアネス特性の解釈可能性を高めた。

We study the problem of formally verifying individual fairness of decision tree ensembles, as well as training tree models which maximize both accuracy and individual fairness. In our approach, fairness verification and fairness-aware training both rely on a notion of stability of a classification model, which is a variant of standard robustness under input perturbations used in adversarial machine learning. Our verification and training methods leverage abstract interpretation, a well established technique for static program analysis which is able to automatically infer assertions about stability properties of decision trees. By relying on a tool for adversarial training of decision trees, our fairness-aware learning method has been implemented and experimentally evaluated on the reference datasets used to assess fairness properties. The experimental results show that our approach is able to train tree models exhibiting a high degree of individual fairness w.r.t. the natural state-of-the-art CART trees and random forests. Moreover, as a by-product, these fair decision trees turn out to be significantly compact, thus enhancing the interpretability of their fairness properties.
翻訳日:2021-04-12 06:10:02 公開日:2021-01-04
# (参考訳) salient object subitizing による弱教師付き塩分検出

Weakly-Supervised Saliency Detection via Salient Object Subitizing ( http://arxiv.org/abs/2101.00932v1 )

ライセンス: CC BY 4.0
Xiaoyang Zheng, Xin Tan, Jie Zhou, Lizhuang Ma, Rynson W.H. Lau(参考訳) salient object detectionは、最も視覚的に異なるオブジェクトを検出し、対応するマスクを生成することを目的としている。 ピクセルレベルのアノテーションのコストが高いため、イメージタグは通常、弱い監視手段として使用される。 しかし、イメージタグはオブジェクトの1つのクラスにアノテートするためにのみ使用できる。 本稿では,クラス非依存であるため,弱い監督として塩分サブイタライジングを導入する。 これにより、画像の健全なオブジェクトが1つ以上のクラスから得られるような、塩分濃度検出の特性に調整することができる。 そこで本稿では,SSM (Saliency Subitizing Module) とSUM (Saliency Updating Module) の2つのモジュールからなるモデルを提案する。 SSMはサブティナイズ情報を用いて初期唾液マスクを生成することを学ぶが、教師なしの方法やランダムなシードは必要とせず、SUMは生成した唾液マスクを反復的に洗練する。 5つのベンチマークデータセットに対して広範な実験を行う。 実験結果から,本手法は他の弱教師付き手法よりも優れ,完全教師付き手法と相容れない性能を示した。

Salient object detection aims at detecting the most visually distinct objects and producing the corresponding masks. As the cost of pixel-level annotations is high, image tags are usually used as weak supervisions. However, an image tag can only be used to annotate one class of objects. In this paper, we introduce saliency subitizing as the weak supervision since it is class-agnostic. This allows the supervision to be aligned with the property of saliency detection, where the salient objects of an image could be from more than one class. To this end, we propose a model with two modules, Saliency Subitizing Module (SSM) and Saliency Updating Module (SUM). While SSM learns to generate the initial saliency masks using the subitizing information, without the need for any unsupervised methods or some random seeds, SUM helps iteratively refine the generated saliency masks. We conduct extensive experiments on five benchmark datasets. The experimental results show that our method outperforms other weakly-supervised methods and even performs comparably to some fully-supervised methods.
翻訳日:2021-04-12 05:52:47 公開日:2021-01-04
# (参考訳) VGG-XGBoost法とFuzzy Clustering-Level Set法によるCT画像の肺病変の分類と分類

Classification and Segmentation of Pulmonary Lesions in CT images using a combined VGG-XGBoost method, and an integrated Fuzzy Clustering-Level Set technique ( http://arxiv.org/abs/2101.00948v1 )

ライセンス: CC BY-SA 4.0
Niloofar Akhavan Javan, Ali Jebreili, Babak Mozafari, Morteza Hosseinioun(参考訳) 肺がんは最も致命的な病気の1つであり、多くの人が毎年この病気で死亡していることから、早期発見と診断が重要であり、がんの増殖と拡散を防いでいる。 がんが早期に診断されると、患者の命が救われる。 しかし、現在の肺疾患の診断は、この分野の専門家を必要とする時間を要する人的資源によって行われる。 また、人間の診断には高いレベルの誤りがある。 我々の目標は、肺病変を高精度に検出・分類し、CTスキャン画像に分類するシステムを開発することである。 提案手法では,まずCTスキャン画像から特徴を自動的に抽出し,抽出した特徴をEnsemble Gradient Boosting法により分類する。 最後に、CTスキャン画像に病変がある場合、ファジィクラスタリングやレベルセットを含む[1]に基づくハイブリッド法を用いて、病変をセグメント化する。 肺病変のCTスキャン画像を含むデータセットを収集した。 対象地域はマシュハドの患者であった。 収集されたサンプルは専門家によってタグ付けされた。 このデータセットをトレーニングとテストに使用しました。 最後に、このデータセットの精度96%を達成できたのです。 このシステムは、医師が肺病変を診断し、起こりうる間違いを防ぐのに役立つ。

Given that lung cancer is one of the deadliest diseases, and many die from the disease every year, early detection and diagnosis of this disease are valuable, preventing cancer from growing and spreading. So if cancer is diagnosed in the early stage, the patient's life will be saved. However, the current pulmonary disease diagnosis is made by human resources, which is time-consuming and requires a specialist in this field. Also, there is a high level of errors in human diagnosis. Our goal is to develop a system that can detect and classify lung lesions with high accuracy and segment them in CT-scan images. In the proposed method, first, features are extracted automatically from the CT-scan image; then, the extracted features are classified by Ensemble Gradient Boosting methods. Finally, if there is a lesion in the CT-scan image, using a hybrid method based on [1], including Fuzzy Clustering and Level Set, the lesion is segmented. We collected a dataset, including CT-scan images of pulmonary lesions. The target community was the patients in Mashhad. The collected samples were then tagged by a specialist. We used this dataset for training and testing our models. Finally, we were able to achieve an accuracy of 96% for this dataset. This system can help physicians to diagnose pulmonary lesions and prevent possible mistakes.
翻訳日:2021-04-12 05:35:45 公開日:2021-01-04
# (参考訳) GANの誘導:条件付き画像生成のための条件付き事前訓練GANの制御方法

Guiding GANs: How to control non-conditional pre-trained GANs for conditional image generation ( http://arxiv.org/abs/2101.00990v1 )

ライセンス: CC BY 4.0
Manel Mateos, Alejandro Gonz\'alez, Xavier Sevillano(参考訳) Generative Adversarial Networks(GAN)は、ランダム入力から画像などの人工データを生成するために共同で訓練された2つのニューラルネットワーク(ジェネレータと識別器)のアレンジである。 これらの生成された画像の品質は、最近そのようなレベルに達し、マシンと人間の両方が、実例で偽造を誤認する可能性がある。 しかし、GANの生成元によって実行されるプロセスには、特定のクラスのサブカテゴリから画像を生成するようにネットワークに条件付けしたい場合、いくつかの制限がある。 最近のアプローチでは、画像意味セグメンテーションやテキスト記述など、トレーニングプロセスの前に追加情報を導入することで、この \textit{conditional generation}に対処している。 これらのテクニックは成功しても、望まれるサブカテゴリを事前に定義し、GANをスクラッチからトレーニングするために、それらを表す大きなラベル付きイメージデータセットを収集する必要がある。 本稿では,一般的な非条件付きGANを条件付きGANとして振舞うための,新しい代替手法を提案する。 ganを再トレーニングする代わりに、このアプローチでは、エンコーダネットワークをミックスして、非条件ganのジェネレータネットワークに供給される高次元のランダム入力ベクトルを生成し、特定のサブカテゴリから画像を生成する。 実験では,条件付きGANをスクラッチからトレーニングした場合と比較して,わずか数百の画像でエンコーダを訓練した後,非条件付きGANに匹敵する品質の人工的な画像を生成することができ,処理を大幅に高速化し,新たなサブカテゴリをシームレスに追加することができる。

Generative Adversarial Networks (GANs) are an arrange of two neural networks -- the generator and the discriminator -- that are jointly trained to generate artificial data, such as images, from random inputs. The quality of these generated images has recently reached such levels that can often lead both machines and humans into mistaking fake for real examples. However, the process performed by the generator of the GAN has some limitations when we want to condition the network to generate images from subcategories of a specific class. Some recent approaches tackle this \textit{conditional generation} by introducing extra information prior to the training process, such as image semantic segmentation or textual descriptions. While successful, these techniques still require defining beforehand the desired subcategories and collecting large labeled image datasets representing them to train the GAN from scratch. In this paper we present a novel and alternative method for guiding generic non-conditional GANs to behave as conditional GANs. Instead of re-training the GAN, our approach adds into the mix an encoder network to generate the high-dimensional random input vectors that are fed to the generator network of a non-conditional GAN to make it generate images from a specific subcategory. In our experiments, when compared to training a conditional GAN from scratch, our guided GAN is able to generate artificial images of perceived quality comparable to that of non-conditional GANs after training the encoder on just a few hundreds of images, which substantially accelerates the process and enables adding new subcategories seamlessly.
翻訳日:2021-04-12 05:23:42 公開日:2021-01-04
# (参考訳) 時空間予測のための説明器付き条件付き局所フィルタ

Conditional Local Filters with Explainers for Spatio-Temporal Forecasting ( http://arxiv.org/abs/2101.01000v1 )

ライセンス: CC BY 4.0
Haitao Lin, Zhangyang Gao, Lirong Wu, Stan. Z. Li(参考訳) 時空間予測は、時空間力学における高非線形性や、空間領域、特に地球物理学、交通流などの分野における複雑な依存性や位置特性パターンに起因する。 本研究では,空間依存を捉えるために,新しいグラフに基づく有向畳み込みを提案する。 可変局所パターンをモデル化するために,接空間に基づく座標の局所表現上の関数によってパラメータ化された有向グラフ上の畳み込みのための条件付き局所フィルタを提案する。 このフィルタは、時間間隔の異なるパターンの解釈可能性のために確立された説明器を用いて、時間ダイナミクスをモデル化するためのリカレントニューラルネットワーク(RNN)アーキテクチャに組み込まれている。 提案手法は,道路網の交通流,地表面温度,風速,疫病拡散といった実世界のデータセットを用いて評価し,最先端の性能を向上した。

Spatio-temporal prediction is challenging attributing to the high nonlinearity in temporal dynamics as well as complex dependency and location-characterized pattern in spatial domains, especially in fields like geophysics, traffic flow, etc. In this work, a novel graph-based directed convolution is proposed to capture the spatial dependency. To model the variable local pattern, we propose conditional local filters for convolution on the directed graph, parameterized by the functions on local representation of coordinate based on tangent space. The filter is embedded in a Recurrent Neural Network (RNN) architecture for modeling the temporal dynamics with an explainer established for interpretability of different time intervals' pattern. The methods are evaluated on real-world datasets including road network traffic flow, earth surface temperature \& wind flows and disease spread datasets, achieving the state-of-the-art performance with improvements.
翻訳日:2021-04-12 05:11:56 公開日:2021-01-04
# (参考訳) 逆生成制限ボルツマンマシンを用いた高速アンサンブル学習

Fast Ensemble Learning Using Adversarially-Generated Restricted Boltzmann Machines ( http://arxiv.org/abs/2101.01042v1 )

ライセンス: CC BY 4.0
Gustavo H. de Rosa, Mateus Roder, Jo\~ao P. Papa(参考訳) 機械学習は、画像分類から自動運転、自然言語処理まで、過去数年間にわたって幅広いタスクに応用されてきた。 制限ボルツマン機械(rbm)は近年注目を集め、データ確率分布をモデル化するエネルギーベースの構造に依存している。 とはいえ、このようなテクニックは逆境操作、すなわちわずかに、あるいは大きく修正されたデータに影響を受けやすい。 敵対的問題を克服する別の方法として、データ分散をモデル化し、元のものと類似した逆データを生成するGAN(Generative Adversarial Networks)がある。 そこで本研究では,事前学習した重み行列がGAN入力として機能するAdversarial Learningを用いて,RBMを人工的に生成することを提案する。 さらに,新しいモデルの訓練の負担を軽減するため,共用量の行列をサンプリングしてアンサンブルに組み合わせることを提案する。 実験結果は,画像再構成および画像分類課題における提案手法の適合性を示し,大量のrbmの事前学習に代わる人工的なアンサンブルについて述べる。

Machine Learning has been applied in a wide range of tasks throughout the last years, ranging from image classification to autonomous driving and natural language processing. Restricted Boltzmann Machine (RBM) has received recent attention and relies on an energy-based structure to model data probability distributions. Notwithstanding, such a technique is susceptible to adversarial manipulation, i.e., slightly or profoundly modified data. An alternative to overcome the adversarial problem lies in the Generative Adversarial Networks (GAN), capable of modeling data distributions and generating adversarial data that resemble the original ones. Therefore, this work proposes to artificially generate RBMs using Adversarial Learning, where pre-trained weight matrices serve as the GAN inputs. Furthermore, it proposes to sample copious amounts of matrices and combine them into ensembles, alleviating the burden of training new models'. Experimental results demonstrate the suitability of the proposed approach under image reconstruction and image classification tasks, and describe how artificial-based ensembles are alternatives to pre-training vast amounts of RBMs.
翻訳日:2021-04-12 04:44:58 公開日:2021-01-04
# (参考訳) 関数的制約を伴う凸最適化問題の解法の比較

Comparing different subgradient methods for solving convex optimization problems with functional constraints ( http://arxiv.org/abs/2101.01045v1 )

ライセンス: CC BY 4.0
Thi Lan Dinh and Ngoc Hoang Anh Mai(参考訳) すべての$r> 1$に対して、複雑性 $\mathcal{O}(\varepsilon^{-2})$ と $\mathcal{O}(\varepsilon^{-2r})$ の標準凸最適化問題に対する双対劣次法と原始双対劣次法を提供する。 彼らは最近の[arXiv:2009.12769, 2020, pp]におけるMetel-Takedaの業績に基づいている。 1-12] and boyd's method in [lecture notes of ee364b, stanford university, spring 2013-14, pp。 1-39]. 本手法の効率は,他の手法との比較において数値的に説明される。

We provide a dual subgradient method and a primal-dual subgradient method for standard convex optimization problems with complexity $\mathcal{O}(\varepsilon^{-2})$ and $\mathcal{O}(\varepsilon^{-2r})$, for all $r> 1$, respectively. They are based on recent Metel-Takeda's work in [arXiv:2009.12769, 2020, pp. 1-12] and Boyd's method in [Lecture notes of EE364b, Stanford University, Spring 2013-14, pp. 1-39]. The efficiency of our methods is numerically illustrated in a comparison to the others.
翻訳日:2021-04-12 04:37:29 公開日:2021-01-04
# (参考訳) マルチアーマッドバンドにおける悲しみ

Be Greedy in Multi-Armed Bandits ( http://arxiv.org/abs/2101.01086v1 )

ライセンス: CC BY 4.0
Matthieu Jedor, Jonathan Lou\"edec, Vianney Perchet(参考訳) グリーディアルゴリズムは、各ラウンドの局所最適選択を不注意に受け取り、探索および/または情報収集の利点を無視する、シーケンシャルな決定問題の最も単純なヒューリスティックである。 理論的には、例えば、標準的な多腕バンディット問題において(時間軸に関して)線形な後悔さえも、パフォーマンスが悪かったことが知られている。 一方、このヒューリスティックは実際かなりうまく機能し、非常に特定の線形文脈的およびベイズ的バンディットモデルにおいて、部分線型、あるいは近似的、後悔的境界さえも持つ。 我々は,最近の研究成果に基づいて,腕数は比較的多く,単純な欲望アルゴリズムが理論上,実際上,高い競争性能を享受するバンディットの設定を調査した。 まず、Greedyアルゴリズムの後悔に基づく一般的な最悪のケースを提供する。 いくつかのアームのサブサンプリングと組み合わせると、連続、無限、多腕のバンディット問題において、ほぼ最適の最悪の後悔境界を検証することが証明される。 さらに、短い時間スパンに対して、欲望の理論的相対的準最適性も減少する。 結果として、多くの興味深い問題と関連する地平線に対して、理論的な保証、実用的性能、計算の負担の間の最良の妥協は、確実に欲望のヒューリスティックに従うことであると主張する。 我々は,中程度に長い地平線でも最新技術と比較して大幅な改善を示す多くの数値実験によって,我々の主張を支持している。

The Greedy algorithm is the simplest heuristic in sequential decision problem that carelessly takes the locally optimal choice at each round, disregarding any advantages of exploring and/or information gathering. Theoretically, it is known to sometimes have poor performances, for instance even a linear regret (with respect to the time horizon) in the standard multi-armed bandit problem. On the other hand, this heuristic performs reasonably well in practice and it even has sublinear, and even near-optimal, regret bounds in some very specific linear contextual and Bayesian bandit models. We build on a recent line of work and investigate bandit settings where the number of arms is relatively large and where simple greedy algorithms enjoy highly competitive performance, both in theory and in practice. We first provide a generic worst-case bound on the regret of the Greedy algorithm. When combined with some arms subsampling, we prove that it verifies near-optimal worst-case regret bounds in continuous, infinite and many-armed bandit problems. Moreover, for shorter time spans, the theoretical relative suboptimality of Greedy is even reduced. As a consequence, we subversively claim that for many interesting problems and associated horizons, the best compromise between theoretical guarantees, practical performances and computational burden is definitely to follow the greedy heuristic. We support our claim by many numerical experiments that show significant improvements compared to the state-of-the-art, even for moderately long time horizon.
翻訳日:2021-04-12 03:45:08 公開日:2021-01-04
# (参考訳) ブロードバンドの多層化にむけて

Etat de l'art sur l'application des bandits multi-bras ( http://arxiv.org/abs/2101.00001v1 )

ライセンス: CC BY 4.0
Djallel Bouneffouf(参考訳) マルチアームのバンディットは、既に学習済みの知識を同時に学習し、活用する利点を提供する。 この能力により、このアプローチは、患者の損失を最小限に抑えながら、異なる実験的な治療の効果を調査している臨床試験から、ネットワークの遅延を最小限にするアダプティブルーティングまで、さまざまな領域で適用することができる。 本稿では,実生活シナリオへの帯域幅の適用に関する最近の成果を概観し,各分野の技術を要約する。 epsilon-greedy, upper confidence bound (ucb) や thompson sampling (ts) など、この問題を解決するために異なる手法が提案されている。 我々は、このアルゴリズムが探査のさまざまな問題を解決するためにどのように適応されたかを示す。

The Multi-armed bandit offer the advantage to learn and exploit the already learnt knowledge at the same time. This capability allows this approach to be applied in different domains, going from clinical trials where the goal is investigating the effects of different experimental treatments while minimizing patient losses, to adaptive routing where the goal is to minimize the delays in a network. This article provides a review of the recent results on applying bandit to real-life scenario and summarize the state of the art for each of these fields. Different techniques has been proposed to solve this problem setting, like epsilon-greedy, Upper confident bound (UCB) and Thompson Sampling (TS). We are showing here how this algorithms were adapted to solve the different problems of exploration exploitation.
翻訳日:2021-04-12 03:05:54 公開日:2021-01-04
# (参考訳) 再帰的ネットワークモデルを用いたソフトアクチュエータの高帯域非線形制御

High-bandwidth nonlinear control for soft actuators with recursive network models ( http://arxiv.org/abs/2101.01139v1 )

ライセンス: CC BY 4.0
Sarah Aguasvivas Manzano, Patricia Xu, Khoi Ly, Robert Shepherd, Nikolaus Correll(参考訳) 本稿では,前方出力予測とNewton-Raphsonを用いたオンライン最適化のために,擬似再帰層を組み合わせたソフトアクチュエータの高帯域幅,軽量,非線形出力追跡手法を提案する。 この手法により、従来のRNNモデルと比較してモデルサイズを縮小し、制御ループ周波数を増大させることができる。 柔らかい位置センサを備えた単一軟質アクチュエータの試作実験結果から,参照空間軌道の効率的な追跡と機械的・電磁的障害の拒絶が示唆された。 これらは、1.8mmのルート平均2乗経路追跡誤差(RMSE)が完全連結(FC)サブストラクチャを使用しており、1.62mmはゲートリカレントユニット(GRU)を使い、2.11mmは長期メモリ(LSTM)ユニットで、3つのタスクで平均化されている。 これらのモデルの中で最も高いフラッシュメモリ要件は2.22kBであり、コントローラとアクチュエータの同時配置を可能にする。

We present a high-bandwidth, lightweight, and nonlinear output tracking technique for soft actuators that combines parsimonious recursive layers for forward output predictions and online optimization using Newton-Raphson. This technique allows for reduced model sizes and increased control loop frequencies when compared with conventional RNN models. Experimental results of this controller prototype on a single soft actuator with soft positional sensors indicate effective tracking of referenced spatial trajectories and rejection of mechanical and electromagnetic disturbances. These are evidenced by root mean squared path tracking errors (RMSE) of 1.8mm using a fully connected (FC) substructure, 1.62mm using a gated recurrent unit (GRU) and 2.11mm using a long short term memory (LSTM) unit, all averaged over three tasks. Among these models, the highest flash memory requirement is 2.22kB enabling co-location of controller and actuator.
翻訳日:2021-04-12 02:04:57 公開日:2021-01-04
# (参考訳) 低解像度ラベルからの高分解能土地被覆変化:2021年IEEE GRSSデータフュージョンコンテストの簡易ベースライン

High-resolution land cover change from low-resolution labels: Simple baselines for the 2021 IEEE GRSS Data Fusion Contest ( http://arxiv.org/abs/2101.01154v1 )

ライセンス: CC BY 4.0
Nikolay Malkin, Caleb Robinson, Nebojsa Jojic(参考訳) 2021年IEEE GRSSデータフュージョンコンテストにおいて,土地被覆変化検出のための簡単なアルゴリズムを提案する。 コンテストの課題は、複数の解像度の画像とラベルデータに基づいて、メリーランド州メリーランドにある研究エリアの高解像度(1m/ピクセル)土地被覆変更マップを作成することである。 このタスクのベースラインモデルについて検討し、さらなる研究の方向性について論じる。 https://dfc2021.blob.core.windows.net/competition-data/dfc2021_index.txt データと、これらのベースラインの実装のためのhttps://github.com/calebrob6/dfc2021-msd-baselineを参照。

We present simple algorithms for land cover change detection in the 2021 IEEE GRSS Data Fusion Contest. The task of the contest is to create high-resolution (1m / pixel) land cover change maps of a study area in Maryland, USA, given multi-resolution imagery and label data. We study several baseline models for this task and discuss directions for further research. See https://dfc2021.blob.core.windows.net/competition-data/dfc2021_index.txt for the data and https://github.com/calebrob6/dfc2021-msd-baseline for an implementation of these baselines.
翻訳日:2021-04-12 01:55:14 公開日:2021-01-04
# (参考訳) 同時ローカライズとマッピングのためのハイブリッド学習器

A Hybrid Learner for Simultaneous Localization and Mapping ( http://arxiv.org/abs/2101.01158v1 )

ライセンス: CC BY 4.0
Thangarajah Akilan and Edna Johnson and Japneet Sandhu and Ritika Chadha and Gaurav Taluja(参考訳) 同時ローカライゼーション・マッピング(slam)は、位置座標と物理環境の正確なマッピングに基づいて、移動プラットフォームの動的運動経路を予測するために用いられる。 SLAMは拡張現実(AR)、自動運転車、Vizに大きな可能性を秘めている。 自動運転車、ドローン、自律ナビゲーションロボット(ANR)。 本研究は,特徴融合を超越したハイブリッド学習モデルを導入し,ベースラインSLAMアルゴリズムの性能向上に向けたマルチモーダルウェイトミシン戦略を実行する。 SLAMのフロントエンド特徴抽出器の重量増強は、異なるディープネットワークのトップ層の突然変異によって行われる。 同時に、独立に訓練されたモデルからの軌道予測は、位置の詳細を洗練するために集約される。 このように,ハイブリッド学習フレームワークによる早期・後期融合技術の統合により,SLAMモデルの翻訳・回転誤差を最小化する。 本研究では,resnet18,resnet34,resnet50,resnet101,vgg16,vgg19,alexnetなど,著名なディープラーニング(dl)アーキテクチャを実験的解析に活用する。 複合学習者(HL)は, 早期・後期の融合戦略を用いた一助的アプローチやマルチモーダルアプローチよりも有意に優れた結果が得られることを示す。 したがって、この研究で得られたアポロスケープのデータセットは、SLAMの論文に融合技術で使われていないため、この研究はユニークで洞察力に富んでいる。

Simultaneous localization and mapping (SLAM) is used to predict the dynamic motion path of a moving platform based on the location coordinates and the precise mapping of the physical environment. SLAM has great potential in augmented reality (AR), autonomous vehicles, viz. self-driving cars, drones, Autonomous navigation robots (ANR). This work introduces a hybrid learning model that explores beyond feature fusion and conducts a multimodal weight sewing strategy towards improving the performance of a baseline SLAM algorithm. It carries out weight enhancement of the front end feature extractor of the SLAM via mutation of different deep networks' top layers. At the same time, the trajectory predictions from independently trained models are amalgamated to refine the location detail. Thus, the integration of the aforesaid early and late fusion techniques under a hybrid learning framework minimizes the translation and rotation errors of the SLAM model. This study exploits some well-known deep learning (DL) architectures, including ResNet18, ResNet34, ResNet50, ResNet101, VGG16, VGG19, and AlexNet for experimental analysis. An extensive experimental analysis proves that hybrid learner (HL) achieves significantly better results than the unimodal approaches and multimodal approaches with early or late fusion strategies. Hence, it is found that the Apolloscape dataset taken in this work has never been used in the literature under SLAM with fusion techniques, which makes this work unique and insightful.
翻訳日:2021-04-12 01:46:04 公開日:2021-01-04
# (参考訳) 細胞質内精子注入術におけるセマンティックビデオセグメンテーション

Semantic Video Segmentation for Intracytoplasmic Sperm Injection Procedures ( http://arxiv.org/abs/2101.01207v1 )

ライセンス: CC BY 4.0
Peter He, Raksha Jain, J\'er\^ome Chambost, C\'eline Jacques, Cristina Hickman(参考訳) 細胞質内精子注入法 (ICSI) 解析のための最初の深層学習モデルを提案する。 ICSIプロシージャビデオのデータセットを用いて、深いニューラルネットワークを使用して、0.962の平均IoUを達成するビデオ内のキーオブジェクトをセグメント化し、単一のGPU上で平均3.793ピクセルの画素誤差を達成するニードル先端を14FPSでローカライズする。 さらに、データセットのヒューマンアノテータ間のバリエーションを分析し、モデルのパフォーマンスが人間のエキスパートに匹敵するものであることを見出します。

We present the first deep learning model for the analysis of intracytoplasmic sperm injection (ICSI) procedures. Using a dataset of ICSI procedure videos, we train a deep neural network to segment key objects in the videos achieving a mean IoU of 0.962, and to localize the needle tip achieving a mean pixel error of 3.793 pixels at 14 FPS on a single GPU. We further analyze the variation between the dataset's human annotators and find the model's performance to be comparable to human experts.
翻訳日:2021-04-12 00:34:06 公開日:2021-01-04
# (参考訳) 動的グラフの埋め込みに関する調査

A Survey on Embedding Dynamic Graphs ( http://arxiv.org/abs/2101.01229v1 )

ライセンス: CC BY 4.0
Claudio D. T. Barros (1), Matheus R. F. Mendon\c{c}a (1), Alex B. Vieira (2), Artur Ziviani (1) ((1) National Laboratory for Scientific Computing (LNCC), Petr\'opolis, RJ, Brazil, (2) Federal University of Juiz de Fora (UFJF), Juiz de Fora, MG, Brazil)(参考訳) 低次元ベクトル空間に静的グラフを埋め込むことは、ノード分類、リンク予測、グラフ視覚化といったアプリケーションをサポートするネットワーク分析と推論において重要な役割を果たす。 しかし、多くの実世界のネットワークは、トポロジカル進化、特徴進化、拡散を含む動的挙動を示す。 そのため,時間領域モデリングや時間的特徴,埋め込みする時間的粒度といった新たな課題に直面し,時間とともにネットワーク表現を学習するために動的グラフを埋め込む方法が提案されている。 本稿では,動的グラフの埋め込みを概観し,その基礎と最近の進歩を論じる。 本稿では,動的グラフ埋め込みの形式的定義について,問題の設定に着目し,動的グラフ埋め込み入出力の新しい分類法を提案する。 さらに,埋め込み,トポロジカル進化による分類,特徴進化,ネットワーク上のプロセスなどによって包含される異なる動的動作についても検討する。 その後,既存の手法について述べるとともに,行列分解やテンソル分解から深層学習,ランダムウォーク,時間的点過程まで,アルゴリズム的手法に基づく動的グラフ埋め込み手法の分類法を提案する。 また, 動的リンク予測, 異常検出, 拡散予測など, 主な応用法を明らかにするとともに, この分野における有望な研究方向についても述べる。

Embedding static graphs in low-dimensional vector spaces plays a key role in network analytics and inference, supporting applications like node classification, link prediction, and graph visualization. However, many real-world networks present dynamic behavior, including topological evolution, feature evolution, and diffusion. Therefore, several methods for embedding dynamic graphs have been proposed to learn network representations over time, facing novel challenges, such as time-domain modeling, temporal features to be captured, and the temporal granularity to be embedded. In this survey, we overview dynamic graph embedding, discussing its fundamentals and the recent advances developed so far. We introduce the formal definition of dynamic graph embedding, focusing on the problem setting and introducing a novel taxonomy for dynamic graph embedding input and output. We further explore different dynamic behaviors that may be encompassed by embeddings, classifying by topological evolution, feature evolution, and processes on networks. Afterward, we describe existing techniques and propose a taxonomy for dynamic graph embedding techniques based on algorithmic approaches, from matrix and tensor factorization to deep learning, random walks, and temporal point processes. We also elucidate main applications, including dynamic link prediction, anomaly detection, and diffusion prediction, and we further state some promising research directions in the area.
翻訳日:2021-04-12 00:10:56 公開日:2021-01-04
# (参考訳) 連続グルコースモニタリング予測

Continuous Glucose Monitoring Prediction ( http://arxiv.org/abs/2101.02557v1 )

ライセンス: CC BY 4.0
Julia Ann Jose, Trae Waggoner, Sudarsan Manikandan(参考訳) 糖尿病は世界で最も致命的な病気の1つであり、世界の成人人口の約10%に影響を及ぼす。 幸いなことに、強力な新技術は糖尿病患者の一貫性と信頼性のある治療計画を可能にしている。 主要な開発は連続血糖モニタリング(CGM)と呼ばれるシステムである。 本総説では,糖尿病患者から得られたcgmデータを用いて開発した3種類の連続食事検出アルゴリズムについて検討する。 この解析から,これらの手法を用いて初期食事予測アルゴリズムも開発された。

Diabetes is one of the deadliest diseases in the world and affects nearly 10 percent of the global adult population. Fortunately, powerful new technologies allow for a consistent and reliable treatment plan for people with diabetes. One major development is a system called continuous blood glucose monitoring (CGM). In this review, we look at three different continuous meal detection algorithms that were developed using given CGM data from patients with diabetes. From this analysis, an initial meal prediction algorithm was also developed utilizing these methods.
翻訳日:2021-04-12 00:09:47 公開日:2021-01-04
# (参考訳) ランダム化テンソルネットワーク分解と分散テンソル計算を用いたビッグデータプライバシ保護

Protecting Big Data Privacy Using Randomized Tensor Network Decomposition and Dispersed Tensor Computation ( http://arxiv.org/abs/2101.04194v1 )

ライセンス: CC BY 4.0
Jenn-Bing Ong, Wee-Keong Ng, Ivan Tjuawinata, Chao Li, Jielin Yang, Sai None Myne, Huaxiong Wang, Kwok-Yan Lam, C.-C. Jay Kuo(参考訳) データプライバシは、クラウド/フォグ上のデータストレージ、共有、計算を安全にアウトソースする組織や企業にとって重要な問題である。 しかし、データ暗号化はキー管理と分散の点で複雑であり、既存のセキュアな計算技術は計算/通信コストの点で高価であるため、ビッグデータ計算にはスケールしない。 テンソルネットワークの分解と分散テンソル計算は、次元削減と大規模最適化のために信号処理や機械学習に広く利用されている。 しかし、ビッグデータプライバシ保護のための分散テンソルネットワークの可能性はこれまで検討されておらず、これが現在の研究の動機となっている。 我々の第一の直感は、テンソルネットワーク表現は数学的に非一様であり、リンク不能であり、解釈不能である;テンソルネットワーク表現は、圧縮および分散/分散計算のための多線形演算の範囲を自然にサポートしている。 そこで我々は,ビッグデータをランダム化テンソルネットワーク表現に分解し,1次元から3次元のデータテンソルのプライバシー漏洩を分析するランダム化アルゴリズムを提案する。 ランダム化は、分解前のテンソルブロックに適用される制御された摂動に基づいている。 分散テンソル表現は、メタデータプライバシを備えた複数のクラウド/フォグ/サーバ/デバイスに分散される。これは、分散信頼と管理の両方を提供し、ビッグデータストレージ、通信、共有、計算をシームレスにセキュアにする。 実験により,提案手法はビッグデータの匿名化に役立ち,ビッグデータのストレージや計算に効率的であることが判明した。

Data privacy is an important issue for organizations and enterprises to securely outsource data storage, sharing, and computation on clouds / fogs. However, data encryption is complicated in terms of the key management and distribution; existing secure computation techniques are expensive in terms of computational / communication cost and therefore do not scale to big data computation. Tensor network decomposition and distributed tensor computation have been widely used in signal processing and machine learning for dimensionality reduction and large-scale optimization. However, the potential of distributed tensor networks for big data privacy preservation have not been considered before, this motivates the current study. Our primary intuition is that tensor network representations are mathematically non-unique, unlinkable, and uninterpretable; tensor network representations naturally support a range of multilinear operations for compressed and distributed / dispersed computation. Therefore, we propose randomized algorithms to decompose big data into randomized tensor network representations and analyze the privacy leakage for 1D to 3D data tensors. The randomness mainly comes from the complex structural information commonly found in big data; randomization is based on controlled perturbation applied to the tensor blocks prior to decomposition. The distributed tensor representations are dispersed on multiple clouds / fogs or servers / devices with metadata privacy, this provides both distributed trust and management to seamlessly secure big data storage, communication, sharing, and computation. Experiments show that the proposed randomization techniques are helpful for big data anonymization and efficient for big data storage and computation.
翻訳日:2021-04-12 00:05:20 公開日:2021-01-04
# (参考訳) ロバストな最大エントロピー挙動クローニング

Robust Maximum Entropy Behavior Cloning ( http://arxiv.org/abs/2101.01251v1 )

ライセンス: CC BY 4.0
Mostafa Hussein, Brendan Crowe, Marek Petrik and Momotaz Begum(参考訳) 模倣学習(il)アルゴリズムは、特定のタスクを学ぶために専門家のデモンストレーションを使用する。 既存のアプローチのほとんどは、すべての専門家によるデモンストレーションは信頼性と信頼性を前提としていますが、もし与えられたデータセットに敵対的なデモが存在するとしたらどうでしょう? これにより、意思決定性能が低下する可能性がある。 本稿では,敵の実証を自律的に検出し,データセットから排除するデモからポリシーを直接生成する,新しい枠組みを提案する。 同時に、それはサンプルであり、時間効率が良く、シミュレータを必要としない。 このような対向デモをモデル化するために,モデルのエントロピーを利用して各デモに重みを割り当てるmin-max問題を提案する。 これにより、正しいデモや、正しいデモの混合物だけを使って、行動を学ぶことができます。

Imitation learning (IL) algorithms use expert demonstrations to learn a specific task. Most of the existing approaches assume that all expert demonstrations are reliable and trustworthy, but what if there exist some adversarial demonstrations among the given data-set? This may result in poor decision-making performance. We propose a novel general frame-work to directly generate a policy from demonstrations that autonomously detect the adversarial demonstrations and exclude them from the data set. At the same time, it's sample, time-efficient, and does not require a simulator. To model such adversarial demonstration we propose a min-max problem that leverages the entropy of the model to assign weights for each demonstration. This allows us to learn the behavior using only the correct demonstrations or a mixture of correct demonstrations.
翻訳日:2021-04-11 23:23:09 公開日:2021-01-04
# ストーリーの概要:カスケードイベントからのきめ細かい制御可能なストーリー生成

Outline to Story: Fine-grained Controllable Story Generation from Cascaded Events ( http://arxiv.org/abs/2101.00822v1 )

ライセンス: Link先を確認
Le Fang, Tao Zeng, Chaochun Liu, Liefeng Bo, Wen Dong, Changyou Chen(参考訳) 大規模な事前訓練された言語モデルは、特に何千もの単語で一貫した長文を生成する場合に、スリルのある生成能力を示している。 しかし、これらのモデルのユーザは、文のプレフィックスまたは生成されたテキストの特定のグローバルな側面のみを制御できる。 きめ細かい制御性を同時に達成し、最先端の無条件テキスト生成能力を維持することは困難である。 本稿ではまず,ケースド・イベントから複数パラグラフ・ストーリーを生成する長文のきめ細かい制御が可能な生成のためのテストベッドとして,"Outline to Story" (O2S) という新しいタスクを提案する。 その後の段落生成を導く輪郭イベントの連続。 次に、最先端のキーワード抽出技術によって構築された将来のベンチマークのための専用データセットを作成します。 最後に,o2sタスクの極めて単純かつ強固なベースライン手法を提案する。これは単純な言語モデリング目的を用いて,アウトラインストーリーペアの拡張シーケンス上で事前学習された言語モデルを微調整する。 提案手法は,拡張シーケンスを構築するためのデリミタとして,いくつかの特別なトークンを除いて,新しいパラメータを導入せず,アーキテクチャの変更も行わない。 様々なデータセットに対する大規模な実験により、我々のモデルによる現状の条件付きストーリー生成性能が示され、きめ細かい制御性とユーザフレキシビリティが向上した。 私たちの論文は、モデルの提案と“ストーリーのアウトライン”のタスクのためのデータセット作成に関する私たちの知識で最初のもののひとつです。 我々の研究は、制御入力が短いテキストで表現されるオープンドメイン長文のきめ細かい制御可能な生成に関する研究の関心をインスタンス化する。

Large-scale pretrained language models have shown thrilling generation capabilities, especially when they generate consistent long text in thousands of words with ease. However, users of these models can only control the prefix of sentences or certain global aspects of generated text. It is challenging to simultaneously achieve fine-grained controllability and preserve the state-of-the-art unconditional text generation capability. In this paper, we first propose a new task named "Outline to Story" (O2S) as a test bed for fine-grained controllable generation of long text, which generates a multi-paragraph story from cascaded events, i.e. a sequence of outline events that guide subsequent paragraph generation. We then create dedicate datasets for future benchmarks, built by state-of-the-art keyword extraction techniques. Finally, we propose an extremely simple yet strong baseline method for the O2S task, which fine tunes pre-trained language models on augmented sequences of outline-story pairs with simple language modeling objective. Our method does not introduce any new parameters or perform any architecture modification, except several special tokens as delimiters to build augmented sequences. Extensive experiments on various datasets demonstrate state-of-the-art conditional story generation performance with our model, achieving better fine-grained controllability and user flexibility. Our paper is among the first ones by our knowledge to propose a model and to create datasets for the task of "outline to story". Our work also instantiates research interest of fine-grained controllable generation of open-domain long text, where controlling inputs are represented by short text.
翻訳日:2021-04-11 23:06:33 公開日:2021-01-04
# 制御可能なストーリー生成のためのトランスベース条件変動オートエンコーダ

Transformer-based Conditional Variational Autoencoder for Controllable Story Generation ( http://arxiv.org/abs/2101.00828v1 )

ライセンス: Link先を確認
Le Fang, Tao Zeng, Chaochun Liu, Liefeng Bo, Wen Dong, Changyou Chen(参考訳) オープンドメイン長文のための未探索のアプリケーションであるニューラルストーリー生成のための大規模潜伏変数モデル(LVM)を、生成効率と制御性という2つのスレッドで目的として検討する。 LVM、特に変分オートエンコーダ(VAE)は、柔軟な分布潜在表現を利用して、効果的かつ制御可能な生成を実現している。 近年、トランスフォーマーとその変種は明示的な潜在表現学習を伴わずに顕著な効果を発揮しており、生成時の制御性に欠ける。 本稿では, トランスフォーマーの時代に潜在変数モデル, 本質的に表現学習のパワーを復活させ, 最先端の生成効率を損なうことなく制御性を高めることを提唱する。 具体的には、遅延表現ベクトルをTransformerベースの事前学習アーキテクチャと統合し、条件付き変分オートエンコーダ(CVAE)を構築する。 エンコーダ、デコーダ、変分後段といったモデルコンポーネントはすべて、事前学習された言語モデルの上に構築されています。 実験では,その表現学習能力と制御性とともに,最先端の条件生成能力を示す。

We investigate large-scale latent variable models (LVMs) for neural story generation -- an under-explored application for open-domain long text -- with objectives in two threads: generation effectiveness and controllability. LVMs, especially the variational autoencoder (VAE), have achieved both effective and controllable generation through exploiting flexible distributional latent representations. Recently, Transformers and its variants have achieved remarkable effectiveness without explicit latent representation learning, thus lack satisfying controllability in generation. In this paper, we advocate to revive latent variable modeling, essentially the power of representation learning, in the era of Transformers to enhance controllability without hurting state-of-the-art generation effectiveness. Specifically, we integrate latent representation vectors with a Transformer-based pre-trained architecture to build conditional variational autoencoder (CVAE). Model components such as encoder, decoder and the variational posterior are all built on top of pre-trained language models -- GPT2 specifically in this paper. Experiments demonstrate state-of-the-art conditional generation ability of our model, as well as its excellent representation learning capability and controllability.
翻訳日:2021-04-11 23:06:05 公開日:2021-01-04
# 因子分析、確率的主成分分析、変分推論、変分オートエンコーダ:チュートリアルとサーベイ

Factor Analysis, Probabilistic Principal Component Analysis, Variational Inference, and Variational Autoencoder: Tutorial and Survey ( http://arxiv.org/abs/2101.00734v1 )

ライセンス: Link先を確認
Benyamin Ghojogh, Ali Ghodsi, Fakhri Karray, Mark Crowley(参考訳) 本稿では、因子分析、確率主成分分析(pca)、変分推論、変分オートエンコーダ(vae)に関するチュートリアルおよび調査論文について述べる。 これらの手法は密接な関係があり、次元の減少と生成モデルである。 彼らは、すべてのデータポイントが低次元の潜在因子から生成されるか、または引き起こされると仮定する。 潜在空間の分布のパラメータを学習することにより、次元性低減のために対応する低次元因子が見つかる。 確率的かつ生成的な振る舞いのために、これらのモデルはデータ空間における新しいデータポイントの生成にも使用できる。 本稿では,まず,パラメータを学習するためのエビデンス下界(ELBO)と期待最大化(EM)を導出する変分推論から始める。 次に、因子分析を導入し、その結合分布と辺縁分布を導出し、そのEMステップを解明する。 確率的PCAは因子分析の特別な場合として説明され、その閉形式解が導出される。 最後に、vaeは、エンコーダ、デコーダ、および潜在空間からのサンプリングが導入される場所を説明する。 EMとバックプロパゲーションの両方を用いたVAEトレーニングについて説明する。

This is a tutorial and survey paper on factor analysis, probabilistic Principal Component Analysis (PCA), variational inference, and Variational Autoencoder (VAE). These methods, which are tightly related, are dimensionality reduction and generative models. They asssume that every data point is generated from or caused by a low-dimensional latent factor. By learning the parameters of distribution of latent space, the corresponding low-dimensional factors are found for the sake of dimensionality reduction. For their stochastic and generative behaviour, these models can also be used for generation of new data points in the data space. In this paper, we first start with variational inference where we derive the Evidence Lower Bound (ELBO) and Expectation Maximization (EM) for learning the parameters. Then, we introduce factor analysis, derive its joint and marginal distributions, and work out its EM steps. Probabilistic PCA is then explained, as a special case of factor analysis, and its closed-form solutions are derived. Finally, VAE is explained where the encoder, decoder and sampling from the latent space are introduced. Training VAE using both EM and backpropagation are explained.
翻訳日:2021-04-11 23:05:06 公開日:2021-01-04
# 排除スパンは相互参照解決に役に立たないのか? いいえ、まったく

Are Eliminated Spans Useless for Coreference Resolution? Not at all ( http://arxiv.org/abs/2101.00737v1 )

ライセンス: Link先を確認
Xin Tan, Longyin Zhang and Guodong Zhou(参考訳) 共同参照検出と共参照解決のために、これまでに様々なニューラルベース手法が提案されている。 しかし、コア参照解決に関する既存の研究は主にフィルタされた参照表現に依存している。 本稿では,データの利用率の向上と,削除したスパンが完全に無益であるかどうか,あるいはコア参照解決の性能をどの程度向上できるかを検討することを目的とする。 そこで本稿では,表現強化のためのポインタネットワークを用いて,参照に高い関連性を持つスパンをうまく活用する参照表現精錬戦略を提案する。 特に、エンティティクラスタ間の多様性を促進するために、この作業で追加の損失項を利用しています。 文書レベルのCoNLL-2012 共有タスク英語データセットによる実験結果から,スパンの除去は極めて効果的であり,従来のコア参照解決技術と比較した場合の競合的な結果が得られることがわかった。

Various neural-based methods have been proposed so far for joint mention detection and coreference resolution. However, existing works on coreference resolution are mainly dependent on filtered mention representation, while other spans are largely neglected. In this paper, we aim at increasing the utilization rate of data and investigating whether those eliminated spans are totally useless, or to what extent they can improve the performance of coreference resolution. To achieve this, we propose a mention representation refining strategy where spans highly related to mentions are well leveraged using a pointer network for representation enhancing. Notably, we utilize an additional loss term in this work to encourage the diversity between entity clusters. Experimental results on the document-level CoNLL-2012 Shared Task English dataset show that eliminated spans are indeed much effective and our approach can achieve competitive results when compared with previous state-of-the-art in coreference resolution.
翻訳日:2021-04-11 23:04:46 公開日:2021-01-04
# エージェントの読み書きをトレーニングする方法

How to Train Your Agent to Read and Write ( http://arxiv.org/abs/2101.00916v1 )

ライセンス: Link先を確認
Li Liu, Mengge He, Guanghui Xu, Mingkui Tan, Qi Wu(参考訳) 研究論文の読み書きは、資格のある研究者が習得すべき最も特権のある能力の1つである。 しかし、新しい研究者 (\eg{students}) がこの能力を完全に {grasp} するのは難しい。 知的なエージェントを訓練して、人びとが論文を読んだり要約したり、あるいは新しい論文を書くための潜在的な知識の手がかりを発見して利用したりできたら、面白いだろう。 要約(\emph{i.e.)に焦点を当てた既存の作品もある。 参照) 与えられたテキストまたは生成(\emph{i.e.)の知識。 書記) 与えられた知識に基づくテキストであり、同時に読み書きする能力は、まだ開発中である。 典型的には、エージェントは与えられたテキスト資料から得た知識を十分に理解し、正確で流動的なノベル段落を生成する必要がある。 本稿では,入力段落から知識グラフ(KG)を抽出し,潜在的な知識を発見するための \textit{Reader} と,新規段落を生成する graph-to-text \textit{Writer} と,生成された段落を3つの異なる側面からレビューする \textit{Reviewer} から構成されるDeep ReAder-Writer (DRAW) ネットワークを提案する。 我々のDRAWネットワークは, AGENDAおよびM-AGENDAデータセット上で, ベースラインや最先端のいくつかの手法よりも優れていた。 私たちのコードと補足はhttps://github.com/menggehe/DRAW.comで公開されています。

Reading and writing research papers is one of the most privileged abilities that a qualified researcher should master. However, it is difficult for new researchers (\eg{students}) to fully {grasp} this ability. It would be fascinating if we could train an intelligent agent to help people read and summarize papers, and perhaps even discover and exploit the potential knowledge clues to write novel papers. Although there have been existing works focusing on summarizing (\emph{i.e.}, reading) the knowledge in a given text or generating (\emph{i.e.}, writing) a text based on the given knowledge, the ability of simultaneously reading and writing is still under development. Typically, this requires an agent to fully understand the knowledge from the given text materials and generate correct and fluent novel paragraphs, which is very challenging in practice. In this paper, we propose a Deep ReAder-Writer (DRAW) network, which consists of a \textit{Reader} that can extract knowledge graphs (KGs) from input paragraphs and discover potential knowledge, a graph-to-text \textit{Writer} that generates a novel paragraph, and a \textit{Reviewer} that reviews the generated paragraph from three different aspects. Extensive experiments show that our DRAW network outperforms considered baselines and several state-of-the-art methods on AGENDA and M-AGENDA datasets. Our code and supplementary are released at https://github.com/menggehe/DRAW.
翻訳日:2021-04-11 23:04:13 公開日:2021-01-04
# 3次元畳み込みニューラルネットワークを用いた監視ビデオからの異常認識

Anomaly Recognition from surveillance videos using 3D Convolutional Neural Networks ( http://arxiv.org/abs/2101.01073v1 )

ライセンス: Link先を確認
R. Maqsood, UI. Bajwa, G. Saleem, Rana H. Raza, MW. Anwar(参考訳) 異常なアクティビティ認識は、通常のストリームから変化するパターンやイベントを識別する。 監視パラダイムでは、これらのイベントは乱用から戦闘、道路事故、密猟などまで様々である。 異常な事象が発生しにくいため,監視ビデオからの異常な活動認識は困難な研究課題である。 一般的に報告されたアプローチは、手作りとディープラーニングに基づくものに分類される。 報告された研究の多くは二項分類、すなわち二項分類に関するものである。 監視ビデオからの異常検出 しかし、これらの報告されたアプローチは他の異常事象に対処しなかった。 乱用、喧嘩、交通事故、銃撃、盗み、破壊、強盗など。 監視ビデオから そこで本稿では,実世界の異なる異常をビデオから認識するための効果的な枠組みを提案する。 この研究は、中央フロリダ大学犯罪ビデオデータセットで訓練された深部3次元畳み込みネットワーク(3D ConvNets)を用いて、時空間の特徴を学習するためのシンプルで効果的なアプローチを提供する。 まず, UCF Crimeデータセットのフレームレベルラベルを提供し, より効率的に時空間特徴を抽出するために, 微調整3D ConvNetsを提案する。 提案した研究の発見は,1)UCF犯罪ビデオフィードに相互に関連付ける特異性,検出性,定量性のある特徴がある。2) マルチクラス学習は,データセットのフレームレベル情報を効果的に学習することにより,3D ConvNetの能力の一般化を向上し,空間拡張を適用することで,より良い結果の面で活用することができる。

Anomalous activity recognition deals with identifying the patterns and events that vary from the normal stream. In a surveillance paradigm, these events range from abuse to fighting and road accidents to snatching, etc. Due to the sparse occurrence of anomalous events, anomalous activity recognition from surveillance videos is a challenging research task. The approaches reported can be generally categorized as handcrafted and deep learning-based. Most of the reported studies address binary classification i.e. anomaly detection from surveillance videos. But these reported approaches did not address other anomalous events e.g. abuse, fight, road accidents, shooting, stealing, vandalism, and robbery, etc. from surveillance videos. Therefore, this paper aims to provide an effective framework for the recognition of different real-world anomalies from videos. This study provides a simple, yet effective approach for learning spatiotemporal features using deep 3-dimensional convolutional networks (3D ConvNets) trained on the University of Central Florida (UCF) Crime video dataset. Firstly, the frame-level labels of the UCF Crime dataset are provided, and then to extract anomalous spatiotemporal features more efficiently a fine-tuned 3D ConvNets is proposed. Findings of the proposed study are twofold 1)There exist specific, detectable, and quantifiable features in UCF Crime video feed that associate with each other 2) Multiclass learning can improve generalizing competencies of the 3D ConvNets by effectively learning frame-level information of dataset and can be leveraged in terms of better results by applying spatial augmentation.
翻訳日:2021-04-11 23:03:48 公開日:2021-01-04
# ディープフェイクはどこに見える? 視線追跡による合成顔検出

Where Do Deep Fakes Look? Synthetic Face Detection via Gaze Tracking ( http://arxiv.org/abs/2101.01165v1 )

ライセンス: Link先を確認
Ilke Demir and Umur A. Ciftci(参考訳) AIの民主化の最近の取り組みに続き、ディープフェイクジェネレータはますます普及し、アクセスしやすくなり、ディストピア的なシナリオが信頼の社会的侵食に繋がった。 生物学的信号のような特定の領域は、生成的アプローチによってまだ偽造されていない実ビデオの真正性シグネチャを活用できる検出方法に注意を向けた。 本稿では,まず,ディープフェイクが異なる目と視線の特徴をいくつか提案する。 第二に、これらの特徴をシグネチャにコンパイルし、幾何学的、視覚的、計量的、時間的、スペクトル的なバリエーションを定式化して、リアルビデオとフェイクビデオを比較し、比較する。 第3に,本手法をディープニューラルネットワークによるディープフェイク検出問題に一般化し,野生の動画をフェイクあるいはリアルに分類する。 我々は、FaceForensics++で89.79\%、Deep Fakesで80.0\%、CelebDFで88.35\%の精度で、いくつかのディープフェイクデータセットに対するアプローチを評価した。 我々は,異なる特徴,アーキテクチャ,シーケンス持続時間,処理後アーティファクトを含むアブレーション研究を行う。 その結果,提案する視線シグネチャを使わずに複雑なネットワークアーキテクチャよりも6.29\%精度が向上した。

Following the recent initiatives for the democratization of AI, deep fake generators have become increasingly popular and accessible, causing dystopian scenarios towards social erosion of trust. A particular domain, such as biological signals, attracted attention towards detection methods that are capable of exploiting authenticity signatures in real videos that are not yet faked by generative approaches. In this paper, we first propose several prominent eye and gaze features that deep fakes exhibit differently. Second, we compile those features into signatures and analyze and compare those of real and fake videos, formulating geometric, visual, metric, temporal, and spectral variations. Third, we generalize this formulation to deep fake detection problem by a deep neural network, to classify any video in the wild as fake or real. We evaluate our approach on several deep fake datasets, achieving 89.79\% accuracy on FaceForensics++, 80.0\% on Deep Fakes (in the wild), and 88.35\% on CelebDF datasets. We conduct ablation studies involving different features, architectures, sequence durations, and post-processing artifacts. Our analysis concludes with 6.29\% improved accuracy over complex network architectures without the proposed gaze signatures.
翻訳日:2021-04-11 23:03:22 公開日:2021-01-04
# 推測による学習:人物再同定のための多段階擬似ラベル改良

Learn by Guessing: Multi-Step Pseudo-Label Refinement for Person Re-Identification ( http://arxiv.org/abs/2101.01215v1 )

ライセンス: Link先を確認
Tiago de C. G. Pereira and Teofilo E. de Campos(参考訳) Unsupervised Domain Adaptation (UDA) method for person Re-Identification (Re-ID) は、データの限界分布をモデル化するために対象のドメインサンプルに依存する。 対象ドメインラベルの欠如に対処するため、UDA法はラベル付きソースサンプルとラベルなしターゲットサンプルの情報を活用する。 有望なアプローチは、クラスタリングメソッドなど、パイプラインの一部として教師なし学習を使用することに依存する。 クラスタの品質は明らかにメソッドのパフォーマンスにおいて重要な役割を果たすが、この点は見過ごされている。 本研究では,最も優れたクラスタを選択し,それらのクラスタがクラスラベルを知らずにクラス分割に近づくように改良する,多段階の擬似ラベル改善手法を提案する。 本手法は,クラスタ選択戦略とカメラベース正規化手法を備えており,複数のカメラをRe-IDに使用することで生じる領域内変動を低減する。 これにより、dukemtmc-market1501(source-target)で最先端のuda結果が得られる。 ターゲットドメイン(DukeMTMC)には8つの異なるカメラがあるため、Market1501-DukeMTMCデータセットでは、UDA Re-IDの最先端を3.4%上回りました。 さらに、カメラベースの正規化手法は、訓練収束に必要なイテレーション数を大幅に削減する。

Unsupervised Domain Adaptation (UDA) methods for person Re-Identification (Re-ID) rely on target domain samples to model the marginal distribution of the data. To deal with the lack of target domain labels, UDA methods leverage information from labeled source samples and unlabeled target samples. A promising approach relies on the use of unsupervised learning as part of the pipeline, such as clustering methods. The quality of the clusters clearly plays a major role in methods performance, but this point has been overlooked. In this work, we propose a multi-step pseudo-label refinement method to select the best possible clusters and keep improving them so that these clusters become closer to the class divisions without knowledge of the class labels. Our refinement method includes a cluster selection strategy and a camera-based normalization method which reduces the within-domain variations caused by the use of multiple cameras in person Re-ID. This allows our method to reach state-of-the-art UDA results on DukeMTMC-Market1501 (source-target). We surpass state-of-the-art for UDA Re-ID by 3.4% on Market1501-DukeMTMC datasets, which is a more challenging adaptation setup because the target domain (DukeMTMC) has eight distinct cameras. Furthermore, the camera-based normalization method causes a significant reduction in the number of iterations required for training convergence.
翻訳日:2021-04-11 23:03:00 公開日:2021-01-04
# 動的有向重み付きグラフに対する表現学習による乗客移動予測

Passenger Mobility Prediction via Representation Learning for Dynamic Directed and Weighted Graph ( http://arxiv.org/abs/2101.00752v1 )

ライセンス: Link先を確認
Yuandong Wang and Hongzhi Yin and Tong Chen and Chunyang Liu and Ben Wang and Tianyu Wo and Jie Xu(参考訳) 近年、乗客の利便性が大幅に向上し、配車サービスの普及が進んでいる。 交通流量の制御や経路計画の効率化には,各地域における乗客需要のタイムリーな予測が不可欠である。 空間パターンと時間パターンの両方が乗客需要予測に欠かせないため、関連する研究は純粋な時系列から歴史的な乗客需要データをモデル化するためのグラフ構造化データへと進化し、異なるリレーショナルエッジ(例えば、起源-運命関係、地理的距離など)を介して地域ノードを接続することで、各タイムスロット毎にスナップショットグラフを構築している。 従って、時空間的な旅客需要記録は、構築されたグラフに動的パターンを自然に含み、エッジは、2つの接続された領域間の旅客需要の方向と体積(すなわち重量)に関する重要な情報をエンコードする。 しかし、既存のグラフベースのソリューションは、動的、指向的、重み付けされた(DDW)グラフの3つの重要な側面を同時に考慮することができない。 そこで本稿では,gallat (graph prediction with all attention) を解として,新たな時空間グラフ注目ネットワークを提案する。 Gallatでは、DDWグラフのこれらの3つの固有の特性を包括的に組み込むことで、3つの注意層を構築し、すべての歴史的時間帯における異なる領域間の時空間依存性をフルに把握する。 さらに、モデルはサブタスクを使用して事前訓練を行い、より迅速に正確な結果を得ることができる。 提案モデルを実世界のデータセット上で評価し,gallatが最先端のアプローチを上回ることを示した。

In recent years, ride-hailing services have been increasingly prevalent as they provide huge convenience for passengers. As a fundamental problem, the timely prediction of passenger demands in different regions is vital for effective traffic flow control and route planning. As both spatial and temporal patterns are indispensable passenger demand prediction, relevant research has evolved from pure time series to graph-structured data for modeling historical passenger demand data, where a snapshot graph is constructed for each time slot by connecting region nodes via different relational edges (e.g., origin-destination relationship, geographical distance, etc.). Consequently, the spatiotemporal passenger demand records naturally carry dynamic patterns in the constructed graphs, where the edges also encode important information about the directions and volume (i.e., weights) of passenger demands between two connected regions. However, existing graph-based solutions fail to simultaneously consider those three crucial aspects of dynamic, directed, and weighted (DDW) graphs, leading to limited expressiveness when learning graph representations for passenger demand prediction. Therefore, we propose a novel spatiotemporal graph attention network, namely Gallat (Graph prediction with all attention) as a solution. In Gallat, by comprehensively incorporating those three intrinsic properties of DDW graphs, we build three attention layers to fully capture the spatiotemporal dependencies among different regions across all historical time slots. Moreover, the model employs a subtask to conduct pretraining so that it can obtain accurate results more quickly. We evaluate the proposed model on real-world datasets, and our experimental results demonstrate that Gallat outperforms the state-of-the-art approaches.
翻訳日:2021-04-11 23:02:37 公開日:2021-01-04
# 新型コロナウイルスパンデミックに対するワクチンおよびテストキット配置の確率的最適化

Stochastic Optimization for Vaccine and Testing Kit Allocation for the COVID-19 Pandemic ( http://arxiv.org/abs/2101.01204v1 )

ライセンス: Link先を確認
Lawrence Thul, Warren Powell(参考訳) SARS-CoV-2ウイルスによるパンデミックは、世界的な健康危機に対処するために資源を分配する際の意思決定戦略に多くの欠陥を露呈している。 本稿では,各種資源の配分戦略を改善するために,強化学習と最適化を活用する。 特に、世界の不確実な状態(アクティブラーニング)について学習するために、テストキットの送信先を決定する必要がある問題について考察し、その上で、新しい情報を用いて、状態に関する信念を構築し、リソースを割り当てる場所を決定する。 我々は,世界の状況について完全な知識を持たずにワクチン割当決定を行うための,調整可能なルックアヘッドポリシーと組み合わされた一般モデルを提案する。 ルックアヘッド政策は、実際には現在の戦略と類似している可能性が高い人口ベースの筋電図政策と比較される。 各ワクチン割り当てポリシーは、アクティブな学習を行うためのテストキット割り当てポリシーと連携して機能する。 シミュレーションの結果、最適化に基づくルックアヘッド決定戦略は、提示されたミオピックポリシーよりも優れていることが示された。

The pandemic caused by the SARS-CoV-2 virus has exposed many flaws in the decision-making strategies used to distribute resources to combat global health crises. In this paper, we leverage reinforcement learning and optimization to improve upon the allocation strategies for various resources. In particular, we consider a problem where a central controller must decide where to send testing kits to learn about the uncertain states of the world (active learning); then, use the new information to construct beliefs about the states and decide where to allocate resources. We propose a general model coupled with a tunable lookahead policy for making vaccine allocation decisions without perfect knowledge about the state of the world. The lookahead policy is compared to a population-based myopic policy which is more likely to be similar to the present strategies in practice. Each vaccine allocation policy works in conjunction with a testing kit allocation policy to perform active learning. Our simulation results demonstrate that an optimization-based lookahead decision making strategy will outperform the presented myopic policy.
翻訳日:2021-04-11 23:02:06 公開日:2021-01-04
# フェデレートラーニングに基づくリスク意識決定による群集センシングプラットフォームにおけるフェイクタスクの影響軽減

Federated Learning-Based Risk-Aware Decision toMitigate Fake Task Impacts on CrowdsensingPlatforms ( http://arxiv.org/abs/2101.01266v1 )

ライセンス: Link先を確認
Zhiyan Chen, Murat Simsek, Burak Kantarci(参考訳) モバイルクラウドセンシング(MCS)は、多数のモバイルスマートデバイスに埋め込まれたセンサを活用することで、分散および非専用センシングの概念を活用する。 しかし、MCSのオープン性と分散性は、様々な脆弱性や対処すべき課題をもたらす。 mcsプラットフォームに偽のセンシングタスクを提出する悪意のあるユーザは、多数の参加者のデバイスからリソースを消費しようとしているかもしれません。 本稿では,複数の独立検出デバイスと集約エンティティを含む偽のタスクを識別するために,水平フェデレーション学習に基づく新しい手法を提案する。 検出デバイスは、機械学習(ML)モジュールと関連するトレーニングデータセットを備えた各デバイスと並行して動作するようにデプロイされる。 さらに、アグリゲーションモジュールは、個々のデバイスから予測結果を収集し、予測損失を最小化する目的で最終決定を決定する。 損失測定は、誤分類に関して失われたタスク値を考慮し、最終決定は、リスクをユーティリティ損失の関数として定式化するリスク認識アプローチを利用する。 実験の結果,リスク認識アグリゲーション機能を用いたフェデレーション学習駆動非正規タスク検出により,従来の集中型フレームワークの検出性能が向上することが示された。 さらに,提案手法により,検出性能の向上と実用性低下を実現することができる。 このスキームは、デバイスに分散した小さなトレーニングデータセットを使用して100%検出精度を達成できる一方で、従来のアプローチよりも8%以上の検出改善を実現している。

Mobile crowdsensing (MCS) leverages distributed and non-dedicated sensing concepts by utilizing sensors imbedded in a large number of mobile smart devices. However, the openness and distributed nature of MCS leads to various vulnerabilities and consequent challenges to address. A malicious user submitting fake sensing tasks to an MCS platform may be attempting to consume resources from any number of participants' devices; as well as attempting to clog the MCS server. In this paper, a novel approach that is based on horizontal federated learning is proposed to identify fake tasks that contain a number of independent detection devices and an aggregation entity. Detection devices are deployed to operate in parallel with each device equipped with a machine learning (ML) module, and an associated training dataset. Furthermore, the aggregation module collects the prediction results from individual devices and determines the final decision with the objective of minimizing the prediction loss. Loss measurement considers the lost task values with respect to misclassification, where the final decision utilizes a risk-aware approach where the risk is formulated as a function of the utility loss. Experimental results demonstrate that using federated learning-driven illegitimate task detection with a risk aware aggregation function improves the detection performance of the traditional centralized framework. Furthermore, the higher performance of detection and lower loss of utility can be achieved by the proposed framework. This scheme can even achieve 100%detection accuracy using small training datasets distributed across devices, while achieving slightly over an 8% increase in detection improvement over traditional approaches.
翻訳日:2021-04-11 23:01:47 公開日:2021-01-04
# 応答面推定におけるガウス関数

Gaussian Function On Response Surface Estimation ( http://arxiv.org/abs/2101.00772v1 )

ライセンス: Link先を確認
Mohammadhossein Toutiaee, John Miller(参考訳) メタモデリング手法を用いて2次元のブラックボックス機械学習モデル(機能とサンプル)を解釈する新しいフレームワークを提案し,その基盤となる機械学習モデルの出力と入力の関係について検討する。 メタモデルは、興味のある領域のデータサンプルでコンピュータ実験を実行することによって、訓練された複雑なモデルによって生成されたデータから推定することができる。 我々は、ガウス過程を代理として、複素モデルの応答面を捕捉し、その過程に2つの要素を組み込む: 先行共分散関数によって支配される定常ガウス過程Zによってモデル化される補間値と、基礎モデルの既知のトレンドをキャプチャする平均関数 mu である。 変数重要パラメータthetaの最適化手順は、可能性関数を最大化する。 このテータは、個々の変数とターゲット応答の相関に対応する。 仮定済みのモデルは経験的な観測に依存するため不要である。 実験は、予測されたサンプルの定量的評価を通じて解釈可能なモデルの可能性を示す。

We propose a new framework for 2-D interpreting (features and samples) black-box machine learning models via a metamodeling technique, by which we study the output and input relationships of the underlying machine learning model. The metamodel can be estimated from data generated via a trained complex model by running the computer experiment on samples of data in the region of interest. We utilize a Gaussian process as a surrogate to capture the response surface of a complex model, in which we incorporate two parts in the process: interpolated values that are modeled by a stationary Gaussian process Z governed by a prior covariance function, and a mean function mu that captures the known trends in the underlying model. The optimization procedure for the variable importance parameter theta is to maximize the likelihood function. This theta corresponds to the correlation of individual variables with the target response. There is no need for any pre-assumed models since it depends on empirical observations. Experiments demonstrate the potential of the interpretable model through quantitative assessment of the predicted samples.
翻訳日:2021-04-11 23:01:24 公開日:2021-01-04
# smartdeal: 効率的な推論とトレーニングのためのディープネットワーク重み付けの再モデリング

SmartDeal: Re-Modeling Deep Network Weights for Efficient Inference and Training ( http://arxiv.org/abs/2101.01163v1 )

ライセンス: Link先を確認
Xiaohan Chen, Yang Zhao, Yue Wang, Pengfei Xu, Haoran You, Chaojian Li, Yonggan Fu, Yingyan Lin, Zhangyang Wang(参考訳) ディープニューラルネットワーク(DNN)のレコード破りのパフォーマンスには、重いパラメータ化が伴い、ストレージの外部動的ランダムアクセスメモリ(DRAM)が発生する。 DRAMアクセスの禁止されたエネルギは、リソース制限されたデバイスにDNNをデプロイするのは簡単ではない。 We present SmartDeal (SD), a algorithm framework to trade high-cost memory storage/ access for lower-cost calculation, to a aggressively boost the storage and energy efficiency for inference and training。 SDの中核は構造的制約のある新しい重量分解であり、ハードウェア効率のポテンシャルを解き放つために慎重に設計されている。 具体的には、各重みテンソルを小さな基底行列の積として分解し、非零点を2のパワーに量子化する大きな構造的スパース係数行列とする。 結果として得られるスパースと量子化されたDNNは、データ移動と重み記憶のエネルギーを大幅に削減し、スパースビット演算と費用対価計算によって元の重みを回復するために最小限のオーバーヘッドを発生させる。 推論以外にも、私たちはエネルギー効率のトレーニングを受け入れるために、SD構造を維持しながらトレーニングで生じるユニークな障害に対処する革新的な技術を導入しています。 また、SD構造を完全に活用して実エネルギー効率と遅延を改善する専用ハードウェアアクセラレータを設計する。 複数のタスク、モデル、データセットをそれぞれ異なる設定で実験します。 その結果,1)実ハードウェア実装による評価では,SDは最大2.44倍のエネルギー効率を達成し,2)トレーニングにおいてSDは10.56倍,4.48倍のストレージとトレーニングエネルギを減少させ,最先端のトレーニングベースラインに比べて精度の低下は無視できることがわかった。 ソースコードはオンラインで入手できます。

The record-breaking performance of deep neural networks (DNNs) comes with heavy parameterization, leading to external dynamic random-access memory (DRAM) for storage. The prohibitive energy of DRAM accesses makes it non-trivial to deploy DNN on resource-constrained devices, calling for minimizing the weight and data movements to improve the energy efficiency. We present SmartDeal (SD), an algorithm framework to trade higher-cost memory storage/access for lower-cost computation, in order to aggressively boost the storage and energy efficiency, for both inference and training. The core of SD is a novel weight decomposition with structural constraints, carefully crafted to unleash the hardware efficiency potential. Specifically, we decompose each weight tensor as the product of a small basis matrix and a large structurally sparse coefficient matrix whose non-zeros are quantized to power-of-2. The resulting sparse and quantized DNNs enjoy greatly reduced energy for data movement and weight storage, incurring minimal overhead to recover the original weights thanks to the sparse bit-operations and cost-favorable computations. Beyond inference, we take another leap to embrace energy-efficient training, introducing innovative techniques to address the unique roadblocks arising in training while preserving the SD structures. We also design a dedicated hardware accelerator to fully utilize the SD structure to improve the real energy efficiency and latency. We conduct experiments on both multiple tasks, models and datasets in different settings. Results show that: 1) applied to inference, SD achieves up to 2.44x energy efficiency as evaluated via real hardware implementations; 2) applied to training, SD leads to 10.56x and 4.48x reduction in the storage and training energy, with negligible accuracy loss compared to state-of-the-art training baselines. Our source codes are available online.
翻訳日:2021-04-11 23:01:10 公開日:2021-01-04
# ニューラルアーキテクチャ探索のための一般化レイテンシ性能推定法

Generalized Latency Performance Estimation for Once-For-All Neural Architecture Search ( http://arxiv.org/abs/2101.00732v1 )

ライセンス: Link先を確認
Muhtadyuzzaman Syed and Arvind Akpuram Srinivasan(参考訳) ニューラルネットワーク検索(NAS)は、検索空間、探索戦略、パフォーマンス推定戦略を定義するディープニューラルネットワークアーキテクチャのマニュアル開発を合理化することで、機械学習の自動化を可能にする。 畳み込みニューラルネットワーク(CNN)モデルのマルチプラットフォーム展開の必要性を解決するため、Imped-For-All(OFA)はトレーニングと検索を分離して、さまざまな精度とレイテンシのトレードオフに制約のあるサブネットワークのワンショットモデルを提供することを提案した。 ofaの検索性能推定戦略は,単一のハードウェアレイテンシルックアップテーブルによって,事前構築にかなりの時間と手作業を要するため,異なるハードウェアデプロイメントプラットフォームの汎用性が極めて不足していることが判明した。 本稿では,ヘテロジニアスなハードウェアサポートの必要性に対処し,ルックアップテーブルのオーバーヘッドを削減するために,ニューラルネットワークアーキテクチャのレイテンシ予測器を構築するためのフレームワークを実証する。 本稿では、特定のハードウェアとNAS検索空間でトレーニングされたベースモデルを用いた微調整と、コア数、RAMサイズ、メモリ帯域幅などのGPUハードウェアパラメータでモデルをトレーニングするGPU一般化という2つの一般化可能性戦略を紹介する。 これにより、ProxylessNASと比較して50%以上低いRMSE損失を達成できる待ち時間予測モデルが提供されます。 また,これらのレイテンシ予測器の使用が,特定の場合において,ルックアップテーブルのベースラインアプローチのnas性能に適合することを示した。

Neural Architecture Search (NAS) has enabled the possibility of automated machine learning by streamlining the manual development of deep neural network architectures defining a search space, search strategy, and performance estimation strategy. To solve the need for multi-platform deployment of Convolutional Neural Network (CNN) models, Once-For-All (OFA) proposed to decouple Training and Search to deliver a one-shot model of sub-networks that are constrained to various accuracy-latency tradeoffs. We find that the performance estimation strategy for OFA's search severely lacks generalizability of different hardware deployment platforms due to single hardware latency lookup tables that require significant amount of time and manual effort to build beforehand. In this work, we demonstrate the framework for building latency predictors for neural network architectures to address the need for heterogeneous hardware support and reduce the overhead of lookup tables altogether. We introduce two generalizability strategies which include fine-tuning using a base model trained on a specific hardware and NAS search space, and GPU-generalization which trains a model on GPU hardware parameters such as Number of Cores, RAM Size, and Memory Bandwidth. With this, we provide a family of latency prediction models that achieve over 50% lower RMSE loss as compared to with ProxylessNAS. We also show that the use of these latency predictors match the NAS performance of the lookup table baseline approach if not exceeding it in certain cases.
翻訳日:2021-04-11 23:00:35 公開日:2021-01-04
# オブジェクト検出器の摂食:半隣のマスクによる敵攻撃

Fooling Object Detectors: Adversarial Attacks by Half-Neighbor Masks ( http://arxiv.org/abs/2101.00989v1 )

ライセンス: Link先を確認
Yanghao Zhang, Fu Wang and Wenjie Ruan(参考訳) 深層学習に基づく分類器に対する敵攻撃は多数存在するが、対象検出システムへの攻撃方法はほとんど研究されていない。 本稿では,厳密な制約下で異なる種類の検出器を騙すための強い摂動を発生させるハーフナイバーマスク付き投射勾配降下 (hnm-pgd) に基づく攻撃を提案する。 また,提案したHNM-PGD攻撃を,トップ1%にランクインしたCIKM 2020 AnalytiCup Competitionに応用した。 コードをhttps://github.com/YanghaoZYH/HNM-PGDでリリースします。

Although there are a great number of adversarial attacks on deep learning based classifiers, how to attack object detection systems has been rarely studied. In this paper, we propose a Half-Neighbor Masked Projected Gradient Descent (HNM-PGD) based attack, which can generate strong perturbation to fool different kinds of detectors under strict constraints. We also applied the proposed HNM-PGD attack in the CIKM 2020 AnalytiCup Competition, which was ranked within the top 1% on the leaderboard. We release the code at https://github.com/YanghaoZYH/HNM-PGD.
翻訳日:2021-04-11 23:00:09 公開日:2021-01-04
# 深層学習によるパッチ状イオン化の再構築

Reconstructing Patchy Reionization with Deep Learning ( http://arxiv.org/abs/2101.01214v1 )

ライセンス: Link先を確認
Eric Guzman and Joel Meyers(参考訳) 次世代宇宙マイクロ波背景調査(cmb)から予測される精度は、宇宙論に特徴的な新しい洞察をもたらす。 cmbの二次異方性は、それらがエンコードする宇宙情報と、それらが一次揺らぎの観測を阻害する役割の両方によって、今後の調査で重要性が増すだろう。 二次推定器は一次CMBを歪ませ、二次異方性を生成する分野を再構築するための標準ツールとなっている。 現在のデータによるレンズの再構築には成功したが、次のcmb調査で期待される感度でレンズの再構築や他の効果に最適である。 本稿では,2次cmb異方性源である重力レンズとパッチ状再イオン化の同時再構成が可能な畳み込みニューラルネットワークresunet-cmbについて述べる。 本稿では,ResUNet-CMBネットワークが2次推定器の低雑音レベルにおいて著しく優れており,2次推定器の簡単な適用により生じるパッチ状再イオン化再構成に対するレンズリングによる偏差には属さないことを示す。

The precision anticipated from next-generation cosmic microwave background (CMB) surveys will create opportunities for characteristically new insights into cosmology. Secondary anisotropies of the CMB will have an increased importance in forthcoming surveys, due both to the cosmological information they encode and the role they play in obscuring our view of the primary fluctuations. Quadratic estimators have become the standard tools for reconstructing the fields that distort the primary CMB and produce secondary anisotropies. While successful for lensing reconstruction with current data, quadratic estimators will be sub-optimal for the reconstruction of lensing and other effects at the expected sensitivity of the upcoming CMB surveys. In this paper we describe a convolutional neural network, ResUNet-CMB, that is capable of the simultaneous reconstruction of two sources of secondary CMB anisotropies, gravitational lensing and patchy reionization. We show that the ResUNet-CMB network significantly outperforms the quadratic estimator at low noise levels and is not subject to the lensing-induced bias on the patchy reionization reconstruction that would be present with a straightforward application of the quadratic estimator.
翻訳日:2021-04-11 22:59:36 公開日:2021-01-04
# 低照度画像に様々な光を流す: 任意参照による多レベル強調

Shed Various Lights on a Low-Light Image: Multi-Level Enhancement Guided by Arbitrary References ( http://arxiv.org/abs/2101.00813v1 )

ライセンス: Link先を確認
Ya'nan Wang, Zhuqing Jiang, Chang Liu, Kai Li, Aidong Men, Haiying Wang(参考訳) 低照度画像強調は,アプリケーションシナリオやユーザの審美性によってNORMAL-lightの定義が異なるため,一対多マッピングを実現することが示唆された。 しかし、既存の方法の多くは主観性を無視し、特定の明るさで結果を生成する。 本稿では,輝度基準として異なる画像を選択することで,様々な要件を満たすことができるマルチレベル低照度画像強調のためのニューラルネットワークを提案する。 スタイル転送に触発されて,潜在空間内の2つの低結合特徴成分に分解し,低照度画像からのコンテンツ成分と参照画像からの輝度成分の結合性を実現する。 このようにして、ネットワークは、明るさの違いを学習する代わりに、一連の画像ペアからシーン不変および輝度固有情報を抽出する。 また、色歪を緩和するために明るさ以外の情報が最大に保存される。 その結果,既存手法に対するネットワークの能力と優位性が示された。

It is suggested that low-light image enhancement realizes one-to-many mapping since we have different definitions of NORMAL-light given application scenarios or users' aesthetic. However, most existing methods ignore subjectivity of the task, and simply produce one result with fixed brightness. This paper proposes a neural network for multi-level low-light image enhancement, which is user-friendly to meet various requirements by selecting different images as brightness reference. Inspired by style transfer, our method decomposes an image into two low-coupling feature components in the latent space, which allows the concatenation feasibility of the content components from low-light images and the luminance components from reference images. In such a way, the network learns to extract scene-invariant and brightness-specific information from a set of image pairs instead of learning brightness differences. Moreover, information except for the brightness is preserved to the greatest extent to alleviate color distortion. Extensive results show strong capacity and superiority of our network against existing methods.
翻訳日:2021-04-11 22:59:05 公開日:2021-01-04
# ローカルブラックボックス攻撃:クエリ効率の良いアプローチ

Local Black-box Adversarial Attacks: A Query Efficient Approach ( http://arxiv.org/abs/2101.01032v1 )

ライセンス: Link先を確認
Tao Xiang, Hangcheng Liu, Shangwei Guo, Tianwei Zhang, Xiaofeng Liao(参考訳) 敵対的攻撃は、セキュリティに敏感なシナリオにおけるディープニューラルネットワークの適用を脅かしている。 既存のブラックボックス攻撃のほとんどは、ターゲットモデルと何度も対話し、グローバルな摂動を生み出すことで騙す。 しかし、グローバルな摂動はスムーズで重要でない背景を変えるため、摂動をより容易に認識できるだけでなく、クエリのオーバーヘッドも増大させる。 本稿では,ブラックボックス攻撃における限られたクエリ内でのみクリーンな例の識別領域を乱す新しい枠組みを提案する。 我々のフレームワークは2種類の転送可能性に基づいて構築されている。 1つ目はモデル解釈の転送可能性である。 この性質に基づき、局所摂動に対して、与えられたクリーンな例の識別領域を容易に特定する。 2つ目は、逆の例の転送可能性である。 クエリ効率を改善するために、ローカルなプリ摂動を生成するのに役立ちます。 識別領域を同定し,事前摂動を行った後,対象モデルに対して2種類のブラックボックス攻撃手法,すなわち勾配推定とランダム探索を照会することにより,事前摂動例から最終逆例を生成する。 我々は,ブラックボックス摂動時のクエリ効率が,高い攻撃成功率で大幅に向上することを示すために,広範な実験を行った。 実験の結果,システム設定の違いにより,攻撃は最先端のブラックボックス攻撃よりも優れていた。

Adversarial attacks have threatened the application of deep neural networks in security-sensitive scenarios. Most existing black-box attacks fool the target model by interacting with it many times and producing global perturbations. However, global perturbations change the smooth and insignificant background, which not only makes the perturbation more easily be perceived but also increases the query overhead. In this paper, we propose a novel framework to perturb the discriminative areas of clean examples only within limited queries in black-box attacks. Our framework is constructed based on two types of transferability. The first one is the transferability of model interpretations. Based on this property, we identify the discriminative areas of a given clean example easily for local perturbations. The second is the transferability of adversarial examples. It helps us to produce a local pre-perturbation for improving query efficiency. After identifying the discriminative areas and pre-perturbing, we generate the final adversarial examples from the pre-perturbed example by querying the targeted model with two kinds of black-box attack techniques, i.e., gradient estimation and random search. We conduct extensive experiments to show that our framework can significantly improve the query efficiency during black-box perturbing with a high attack success rate. Experimental results show that our attacks outperform state-of-the-art black-box attacks under various system settings.
翻訳日:2021-04-11 22:58:23 公開日:2021-01-04
# リスク感性・ロバスト制御設計のためのデリバティブフリーポリシー最適化:暗黙の正規化とサンプル複雑度

Derivative-Free Policy Optimization for Risk-Sensitive and Robust Control Design: Implicit Regularization and Sample Complexity ( http://arxiv.org/abs/2101.01041v1 )

ライセンス: Link先を確認
Kaiqing Zhang, Xiangyuan Zhang, Bin Hu, Tamer Ba\c{s}ar(参考訳) 直接政策探索は、現代強化学習(RL)におけるワークホースの1つであり、その継続的制御タスクへの応用が近年注目を集めている。 本研究では,線形リスク感性とロバスト性を有する制御器を学習するための政策勾配法(PG法)の収束理論について検討する。 特に,システムトラジェクトリをサンプリングすることで,微分自由な手法で実装可能なPG法を開発し,リスク感受性とロバスト性制御の2つの基本的設定 – 有限ホライズン線型指数二次ガウス問題と有限ホライズン線形2次外乱減衰問題 – の解として,大域収束とサンプル複雑性の両立を図った。 副産物として,マルチエージェント強化学習 (marl) のベースラインとなる非凸-非凸ミニマックス最適化問題であるゼロサム線形-四次動的ゲームを解くためのpg法の大域収束に関する最初のサンプル複雑性を提供する。 このアルゴリズムの特徴の一つは、学習段階において、制御器の頑健さ/リスク感度の一定レベルを保ち、暗黙の正規化特性と呼ばれ、安全クリティカルな制御システムにおいて必須の要件であるということである。

Direct policy search serves as one of the workhorses in modern reinforcement learning (RL), and its applications in continuous control tasks have recently attracted increasing attention. In this work, we investigate the convergence theory of policy gradient (PG) methods for learning the linear risk-sensitive and robust controller. In particular, we develop PG methods that can be implemented in a derivative-free fashion by sampling system trajectories, and establish both global convergence and sample complexity results in the solutions of two fundamental settings in risk-sensitive and robust control: the finite-horizon linear exponential quadratic Gaussian, and the finite-horizon linear-quadratic disturbance attenuation problems. As a by-product, our results also provide the first sample complexity for the global convergence of PG methods on solving zero-sum linear-quadratic dynamic games, a nonconvex-nonconcave minimax optimization problem that serves as a baseline setting in multi-agent reinforcement learning (MARL) with continuous spaces. One feature of our algorithms is that during the learning phase, a certain level of robustness/risk-sensitivity of the controller is preserved, which we termed as the implicit regularization property, and is an essential requirement in safety-critical control systems.
翻訳日:2021-04-11 22:57:49 公開日:2021-01-04
# ロバストな機械学習システム - 課題,現状,展望,今後の展望

Robust Machine Learning Systems: Challenges, Current Trends, Perspectives, and the Road Ahead ( http://arxiv.org/abs/2101.02559v1 )

ライセンス: Link先を確認
Muhammad Shafique, Mahum Naseer, Theocharis Theocharides, Christos Kyrkou, Onur Mutlu, Lois Orosa, Jungwook Choi(参考訳) 機械学習(ML)技術は、強力な意思決定能力のため、スマートサイバー物理システム(CPS)とIoT(Internet-of-Things)によって急速に採用されている。 しかし、ハードウェアレベルでもソフトウェアレベルでも、さまざまなセキュリティや信頼性の脅威に対して脆弱であり、精度を損なう。 これらの脅威は、リソース(例えば、計算、メモリ、電力/エネルギー)の制約が厳しい新興のエッジMLデバイスで増大し、そのため、コストのかかるセキュリティと信頼性対策は採用できない。 セキュリティ、信頼性、脆弱性軽減技術は、ネットワークセキュリティ対策からハードウェア保護まで、トレーニングされたmlモデルの形式的検証への関心が高まっている。 This paper summarizes the prominent vulnerabilities of modern ML systems, highlights successful defenses and mitigation techniques against these vulnerabilities, both at the cloud (i.e., during the ML training phase) and edge (i.e., during the ML inference stage), discusses the implications of a resource-constrained design on the reliability and security of the system, identifies verification methodologies to ensure correct system behavior, and describes open research challenges for building secure and reliable ML systems at both the edge and the cloud.

Machine Learning (ML) techniques have been rapidly adopted by smart Cyber-Physical Systems (CPS) and Internet-of-Things (IoT) due to their powerful decision-making capabilities. However, they are vulnerable to various security and reliability threats, at both hardware and software levels, that compromise their accuracy. These threats get aggravated in emerging edge ML devices that have stringent constraints in terms of resources (e.g., compute, memory, power/energy), and that therefore cannot employ costly security and reliability measures. Security, reliability, and vulnerability mitigation techniques span from network security measures to hardware protection, with an increased interest towards formal verification of trained ML models. This paper summarizes the prominent vulnerabilities of modern ML systems, highlights successful defenses and mitigation techniques against these vulnerabilities, both at the cloud (i.e., during the ML training phase) and edge (i.e., during the ML inference stage), discusses the implications of a resource-constrained design on the reliability and security of the system, identifies verification methodologies to ensure correct system behavior, and describes open research challenges for building secure and reliable ML systems at both the edge and the cloud.
翻訳日:2021-04-11 22:57:22 公開日:2021-01-04
# 検索と読み: オープンドメイン質問応答に関する包括的調査

Retrieving and Reading: A Comprehensive Survey on Open-domain Question Answering ( http://arxiv.org/abs/2101.00774v1 )

ライセンス: Link先を確認
Fengbin Zhu, Wenqiang Lei, Chao Wang, Jianming Zheng, Soujanya Poria, Tat-Seng Chua(参考訳) Open- Domain Question Answering (OpenQA) は、自然言語処理(NLP)において重要な課題であり、大規模非構造化文書に基づく自然言語形式での回答を目指している。 近年、特にneural machine reading comprehension(mrc)と統合される技術において、openqaに関する研究文献が急増している。 これらの研究は、ベンチマークデータセットの新たな高さまでパフォーマンスが向上しているが、QAシステムに関する既存の調査では、ほとんど取り上げられていない。 本稿では,神経mrc技術を組み込んだシステムに着目し,openqaの最新研究動向を概観する。 具体的には,OpenQAシステムの起源と開発の見直しから始める。 次に,‘retriever-reader’と呼ばれる現代的なopenqaアーキテクチャを紹介し,このアーキテクチャに従うさまざまなシステムと,各コンポーネントで採用されている特定の技術を分析します。 次に、OpenQAシステムの開発における主要な課題について議論し、一般的に使用されるベンチマークの分析を提供する。 我々の研究が、最近の進歩とOpenQA研究のオープンな課題を研究者に知らせ、この分野のさらなる進歩を促すことを願っている。

Open-domain Question Answering (OpenQA) is an important task in Natural Language Processing (NLP), which aims to answer a question in the form of natural language based on large-scale unstructured documents. Recently, there has been a surge in the amount of research literature on OpenQA, particularly on techniques that integrate with neural Machine Reading Comprehension (MRC). While these research works have advanced performance to new heights on benchmark datasets, they have been rarely covered in existing surveys on QA systems. In this work, we review the latest research trends in OpenQA, with particular attention to systems that incorporate neural MRC techniques. Specifically, we begin with revisiting the origin and development of OpenQA systems. We then introduce modern OpenQA architecture named ``Retriever-Reader'' and analyze the various systems that follow this architecture as well as the specific techniques adopted in each of the components. We then discuss key challenges to developing OpenQA systems and offer an analysis of benchmarks that are commonly used. We hope our work would enable researchers to be informed of the recent advancement and also the open challenges in OpenQA research, so as to stimulate further progress in this field.
翻訳日:2021-04-11 22:56:49 公開日:2021-01-04
# 一般ゲームにおける戦略的特徴

Strategic Features for General Games ( http://arxiv.org/abs/2101.00843v1 )

ライセンス: Link先を確認
Cameron Browne and Dennis J. N. J. Soemers and Eric Piette(参考訳) 本稿では,デジタル形式で多数のボードゲームを自動学習し,評価することを必要とする現在進行中の研究プロジェクトについて述べる。 任意のジオメトリでプレイする任意のゲームに対して,MCTSプレイアウトをバイアスするなど,関連する機能を決定するためのアプローチについて述べる。 このアプローチの利点は、効率的な実装、学習した知識を新しい文脈に移す可能性、人間の理解可能な言葉で特徴に埋め込まれた戦略的知識を説明する可能性などです。

This short paper describes an ongoing research project that requires the automated self-play learning and evaluation of a large number of board games in digital form. We describe the approach we are taking to determine relevant features, for biasing MCTS playouts for arbitrary games played on arbitrary geometries. Benefits of our approach include efficient implementation, the potential to transfer learnt knowledge to new contexts, and the potential to explain strategic knowledge embedded in features in human-comprehensible terms.
翻訳日:2021-04-11 22:56:30 公開日:2021-01-04
# グローバルおよびローカルコンテキストモデリングによる低光度画像強調

Low Light Image Enhancement via Global and Local Context Modeling ( http://arxiv.org/abs/2101.00850v1 )

ライセンス: Link先を確認
Aditya Arora, Muhammad Haris, Syed Waqas Zamir, Munawar Hayat, Fahad Shahbaz Khan, Ling Shao, Ming-Hsuan Yang(参考訳) 低照度条件下で撮影された画像は視認性が悪く、コントラストや色鮮度が欠如している。 従来のアプローチと比較して、深層畳み込みニューラルネットワーク(cnns)は画像の強化にうまく機能する。 しかし、既存のデータ駆動のディープモデルは、固定固定プリミティブにのみ依存しているため、様々な空間スケールのコンテキストを利用して低照度画像の強調に対処することはできない。 これらの文脈は、例えば、局所的および大域的コントラスト、明るさと色補正といった、局所的および大域的な空間的範囲からの手がかりを必要とするいくつかの画像強調タスクを推測するために重要である。 そこで本研究では,低光度画像強調のためのコンテキスト対応深層ネットワークを提案する。 まず、全空間領域上の補完的な手がかりを見つけるために空間相関をモデル化するグローバルコンテキストモジュールを特徴とする。 第二に、比較的大きな受容場で局所的なコンテキストをキャプチャする密度の高い残留ブロックを導入する。 提案手法をMIT-Adobe FiveK, LoL, SIDの3つの挑戦的データセットを用いて評価した。 これらすべてのデータセットにおいて,本手法は,標準画像忠実度指標の観点から,最先端技術に対して好適に機能する。 特に、MIT-Adobe FiveKデータセットの最高のパフォーマンス手法と比較して、我々のアルゴリズムはPSNRを23.04dBから24.45dBに改善する。

Images captured under low-light conditions manifest poor visibility, lack contrast and color vividness. Compared to conventional approaches, deep convolutional neural networks (CNNs) perform well in enhancing images. However, being solely reliant on confined fixed primitives to model dependencies, existing data-driven deep models do not exploit the contexts at various spatial scales to address low-light image enhancement. These contexts can be crucial towards inferring several image enhancement tasks, e.g., local and global contrast, brightness and color corrections; which requires cues from both local and global spatial extent. To this end, we introduce a context-aware deep network for low-light image enhancement. First, it features a global context module that models spatial correlations to find complementary cues over full spatial domain. Second, it introduces a dense residual block that captures local context with a relatively large receptive field. We evaluate the proposed approach using three challenging datasets: MIT-Adobe FiveK, LoL, and SID. On all these datasets, our method performs favorably against the state-of-the-arts in terms of standard image fidelity metrics. In particular, compared to the best performing method on the MIT-Adobe FiveK dataset, our algorithm improves PSNR from 23.04 dB to 24.45 dB.
翻訳日:2021-04-11 22:56:22 公開日:2021-01-04
# global2local: ビデオアクションセグメンテーションのための効率的な構造探索

Global2Local: Efficient Structure Search for Video Action Segmentation ( http://arxiv.org/abs/2101.00910v1 )

ライセンス: Link先を確認
Shang-Hua Gao, Qi Han, Zhong-Yu Li, Pai Peng, Liang Wang, Ming-Ming Cheng(参考訳) モデルの時間受容場は、アクションセグメンテーションにおいて重要な役割を果たす。 大きな受容野はビデオクリップ間の長期的な関係を促進し、小さな受容野は局所的な詳細を捉えるのに役立つ。 既存の手法は、層に手書きの受容場を持つモデルを構築する。 手作りのパターンを置き換えるための受容的場の組み合わせを効果的に探せるか? そこで本研究では,グローバル・ローカル検索手法を用いて,より優れた受容場の組み合わせを求める。 検索手法は,グローバル検索と局所検索の両方を利用して,より洗練された受容場の組み合わせパターンを得る。 グローバル検索は、人間がデザインしたパターン以外の粗い組み合わせを見つける。 グローバル検索に加えて, 組み合わせを効果的に洗練するために, 反復的局所探索法を期待して提案する。 我々のグローバル・ローカル検索は、既存のアクションセグメンテーション手法にプラグインして最先端のパフォーマンスを実現することができる。

Temporal receptive fields of models play an important role in action segmentation. Large receptive fields facilitate the long-term relations among video clips while small receptive fields help capture the local details. Existing methods construct models with hand-designed receptive fields in layers. Can we effectively search for receptive field combinations to replace hand-designed patterns? To answer this question, we propose to find better receptive field combinations through a global-to-local search scheme. Our search scheme exploits both global search to find the coarse combinations and local search to get the refined receptive field combination patterns further. The global search finds possible coarse combinations other than human-designed patterns. On top of the global search, we propose an expectation guided iterative local search scheme to refine combinations effectively. Our global-to-local search can be plugged into existing action segmentation methods to achieve state-of-the-art performance.
翻訳日:2021-04-11 22:56:02 公開日:2021-01-04
# spotpatch: 移動物体検出のためのパラメータ効率の高い転送学習

SpotPatch: Parameter-Efficient Transfer Learning for Mobile Object Detection ( http://arxiv.org/abs/2101.01260v1 )

ライセンス: Link先を確認
Keren Ye, Adriana Kovashka, Mark Sandler, Menglong Zhu, Andrew Howard, Marco Fornoni(参考訳) ディープラーニングベースのオブジェクト検出器は、さまざまなタスクを解決するために一般的にモバイルデバイスにデプロイされる。 最大精度では、各検出器は通常、1つの特定のタスクを解くために訓練され、完全に独立したパラメータセットが付属する。 これは高いパフォーマンスを保証するが、各モデルを別々にダウンロードして保存する必要があるため、非常に非効率である。 タスク固有の検出器は、共有の重みのセットとして訓練され、表現できるか、そして、タスクごとに非常に小さな重みのセットとして表現できるのか? 本論文の主な貢献は次のとおりである。 1) 対象検出問題に対するパラメータ効率変換学習技術の最初の体系的研究; 2) 学習すべき課題の難易度に依存する大きさのモデルパッチを学習する手法を提案し、そのアプローチを10種類の異なる対象検出タスクに対して検証する。 提案手法は従来提案した手法と同様の精度で,よりコンパクトである。

Deep learning based object detectors are commonly deployed on mobile devices to solve a variety of tasks. For maximum accuracy, each detector is usually trained to solve one single specific task, and comes with a completely independent set of parameters. While this guarantees high performance, it is also highly inefficient, as each model has to be separately downloaded and stored. In this paper we address the question: can task-specific detectors be trained and represented as a shared set of weights, plus a very small set of additional weights for each task? The main contributions of this paper are the following: 1) we perform the first systematic study of parameter-efficient transfer learning techniques for object detection problems; 2) we propose a technique to learn a model patch with a size that is dependent on the difficulty of the task to be learned, and validate our approach on 10 different object detection tasks. Our approach achieves similar accuracy as previously proposed approaches, while being significantly more compact.
翻訳日:2021-04-11 22:55:43 公開日:2021-01-04
# 深層畳み込みニューラルネットワークによるパターン伝達による下絵と幽霊絵の復元 : 美術研究者のためのデジタルツール

Recovery of underdrawings and ghost-paintings via style transfer by deep convolutional neural networks: A digital tool for art scholars ( http://arxiv.org/abs/2101.10807v1 )

ライセンス: Link先を確認
Anthony Bourached, George Cann, Ryan-Rhys Griffiths, David G. Stork(参考訳) 本稿では,美術油絵における下絵の可視化とゴーストペイントの改善問題に対する畳み込みニューラルネットワーク方式の応用について述べる。 このような下絵や隠された絵は、通常、グレースケールのイメージを生み出すX線や赤外線技術によって明らかにされ、色や完全なスタイルの情報がない。 過去の下絵における色推定法は、ゴーストペイントにおける顔料の物理X線分光画像に基づいており、高価で時間を要するため、ほとんどの保存スタジオでは利用できない設備を必要とする。 我々のアルゴリズムはそのような高価な物理画像装置を必要としない。 パブロ・ピカソ(pablo picasso)とレオナルド(leonardo)の作品に適用された概念実証システムは、ゴーストペイントの自然なセグメンテーションを尊重する色とデザインを明らかにする。 計算された画像は、他の方法では利用できないアーティストと関連する作品についての洞察を提供すると考えている。 以上の結果から,より大きな絵画のコーパスをベースとしたトレーニングが,アーティストの作品にさらに近いカラースキームやデザインを提示する可能性が示唆された。 これらの理由から,本手法の洗練は,美術保全,環境保全,美術分析に広く活用されるべきである。

We describe the application of convolutional neural network style transfer to the problem of improved visualization of underdrawings and ghost-paintings in fine art oil paintings. Such underdrawings and hidden paintings are typically revealed by x-ray or infrared techniques which yield images that are grayscale, and thus devoid of color and full style information. Past methods for inferring color in underdrawings have been based on physical x-ray fluorescence spectral imaging of pigments in ghost-paintings and are thus expensive, time consuming, and require equipment not available in most conservation studios. Our algorithmic methods do not need such expensive physical imaging devices. Our proof-of-concept system, applied to works by Pablo Picasso and Leonardo, reveal colors and designs that respect the natural segmentation in the ghost-painting. We believe the computed images provide insight into the artist and associated oeuvre not available by other means. Our results strongly suggest that future applications based on larger corpora of paintings for training will display color schemes and designs that even more closely resemble works of the artist. For these reasons refinements to our methods should find wide use in art conservation, connoisseurship, and art analysis.
翻訳日:2021-04-11 22:55:24 公開日:2021-01-04
# CRSLab:会話レコメンダシステム構築のためのオープンソースツールキット

CRSLab: An Open-Source Toolkit for Building Conversational Recommender System ( http://arxiv.org/abs/2101.00939v1 )

ライセンス: Link先を確認
Kun Zhou, Xiaolei Wang, Yuanhang Zhou, Chenzhan Shang, Yuan Cheng, Wayne Xin Zhao, Yaliang Li, Ji-Rong Wen(参考訳) 近年,会話推薦システム (CRS) が研究コミュニティで注目されている。 しかし、CRSに関する既存の研究は、シナリオ、ゴール、技術、統一された標準化された実装、比較が欠如している。 この課題に取り組むために,我々はcrssを開発するための高度に分離されたモジュールで統一された拡張可能なフレームワークを提供するオープンソースのcrsツールキットcrslabを提案する。 このフレームワークに基づき,共通に使用されている6つのcrsデータセットを収集し,グラフニューラルネットワークや事前学習モデルなどの最近の技術を含む18のモデルを実装した。 さらに,本ツールキットは,各種CRS手法のテストおよび比較を行うための,一連の自動評価プロトコルとヒューマンマシンインタラクションインタフェースを提供する。 プロジェクトとドキュメントはhttps://github.com/RUCAIBox/CRSLabで公開されている。

In recent years, conversational recommender system (CRS) has received much attention in the research community. However, existing studies on CRS vary in scenarios, goals and techniques, lacking unified, standardized implementation or comparison. To tackle this challenge, we propose an open-source CRS toolkit CRSLab, which provides a unified and extensible framework with highly-decoupled modules to develop CRSs. Based on this framework, we collect 6 commonly-used human-annotated CRS datasets and implement 18 models that include recent techniques such as graph neural network and pre-training models. Besides, our toolkit provides a series of automatic evaluation protocols and a human-machine interaction interface to test and compare different CRS methods. The project and documents are released at https://github.com/RUCAIBox/CRSLab.
翻訳日:2021-04-11 22:55:02 公開日:2021-01-04
# 深層学習における周波数原理

Frequency Principle in Deep Learning Beyond Gradient-descent-based Training ( http://arxiv.org/abs/2101.00747v1 )

ライセンス: Link先を確認
Yuheng Ma, Zhi-Qin John Xu, Jiwei Zhang(参考訳) 最近、周波数パースペクティブは深層学習の理解を前進させる。 ディープニューラルネットワーク(DNN)が低周波数から高周波数のターゲット関数、すなわち周波数原理(F-Principle)に適合することが実証的および理論的に広く証明されている。 F-PrincipleはDNNの強度と弱さに光を当て、理論研究、実証研究、効率的なDNN構造の設計など、その後の一連の研究を刺激している。 グラデーション・ディフレッシュ・トレーニングにおけるF原理の検討 勾配差に基づく訓練がF原理の必要条件であるかどうかは不明である。 本稿では,F-Principle が非段階的ディフレッシブ・トレーニングによる DNN のトレーニングプロセスに安定して存在し,例えば,共役勾配やBFGS などの勾配情報を用いた最適化アルゴリズムや,パウエル法や粒子群最適化のような勾配情報を持たないアルゴリズムを含むことを示す。 これらの経験的研究は、F原理の普遍性を示し、F原理のさらなる研究のヒントを与える。

Frequency perspective recently makes progress in understanding deep learning. It has been widely verified in both empirical and theoretical studies that deep neural networks (DNNs) often fit the target function from low to high frequency, namely Frequency Principle (F-Principle). F-Principle sheds light on the strength and the weakness of DNNs and inspires a series of subsequent works, including theoretical studies, empirical studies and the design of efficient DNN structures etc. Previous works examine the F-Principle in gradient-descent-based training. It remains unclear whether gradient-descent-based training is a necessary condition for the F-Principle. In this paper, we show that the F-Principle exists stably in the training process of DNNs with non-gradient-descent-based training, including optimization algorithms with gradient information, such as conjugate gradient and BFGS, and algorithms without gradient information, such as Powell's method and Particle Swarm Optimization. These empirical studies show the universality of the F-Principle and provide hints for further study of F-Principle.
翻訳日:2021-04-11 22:54:49 公開日:2021-01-04
# 局所特徴属性のベースラインについて

On Baselines for Local Feature Attributions ( http://arxiv.org/abs/2101.00905v1 )

ライセンス: Link先を確認
Johannes Haug, Stefan Z\"urn, Peter El-Jiz, Gjergji Kasneci(参考訳) ニューラルネットのような高性能な予測モデルは通常ブラックボックスとして動作し、解釈可能性に関する深刻な懸念を引き起こす。 局所的特徴帰属法はブラックボックスモデルの説明に役立つため、予測の信頼性と公平性を評価する強力なツールである。 この目的のために、ほとんどの帰属モデルは、入力特徴の重要性と、しばしばベースラインと呼ばれる参照値を比較する。 最近の研究では、ベースラインが特徴属性の品質に大きな影響を与えることが示されている。 しかし、実際には、ゼロベクトルのような単純化されたベースラインをしばしば見つける。 本稿では,ベースラインが特徴属性の識別能力を大きく変えることを実証的に示す。 我々は,最近の画像データ研究を補完し,表付きデータセットの分析を行う。 さらに,ベースライン法の新しい分類法を提案する。 本研究は,一般的な帰属モデルのベースラインに対する感度を実証し,表データに対する可視的ベースライン法に関するより深い議論の基盤となった。

High-performing predictive models, such as neural nets, usually operate as black boxes, which raises serious concerns about their interpretability. Local feature attribution methods help to explain black box models and are therefore a powerful tool for assessing the reliability and fairness of predictions. To this end, most attribution models compare the importance of input features with a reference value, often called baseline. Recent studies show that the baseline can heavily impact the quality of feature attributions. Yet, we frequently find simplistic baselines, such as the zero vector, in practice. In this paper, we show empirically that baselines can significantly alter the discriminative power of feature attributions. We conduct our analysis on tabular data sets, thus complementing recent works on image data. Besides, we propose a new taxonomy of baseline methods. Our experimental study illustrates the sensitivity of popular attribution models to the baseline, thus laying the foundation for a more in-depth discussion on sensible baseline methods for tabular data.
翻訳日:2021-04-11 22:54:31 公開日:2021-01-04
# スーパーネットにおけるテンソル化部分グラフ探索

Tensorizing Subgraph Search in the Supernet ( http://arxiv.org/abs/2101.01078v1 )

ライセンス: Link先を確認
Hansi Yang and Quanming Yao and James Kwok(参考訳) 近年,コンピュータビジョン(cv)と自然言語処理(nlp)タスクのための優れたアーキテクチャを探索することで,ニューラルネットワーク検索(nas)において,2つのノードを接続可能な特殊なグラフ,すなわちスーパーネットがその能力を発揮している。 本稿では,このような離散的アーキテクチャの設計が,知識グラフ(kgs)における論理連鎖推論やヘテロジニアス情報ネットワーク(hins)におけるメタパス発見など,多くの重要な学習タスクにも現れることを発見した。 したがって,我々はスーパーネット探索問題をより広い視野で一般化する動機がある。 しかし、スーパーネットトポロジーはタスクに依存し、多様であるため、既存の作品はどれも有効ではない。 この問題に対処するために,スーパーネットのテンソル化,すなわち,サブグラフ探索問題をテンソル定式化により統一し,スーパーネット内のトポロジーをテンソルネットワークで符号化する。 さらに,探索問題を解くための確率的目的と決定論的目的の両方を認める効率的なアルゴリズムを提案する。 最後に,多様な学習課題,すなわちCVのアーキテクチャ設計,KGの論理推論,HINのメタパス探索について広範な実験を行った。 実験結果から,本手法が優れた性能とアーキテクチャをもたらすことが示された。

Recently, a special kind of graph, i.e., supernet, which allows two nodes connected by multi-choice edges, has exhibited its power in neural architecture search (NAS) by searching for better architectures for computer vision (CV) and natural language processing (NLP) tasks. In this paper, we discover that the design of such discrete architectures also appears in many other important learning tasks, e.g., logical chain inference in knowledge graphs (KGs) and meta-path discovery in heterogeneous information networks (HINs). Thus, we are motivated to generalize the supernet search problem on a broader horizon. However, none of the existing works are effective since the supernet topology is highly task-dependent and diverse. To address this issue, we propose to tensorize the supernet, i.e., unify the subgraph search problems by a tensor formulation and encode the topology inside the supernet by a tensor network. We further propose an efficient algorithm that admits both stochastic and deterministic objectives to solve the search problem. Finally, we perform extensive experiments on diverse learning tasks, i.e., architecture design for CV, logic inference for KG, and meta-path discovery for HIN. Empirical results demonstrate that our method leads to better performance and architectures.
翻訳日:2021-04-11 22:53:53 公開日:2021-01-04
# 連合学習と産業用モノのインターネットの融合:調査

Fusion of Federated Learning and Industrial Internet of Things: A Survey ( http://arxiv.org/abs/2101.00798v1 )

ライセンス: Link先を確認
Parimala M and Swarna Priya R M and Quoc-Viet Pham and Kapal Dev and Praveen Kumar Reddy Maddikunta and Thippa Reddy Gadekallu and Thien Huynh-The(参考訳) industrial internet of things (iiot) は、産業 4.0という概念の新しいパラダイムを定め、新しい産業時代への洞察を与えている。 現在、スマートマシンとスマートファクトリは、インテリジェンス獲得に機械学習/ディープラーニングベースのモデルを使用している。 しかし、データをクラウドやエンドデバイスに保存し、通信することは、プライバシの保護に問題を引き起こす。 この問題に対処するために、フェデレートドラーニング(FL)技術は、現在研究者によってIIoTで実装されており、安全で正確で堅牢で偏りのないモデルを提供している。 IIoTにおけるFLの統合により、エッジデバイス上の学習モデルの分布がFLとより一般的になったため、ローカルなセンシティブなデータが交換されないことが保証される。 したがって、暗号化された通知とパラメータのみを中央サーバに通信する。 本稿では,プライバシ,リソース,データ管理の観点から,flとiotの統合について概説する。 調査は、IIoTの特徴と流通とFLの基礎を明確にすることから始まる。 データプライバシ保護とデバイス上での学習を実現するためにIIoTとFLを統合する動機を要約する。 次に、セキュアIIoTにおけるFLのための機械学習、ディープラーニング、ブロックチェーン技術の使用の可能性について論じる。 さらに,ヘテロジニアスデータと巨大なデータを扱う方法を分析し,要約する。 データとリソース管理に関する総合的なバックグラウンドが提示され、続いて医療と自動車産業におけるIIoTとFLの応用が紹介される。 最後に、今後の研究の課題、いくつかの可能な解決策、潜在的な方向性について光を当てた。

Industrial Internet of Things (IIoT) lays a new paradigm for the concept of Industry 4.0 and paves an insight for new industrial era. Nowadays smart machines and smart factories use machine learning/deep learning based models for incurring intelligence. However, storing and communicating the data to the cloud and end device leads to issues in preserving privacy. In order to address this issue, federated learning (FL) technology is implemented in IIoT by the researchers nowadays to provide safe, accurate, robust and unbiased models. Integrating FL in IIoT ensures that no local sensitive data is exchanged, as the distribution of learning models over the edge devices has become more common with FL. Therefore, only the encrypted notifications and parameters are communicated to the central server. In this paper, we provide a thorough overview on integrating FL with IIoT in terms of privacy, resource and data management. The survey starts by articulating IIoT characteristics and fundamentals of distributive and FL. The motivation behind integrating IIoT and FL for achieving data privacy preservation and on-device learning are summarized. Then we discuss the potential of using machine learning, deep learning and blockchain techniques for FL in secure IIoT. Further we analyze and summarize the ways to handle the heterogeneous and huge data. Comprehensive background on data and resource management are then presented, followed by applications of IIoT with FL in healthcare and automobile industry. Finally, we shed light on challenges, some possible solutions and potential directions for future research.
翻訳日:2021-04-11 22:53:13 公開日:2021-01-04
# サンプリングとギャップ挿入によるプラガブル学習インデックス法

A Pluggable Learned Index Method via Sampling and Gap Insertion ( http://arxiv.org/abs/2101.00808v1 )

ライセンス: Link先を確認
Yaliang Li, Daoyuan Chen, Bolin Ding, Kai Zeng, Jingren Zhou(参考訳) データベースインデックスは、データ検索を促進し、現実世界のシステムにおける幅広いアプリケーションに役立つ。 近年,隠れて有用なデータ分布を学習し,そのような情報を索引の学習に組み込むことで,有望な性能向上を実現するために,学習指標と呼ばれる新しい指標群が提案されている。 しかし、学習インデックスの「学習」プロセスはまだ未熟である。 本稿では,索引学習目標を定量化する形式的機械学習フレームワークを提案し,学習指標の学習効率と学習効率を向上させるための2つの汎用的およびプラグ可能な手法について検討する。 形式的学習目的の指導により,提案手法を組み込んだインデックスを効率的に学習し,結果駆動ギャップ挿入手法によってもたらされる一般化能力を高めた正確なインデックスを学習できる。 本研究では,実世界のデータセットに関する広範囲な実験を行い,インデックス学習目的の観点から,複数の索引付け手法を比較した。 その結果,異なるシナリオに適したインデックスを設計するためのフレームワークが提案されている。 さらに, 提案手法の有効性を実証し, 非劣化インデクシング性能を維持しつつ, 最大78倍の高速化を実現する。 最後に、gap挿入手法により、最大1.59倍のクエリスピードアップで、既存の学習インデックスメソッドの静的および動的インデックス化性能を向上できることを示す。 さらなる研究のために、コードと処理データをリリースし、マシンラーニングとデータベースの両方の観点から、学習されたインデックスのさらなる探索を可能にします。

Database indexes facilitate data retrieval and benefit broad applications in real-world systems. Recently, a new family of index, named learned index, is proposed to learn hidden yet useful data distribution and incorporate such information into the learning of indexes, which leads to promising performance improvements. However, the "learning" process of learned indexes is still under-explored. In this paper, we propose a formal machine learning based framework to quantify the index learning objective, and study two general and pluggable techniques to enhance the learning efficiency and learning effectiveness for learned indexes. With the guidance of the formal learning objective, we can efficiently learn index by incorporating the proposed sampling technique, and learn precise index with enhanced generalization ability brought by the proposed result-driven gap insertion technique. We conduct extensive experiments on real-world datasets and compare several indexing methods from the perspective of the index learning objective. The results show the ability of the proposed framework to help to design suitable indexes for different scenarios. Further, we demonstrate the effectiveness of the proposed sampling technique, which achieves up to 78x construction speedup while maintaining non-degraded indexing performance. Finally, we show the gap insertion technique can enhance both the static and dynamic indexing performances of existing learned index methods with up to 1.59x query speedup. We will release our codes and processed data for further study, which can enable more exploration of learned indexes from both the perspectives of machine learning and database.
翻訳日:2021-04-11 22:52:49 公開日:2021-01-04
# 深部Q-Networkアルゴリズムによる2視点からのプッシュグレーピング協調手法

A Pushing-Grasping Collaborative Method Based on Deep Q-Network Algorithm in Dual Perspectives ( http://arxiv.org/abs/2101.00829v1 )

ライセンス: Link先を確認
Peng Gang, Liao Jinhu, Guan Shangbin(参考訳) 2dカメラを用いた従来のマニピュレータの把持法をめざすと、集合や被覆の場面に直面すると、集合や被覆として現れる非構造的なシーンでは、単一の視点からクラスターシーンにおいてオブジェクトを正確に認識できず、マニピュレータが環境をよりよく把握することができないため、うまく動作できない。 本稿では,デュアル・パースペクティブにおける深層qネットワークに基づく新しいプッシュ・グラッピング協調手法を提案する。 本手法では,2視点からオブジェクトのRGB画像と点雲の情報を得るためのRGB-Dカメラを備えた改良されたディープQネットワークアルゴリズムを採用し,トレーニングされたマニピュレータがより複雑なグルーピングシーンで良好なシーンを把握できるように,プッシュとグルーピング動作を組み合わせた。 さらに、深部Qネットワークの報酬関数を改善し、深部Qネットワークの収束を高速化する分別報酬関数を提案する。 我々は,V-REPシミュレーション環境において,異なるモデルを訓練し,異なる手法を試行し,提案手法は迅速に収束し,未構造化シーンにおける物体の把握の成功率は83.5%に達すると結論付けた。 また、マニピュレータが一度も把握したことのない場面に新しい物体が現れるときの一般化能力や性能を示す。

Aiming at the traditional grasping method for manipulators based on 2D camera, when faced with the scene of gathering or covering, it can hardly perform well in unstructured scenes that appear as gathering and covering, for the reason that can't recognize objects accurately in cluster scenes from a single perspective and the manipulators can't make the environment better for grasping. In this case, a novel method of pushing-grasping collaborative based on the deep Q-network in dual perspectives is proposed in this paper. This method adopts an improved deep Q network algorithm, with an RGB-D camera to obtain the information of objects' RGB images and point clouds from two perspectives, and combines the pushing and grasping actions so that the trained manipulator can make the scenes better for grasping so that it can perform well in more complicated grasping scenes. What's more, we improved the reward function of the deep Q-network and propose the piecewise reward function to speed up the convergence of the deep Q-network. We trained different models and tried different methods in the V-REP simulation environment, and it concluded that the method proposed in this paper converges quickly and the success rate of grasping objects in unstructured scenes raises up to 83.5%. Besides, it shows the generalization ability and well performance when novel objects appear in the scenes that the manipulator has never grasped before.
翻訳日:2021-04-11 22:52:29 公開日:2021-01-04
# リリース時間と完了時間の合計による単一マシンスケジューリング問題を解決するための学習

Learning to solve the single machine scheduling problem with release times and sum of completion times ( http://arxiv.org/abs/2101.01082v1 )

ライセンス: Link先を確認
Axel Parmentier and Vincent T'Kindt(参考訳) 本稿では,機械学習分野とスケジューリング理論による新しいヒューリスティックアルゴリズム埋め込み手法によるハード・シングル・マシンスケジューリング問題の解法に着目する。 これらのヒューリスティックスは、難題のインスタンスを最適性に解決されたより単純なインスタンスに変換する。 得られたスケジュールは元の問題に変換される。 計算実験によれば、それらは最先端のヒューリスティック、特に大規模インスタンスと競合している。

In this paper, we focus on the solution of a hard single machine scheduling problem by new heuristic algorithms embedding techniques from machine learning field and scheduling theory. These heuristics transform an instance of the hard problem into an instance of a simpler one solved to optimality. The obtained schedule is then transposed to the original problem. Computational experiments show that they are competitive with state-of-the-art heuristics, notably on large instances.
翻訳日:2021-04-11 22:52:02 公開日:2021-01-04
# コミュニティ検出と不均一割当てページランクに基づくゾンビアカウント検出

Zombie Account Detection Based on Community Detection and Uneven Assignation PageRank ( http://arxiv.org/abs/2101.00922v1 )

ライセンス: Link先を確認
Qiu Yaowen, Li Yin, Lu Yanchang(参考訳) ソーシャルメディアでは、ゾンビの可能性があるアカウントが大量に存在し、それが世論に悪影響を及ぼす可能性がある。 伝統的に、PageRankアルゴリズムはゾンビアカウントの検出に使われている。 しかし、隣接行列や隣接リストを格納するために大きなRAMを必要とするような問題があり、大きなグラフには重要度がほぼゼロになる可能性がある。 最初の問題は、ソーシャルメディアの構造がグラフを分割可能にするため、コミュニティ検出アルゴリズムであるLouvainを用いて、グラフ全体を1,002部分グラフに分解する。 0.58のモジュラリティは、結果が効果的であることを示している。 第2の問題を解決するために,各コミュニティにおけるノードの重要性を計算するために,不均一な割当ページランクアルゴリズムを実施した。 そして、ゾンビアカウントと通常のアカウントを区別するために閾値を設定する。 その結果、データセット内の約20%のアカウントがゾンビアカウントであり、北京、上海、広州など中国のティアワン都市に集中していることがわかった。 将来的には、ゾンビアカウントの検出に半教師付き学習を用いた分類アルゴリズムが用いられるようになる。

In the social media, there are a large amount of potential zombie accounts which may has negative impact on the public opinion. In tradition, PageRank algorithm is used to detect zombie accounts. However, problems such as it requires a large RAM to store adjacent matrix or adjacent list and the value of importance may approximately to zero for large graph exist. To solve the first problem, since the structure of social media makes the graph divisible, we conducted a community detection algorithm Louvain to decompose the whole graph into 1,002 subgraphs. The modularity of 0.58 shows the result is effective. To solve the second problem, we performed the uneven assignation PageRank algorithm to calculate the importance of node in each community. Then, a threshold is set to distinguish the zombie account and normal accounts. The result shows that about 20% accounts in the dataset are zombie accounts and they center in tier-one cities in China such as Beijing, Shanghai, and Guangzhou. In the future, a classification algorithm with semi-supervised learning can be used to detect zombie accounts.
翻訳日:2021-04-11 22:51:47 公開日:2021-01-04
# wearmask:covid-19向けサーバーレスエッジコンピューティングによるブラウザ内顔マスクの高速検出

WearMask: Fast In-browser Face Mask Detection with Serverless Edge Computing for COVID-19 ( http://arxiv.org/abs/2101.00784v1 )

ライセンス: Link先を確認
Zekun Wang, Pengwei Wang, Peter C. Louis, Lee E. Wheless, Yuankai Huo(参考訳) 新型コロナウイルス(COVID-19)の流行は、米国で重要な医療課題となっている。 疾病予防管理センター(cdc)によると、covid-19の感染は、呼吸、話、せき、またはくしゃみ時に発生する呼吸液滴によって優先的に伝達される。 マスクを着用することは、呼吸器感染症の80%を遮断する最重要かつ効果的で便利な方法である。 そのため, 病院, 空港, 出版交通機関, スポーツ会場, 小売店の効果的な監視を行うために, 多くのマスク検出・監視システムが開発されている。 しかし、現在の商用マスク検出システムは、一般に特定のソフトウェアやハードウェアにバンドルされており、公共のアクセス性を妨げる。 本稿では,webブラウザをインストールすることなく,webブラウザを使用したインターネット接続を持つ任意の共通デバイス(携帯電話,タブレット,コンピュータなど)にデプロイ可能な,webベースの効率的なマスク認識(wearmask)という,ブラウザ内サーバレスエッジコンピューティングベースのフェイスマスク検出ソリューションを提案する。 サーバーレスエッジコンピューティング設計は、ハードウェアコスト(例えば、特定のデバイスやクラウドコンピューティングサーバ)を最小化する。 提案手法は,(1)ディープラーニングモデル(yolo),(2)高性能ニューラルネットワーク推論計算フレームワーク(ncnn),(3)スタックベース仮想マシン(webassembly)を統合する包括的エッジコンピューティングフレームワークを提供する。 エンドユーザにとって,このwebベースのソリューションは,(1)デバイス制限とプライバシリスクを最小限にしたサーバレスエッジコンピューティング設計,(2)インストールフリーデプロイメント,(3)低コンピューティング要件,(4)高い検出速度というメリットがあります。 当社のWearMaskアプリケーションはfacemask-detection.comで公開されています。

The COVID-19 epidemic has been a significant healthcare challenge in the United States. According to the Centers for Disease Control and Prevention (CDC), COVID-19 infection is transmitted predominately by respiratory droplets generated when people breathe, talk, cough, or sneeze. Wearing a mask is the primary, effective, and convenient method of blocking 80% of all respiratory infections. Therefore, many face mask detection and monitoring systems have been developed to provide effective supervision for hospitals, airports, publication transportation, sports venues, and retail locations. However, the current commercial face mask detection systems are typically bundled with specific software or hardware, impeding public accessibility. In this paper, we propose an in-browser serverless edge-computing based face mask detection solution, called Web-based efficient AI recognition of masks (WearMask), which can be deployed on any common devices (e.g., cell phones, tablets, computers) that have internet connections using web browsers, without installing any software. The serverless edge-computing design minimizes the extra hardware costs (e.g., specific devices or cloud computing servers). The contribution of the proposed method is to provide a holistic edge-computing framework of integrating (1) deep learning models (YOLO), (2) high-performance neural network inference computing framework (NCNN), and (3) a stack-based virtual machine (WebAssembly). For end-users, our web-based solution has advantages of (1) serverless edge-computing design with minimal device limitation and privacy risk, (2) installation free deployment, (3) low computing requirements, and (4) high detection speed. Our WearMask application has been launched with public access at facemask-detection.com.
翻訳日:2021-04-11 22:51:33 公開日:2021-01-04
# 深層学習とコンピュータグラフィックスに基づく単発フリンジ投影プロファイロメトリー

Single-shot fringe projection profilometry based on Deep Learning and Computer Graphics ( http://arxiv.org/abs/2101.00814v1 )

ライセンス: Link先を確認
Fanzhou Wang, Chenxing Wang, Qingze Guan(参考訳) 近年、複数の研究が深層学習を用いて投影プロファイロメトリー(FPP)を応用している。 しかし、実際のシステムから大量のデータを取得してトレーニングすることは依然として難しい問題であり、ネットワーク設計と最適化はまだ検討に値する。 本稿では,コンピュータグラフィックスを用いて仮想fppシステムを構築し,所望のデータセットを簡便かつ簡便に生成する。 まず、仮想fppシステムの構築方法を詳細に記述し、その後、仮想fppシステムを現実に近いものに設定するための重要な要素を解析する。 また、1つの縁画像から深度画像を正確に推定することを目的として、復元された全体および詳細情報の質を高めるために新しい損失関数を設計する。 そして、U-Netとpix2pixという2つの代表ネットワークを複数の面で比較する。 実際の実験は、仮想システムからのデータによって訓練されたネットワークの精度と一般化と、設計された損失を証明し、本手法の応用可能性を示している。

Multiple works have applied deep learning to fringe projection profilometry (FPP) in recent years. However, to obtain a large amount of data from actual systems for training is still a tricky problem, and moreover, the network design and optimization still worth exploring. In this paper, we introduce computer graphics to build virtual FPP systems in order to generate the desired datasets conveniently and simply. The way of constructing a virtual FPP system is described in detail firstly, and then some key factors to set the virtual FPP system much close to the reality are analyzed. With the aim of accurately estimating the depth image from only one fringe image, we also design a new loss function to enhance the quality of the overall and detailed information restored. And two representative networks, U-Net and pix2pix, are compared in multiple aspects. The real experiments prove the good accuracy and generalization of the network trained by the data from our virtual systems and the designed loss, implying the potential of our method for applications.
翻訳日:2021-04-11 22:51:03 公開日:2021-01-04
# hypermorph: 画像登録のためのamortized hyperparameter learning

HyperMorph: Amortized Hyperparameter Learning for Image Registration ( http://arxiv.org/abs/2101.01035v1 )

ライセンス: Link先を確認
Andrew Hoopes, Malte Hoffmann, Bruce Fischl, John Guttag, Adrian V. Dalca(参考訳) 学習中に重要な登録ハイパーパラメータをチューニングする必要をなくした,変形可能な画像登録のための学習ベースの戦略であるhypermorphを提案する。 古典的登録法は、2つの画像間の空間対応を探索する最適化問題を解く一方、学習に基づく手法はトレーニングデータセットを利用してこれらの対応を生成する関数を学習する。 どちらの手法でも結果の質はハイパーパラメータの選択に大きく依存する。 残念なことに、ハイパーパラメータチューニングは時間がかかり、通常、様々なハイパーパラメータ値を持つ多くの異なるモデルをトレーニングする。 この非効率性に対処するため,画像登録のための補正ハイパーパラメータ学習を導入し,変形場に対するハイパーパラメータの影響を学習する新しい手法を提案する。 提案フレームワークは,入力ハイパーパラメータを取り込むハイパーネットワークを学習し,登録ネットワークを変調し,そのハイパーパラメータ値の最適変形場を生成する。 実際、この戦略は、テスト時に連続的な間隔からハイパーパラメータ値の迅速かつきめ細かい発見を可能にする、単一のリッチなモデルを訓練する。 提案手法は,既存の探索手法よりもはるかに高速に複数のハイパーパラメータを最適化し,計算負荷と人的負担の低減と柔軟性の向上につながることを実証する。 これはまた、初期化に対する堅牢性の向上や、登録タスクやデータセット、さらには単一の解剖学的領域に特有の最適なハイパーパラメータ値を迅速に識別する能力など、いくつかの重要なメリットがあることも示しています。 私たちのコードはhttp://voxelmorph.mit.edu.で公開されています。

We present HyperMorph, a learning-based strategy for deformable image registration that removes the need to tune important registration hyperparameters during training. Classical registration methods solve an optimization problem to find a set of spatial correspondences between two images, while learning-based methods leverage a training dataset to learn a function that generates these correspondences. The quality of the results for both types of techniques depends greatly on the choice of hyperparameters. Unfortunately, hyperparameter tuning is time-consuming and typically involves training many separate models with various hyperparameter values, potentially leading to suboptimal results. To address this inefficiency, we introduce amortized hyperparameter learning for image registration, a novel strategy to learn the effects of hyperparameters on deformation fields. The proposed framework learns a hypernetwork that takes in an input hyperparameter and modulates a registration network to produce the optimal deformation field for that hyperparameter value. In effect, this strategy trains a single, rich model that enables rapid, fine-grained discovery of hyperparameter values from a continuous interval at test-time. We demonstrate that this approach can be used to optimize multiple hyperparameters considerably faster than existing search strategies, leading to a reduced computational and human burden and increased flexibility. We also show that this has several important benefits, including increased robustness to initialization and the ability to rapidly identify optimal hyperparameter values specific to a registration task, dataset, or even a single anatomical region - all without retraining the HyperMorph model. Our code is publicly available at http://voxelmorph.mit.edu.
翻訳日:2021-04-11 22:50:47 公開日:2021-01-04
# オンラインソーシャルネットワークにおける情報発信源検出のための伝搬モデルと震源推定器のスキーム:研究の10年を振り返って

Schemes of Propagation Models and Source Estimators for Rumor Source Detection in Online Social Networks: A Short Survey of a Decade of Research ( http://arxiv.org/abs/2101.00753v1 )

ライセンス: Link先を確認
Rong Jin and Weili Wu(参考訳) 近年,様々な噂拡散モデルが,オンラインソーシャルネットワークの噂ソース調査の検出に利用されてきた。 拡散モデルは、ネットワークにおけるソース検出において非常に重要かつ挑戦可能な要素であると考えられるが、研究は少ない。 本稿では,10年前の情報伝達のパターンをモデル化するカスケード型,流行型,学習型の3つの代表的なスキームの概要と,10年前の情報発信源推定器の3つの主要なスキームについて述べる。

Recent years have seen various rumor diffusion models being assumed in detection of rumor source research of the online social network. Diffusion model is arguably considered as a very important and challengeable factor for source detection in networks but it is less studied. This paper provides an overview of three representative schemes of Independent Cascade-based, Epidemic-based, and Learning-based to model the patterns of rumor propagation as well as three major schemes of estimators for rumor sources since its inception a decade ago.
翻訳日:2021-04-11 22:50:13 公開日:2021-01-04
# グラフ畳み込みネットワークにおける低周波情報を超えて

Beyond Low-frequency Information in Graph Convolutional Networks ( http://arxiv.org/abs/2101.00797v1 )

ライセンス: Link先を確認
Deyu Bo and Xiao Wang and Chuan Shi and Huawei Shen(参考訳) グラフニューラルネットワーク(GNN)は様々なネットワーク関連タスクに有効であることが証明されている。 既存のgnnの多くは、ノードの特徴の低周波信号を利用するのが一般的であり、これは1つの基本的な疑問を生じさせる。 本稿では,まず,低周波信号と高周波信号の役割を実験的に検討し,低周波信号の探索は異なるシナリオで有効なノード表現の学習から遠ざかっていることを示す。 GNNにおける低周波情報以外の情報を適応的に学習する方法 よくインフォームドされた回答は、GNNが適応性を高めるのに役立つ。 本稿では、この課題に取り組み、メッセージパッシングの過程で異なる信号を適応的に統合するセルフゲーティング機構を備えた新しい周波数適応グラフ畳み込みネットワーク(FAGCN)を提案する。 より深く理解するために,学習ノード表現における低周波信号と高周波信号の役割を理論的に解析し,fagcnが異なる種類のネットワークでうまく機能する理由を説明している。 6つの実世界のネットワークに関する大規模な実験は、FAGCNが過度にスムースな問題を緩和するだけでなく、最先端技術よりも有利であることを示した。

Graph neural networks (GNNs) have been proven to be effective in various network-related tasks. Most existing GNNs usually exploit the low-frequency signals of node features, which gives rise to one fundamental question: is the low-frequency information all we need in the real world applications? In this paper, we first present an experimental investigation assessing the roles of low-frequency and high-frequency signals, where the results clearly show that exploring low-frequency signal only is distant from learning an effective node representation in different scenarios. How can we adaptively learn more information beyond low-frequency information in GNNs? A well-informed answer can help GNNs enhance the adaptability. We tackle this challenge and propose a novel Frequency Adaptation Graph Convolutional Networks (FAGCN) with a self-gating mechanism, which can adaptively integrate different signals in the process of message passing. For a deeper understanding, we theoretically analyze the roles of low-frequency signals and high-frequency signals on learning node representations, which further explains why FAGCN can perform well on different types of networks. Extensive experiments on six real-world networks validate that FAGCN not only alleviates the over-smoothing problem, but also has advantages over the state-of-the-arts.
翻訳日:2021-04-11 22:50:04 公開日:2021-01-04
# Echelon:False Alarmsを減らすための生検用マルウェアの2層マルウェア検出

Echelon: Two-Tier Malware Detection for Raw Executables to Reduce False Alarms ( http://arxiv.org/abs/2101.01015v1 )

ライセンス: Link先を確認
Anandharaju Durai Raju, Ke Wang(参考訳) 既存のマルウェア検出アプローチは、単一階層の分類アプローチによる偽陽性率(fpr)と真陽性率(tpr)との単純なトレードオフに苦しむ。 マルウェア検出の実際的な意味は、FPRはTPRが高いまま、確実に低いレベルに保たなければならないことである。 そこで本研究では,手作り機能を必要としない生のバイトデータから「エケロン」と呼ばれる2階層学習を提案する。 第1層は所定の目標レベルでFPRをロックする一方、第2層はロックされたFPRを維持しながらTPRを改善する。 エケロンの中核は、より強力な第2層モデルを構築するための第1層モデルの隠れ層の活性化情報を抽出することにある。 echelonは、既存のcnnベースのモデルを両方の層で適用可能にするフレームワークである。 第1層と第2層のマルウェア検出モデル ` `Malconv" を適用して,エケロンの評価実験を行った。

Existing malware detection approaches suffer from a simplistic trade-off between false positive rate (FPR) and true positive rate (TPR) due to a single tier classification approach, where the two measures adversely affect one another. The practical implication for malware detection is that FPR must be kept at an acceptably low level while TPR remains high. To this end, we propose a two-tiered learning, called ``Echelon", from raw byte data with no need for hand-crafted features. The first tier locks FPR at a specified target level, whereas the second tier improves TPR while maintaining the locked FPR. The core of Echelon lies at extracting activation information of the hidden layers of first tier model for constructing a stronger second tier model. Echelon is a framework in that it allows any existing CNN based model to be adapted in both tiers. We present experimental results of evaluating Echelon by adapting the state-of-the-art malware detection model ``Malconv" in the first and second tiers.
翻訳日:2021-04-11 22:49:43 公開日:2021-01-04
# BARTを用いた雑音多目的物の多目的最適化

Using BART for Multiobjective Optimization of Noisy Multiple Objectives ( http://arxiv.org/abs/2101.02558v1 )

ライセンス: Link先を確認
Akira Horiguchi and Thomas J. Santner and Ying Sun and Matthew T. Pratola(参考訳) 業界の4.0エコシステムのエネルギー負荷を軽減する技術は、しばしば多目的最適化問題を解決する必要がある。 しかし、実験データの収集は、しばしば高価か時間を要する。 このような場合、統計的手法は有用である。 本稿では,非パラメトリックモデルであるベイズ加法回帰木 (bart) を用いたpareto front (pf) とpareto set (ps) 推定法を提案する。 BART法の性能を解析的テスト関数を用いたGP法と比較し,有意義な優位性を示す。 最後に,BARTをベースとした手法を産業用4.0エンジニアリング問題に適用する。

Techniques to reduce the energy burden of an Industry 4.0 ecosystem often require solving a multiobjective optimization problem. However, collecting experimental data can often be either expensive or time-consuming. In such cases, statistical methods can be helpful. This article proposes Pareto Front (PF) and Pareto Set (PS) estimation methods using Bayesian Additive Regression Trees (BART), which is a non-parametric model whose assumptions are typically less restrictive than popular alternatives, such as Gaussian Processes. The performance of our BART-based method is compared to a GP-based method using analytic test functions, demonstrating convincing advantages. Finally, our BART-based methodology is applied to a motivating Industry 4.0 engineering problem.
翻訳日:2021-04-11 22:49:04 公開日:2021-01-04
# 輸送情報bregmanダイバージェンス

Transport information Bregman divergences ( http://arxiv.org/abs/2101.01162v1 )

ライセンス: Link先を確認
Wuchen Li(参考訳) 我々は,$l^2$--wasserstein計量を組み込んだ確率密度空間におけるブレグマンの発散について検討する。 輸送系ブレグマンの発散のいくつかの性質と双対性が提供される。 特に、l^2$--wasserstein空間における負のボルツマン-シャノンエントロピーのブレグマンの発散により、輸送kullback-leibler (kl) の発散が導かれる。 また,一次元確率密度とガウス族に対する輸送kl発散の解析式と一般化も導出する。

We study Bregman divergences in probability density space embedded with the $L^2$--Wasserstein metric. Several properties and dualities of transport Bregman divergences are provided. In particular, we derive the transport Kullback--Leibler (KL) divergence by a Bregman divergence of negative Boltzmann--Shannon entropy in $L^2$--Wasserstein space. We also derive analytical formulas and generalizations of transport KL divergence for one-dimensional probability densities and Gaussian families.
翻訳日:2021-04-11 22:48:53 公開日:2021-01-04
# 不均一フェデレーション学習のためのデバイスサンプリング:理論,アルゴリズム,実装

Device Sampling for Heterogeneous Federated Learning: Theory, Algorithms, and Implementation ( http://arxiv.org/abs/2101.00787v1 )

ライセンス: Link先を確認
Su Wang, Mengyuan Lee, Seyyedali Hosseinalipour, Roberto Morabito, Mung Chiang, and Christopher G. Brinton(参考訳) 従来のフェデレートラーニング(FedL)アーキテクチャは、サーバによって定期的に集約されたローカルモデルをトレーニングすることで、機械学習(ML)をワーカーデバイスに分散させる。 しかし、FedLは現代の無線ネットワークの2つの重要な特徴を無視している: (i) ネットワークには異種通信/計算資源が含まれ、 (ii) デバイスのローカルデータ分布にかなりの重複がある可能性がある。 本研究では,デバイス対デバイス(d2d)オフロードを補完するインテリジェントデバイスサンプリングにより,これらの要因を共同で考慮する新しい最適化手法を開発した。 本最適化の目的は,ネットワークトポロジとデバイス機能に制約のあるFedLトレーニング精度を最大化するために,サンプルノードとデータオフロード構成の最適な組み合わせを選択することである。 D2Dオフロードサブプロブレムの理論解析は、新しいFedL収束境界と効率的な逐次凸最適化器をもたらす。 本研究では,グラフ畳み込みネットワーク(gcns)に基づくサンプリング手法を開発し,ネットワーク属性とサンプルノードの関係を学習し,feder精度を最大化するオフロードを行う。 実世界のデータセットの評価とIoTテストベッドからのネットワーク測定により,従来のFedLよりも5%未満のデバイスをサンプリングしながら,トレーニング済みモデル精度と必要なリソース利用率の両方で大幅に向上することが判明した。

The conventional federated learning (FedL) architecture distributes machine learning (ML) across worker devices by having them train local models that are periodically aggregated by a server. FedL ignores two important characteristics of contemporary wireless networks, however: (i) the network may contain heterogeneous communication/computation resources, while (ii) there may be significant overlaps in devices' local data distributions. In this work, we develop a novel optimization methodology that jointly accounts for these factors via intelligent device sampling complemented by device-to-device (D2D) offloading. Our optimization aims to select the best combination of sampled nodes and data offloading configuration to maximize FedL training accuracy subject to realistic constraints on the network topology and device capabilities. Theoretical analysis of the D2D offloading subproblem leads to new FedL convergence bounds and an efficient sequential convex optimizer. Using this result, we develop a sampling methodology based on graph convolutional networks (GCNs) which learns the relationship between network attributes, sampled nodes, and resulting offloading that maximizes FedL accuracy. Through evaluation on real-world datasets and network measurements from our IoT testbed, we find that our methodology while sampling less than 5% of all devices outperforms conventional FedL substantially both in terms of trained model accuracy and required resource utilization.
翻訳日:2021-04-11 22:48:22 公開日:2021-01-04
# 異なるプライベートなメカニズムを学習する

Learning Differentially Private Mechanisms ( http://arxiv.org/abs/2101.00961v1 )

ライセンス: Link先を確認
Subhajit Roy, Justin Hsu, Aws Albarghouthi(参考訳) 差分プライバシー(differial privacy)は、データプライバシーの形式的数学的定義であり、学術、産業、政府で注目を集めている。 微分プライベートアルゴリズムを正しく構築するタスクは非自明であり、基本的なアルゴリズムでは誤りを犯している。 現在、既存の非プライベートプログラムを微分プライベートバージョンに変換するための自動サポートはない。 本稿では,与えられた非プライベートプログラムの正確かつ差分プライベートバージョンを自動的に学習する手法を提案する。 提案手法は, サンプル入力を慎重に選択し, 問題を連続最適化に還元し, 結果をシンボリック表現にマッピングする手法と組み合わせて, この難解なプログラム合成問題を解く方法を示す。 本手法は, 差分プライバシー文献から基礎的アルゴリズムを学習し, 自然なプログラム合成ベースラインを著しく上回っていることを示す。

Differential privacy is a formal, mathematical definition of data privacy that has gained traction in academia, industry, and government. The task of correctly constructing differentially private algorithms is non-trivial, and mistakes have been made in foundational algorithms. Currently, there is no automated support for converting an existing, non-private program into a differentially private version. In this paper, we propose a technique for automatically learning an accurate and differentially private version of a given non-private program. We show how to solve this difficult program synthesis problem via a combination of techniques: carefully picking representative example inputs, reducing the problem to continuous optimization, and mapping the results back to symbolic expressions. We demonstrate that our approach is able to learn foundational algorithms from the differential privacy literature and significantly outperforms natural program synthesis baselines.
翻訳日:2021-04-11 22:47:58 公開日:2021-01-04
# ハイブリッドFEM-NNモデル:有限要素法と人工ニューラルネットワークの組み合わせ

Hybrid FEM-NN models: Combining artificial neural networks with the finite element method ( http://arxiv.org/abs/2101.00962v1 )

ライセンス: Link先を確認
Sebastian K. Mitusch, Simon W. Funke, Miroslav Kuchta(参考訳) 本稿では,ニューラルネットワークと物理原理制約を組み合わせた偏微分方程式(PDE)の手法を提案する。 このアプローチでは、PDEを損失関数の一部とする最適化の強い制約として尊重しながら、ニューラルネットワークをトレーニングすることができる。 得られたモデルは有限要素法(FEM)によって空間内で離散化される。 この手法は、定常PDEと非線型PDEの両方に適用される。 本稿では,既存のFEMフレームワークFEniCSとそのアルゴリズム微分ツールであるdolfin-adjointの拡張として実装する方法について述べる。 一連の例を通じて、観測から係数と欠落したpde演算子を回復するアプローチの能力を示す。 さらに,提案手法は物理情報ニューラルネットワークと標準PDE制約最適化の代替手法と比較した。 最後に, 深部ニューラルネットワークを用いた複雑な心臓細胞モデル問題に対する検討を行った。

We present a methodology combining neural networks with physical principle constraints in the form of partial differential equations (PDEs). The approach allows to train neural networks while respecting the PDEs as a strong constraint in the optimisation as apposed to making them part of the loss function. The resulting models are discretised in space by the finite element method (FEM). The methodology applies to both stationary and transient as well as linear/nonlinear PDEs. We describe how the methodology can be implemented as an extension of the existing FEM framework FEniCS and its algorithmic differentiation tool dolfin-adjoint. Through series of examples we demonstrate capabilities of the approach to recover coefficients and missing PDE operators from observations. Further, the proposed method is compared with alternative methodologies, namely, physics informed neural networks and standard PDE-constrained optimisation. Finally, we demonstrate the method on a complex cardiac cell model problem using deep neural networks.
翻訳日:2021-04-11 22:47:43 公開日:2021-01-04
# Wasserstein Barycentersは計算にNPハードである

Wasserstein barycenters are NP-hard to compute ( http://arxiv.org/abs/2101.01100v1 )

ライセンス: Link先を確認
Jason M. Altschuler and Enric Boix-Adsera(参考訳) Wasserstein Barycenters (a.k.a.) の計算の問題点 データサイエンスにおける多くの応用により、最適なトランスポートバリセンタ)が近年注目されている。 任意の固定次元に多項式時間アルゴリズムが存在するが、すべての既知のランタイムはその次元で指数関数的に苦しむ。 この指数依存が多項式依存に対して即効性を持つかどうかは、明らかな問題である。 この論文は、P=NP がなければ、答えは No であることを示す。 これは、最適な輸送計算では起こらないワッサースタイン・バリセン計算の「次元の曲線」を明らかにする。 さらに,wasserstein barycentersの計算の難しさは,近似計算,一見単純な問題,そして他の最適輸送指標における確率分布の平均化にまで及んでいる。

The problem of computing Wasserstein barycenters (a.k.a. Optimal Transport barycenters) has attracted considerable recent attention due to many applications in data science. While there exist polynomial-time algorithms in any fixed dimension, all known runtimes suffer exponentially in the dimension. It is an open question whether this exponential dependence is improvable to a polynomial dependence. This paper proves that unless P=NP, the answer is no. This uncovers a "curse of dimensionality" for Wasserstein barycenter computation which does not occur for Optimal Transport computation. Moreover, our hardness results for computing Wasserstein barycenters extend to approximate computation, to seemingly simple cases of the problem, and to averaging probability distributions in other Optimal Transport metrics.
翻訳日:2021-04-11 22:47:31 公開日:2021-01-04
# 微分プログラミングによる確率量子ダイナミクスの制御

Control of Stochastic Quantum Dynamics with Differentiable Programming ( http://arxiv.org/abs/2101.01190v1 )

ライセンス: Link先を確認
Frank Sch\"afer, Pavel Sekatski, Martin Koppenh\"ofer, Christoph Bruder, Michal Kloc(参考訳) 量子系の確率力学の制御は、量子情報処理やメトロロジーといった分野において不可欠である。 しかし、効率的な制御戦略を設計するための一般的な準備済みのアプローチは存在しない。 本稿では,微分可能プログラミングに基づく制御スキームの自動設計のためのフレームワーク (\partial \mathrm{p}$) を提案する。 この手法をホモダイン検出を受ける量子ビットの状態形成と安定化に適用する。 この目的のために、損失関数が目標状態からの距離を定量化する最適化問題として制御タスクを定式化し、ニューラルネットワーク(NN)をコントローラとして使用する。 系の時間進化は確率微分方程式(SDE)によって制御される。 効率のよいトレーニングを実現するため,共役感度法を用いて損失関数からSDEソルバを介して勾配情報を逆伝搬する。 最初の例として、制御器に量子状態を与え、勾配を得るための異なる方法に焦点を当てる。 第2の例として、ホモダイン検出信号をコントローラに直接供給する。 ホモダイン電流の瞬時値は、避けられない光子数変動で覆われたシステムの実際の状態に関する非常に限られた情報のみを含む。 その結果、信号と雑音の比が低いにもかかわらず、平均忠実度が約85%の目標状態へのキュービットの準備と安定化をコントローラに教えることができる。 また、NNが発見したソリューションを手作りの制御戦略と比較する。

Controlling stochastic dynamics of a quantum system is an indispensable task in fields such as quantum information processing and metrology. Yet, there is no general ready-made approach to design efficient control strategies. Here, we propose a framework for the automated design of control schemes based on differentiable programming ($\partial \mathrm{P}$). We apply this approach to state preparation and stabilization of a qubit subjected to homodyne detection. To this end, we formulate the control task as an optimization problem where the loss function quantifies the distance from the target state and we employ neural networks (NNs) as controllers. The system's time evolution is governed by a stochastic differential equation (SDE). To implement efficient training, we backpropagate the gradient information from the loss function through the SDE solver using adjoint sensitivity methods. As a first example, we feed the quantum state to the controller and focus on different methods to obtain gradients. As a second example, we directly feed the homodyne detection signal to the controller. The instantaneous value of the homodyne current contains only very limited information on the actual state of the system, covered in unavoidable photon-number fluctuations. Despite the resulting poor signal-to-noise ratio, we can train our controller to prepare and stabilize the qubit to a target state with a mean fidelity around 85%. We also compare the solutions found by the NN to a hand-crafted control strategy.
翻訳日:2021-04-11 22:46:58 公開日:2021-01-04