このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200625となっている論文です。

PDF登録状況(公開日: 20200625)

TitleAuthorsAbstract論文公表日・翻訳日
# 並列エネルギーレベルを持つ可積分多状態ランドウ・ツェナーモデル

Integrable multistate Landau-Zener models with parallel energy levels ( http://arxiv.org/abs/2001.10091v3 )

ライセンス: Link先を確認
Vladimir Y. Chernyak, Fuxiang Li, Chen Sun, and Nikolai A. Sinitsyn(参考訳) ハミルトンがパートナー演算子に$\sim 1/\tau$-time依存パラメータを持つ可解多状態Landau-Zener(MLZ)モデルについて議論する。 既に知られている可解MLZモデルは、このクラスに属する。 このような可換作用素のパラメータ上の可積分条件を導出し、そのような条件を新しい可解ケースの導出に用いる方法を示す。 このクラスからのMLZモデルは、平行なダイアバティックエネルギーレベルを含む必要がある。 散乱行列の構造とその他の性質は、前述した完全可解mlzハミルトニアンのものと同一であることが判明した。

We discuss solvable multistate Landau-Zener (MLZ) models whose Hamiltonians have commuting partner operators with $\sim 1/\tau$-time-dependent parameters. Many already known solvable MLZ models belong precisely to this class. We derive the integrability conditions on the parameters of such commuting operators, and demonstrate how to use such conditions in order to derive new solvable cases. We show that MLZ models from this class must contain bands of parallel diabatic energy levels. The structure of the scattering matrix and other properties are found to be the same as in the previously discussed completely solvable MLZ Hamiltonians.
翻訳日:2023-06-05 11:32:43 公開日:2020-06-25
# 量子軌道のポストセレクションによる非エルミート・ハミルトンとリウヴィリアンの例外点を結合するハイブリッド・リウヴィリアン形式主義

Hybrid-Liouvillian formalism connecting exceptional points of non-Hermitian Hamiltonians and Liouvillians via postselection of quantum trajectories ( http://arxiv.org/abs/2002.11620v2 )

ライセンス: Link先を確認
Fabrizio Minganti, Adam Miranowicz, Ravindra W. Chhajlany, Ievgen I. Arkhipov, and Franco Nori(参考訳) 例外点 (EPs) は古典的および量子的開放系の退化であり、光学、光電子学、プラズモニクス、凝縮物質物理学など多くの分野で研究されている。 半古典的体制では、開系は現象学的に有効な非エルミティア・ハミルトン派(NHHs)によって記述され、虚場の観点からの利得と損失の影響を捉えている。 そのようなハミルトニアン(HEP)のスペクトルを特徴づけるEPは、量子ジャンプのないシステムの時間進化を記述する。 より汎用的なダイナミクスを記述する完全な量子処理は、そのような量子ジャンプを極めて考慮しなければならないことはよく知られている。 最近の論文[F。 Minganti $et$ $al. とPhysは言う。 rev. rev. a $\mathbf{100}$, $062131$ ($2019$)]、我々はepsの概念をlindbladマスター方程式によって記述されたオープンシステムダイナミクスを管理するliouvillian superoperatorsのスペクトルに一般化した。 興味深いことに、古典-量子対応が存在する状況では、この2種類のダイナミクスは異なるEPを生成することができる。 最近の実験で[m]. Naghiloo $et$$al。 ナット。 Phys $\mathbf{15}$, $1232$$$ 2019$] とすると、ある量子ジャンプ軌跡をポストセレクトすることで、非エルミート的ハミルトンを量子極限で設計できることが示されている。 これはハミルトニアンとリンドブラディアンの関係と量子軌道に関する興味深い疑問を提起する。 我々は、NHH(量子ジャンプなしの軌跡のみをポストする場合)から(ポストセレクションなしで)量子ジャンプを含む真のリウビリアへの経路を記述することができるハイブリッド・リウビリア超作用素を導入することでこれらの接続について議論する。 その基本的な関心以上に、このアプローチはポスト選択と有限効率検出器の効果を直感的に関連付けることができる。

Exceptional points (EPs) are degeneracies of classical and quantum open systems, which are studied in many areas of physics including optics, optoelectronics, plasmonics, and condensed matter physics. In the semiclassical regime, open systems can be described by phenomenological effective non-Hermitian Hamiltonians (NHHs) capturing the effects of gain and loss in terms of imaginary fields. The EPs that characterize the spectra of such Hamiltonians (HEPs) describe the time evolution of a system without quantum jumps. It is well known that a full quantum treatment describing more generic dynamics must crucially take into account such quantum jumps. In a recent paper [F. Minganti $et$ $al.$, Phys. Rev. A $\mathbf{100}$, $062131$ ($2019$)], we generalized the notion of EPs to the spectra of Liouvillian superoperators governing open system dynamics described by Lindblad master equations. Intriguingly, we found that in situations where a classical-to-quantum correspondence exists, the two types of dynamics can yield different EPs. In a recent experimental work [M. Naghiloo $et$ $al.$, Nat. Phys. $\mathbf{15}$, $1232$ ($2019$)], it was shown that one can engineer a non-Hermitian Hamiltonian in the quantum limit by postselecting on certain quantum jump trajectories. This raises an interesting question concerning the relation between Hamiltonian and Lindbladian EPs, and quantum trajectories. We discuss these connections by introducing a hybrid-Liouvillian superoperator, capable of describing the passage from an NHH (when one postselects only those trajectories without quantum jumps) to a true Liouvillian including quantum jumps (without postselection). Beyond its fundamental interest, our approach allows to intuitively relate the effects of postselection and finite-efficiency detectors.
翻訳日:2023-06-01 21:16:58 公開日:2020-06-25
# 変形と同期による2次元量子スカーの安定化

Stabilizing two-dimensional quantum scars by deformation and synchronization ( http://arxiv.org/abs/2003.02825v2 )

ライセンス: Link先を確認
A. A. Michailidis, C. J. Turner, Z. Papi\'c, D. A. Abanin, M. Serbyn(参考訳) 熱状態への緩和は、特別な保存則のない非平衡相互作用量子系の必然的な運命である。 1次元(1次元)系の熱化は、しばしば可積分性機構によって抑制されるが、2次元の熱化は、位相空間の増加によりはるかに効果的であることが期待される。 本研究では、リドバーグ原子の二次元(2次元)配列における熱状態の出現を、量子スカー機構、すなわち熱化に失敗した初期状態を通じて回避または遅らせる一般的な枠組みを提案する。 熱化の抑制は、局所摂動を加えるか、格子の局所接続に応じて駆動rabi周波数を調整することで、2つの相補的な方法で達成される。 これらの機構は,非定常接続を有する装飾格子を含む,様々な2次元格子におけるロバストな量子的傷を実現できることを示す。 特に, 2次元系における強い境界効果の緩和には, 格子の角部におけるラビ周波数の小さな減少が不可欠であることを示す。 本研究は,2次元量子傷の今後の実験において,同期を重要なツールとみなす。

Relaxation to a thermal state is the inevitable fate of non-equilibrium interacting quantum systems without special conservation laws. While thermalization in one-dimensional (1D) systems can often be suppressed by integrability mechanisms, in two spatial dimensions thermalization is expected to be far more effective due to the increased phase space. In this work we propose a general framework for escaping or delaying the emergence of the thermal state in two-dimensional (2D) arrays of Rydberg atoms via the mechanism of quantum scars, i.e. initial states that fail to thermalize. The suppression of thermalization is achieved in two complementary ways: by adding local perturbations or by adjusting the driving Rabi frequency according to the local connectivity of the lattice. We demonstrate that these mechanisms allow to realize robust quantum scars in various two-dimensional lattices, including decorated lattices with non-constant connectivity. In particular, we show that a small decrease of the Rabi frequency at the corners of the lattice is crucial for mitigating the strong boundary effects in two-dimensional systems. Our results identify synchronization as an important tool for future experiments on two-dimensional quantum scars.
翻訳日:2023-05-30 11:36:35 公開日:2020-06-25
# 任意数のデコイを用いた有限長測定デバイス独立量子鍵分布のセキュリティ

Security Of Finite-Key-Length Measurement-Device-Independent Quantum Key Distribution Using Arbitrary Number Of Decoys ( http://arxiv.org/abs/2003.08549v2 )

ライセンス: Link先を確認
H. F. Chau(参考訳) 量子鍵分布において、測定装置非依存およびデコイ状態技術により、2つの協調エージェントはそれぞれ不完全な測定装置と弱いポアソニアン源を用いて共有秘密鍵を確立することができる。 これまでの調査は4つのデコイ状態以下に制限されているため、包括的ではない。 さらに、それらの多くは純粋に数値的な研究を含む。 ここでは、任意の固定数のデコイ状態と固定された生キー長で機能する一般的なセキュリティ証明を報告します。 ここでの2つの重要なアイデアです 1つ目は、ヴァンダーモンド行列に対する反転公式の繰り返し適用であり、ある収率と誤差率の様々な境界を得る。 2つ目は、最近証明されたmcdiarmid不等式の一般化である。 これらの手法は、bb84の計測装置に依存しないバージョンにおいて、最低でも1.25倍の鍵レートを実現し、量子リピータなしで10^{10}$の光子パルスペアが送信される場合、2つの協調エージェント間の作業可能な距離を、わずかに60km未満から130km以上まで増加させる。

In quantum key distribution, measurement-device-independent and decoy-state techniques enable the two cooperative agents to establish a shared secret key using imperfect measurement devices and weak Poissonian sources, respectively. Investigations so far are not comprehensive as they restrict to less than or equal to four decoy states. Moreover, many of them involves pure numerical studies. Here I report a general security proof that works for any fixed number of decoy states and any fixed raw key length. The two key ideas involved here. The first one is the repeated application of the inversion formula for Vandermonde matrix to obtain various bounds on certain yields and error rates. The second one is the use of a recently proven generalization of the McDiarmid inequality. These techniques rise the best provably secure key rate of the measurement-device-independent version of the BB84 scheme by at least 1.25 times and increase the workable distance between the two cooperative agents from slightly less than 60 km to slightly greater than 130 km in case there are $10^{10}$ photon pulse pair sent without a quantum repeater.
翻訳日:2023-05-28 18:05:54 公開日:2020-06-25
# 薄膜X線空洞QEDのAb initio量子モデル

Ab initio quantum models for thin-film x-ray cavity QED ( http://arxiv.org/abs/2003.13859v2 )

ライセンス: Link先を確認
Dominik Lentrodt and Kilian P. Heeg and Christoph H. Keitel and J\"org Evers(参考訳) 我々は、M\"ossbauer核によって提供されるようなスペクトル的に狭いX線共鳴を持つ薄膜X線空洞量子力学に対する2つのアブイニシアト量子アプローチを開発した。 最初の方法は空洞のいくつかのモード記述に基づいており、既存の現象学的少数モードモデルをab initio理論に促進し拡張する。 2つ目のアプローチは、解析的に知られたグリーン関数を使ってシステムをモデル化する。 この2つのアプローチは、低励起状態における空洞と核を表わす有効な数レベルスキームを省略できるだけでなく、非線形現象や量子現象を含む高励起の研究への直接的な道筋を提供する。 本手法のab initio特性により, キャビティ構造とフォトニック環境の直接的最適化が可能となり, 特定の応用に向けて有効な量子光学レベルスキームを調整できる。 ab initioアプローチのパワーを説明するために、確立された量子光学モデリングを任意の厚さの共振キャビティ層に拡張し、最近の実験で用いられるキャビティの量的一致を達成するのに不可欠である。 さらに, 電磁誘導透過性を有する多層キャビティについて検討し, その量子光学的少数レベル系ab initioを導出し, 共振層全体のキャビティ磁場勾配から生じる現象論的アプローチを用いて, 前述したモデリングにおける不一致の起源を同定する。

We develop two ab initio quantum approaches to thin-film x-ray cavity quantum electrodynamics with spectrally narrow x-ray resonances, such as those provided by M\"ossbauer nuclei. The first method is based on a few-mode description of the cavity, and promotes and extends existing phenomenological few-mode models to an ab initio theory. The second approach uses analytically-known Green's functions to model the system. The two approaches not only enable one to ab initio derive the effective few-level scheme representing the cavity and the nuclei in the low-excitation regime, but also provide a direct avenue for studies at higher excitation, involving non-linear or quantum phenomena. The ab initio character of our approaches further enables direct optimizations of the cavity structure and thus of the photonic environment of the nuclei, to tailor the effective quantum optical level scheme towards particular applications. To illustrate the power of the ab initio approaches, we extend the established quantum optical modeling to resonant cavity layers of arbitrary thickness, which is essential to achieve quantitative agreement for cavities used in recent experiments. Further, we consider multi-layer cavities featuring electromagnetically induced transparency, derive their quantum optical few-level systems ab initio, and identify the origin of discrepancies in the modeling found previously using phenomenological approaches as arising from cavity field gradients across the resonant layers.
翻訳日:2023-05-27 11:52:30 公開日:2020-06-25
# SQUARE: コスト効果計算によるモジュール量子プログラムの戦略的量子アンシラ再利用

SQUARE: Strategic Quantum Ancilla Reuse for Modular Quantum Programs via Cost-Effective Uncomputation ( http://arxiv.org/abs/2004.08539v2 )

ライセンス: Link先を確認
Yongshan Ding, Xin-Chuan Wu, Adam Holmes, Ash Wiseth, Diana Franklin, Margaret Martonosi, Frederic T. Chong(参考訳) 高レベルの量子プログラムをサイズ制限(量子ビットの制限数)と時間制限(量子演算の制限数)のマシンにコンパイルすることは困難である。 本稿では,モジュール型量子プログラムにおけるスクラッチ量子ビット(アンシラ)の割り当てと再利用に取り組むコンパイル基盤であるSQUARE(Strategic QUantum Ancilla Reuse)を提案する。 SQUAREの中核は、量子ビット再利用の機会を生み出すために、戦略的に非計算を行う。 現在の雑音中規模量子(NISQ)コンピュータと前方のフォールトトレラント(FT)量子コンピュータは、データ局所性、命令並列性、通信オーバーヘッドなど、根本的に異なる制約を持つ。 我々のヒューリスティックなアンシラ・リユースアルゴリズムは、これらの考慮をバランスさせ、計算をリソース制約されたNISQまたはFT量子マシンに適合させ、必要に応じて並列性を減速させる。 プログラムの作業量を正確に把握するために、改良されたメトリックである「アクティブ量子ボリューム」を提案し、このメトリックを用いてアルゴリズムの有効性を評価する。 SQUARE は NISQ アプリケーションの平均成功率を 1.47 倍改善することを示した。 意外なことに、非計算用の追加のゲートは、より場所が良くなり、スワップゲートが大幅に少なくなり、全体としてゲートノイズが小さくなる。 SQUAREはまた、FTマシンのアクティブ量子ボリュームの1.5X(および最大9.6X)を平均で削減する。

Compiling high-level quantum programs to machines that are size constrained (i.e. limited number of quantum bits) and time constrained (i.e. limited number of quantum operations) is challenging. In this paper, we present SQUARE (Strategic QUantum Ancilla REuse), a compilation infrastructure that tackles allocation and reclamation of scratch qubits (called ancilla) in modular quantum programs. At its core, SQUARE strategically performs uncomputation to create opportunities for qubit reuse. Current Noisy Intermediate-Scale Quantum (NISQ) computers and forward-looking Fault-Tolerant (FT) quantum computers have fundamentally different constraints such as data locality, instruction parallelism, and communication overhead. Our heuristic-based ancilla-reuse algorithm balances these considerations and fits computations into resource-constrained NISQ or FT quantum machines, throttling parallelism when necessary. To precisely capture the workload of a program, we propose an improved metric, the "active quantum volume," and use this metric to evaluate the effectiveness of our algorithm. Our results show that SQUARE improves the average success rate of NISQ applications by 1.47X. Surprisingly, the additional gates for uncomputation create ancilla with better locality, and result in substantially fewer swap gates and less gate noise overall. SQUARE also achieves an average reduction of 1.5X (and up to 9.6X) in active quantum volume for FT machines.
翻訳日:2023-05-23 02:42:34 公開日:2020-06-25
# IBM量子コンピュータにおける相互作用不要の測定と反実計算

Interaction-free measurements and counterfactual computation in IBM quantum computers ( http://arxiv.org/abs/2005.03547v2 )

ライセンス: Link先を確認
J. Alberto Casas and Bryan Zaldivar(参考訳) 相互作用のない測定と反事実計算の可能性は、約20年前に指摘された量子力学の顕著な特徴である。 簡単な量子回路を用いて, 5-qubit, 15-qubit, 20-qubit IBM の量子コンピュータにそのような現象を実装した。 結果は一般に理論上の期待値に近い。 より大きな回路(多数のゲートと結果として大きなエラー)に対して、我々は、性能を良好に向上する単純なエラー軽減手順を実装している。

The possibility of interaction-free measurements and counterfactual computations is a striking feature of quantum mechanics pointed out around 20 years ago. We implement such phenomena in actual 5-qubit, 15-qubit and 20-qubit IBM quantum computers by means of simple quantum circuits. The results are in general close to the theoretical expectations. For the larger circuits (with numerous gates and consequently larger errors) we implement a simple error mitigation procedure which improve appreciably the performance.
翻訳日:2023-05-20 22:37:36 公開日:2020-06-25
# フェルミオンをしゃがめる:3次元の方法とゼロモードの運命

Squaring the fermion: The threefold way and the fate of zero modes ( http://arxiv.org/abs/2005.05986v2 )

ライセンス: Link先を確認
Qiao-Ru Xu, Vincent P. Flynn, Abhijeet Alase, Emilio Cobanera, Lorenza Viola, and Gerardo Ortiz(参考訳) 安定ボソニック系の平均場理論の位相的性質と分類について検討する。 3つの標準分類対称性のうち、時間反転のみが多ボソン系の実際の対称性を表し、他の2つの粒子ホールとキラルは単に有効単一粒子問題の対称性として表される制約である。 任意の空間次元のギャップ付き系に対して、パリティスイッチ、対称性保護位相、開境界条件下での局所ボゾン零モードの欠如を証明する3つの基本的なノーゴー定理を確立する。 次に,フェルミオンの非相互作用エルミート理論と安定ボソン系をつなぐスカーリング・カーネル保存写像を導入し,ボソニック相におけるトポロジーの役割とその局所的ミッドギャップ境界モードを明らかにする。 最後に、フェルミオンテンフォールドウェイ分類から受け継いだ対称性クラスを決定し、非相互作用ボソンのエレガントな3倍ウェイトポロジカル分類を明らかにする。 1次元と2次元のボソニック格子と場理論モデルでの主な知見を示す。

We investigate topological properties and classification of mean-field theories of stable bosonic systems. Of the three standard classifying symmetries, only time-reversal represents a real symmetry of the many-boson system, while the other two, particle-hole and chiral, are simply constraints that manifest as symmetries of the effective single-particle problem. For gapped systems in arbitrary space dimension we establish three fundamental no-go theorems that prove the absence of: parity switches, symmetry-protected-topological quantum phases, and localized bosonic zero modes under open boundary conditions. We then introduce a squaring, kernel-preserving map connecting non-interacting Hermitian theories of fermions and stable boson systems, which serves as a playground to reveal the role of topology in bosonic phases and their localized midgap boundary modes. Finally, we determine the symmetry classes inherited from the fermionic tenfold-way classification, unveiling an elegant threefold-way topological classification of non-interacting bosons. We illustrate our main findings in one- and two-dimensional bosonic lattice and field-theory models.
翻訳日:2023-05-20 11:50:54 公開日:2020-06-25
# 量子参照フレームにおけるデコヒーレンスと情報符号化

Decoherence and information encoding in quantum reference frames ( http://arxiv.org/abs/2006.07298v2 )

ライセンス: Link先を確認
Jan Tuziemski(参考訳) 参照フレームは物理学において特に重要である。 通常は理想化された実体とされる。 しかし、ほとんどの状況、例えば実験室では、物理プロセスは物理システムによって構成される参照フレーム内で記述される。 新しい技術開発によって、複雑なオブジェクトの量子特性を実証できるようになると、興味深い概念的な問題が発生する: 量子システムの状態を使って参照フレームを定義することができるか? 最近、[F]にそのようなフレームワークが導入されました。 Giacomini、E. Castro-Ruiz、および \v{C}。 Brukner, Nat Commun 10, 494 (2019)] その結果の1つは、量子相関が観測者の参照フレームの物理的状態に依存するという事実である。 本研究の目的は, この現象の力学的側面を考察し, 複合系の進化中に確立された相関についても同様であることを示すことである。 したがって、デコヒーレンス過程も相対的である: 一部の観測者にとってサブシステムの減少した進化はユニタリであり、他方ではそうではない。 量子ダーウィン主義とスペクトル放送構造というデコヒーレンス理論の近代的発展にこの結果がもたらす意味についても論じる。

Reference frames are of special importance in physics. They are usually considered to be idealized entities. However, in most situations, e.g. in laboratories, physical processes are described within reference frames constituted by physical systems. As new technological developments make it possible to demonstrate quantum properties of complex objects an interesting conceptual problem arises: Could one use states of quantum systems to define reference frames? Recently such a framework has been introduced in [F. Giacomini, E. Castro-Ruiz, and \v{C}. Brukner, Nat Commun 10, 494 (2019)]. One of its consequences is the fact that quantum correlations depend on a physical state of an observers reference frame. The aim of this work is to examine the dynamical aspect of this phenomena and show that the same is true for correlations established during an evolution of a composite systems. Therefore, decoherence process is also relative: For some observers the reduced evolution of subsystems is unitary, whereas for others not. I also discuss implications of this results for modern developments of decoherence theory: Quantum Darwinism and Spectrum Broadcast Structures.
翻訳日:2023-05-15 22:13:36 公開日:2020-06-25
# ディラック方程式の非分散解析解」へのコメント

Comment on "Nondispersive analytical solutions to the Dirac equation" ( http://arxiv.org/abs/2006.07615v3 )

ライセンス: Link先を確認
Iwo Bialynicki-Birula and Zofia Bialynicka-Birula(参考訳) コメントの中では、外部の時間依存電磁場におけるディラック方程式の解が電子のビームを記述するという『cite{cc}』の著者による主張の妥当性を疑問視する。 時間依存のすべての分野において、どれだけ弱くても、その時間長は無限であり、連続的な電子-陽電子対の生成と消滅が存在する。 これらの過程の適切な計算がなければ、ディラック方程式の数学的解は現実的な物理的状況に直接適用できない。 特に、平均値 $\langle x\rangle$ と $\langle y\rangle$ の時間進化は電子軌道を記述するのではなく、電子と陽電子の電荷分布と病理的性質(zitterbewegung)のある種の組み合わせの運動を記述する。

In our Comment we question the validity of the claim made by the authors of \cite{cc} that their solutions of the Dirac equation in an external {\em time-dependent} electromagnetic field describe beams of electrons. In every time-dependent field, no matter how weak, which has {\em infinite} time duration, there is a continuous electron-positron pair creation and annihilation. Without the proper accounting for these processes, the mathematical solutions of the Dirac equation are not directly applicable to realistic physical situations. In particular, the time evolution of the average values $\langle x\rangle$ and $\langle y\rangle$ does not describe the electron trajectory but the motion of some combination of the electron and positron charge distributions with pathological properties (zitterbewegung).
翻訳日:2023-05-15 20:22:58 公開日:2020-06-25
# 反射エントロピーのための島

Islands for Reflected Entropy ( http://arxiv.org/abs/2006.10754v2 )

ライセンス: Link先を確認
Venkatesa Chandrasekaran, Masamichi Miyaji and Pratik Rath(参考訳) 最近の研究は、半古典的な重力の領域に付随するQFT状態における絡み合いのエントロピーを計算する際に、絡み合いの島からの貢献を含む必要があることを示した。 このような島々からの追加貢献を含む反射エントロピーの新しい公式を提案する。 この公式は、一般化されたレプリカワームホールを含む追加のサドルを見つけることで重力経路積分から導かれる。 また、共変公式が反射エントロピーに必要な全ての不等式を満たすことも示している。 この式は、エントロピーに見えない多重粒子の絡み合いの構造を図示する上で、その関連性を示す様々な例で用いられる。

Recent work has demonstrated the need to include contributions from entanglement islands when computing the entanglement entropy in QFT states coupled to regions of semiclassical gravity. We propose a new formula for the reflected entropy that includes additional contributions from such islands. We derive this formula from the gravitational path integral by finding additional saddles that include generalized replica wormholes. We also demonstrate that our covariant formula satisfies all the inequalities required of the reflected entropy. We use this formula in various examples that demonstrate its relevance in illustrating the structure of multipartite entanglement that are invisible to the entropies.
翻訳日:2023-05-13 13:36:40 公開日:2020-06-25
# CAD(Computer-Aided Design)から地理情報システム(GIS)へのインフラストラクチャデータ変換プロトコル

A Protocol to Convert Infrastructure Data from Computer-Aided Design (CAD) to Geographic Information Systems (GIS) ( http://arxiv.org/abs/2006.14112v1 )

ライセンス: Link先を確認
Eric Sergio Boria, Mohamed Badhrudeen, Guillemette Fonteix, Sybil Derrible, Michael Siciliano(参考訳) 多くの自治体や組織は、インフラストラクチャデータをcad(computer-aided design)からgis(geographic information system)形式に変換することに価値を見出しているが、プロセスは複雑で高価で時間がかかる。 市町村の従業員はCADとGISの両方で仕事を継続することを好んでおり、必要な作業の種類に応じて、改良された変換プロセスにより、GISに基づく分析をより完全に活用することができる。 予算とキャパシティの課題に直面している自治体は、特に変換プロセスの改善の恩恵を受けるだろう。 GIS機能の向上とスマートでコネクテッドな都市の約束により、データの品質が重視され、この場合、CADからGISフォーマットへのデータ品質の損失が潜在的に減少する可能性がある。 この記事の目標は2つある。 まず、自治体がインフラCADデータをGISに変換するための共通プラクティスと、それらが直面する課題を理解する。 第2に,これらのプラクティスと課題の知識に基づいて,一般的な変換エラーを低減し,これらのエラーを修正するのに要する時間を短縮する5段階のプロセスを提案する。 この過程は、イリノイ大学シカゴ校(UIC)キャンパスからのCADデータの変換によって説明される。 調査は、米国内の11市町村で、水、衛生下水道、雨水下水道の少なくとも1つを直接管理しているGISアナリストとマネージャーによる質的、半構造化されたインタビューによって行われた。 インタビューは、自治体が変換に直面する課題を確認し、データインフォームドな意思決定を可能にするためのソリューションインタビュアーを特定した。

While many municipalities and organizations see value in converting infrastructure data from Computer-Aided Design (CAD) to Geographic Information System (GIS) format, the process can be complex, expensive, and time-consuming. Given that municipal employees often prefer to continue performing work in both CAD and GIS, depending on the type of work required, an improved conversion process would help municipalities more fully employ GIS-based analyses. Municipalities facing budget and capacity challenges would especially benefit from an improved conversion process. With advances in GIS functionality and the promise of smart and connected cities, more emphasis is placed on the quality of data, and in this case, the potential loss of data quality from CAD to GIS formats. The goals of this article are twofold. First, to understand the common practices municipalities use to convert infrastructure CAD data to GIS and the specific challenges they face. Second, based on knowledge of those practices and challenges, this article proposes a five-step process to reduce common conversion errors and reduce the time required to correct these errors. The process is illustrated through the conversion of CAD data from the University of Illinois at Chicago (UIC) campus. The findings were validated with qualitative, semi-structured interviews conducted with GIS Analysts and Managers working in eleven municipalities across the United States who directly manage at least one of the following infrastructures: water, sanitary sewer, or stormwater sewer systems. The interviews confirmed the challenges municipalities faced with the conversion and identified solutions interviewees undertook to enable data-informed decision-making.
翻訳日:2023-05-12 20:19:37 公開日:2020-06-25
# プライバシー保全型連絡先追跡のための機密コンピューティング

Confidential Computing for Privacy-Preserving Contact Tracing ( http://arxiv.org/abs/2006.14235v1 )

ライセンス: Link先を確認
David Sturzenegger, Aetienne Sardon, Stefan Deml, Thomas Hardjono(参考訳) 接触追跡はパンデミックと闘う上で最重要だが、正当なプライバシーの懸念が伴う。 本稿では,接触追跡とデータプライバシの両方を実現するシステムを提案する。 本稿では,プライバシ保存型コンタクトトレースバックエンドを構築するために,intel sgx trusted execution environmentの利用を提案する。 本論文で提案する秘密計算バックエンドの概念は,既存の接触追跡スマートフォンアプリケーションと組み合わせることができるが,実演目的のための完全な接触追跡システムについて述べる。 SGXに基づくプライバシ保護コンタクトトレースシステムのプロトタイプがハッカソンで著者らによって実装されている。

Contact tracing is paramount to fighting the pandemic but it comes with legitimate privacy concerns. This paper proposes a system enabling both, contact tracing and data privacy. We propose the use of the Intel SGX trusted execution environment to build a privacy-preserving contact tracing backend. While the concept of a confidential computing backend proposed in this paper can be combined with any existing contact tracing smartphone application, we describe a full contact tracing system for demonstration purposes. A prototype of a privacy-preserving contact tracing system based on SGX has been implemented by the authors in a hackathon.
翻訳日:2023-05-12 20:15:53 公開日:2020-06-25
# スピン-$\frac{1}{2}=三角形プラケットにおける絡み合いダイナミクスと分数量子状態輸送

Entanglement dynamics and fractional quantum state transport in the spin-$\frac{1}{2}$ triangular plaquette ( http://arxiv.org/abs/2006.14187v1 )

ライセンス: Link先を確認
Mostafa Motamedifar(参考訳) 量子状態伝達(QST)の領域における研究領域の劇的な成長は急速に加速している。 QSTのプロセスを理解するための重要な洞察は、その絡み合いの内容の動的挙動を考慮することで達成できる。 量子状態の連続移動に対する確立されたアプローチの一つはスピン構造の利用である。 ここでは,エンタングルメント伝播の観点から,分数qst可能性のシグネチャを明らかにする。 本研究では,スピン-$\frac{1}{2}$三角形のプラケットの形式として,ラング上のスピン軌道カップリングと足上での相互作用の交換を行うハミルトニアンを提案する。 このようなシステムの特徴は、QSTの瞬間が離散的に現れるため、これらのモーメントに関連付けられた交換相互作用の値は微妙に振る舞うことである。 重要なことに、磁気相互作用の特別な値について、QSTは特異性すなわち絡み合い伝播を禁止している。 さらに、このシステムの有限サイズの性質により、時間結晶性と対称性の破れの間のnexusを読むことができる。 時間結晶対称性に関する知識の発達とその破壊は、この現象の定義された概念と基礎物理学を理解するのに役立つ。

The dramatic growth of research areas within the province of quantum state transmission (QST) is rapidly accelerating. An important insight to understand the process of QST can be fulfilled by considering the dynamical behavior of its entanglement content. One well-established approach to continuously transfer quantum states is utilizing spin structures. Here, from the view of entanglement propagation, we disclose the signature of fractional QST possibilities. In the present work, we proposed a form of spin-$\frac{1}{2}$ triangular plaquette whose Hamiltonian entails the spin-orbit coupling on the rungs and exchange interaction over the legs. The feature of such a system is that the time instants of QST emerge in a discrete fashion, thereby the values of exchange interactions associated with these moments behave fractionally. Importantly, it is found that for special values of magnetic interaction, QST has singularity i.e., the entanglement propagation is forbidden. In addition, the finite-size nature of this system makes it possible for us to read the nexus between time crystallinity and symmetry breaking. The development of our knowledge about time crystalline symmetry and its breaking helps us to understand the defined concept and fundamental physics of this phenomenon.
翻訳日:2023-05-12 20:15:09 公開日:2020-06-25
# 雑音の存在下での量子振幅推定

Quantum Amplitude Estimation in the Presence of Noise ( http://arxiv.org/abs/2006.14145v1 )

ライセンス: Link先を確認
Eric G. Brown, Oktay Goktas, W.K. Tham(参考訳) 量子振幅推定(英: quantum amplitude estimation、qae)とは、与えられた量子状態の振幅を標準サンプリングより2倍少ないクエリで推定できる手法であり、グローバー探索や量子モンテカルロ法など、いくつかの重要な量子アルゴリズムの重要なサブルーチンである。 近未来のノイズの多い中間スケール量子(NISQ)デバイスでQAEを実装するための障害は、サブルーチンとして量子位相推定(QPE)を実行する必要があることである。 この障害はqeの様々なqpeフリーな方法によって持ち上げられ、様々な深さ/パワー(しばしば「スケジュール」による)のグローバークエリは、測定と最大確率推定(mle)のような古典的な後処理技術によって即座に追従される。 これらのQPEフリーQAEスキームにおける様々なクエリスケジュールの最適性に関する既存の分析は、ノイズフリーシステムを想定している。 そこで本研究では,nisqデバイスに不利な共通のノイズモデルの下でqpeフリーなqaeを分析し,雑音環境における各種クエリスケジュールの最適性について報告する。 システムのノイズ特性を精度良く評価すると、より深い回路によって達成される理想性能とノイズによるエラーの蓄積とのトレードオフをバランスさせるスケジュールを選択する必要があることを実証する。

Quantum Amplitude Estimation (QAE) -- a technique by which the amplitude of a given quantum state can be estimated with quadratically fewer queries than by standard sampling -- is a key sub-routine in several important quantum algorithms, including Grover search and Quantum Monte-Carlo methods. An obstacle to implementing QAE in near-term noisy intermediate-scale quantum (NISQ) devices has been the need to perform Quantum Phase Estimation (QPE) -- a costly procedure -- as a sub-routine. This impediment was lifted with various QPE-free methods of QAE, wherein Grover queries of varying depths / powers (often according to a "schedule") are followed immediately by measurements and classical post-processing techniques like maximum likelihood estimation (MLE). Existing analyses as to the optimality of various query schedules in these QPE-free QAE schemes have hitherto assumed noise-free systems. In this work, we analyse QPE-free QAE under common noise models that may afflict NISQ devices and report on the optimality of various query schedules in the noisy regime. We demonstrate that, given an accurate noise characterization of one's system, one must choose a schedule that balances the trade-off between the greater ideal performance achieved by higher-depth circuits, and the correspondingly greater accumulation of noise-induced error.
翻訳日:2023-05-12 20:14:01 公開日:2020-06-25
# 因果フェルミオン系のダイナミクス 新しい統一物理理論の場方程式と補正項

Dynamics of Causal Fermion Systems. Field Equations and Correction Terms for a New Unified Physical Theory ( http://arxiv.org/abs/2006.14353v1 )

ライセンス: Link先を確認
Johannes Kleiner(参考訳) 因果フェルミオン系の理論は、物理的現実の基本的なレベルを記述することを目的とした新しい物理理論である。 その数学的核心は因果行動原理である。 本論文では,因果行動原理を時空上の場の適切な概念と結びつける形式論を考案する。 場の方程式は因果作用原理から導出し、場の方程式によって引き起こされる力学がシンプレクティックな形式を保存し、因果フェルミオン系が時間の概念を許容するならば、ハミルトンの時間進化を引き起こす。 このようにして、因果フェルミオン系のダイナミクスを確立する。 驚くべきことに、因果行動原理は、フィールド方程式に補正項が存在することを意味する。 特に、確率的かつ非線形な補正項があることを証明し、ハミルトン時間の進化とそれらの関係について検討する。 さらに、ネーターの定理における対称性と保存法則の間の関係を因果フェルミオン系の理論に一般化する定理を与える。 特定の補正項の出現は、量子論における動的崩壊モデルを想起させる。

The theory of causal fermion systems is a new physical theory which aims to describe a fundamental level of physical reality. Its mathematical core is the causal action principle. In this thesis, we develop a formalism which connects the causal action principle to a suitable notion of fields on space-time. We derive field equations from the causal action principle and find that the dynamics induced by the field equations conserve a symplectic form which gives rise to an Hamiltonian time evolution if the causal fermion system admits a notion of time. In this way, we establish the dynamics of causal fermion systems. Remarkably, the causal action principle implies that there are correction terms to the field equations, which we subsequently derive and study. In particular, we prove that there is a stochastic and a non-linear correction term and investigate how they relate to the Hamiltonian time evolution. Furthermore, we give theorems which generalize the connection between symmetries and conservation laws in Noether's theorems to the theory of causal fermion systems. The appearance of the particular correction terms is reminiscent of dynamical collapse models in quantum theory.
翻訳日:2023-05-12 20:05:35 公開日:2020-06-25
# 室温光機械スクイーサー

A room temperature optomechanical squeezer ( http://arxiv.org/abs/2006.14323v1 )

ライセンス: Link先を確認
Nancy Aggarwal(参考訳) 現在重力波検出器(GW)を制限しているノイズ源の1つは、不確実な振幅と位相を引き起こす光の量子的性質に由来する。 位相の不確かさは干渉測定の精度を制限する。 この測定は、振幅不確実性(QRPN)によって生じる放射圧の変動によって引き起こされる量子バックアクションにも影響される。 この量子ノイズを低減するため、gw検出器は圧縮光注入を使用する計画である。 本論では, 放射圧を介するオプティメカティカル(OM)相互作用を用いて, 圧縮光を生成することに焦点を当てる。 om相互作用を用いてスクイーズ状態を作ると、従来の非線形結晶よりもコンパクトで頑丈な波長独立なスクイーズ光源が得られる。 現実的な不完全性(損失や古典的な雑音)でシステムを解析し,その概念を用いて室内温度で広帯域の広帯域の聴取を行う実験を設計する。 これにはキャビティの光学特性と発振器の機械的特性の最適化が含まれる。 次に,実験による実装とその後のQRPNの観察,およびOMのスクイーズについて述べる。 これは、室温発振器の動きが真空揺らぎによって圧倒される初めての直接観測である。 これはGW検出器に関連する低周波帯域で示されるが、独自の技術的課題を生じさせるため、これまでは行われていない。 また,光学特性の最適化とともにバックアクションが支配的であったことにより,OMのスクイーズ観測が可能となった。 これは室温OM系における量子ノイズ抑圧の初めての直接観測である。 これはまた、非共鳴周波数の広帯域におけるオーディオ周波数帯域における量子相関の最初の直接的な証拠でもある。

One of the noise sources that currently limits gravitational wave (GW) detectors comes from the quantum nature of the light causing uncertain amplitude and phase. Phase uncertainty limits the precision of an interferometric measurement. This measurement is also subject to quantum back-action, caused by the radiation pressure force fluctuations produced by the amplitude uncertainty (QRPN). In order to lower this quantum noise, GW detectors plan to use squeezed light injection. In this thesis, I focus on using radiation-pressure-mediated optomechanical (OM) interaction to generate squeezed light. Creating squeezed states by using OM interaction enables wavelength-independent squeezed light sources that may also be more compact and robust than traditionally used non-linear crystals. We analyze the system with realistic imperfections (losses & classical noise), and use the concepts to design an experiment to obtain the most possible squeezing in a broad audio-frequency band at room temperature. This involves an optimization for the optical properties of the cavity and the mechanical properties of the oscillator. We then show its experimental implementation, and subsequent observation of QRPN as well as OM squeezing. These are the first ever direct observations of a room temperature oscillator's motion being overwhelmed by vacuum fluctuations. This is shown in the low frequency band, which is relevant to GW detectors, but poses its own technical challenges, and hence has not been done before. Being in the back-action dominated regime along with optimized optical properties has also enabled us to observe OM squeezing. That is the first direct observation of quantum noise suppression in a room temperature OM system. It is also the first direct evidence of quantum correlations in the audio frequency band, in a broad band at non-resonant frequencies.
翻訳日:2023-05-12 20:04:14 公開日:2020-06-25
# 最も単純な原子系による微細構造定数へのアクセスの改善

Improved access to the fine-structure constant with the simplest atomic systems ( http://arxiv.org/abs/2006.14261v1 )

ライセンス: Link先を確認
H. Cakir, N. S. Oreshkina, I. A. Valuev, V. Debierre, V. A. Yerokhin, C. H. Keitel, Z. Harman(参考訳) 一電子イオンの精密分光データから微細構造定数$\alpha$を抽出する手段を示す。 本研究では,バウンド電子$g$係数と基底状態エネルギーの適切な重み付け差において,核構造効果を効果的に抑制できることを示す。 この方法は、既存のまたは近未来の複合ペニングトラップとx線分光技術によって、独立して$\alpha$の値をもたらすことが期待されており、$\alpha$の不確かさを桁違いに減らすことができる。

A means to extract the fine-structure constant $\alpha$ from precision spectroscopic data on one-electron ions is presented. We show that in an appropriately weighted difference of the bound-electron $g$ factor and the ground state energy, nuclear structural effects can be effectively suppressed. This method is anticipated to deliver an independent value of $\alpha$ via existing or near-future combined Penning trap and x-ray spectroscopic technology, and enables decreasing the uncertainty of $\alpha$ by orders of magnitude.
翻訳日:2023-05-12 20:03:48 公開日:2020-06-25
# タンザニアにおけるe-government webサイトのユーザビリティ,アクセシビリティ,webセキュリティ評価

Usability, Accessibility and Web Security Assessment of E-government Websites in Tanzania ( http://arxiv.org/abs/2006.14245v1 )

ライセンス: Link先を確認
Noe Elisa(参考訳) タンザニアのe- Government Agency(ega)がタンザニアの公共機関におけるICTの利用を強調しているにもかかわらず、アクセシビリティ、ユーザビリティ、Webセキュリティの脆弱性はWeb開発者の大多数にはまだ考慮されていない。 本研究の目的は,Tanzania e- Government Webサイトのユーザビリティ,アクセシビリティ,Webセキュリティの脆弱性を評価することである。 本研究は,タンザニアで選択された79のE政府ウェブサイトのユーザビリティ,アクセシビリティ,Webセキュリティの脆弱性を,pingdom,google SpeedInsight,Wave,w3c Checker,acunetixなどの自動診断(評価)ツールを用いて評価した。 その結果、タンザニアのe政府ウェブサイトのユーザビリティ、アクセシビリティ、セキュリティに関するいくつかの問題が明らかになった。 100%のWebサイトがリンクを壊し、79のWebサイトのうち52のWebサイトがメインページをロードするのに5秒以上かかるという、ユーザビリティの問題が多い。 アクセシビリティの結果は、79のWebサイトがアクセシビリティエラーがあり、w3c Web Content Accessibility Guidelines (WCAG) 1.0に違反していることを示している。 webセキュリティ脆弱性の結果は、評価されたwebサイトの79(50.6%)のうち40が1つ以上の高頻度脆弱性(sqlインジェクションまたはクロスサイトスクリプティング-xss)、79(64.5%)のうち51が1つ以上の中程度の脆弱性(クロスサイトリクエスト偽造またはサービス拒否)を持っていることを示している。 これらの結果に基づき,タンザニアの公共機関のユーザビリティ,アクセシビリティ,webセキュリティ脆弱性を改善するための推奨事項を提示する。

In spite of the fact that e-government agency (ega) in Tanzania emphasize on the use of ICT within public institutions in Tanzania, accessibility, usability and web security vulnerabilities are still not considered by the majority of web developers. The main objective of this study is to assess the usability, accessibility and web security vulnerabilities of selected Tanzania e-government websites. Using several automatic diagnostic (evaluation) tools such as pingdom, google speed insight, wave, w3c checker and acunetix, this study assess the usability, accessibility and web security vulnerabilities of 79 selected e-government websites in Tanzania. The results reveal several issues on usability, accessibility and security of Tanzania e-government websites. There is high number of usability problems where 100% of websites were found to have broken links and 52 out of 79 websites have loading time of more than five (5) seconds for their main page. The accessibility results show that all 79 selected websites have accessibility errors and violate w3c Web Content Accessibility Guidelines (WCAG) 1.0. The results on web security vulnerabilities indicate that 40 out of 79 (50.6%) assessed websites have one or more high-severity vulnerability (SQL injection or cross site scripting-XSS) while 51 out of 79 (64.5%) have one or more medium-severity vulnerabilities (Cross site request forgery or Denial of Service). Based on these results, this study provides some recommendations for improving the usability, accessibility and web security vulnerabilities of public institutions in Tanzania.
翻訳日:2023-05-12 20:03:13 公開日:2020-06-25
# 非コヒーレント照明によるダウンコンバージョンにおける昇降エンタングルメント生成

Boosting entanglement generation in down-conversion with incoherent illumination ( http://arxiv.org/abs/2006.14483v1 )

ライセンス: Link先を確認
Lucas Hutter, Gustavo Lima and Stephen P. Walborn(参考訳) 自然パラメトリックダウンコンバージョンによって生じる絡み合った光子は、量子力学の現在の理解と量子情報の進歩にとって最重要視されている。 この過程において、ダウン変換された光子の量子相関は、非線形結晶を照明するポンプビームの光学特性によって制御される。 広く、ポンプビームはコヒーレントビームまたはよく知られたガウス・シェルモデルによってモデル化されており、非常に絡み合った状態の生成には高い光コヒーレンスが必要であるという自然な結論に繋がる。 そこで本研究では, ガウス型ポンプビームの新たなクラスを考慮すれば, 絡み合い量がポンプビームのコヒーレンス度に反比例して増加する異なる量子状態が生成できることを示す。 これは、非常に非一貫性で非常に絡み合った多光子状態をもたらし、フォトニック量子情報科学に興味深い結果をもたらす。

Entangled photons produced by spontaneous parametric down-conversion have been of paramount importance for our current understanding of quantum mechanics and advances in quantum information. In this process, the quantum correlations of the down-converted photons are governed by the optical properties of the pump beam illuminating the non-linear crystal. Extensively, the pump beam has been modeled by either coherent beams or by the well-know Gaussian-Schell model, which leads to the natural conclusion that a high degree of optical coherence is required for the generation of highly entangled states. Here, we show that when a novel class of partially coherent Gaussian pump beams is considered, a distinct type of quantum state can be generated for which the amount of entanglement increases inversely with the degree of coherence of the pump beam. This leads to highly incoherent yet highly entangled multi-photon states, which should have interesting consequences for photonic quantum information science.
翻訳日:2023-05-12 19:55:54 公開日:2020-06-25
# 公正なナビゲーション計画:人道ロボットのユースケース

Fair navigation planning: a humanitarian robot use case ( http://arxiv.org/abs/2006.14479v1 )

ライセンス: Link先を確認
Martim Brandao(参考訳) 本稿では,移動ロボットの動作に関する公平性の可能性について検討する。 人道地図と災害対応の特定のユースケースに焦点を当てる。 まず、ロボットのナビゲーションには公正な次元があることを示し、公正なシステムの開発中に生じる設計上の選択や問題を引き出すためにウォークスルーの例を使う。 我々は、間接的差別、公正効率トレードオフ、反生産的公正の定義の存在、プライバシーなどについて議論する。 最後に,自律システム設計における倫理的問題を引き出すための具体的責任あるイノベーションツールとしての方法論の可能性に関する議論を締めくくった。

In this paper we investigate potential issues of fairness related to the motion of mobile robots. We focus on the particular use case of humanitarian mapping and disaster response. We start by showing that there is a fairness dimension to robot navigation, and use a walkthrough example to bring out design choices and issues that arise during the development of a fair system. We discuss indirect discrimination, fairness-efficiency trade-offs, the existence of counter-productive fairness definitions, privacy and other issues. Finally, we conclude with a discussion of the potential of our methodology as a concrete responsible innovation tool for eliciting ethical issues in the design of autonomous systems.
翻訳日:2023-05-12 19:55:37 公開日:2020-06-25
# プログラミング演習の性質について

On the Nature of Programming Exercises ( http://arxiv.org/abs/2006.14476v1 )

ライセンス: Link先を確認
Alberto Sim\~oes and Ricardo Queir\'os(参考訳) 科学研究において、プログラミング学習の難しさを説明する理由は無数にある。 理由は、被験者の複雑さ、非効率な指導方法、学習方法から、動機づけなどの心理的側面まで様々である。 それでも、プログラミングを学ぶことは、しばしばエクササイズ解決の練習に沸騰します。 したがって、プログラミング演習の性質が成功と一貫した学習の重要な要素であることを理解することが不可欠である。 本稿では,現在の形式化,提示,評価の方法を理解することから始まる,プログラミング演習の作成に関するさまざまなアプローチについて検討する。 そこから、運動の解決方法を広げようとするバリエーションを提案し、この多様性により、学生のエンゲージメントと学習結果を増加させる。 提示されるいくつかのエクササイズは、生徒のモチベーションを促進するゲーミフィケーション技術を利用することができる。 学生を仲間とコンテキスト化するために,既存の自動評価ツールによって得られるメトリクスを提示し終える。

There are countless reasons cited in scientific studies to explain the difficulties in programming learning. The reasons range from the subject's complexity, the ineffective teaching and study methods, to psychological aspects such as demotivation. Still, learning programming often boils down to practice on exercise solving. Hence, it is essential to understand that the nature of a programming exercise is an important factor for the success and consistent learning. This paper explores different approaches on the creation of a programming exercise, starting with realizing how it is currently formalized, presented and evaluated. From there, authors suggest variations that seek to broaden the way an exercise is solved and, with this diversity, increase student engagement and learning outcome. The several types of exercises presented can use gamification techniques fostering student motivation. To contextualize the student with his peers, we finish presenting metrics that can be obtained by existing automatic assessment tools.
翻訳日:2023-05-12 19:55:27 公開日:2020-06-25
# ナノ機械振動子の動的トンネル

Dynamical tunnelling of a Nano-mechanical Oscillator ( http://arxiv.org/abs/2006.14475v1 )

ライセンス: Link先を確認
Piyush Jangid, Anil Kumar Chauhan and Sebastian W\"uster(参考訳) 量子から古典への遷移の研究は、技術的な重要性と同様に基本的なものであり、古典物理学または量子物理学が支配する大きさのメソスコピックデバイスに焦点を当てている。 このような装置の特に多様な選択は空洞量子オプトメカニクスで利用できる。 量子カオス系における動的トンネリングの研究に,これらを応用できることを示す。 この効果は、トンネル速度が基礎となる古典的位相空間を分解する量子系の能力に依存するため、量子から古典への遷移を深く探究する。 この位相空間分解能を決定する有効プランク定数は、オプトメカニカル実験において、可変パラメータの関数として桁違いに変化可能であることを示す。 具体的には, 外部レーザー源によりキャビティ内磁場が周期的に変調される光学キャビティ内の機械発振器の膜内中間配置を考える。 混合正則位相空間とカオス位相空間を1つの空間次元で、有意なクォート光学・機械的相互作用によって設計できることを実証する。 その場合、フロケ理論を用いて期待される動的トンネルの速度を探索し、実用的な到達範囲内にあるべきプランク定数の値をマップアウトする。

The study of the quantum to classical transition is of fundamental as well as technological importance, and focusses on mesoscopic devices, with a size for which either classical physics or quantum physics can be brought to dominate. A particularly diverse selection of such devices is available in cavity quantum-optomechanics. We show that these can be leveraged for the study of dynamical-tunnelling in a quantum chaotic system. This effect probes the quantum to classical transition deeply, since tunnelling rates sensitively depend on the ability of the quantum system to resolve the underlying classical phase space. We show that the effective Planck's constant, which determines this phase space resolution, can be varied over orders of magnitude as a function of tunable parameters in an opto-mechanical experiment. Specifically, we consider a membrane-in-the-middle configuration of a mechanical oscillator within an optical cavity, where the intracavity field is modulated periodically by the external laser source. We demonstrate that a mixed regular and chaotic phase space can be engineered in one spatial dimension, through a significant quartic opto-mechanical interaction. For that case, we explore the expected dynamical tunnelling rates using Floquet theory and map out values of the effective Planck's constant that should be within practical reach.
翻訳日:2023-05-12 19:55:12 公開日:2020-06-25
# 正準アンサンブルのためのランダム位相生成物

Random Phase Product Sate for Canonical Ensemble ( http://arxiv.org/abs/2006.14459v1 )

ライセンス: Link先を確認
Toshiaki Iitaka(参考訳) 行列積状態とテンソルネットワーク状態とで記述される量子システムの正準アンサンブル平均を計算するために、ランダム位相積状態(rpps)法が提案されている。 RPPS法はヒルベルト空間表現のためのランダム位相状態法の拡張である。 本手法の有効性は,N部位の反強磁性スピン-1/2ハイゼンベルク鎖モデルの平均エネルギーと直接法(N=14)および最小絡み合った典型的熱状態(METTS)法(N=100)の結果とを比較して確認した。 並列化などのRPPSの数値的優位性, 温度差による熱平均計算, 誤差制御パラメータについて考察した。 ランダム状態法の超収束性に対する自己評価の視点は、典型性に加えて強調される。

Method of random phase product state (RPPS) is proposed to calculate canonical ensemble average of quantum systems described with matrix product states and also with tensor network states in general. The RPPS method is an extension of the method of random phase state for full Hilbert space representation. The validity of the method is confirmed by comparing the average energy of N-site antiferromagnetic spin-1/2 Heisenberg chain model with open boundary conditions with the result of direct method (for up to N=14) and minimally entangled typical thermal state (METTS) method (for N=100). Numerical advantages of the RPPS such as parallelization, combined calculation of thermal averages at different temperatures, parameters for controlling error are discussed. View point of self-averaging for the super-convergence of random state method is emphasized in addition to that of typicality.
翻訳日:2023-05-12 19:54:38 公開日:2020-06-25
# コヒーレンスのダイナミクス:最大量子フィッシャー情報とLoschmidtエコー

Dynamics of coherence: Maximal quantum Fisher information vs. Loschmidt echo ( http://arxiv.org/abs/2006.14440v1 )

ライセンス: Link先を確認
Hadi Cheraghi, Saeed Mahdavifar(参考訳) 一次元逆場イジングモデルに対する急激なクエンチ後の最大量子フィッシャー情報(MQFI)のダイナミクスを考察する。 結果は、ロスシュミット・エコーと同じで、リバイバル時間には普遍性があり、すなわち、初期状態とクエンチの大きさに依存しず、$t_{rev} \simeq \frac{n}{2v_{max }} の整数倍数で与えられ、ここで$n$ は準粒子の最大群速度である。 t_{rev} \equiv t_{dec} $ として再生時に臨界的に強化され、減少し、崩壊時間が減少することが特徴であり、次数から乱数相をそれぞれ量子相転移にキューチすることで量子臨界点(qcp)を検出することができる。 QCPから交差するいくつかのクエンチでは、最大値が特定されるため、局所観測可能な値がある方向から別の方向に変化するため、ある時点で非解析的挙動が現れる。 この現象を_textit{the dynamical mqfi transitions}と呼ぶ。 興味深いことに、 MQFI の力学にはフィッシャーゼロは存在しないが、動的量子相転移から現れる最初の臨界時間は MQFI の対数が最小となる最初の時間と等しい。 さらに,QCPにおける非平衡量子相転移の符号を示すMQFIの長時間実行を明らかにした。 また、系の非平衡力学におけるマクロ的重ね合わせの発生確率についても論じる。

We consider the dynamics of maximal quantum Fisher information (MQFI) after sudden quenches for the one-dimensional transverse-field Ising model. Our results show, the same as Loschmidt echo, there is a universality for the revival times i.e., they do not depend on the initial state and the size of the quench and are given by integer multiples of $T_{rev} \simeq \frac{N}{2v_{max }}$, where $N$ is the system size and $v_{max }$ is the maximal group velocity of quasiparticles. Critically enhanced and decreased at revival and decay times as $T_{rev} \equiv T_{dec} $ are characterized by quenching from the order and disorder phases into the quantum phase transition respectively, that can be utilized to detect the quantum critical point (QCP). In some quenches crossed from the QCP, nonanalytic behaviors appear at some times due to the turning of the local observable from one direction to another because of identifying the maximum value. We name this phenomenon \textit{the dynamical MQFI transitions}, occurring at the critical times $t_c$. Interestingly, although no Fisher zero exists in the dynamics of MQFI, the first critical time emerged from the dynamical quantum phase transition is equal to the first time whose the logarithm of MQFI is minimum. In addition, we unveil the long-time run of MQFI indicates a signature of a nonequilibrium quantum phase transition at the QCP. We also discuss the probability of arising of macroscopic superpositions in the nonequilibrium dynamics of the system.
翻訳日:2023-05-12 19:54:21 公開日:2020-06-25
# ナノサテライト上のエンタングルメントのデモンストレーション

Entanglement demonstration on board a nano-satellite ( http://arxiv.org/abs/2006.14430v1 )

ライセンス: Link先を確認
Aitor Villar, Alexander Lohrmann, Xueliang Bai, Tom Vergoossen, Robert Bedington, Chithrabhanu Perumangatt, Huai Ying Lim, Tanvirul Islam, Ayesha Reezwana, Zhongkan Tang, Rakhitha Chandrasekara, Subash Sachidananda, Kadir Durak, Christoph F. Wildfeuer, Douglas Griffin, Daniel K. L. Oi, Alexander Ling(参考訳) 安全な通信のためのグローバル量子ネットワークは、地上ノード間で絡み合った光子ペアを分配する衛星群を用いて実現することができる。 衛星のコストはその大きさに依存するため、最小の衛星が最も費用対効果が高い。 本稿では,ナノサテライト上で動作する小型・偏光絡み型光子対光源について述べる。 情報源はベルの不等式を 2.6$\pm$ 0.06 のchshパラメータで破る。 このソースは、将来の量子通信ナノ衛星ミッションを可能にする光リンク技術と組み合わせることができる。

Global quantum networks for secure communication can be realised using large fleets of satellites distributing entangled photon-pairs between ground-based nodes. Because the cost of a satellite depends on its size, the smallest satellites will be most cost-effective. This paper describes a miniaturised, polarization entangled, photon-pair source operating on board a nano-satellite. The source violates Bell's inequality with a CHSH parameter of 2.6 $\pm$ 0.06. This source can be combined with optical link technologies to enable future quantum communication nano-satellite missions.
翻訳日:2023-05-12 19:53:55 公開日:2020-06-25
# ニッチにこだわる:ウィスルブロイングの難しさ

Snitches Get Stitches: On The Difficulty of Whistleblowing ( http://arxiv.org/abs/2006.14407v1 )

ライセンス: Link先を確認
Mansoor Ahmed-Rengers, Ross Anderson, Darija Halatova, Ilia Shumailov(参考訳) 人間にとって最も重要なセキュリティプロトコルの1つは、信頼を裏切っているとき、おそらくもっと高い目的のために、そしてもし捕まったら世界があなたを反抗できる時です。 本稿では,内部告発者がより安全に機密文書をジャーナリストにリークできるようにする取り組みについて報告する。 運用上の問題や技術上の問題からホイッスルブロワーが発見された事例の調査に続いて,ホイッスルブロワーに関わるパワーダイナミクスを捉えるゲーム理論モデルを提案する。 内部告発者は、しばしば他人のモチベーションや能力に恵まれている。 ホイッスルブロウアーのリスクを軽減するためにテクノロジーが使われる特定の領域を特定する。 しかし、技術的な解決主義に対して警告する:主な制約は多くの場合制度的である。

One of the most critical security protocol problems for humans is when you are betraying a trust, perhaps for some higher purpose, and the world can turn against you if you're caught. In this short paper, we report on efforts to enable whistleblowers to leak sensitive documents to journalists more safely. Following a survey of cases where whistleblowers were discovered due to operational or technological issues, we propose a game-theoretic model capturing the power dynamics involved in whistleblowing. We find that the whistleblower is often at the mercy of motivations and abilities of others. We identify specific areas where technology may be used to mitigate the whistleblower's risk. However we warn against technical solutionism: the main constraints are often institutional.
翻訳日:2023-05-12 19:53:47 公開日:2020-06-25
# 交通衝突回避システム脆弱性の発生可能性について

On the Feasibility of Exploiting Traffic Collision Avoidance System Vulnerabilities ( http://arxiv.org/abs/2006.14679v1 )

ライセンス: Link先を確認
Paul M. Berges, Basavesh Ammanaghatta Shivakumar, Timothy Graziano, Ryan Gerdes and Z. Berkay Celik(参考訳) 交通衝突回避システム(TCAS、Traffic Collision Avoidance Systems)は、今日のほとんどの商用機で必要とされる安全上重要なシステムである。 しかし、TASは悪質な俳優を考慮に入れていない。 過去には、攻撃者がTAS信号を模倣する無線信号を制作することは不可能だったかもしれないが、今日攻撃者はGNU Radioのようなオープンソースのデジタル信号処理ソフトウェアにアクセスでき、安価なソフトウェア定義ラジオ(SDR)は、急激なTASメッセージの送信を可能にする。 本稿では, 対向的視点からtcatを分析するための質的, 定量的な手法について述べる。 現在のTCAS搭載航空機間の空中衝突発生の可能性を示すため、実験用ファントム発電機をGNUラジオとSDRを用いて現実的な脅威モデルに対して開発した。

Traffic Collision Avoidance Systems (TCAS) are safety-critical systems required on most commercial aircrafts in service today. However, TCAS was not designed to account for malicious actors. While in the past it may have been infeasible for an attacker to craft radio signals to mimic TCAS signals, attackers today have access to open-source digital signal processing software, like GNU Radio, and inexpensive software defined radios (SDR) that enable the transmission of spurious TCAS messages. In this paper, methods, both qualitative and quantitative, for analyzing TCAS from an adversarial perspective are presented. To demonstrate the feasibility of inducing near mid-air collisions between current day TCAS-equipped aircraft, an experimental Phantom Aircraft generator is developed using GNU Radio and an SDR against a realistic threat model.
翻訳日:2023-05-12 19:45:48 公開日:2020-06-25
# ドライビングダブルウェルにおける超低温ボソニックアンサンブルの漸近集団不均衡

Asymptotic population imbalance of an ultracold bosonic ensemble in a driven double-well ( http://arxiv.org/abs/2006.14678v1 )

ライセンス: Link先を確認
Jie Chen, Aritra K. Mukhopadhyay, Peter Schmelcher(参考訳) 1次元(1次元)二重井戸ポテンシャルに閉じ込められた超低温多体ボソニックアンサンブルは、井戸の深さが時間依存の駆動力によって変調された場合に、大きな時間スケールで2つの井戸間の人口不均衡を示す。 駆動力の特定の形態は、空間的パリティと時間反転対称性を断ち切ることが示され、このような漸近的な人口不均衡(api)につながる。 駆動力の位相と粒子の総数を変化させることで、apiの価値を柔軟に制御することができる。 このAPIは小粒子状態の初期状態に非常に敏感であるが,大粒子数の古典的極限に近づくと,この初期状態への依存は失われる。 少数粒子系におけるフロケ解析と多粒子系における駆動型古典的非剛体振り子に基づく解析を行う。 多粒子系で得られたapi値は古典的限界で得られた値と非常によく一致するが、量子相関による実時間人口の不均衡には大きな不一致があることが示されている。

We demonstrate that an ultracold many-body bosonic ensemble confined in an one-dimensional (1D) double well potential exhibits a population imbalance between the two wells at large timescales, when the depth of the wells are modulated by a time-dependent driving force. The specific form of the driving force is shown to break spatial parity and time-reversal symmetries, which leads to such an asymptotic population imbalance (API). The value of the API can be flexibly controlled by changing the phase of the driving force and the total number of particles. While the API is highly sensitive to the initial state in the few-particle regime, this dependence on the initial state is lost as we approach the classical limit of large particle numbers. We perform a Floquet analysis in the few-particle regime and an analysis based on a driven classical non-rigid pendulum in the many-particle regime. Although the obtained API values in the many-particle regime agree very well with that obtained in the classical limit, we show that there exists a significant disagreement in the corresponding real-time population imbalance due to quantum correlations.
翻訳日:2023-05-12 19:45:34 公開日:2020-06-25
# 未検出光子を用いた生体顕微鏡

Biological Microscopy with Undetected Photons ( http://arxiv.org/abs/2006.14588v1 )

ライセンス: Link先を確認
Andras Buzas, Elmar K. Wolff, Mihaly G. Benedict, Pal Ormos and Andras Der(参考訳) 非縮退した相関光子対を利用した新しいイメージング技術は、近年、量子光学界の科学者の間で大きな関心を呼んだ。 ゴーストイメージング (ghost imaging) や量子干渉 (quantum interference) といった手法の鍵となる性質であり、相関対の光子を試料と相互作用しない画像に利用し、物体の照明と異なるスペクトル範囲での検出を可能にする。 分光法や顕微鏡におけるこれらの技術の広範な応用が想定されているが、その空間分解能の限界は、まだ小さな生物学的物体の実際の顕微鏡的な研究を支持していない。 本稿では, シードレーザと共焦点走査法を用いて量子干渉法を改良し, 検出されていない光子を用いた画像の分解能を1桁以上向上させるとともに, 生体試料の顕微鏡観察への応用例を示す。

Novel imaging techniques utilizing nondegenerate, correlated photon pairs sparked intense interest during the last couple of years among scientists of the quantum optics community and beyond. It is a key property of such "ghost imaging" or "quantum interference" methods that they use those photons of the correlated pairs for imaging that never interacted with the sample, allowing detection in a spectral range different from that of the illumination of the object. Extensive applications of these techniques in spectroscopy and microscopy are envisioned, however, their limited spatial resolution to date has not yet supported real-life microscopic investigations of tiny biological objects. Here we report a modification of the method based on quantum interference by using a seeding laser and confocal scanning, that allows the improvement of the resolution of imaging with undetected photons by more than an order of magnitude, and we also present examples of application in the microscopy of biological samples.
翻訳日:2023-05-12 19:44:41 公開日:2020-06-25
# 分解可能なパウリ対角写像とQubit Mapsのテンソル正方形

Decomposable Pauli diagonal maps and Tensor Squares of Qubit Maps ( http://arxiv.org/abs/2006.14543v1 )

ライセンス: Link先を確認
Alexander M\"uller-Hermes(参考訳) E. St{\o}rmer によるよく知られた結果であり、すべての正のキュービット写像は完全正の写像と完全正の写像の和に分解可能である。 ここで、この結果をキュービット写像のテンソル正方形に一般化する。 具体的には、キュービット写像の任意の正のテンソル積がそれ自身で分解可能であることを示す。 これは S. Fillipov と K. Magadov による最近の予想を解く。 この結果は、2つの異なるキュービット写像のテンソル積として生じる非分解可能正写像の例や、キュービットからキューカートへの分解可能写像のテンソル正方形と対比する。 主な結果を示すために、問題をパウリ対角写像に還元する。 次に、完全正かつ完全共正であるクァルト・パウリ対角写像の252本の極端線をすべて決定することにより、分解可能なクァルト・パウリ対角写像の円錐を特徴づける。 これらの極端光線は自然対称群の下で3つの不規則な軌道に分裂し、これらの軌道のうち2つの軌道は交絡写像のみを含む。 最後に,多量子ビット系間の完全正および完全同値であるパウリ対角写像の極値線を,それらのchoi行列の順序スペクトルを用いて決定する一般組合せ法を開発した。 これらの極端線をクォートを超えて分類することは未解決の問題である。

It is a well-known result due to E. St{\o}rmer that every positive qubit map is decomposable into a sum of a completely positive map and a completely copositive map. Here, we generalize this result to tensor squares of qubit maps. Specifically, we show that any positive tensor product of a qubit map with itself is decomposable. This solves a recent conjecture by S. Fillipov and K. Magadov. We contrast this result with examples of non-decomposable positive maps arising as the tensor product of two distinct qubit maps or as the tensor square of a decomposable map from a qubit to a ququart. To show our main result, we reduce the problem to Pauli diagonal maps. We then characterize the cone of decomposable ququart Pauli diagonal maps by determining all 252 extremal rays of ququart Pauli diagonal maps that are both completely positive and completely copositive. These extremal rays split into three disjoint orbits under a natural symmetry group, and two of these orbits contain only entanglement breaking maps. Finally, we develop a general combinatorial method to determine the extremal rays of Pauli diagonal maps that are both completely positive and completely copositive between multi-qubit systems using the ordered spectra of their Choi matrices. Classifying these extremal rays beyond ququarts is left as an open problem.
翻訳日:2023-05-12 19:44:25 公開日:2020-06-25
# 高等教育におけるブロックチェーンベースのアプリケーション:システムマッピング研究

Blockchain-Based Applications in Higher Education: A Systematic Mapping Study ( http://arxiv.org/abs/2006.14528v1 )

ライセンス: Link先を確認
B. Awaji, E. Solaiman, A. Albshri(参考訳) ブロックチェーンの利用は、デジタル通貨を超えて、健康、モノのインターネット、教育といった他の分野へと移ってきた。 本稿では,高等教育分野に関連するブロックチェーン技術に関する関連する研究を収集・分析するための体系的マッピング研究について述べる。 その論文は2つのテーマに集中している。 まず、教育目的で開発されたブロックチェーンベースのアプリケーションにおける技術の現状を調べます。 第2に,今後の研究で取り組むべき課題と研究ギャップを要約する。

The utilisation of blockchain has moved beyond digital currency to other fields such as health, the Internet of Things, and education. In this paper, we present a systematic mapping study to collect and analyse relevant research on blockchain technology related to the higher education field. The paper concentrates on two main themes. First, it examines state of the art in blockchain-based applications that have been developed for educational purposes. Second, it summarises the challenges and research gaps that need to be addressed in future studies.
翻訳日:2023-05-12 19:43:42 公開日:2020-06-25
# Pound-Drever-Hall (PDH) 法によるポールトラップ中のCa+イオンの量子操作による866$ nmレーザーの安定化

Stabilization of $866$ nm laser with Pound-Drever-Hall (PDH) technique for quantum manipulation of Ca+ ion in Paul trap ( http://arxiv.org/abs/2007.00768v1 )

ライセンス: Link先を確認
Siddhant Singh(参考訳) 本稿では,最も効率的なレーザー安定化技術であるPund-Drever-Hall (PDH) 法について紹介する。 実験の目的は、PDH安定化装置をスクラッチから構築することである。 実験室で実験的に実施した手法を定式化するために必要なすべての理論的治療について説明する。 主なノイズ源を全て検討し,ノイズタックリング手法を実装した。 使用する機器はすべて、その原理と作業について詳細に記述されている。

This article provides an introduction to one of the most efficient laser stabilization techniques - the Pound-Drever-Hall (PDH) method. The aim of the experiment is to build the PDH stabilization apparatus from scratch. I describe all the necessary theoretical treatment to formulate the technique and then describe it as I have experimentally implemented in the lab. All major sources of noise are discussed and noise tackling methods are implemented. All the equipments used are also described in detail for their principle and working.
翻訳日:2023-05-12 19:36:40 公開日:2020-06-25
# Zitterbewegungと電子の電荷

Zitterbewegung and the Charge of an Electron ( http://arxiv.org/abs/2006.16003v1 )

ライセンス: Link先を確認
Basil S. Davis(参考訳) ディラックの相対論的波動方程式は、特別な相対性理論や観測と矛盾する形で、任意の方向に測定された電子速度が$\pm c$であることを意味する。 本論文では、この異常な電子速度が電子の内部構造を明らかにすることにより、電子の質量と電荷が同じ位置作用素で説明できないことを示した。 電子質量の測定速度は常に任意の方向において$c$以下であるが、電荷は光速で変位することができる。 この速度は、電子が正のエネルギー状態と負のエネルギー状態の重ね合わせ状態(zitterbewegung state)である場合にのみ実現可能である。 zitterbewegungでは、空間的振動を受ける電荷であり、質量ではないことが示されており、この電荷zitterbewegungには測定可能な結果がある。 電荷のZitterbewegungは強い電場によって生じる絡み合った電子-陽電子対にも生じる。

Dirac's Relativistic Wave Equation implies a measured electron velocity of $\pm c$ in any direction, in contradiction to Special Relativity and observation. It is shown in this article that this anomalous electron velocity reveals an internal structure of the electron whereby the mass and the charge of the electron cannot be described by the same position operator. The measured velocity of electron mass is always less than $c$ in any direction but charge can be displaced at the speed of light. This speed is realizable only when the electron is in a state that is a superposition of positive and negative energy states, also known as a zitterbewegung state. It is shown that in zitterbewegung it is the charge and not the mass that undergoes rapid spatial oscillation, and that there are measurable consequences of this charge zitterbewegung. Zitterbewegung of charge also occurs in an entangled electron-positron pair created by a strong electric field.
翻訳日:2023-05-12 19:36:31 公開日:2020-06-25
# 非線形共鳴X線ラマン散乱

Nonlinear resonant X-ray Raman scattering ( http://arxiv.org/abs/2006.14724v1 )

ライセンス: Link先を確認
Johann Haber, Andreas Kaldun, Samuel W. Teitelbaum, Alfred Q.R. Baron, Philip H. Bucksbaum, Matthias Fuchs, Jerome B. Hastings, Ichiro Inoue, Yuichi Inubushi, Dietrich Krebs, Taito Osaka, Robin Santra, Sharon Shwartz, Kenji Tamasaku, David A. Reis(参考訳) 硬X線領域における新しい非線形効果の観測を報告する。 それぞれのK端付近で強いX線パルスが調整されたFeおよびCu金属ホイルを照らすと、入射光子エネルギーの約2倍の光子が放出される。 信号は2光子励起と一致し、入射強度と二次的に上昇する。 高エネルギー光子のスペクトルは、入射光子エネルギーに分散する複数のラマン線からなる。 二重k殻イオン化しきい値に達すると、信号強度は著しく上昇する。 このしきい値を超えると、線は分散しなくなり、単一の電子遷移によって得られるエネルギーよりもはるかに大きいオリエンス線となり、さらにラマン線が現れる。 これらのプロセスは、2コアホール励起と様々な2電子脱励起を含む電子相関による多電子遷移を、1つ以上のLおよびMコアホールを含む最終状態にする。

We report the observation of a novel nonlinear effect in the hard x-ray range. Upon illuminating Fe and Cu metal foils with intense x-ray pulses tuned near their respective K edges, photons at nearly twice the incoming photon energy are emitted. The signal rises quadratically with the incoming intensity, consistent with two-photon excitation. The spectrum of emitted high-energy photons comprises multiple Raman lines that disperse with the incident photon energy. Upon reaching the double K-shell ionization threshold, the signal strength undergoes a marked rise. Above this threshold, the lines cease dispersing, turning into orescence lines with energies much greater than obtainable by single electron transitions, and additional Raman lines appear. We attribute these processes to electron-correlation mediated multielectron transitions involving double-core hole excitation and various two-electron de-excitation processes to a final state involving one or more L and M core-holes.
翻訳日:2023-05-12 19:35:40 公開日:2020-06-25
# 圧縮貯留下のユニバーサル2レベル量子オットーマシン

Universal two-level quantum Otto machine under a squeezed reservoir ( http://arxiv.org/abs/2006.14704v1 )

ライセンス: Link先を確認
Rog\'erio J. de Assis, Jos\'e S. Sales, Jefferson A. R. da Cunha, and Norton G. de Almeida(参考訳) 冷熱貯水池と圧縮熱温水貯水池とを1つの2段式システムとするオットー熱機について検討した。 スクイージングパラメータまたは断熱パラメータ(遷移確率)を調整することにより、我々の2レベルシステムは、冷却や熱環境に使用される熱を消費してネットワークを生成するか、あるいは消費することで、普遍的なヒートマシンとして機能することを示します。 本モデルを用いて, この機械の性能を等方性ストロークの有限時間レジームで検討し, 実用的観点から有用性を示すレジームである。

We study an Otto heat machine whose working substance is a single two-level system interacting with a cold thermal reservoir and with a squeezed hot thermal reservoir. By adjusting the squeezing or the adiabaticity parameter (the probability of transition) we show that our two-level system can function as a universal heat machine, either producing net work by consuming heat or consuming work that is used to cool or heat environments. Using our model we study the performance of these machine in the finite-time regime of the isentropic strokes, which is a regime that contributes to make them useful from a practical point of view.
翻訳日:2023-05-12 19:35:07 公開日:2020-06-25
# 光学的実験により得られた圧縮機械振動子の量子運動

Quantum motion of a squeezed mechanical oscillator attained via a optomechanical experiment ( http://arxiv.org/abs/2006.14686v1 )

ライセンス: Link先を確認
P. Vezio, A. Chowdhury, M. Bonaldi, A. Borrielli, F. Marino, B. Morana, G. A. Prodi, P.M. Sarro, E. Serra and F. Marin(参考訳) 光キャビティに埋め込まれたパラメトリック変調膜共振器で実現された機械的圧縮状態について実験的に検討した。 本研究では,中温発振器においても,スクイーズドダイナミクスの量子特性を運動サイドバンドの解析により明らかに・定量化できることを実証する。 観測結果を定量的に解釈する理論的枠組みを提案し,実験との比較を行った。 注目すべき結果は、各動きのサイドバンドのスペクトル形状が絶対校正を必要とせずに量子力学的に圧縮された状態の明確なシグネチャを与えることである。

We experimentally investigate a mechanical squeezed state realized in a parametrically-modulated membrane resonator embedded in an optical cavity. We demonstrate that a quantum characteristic of the squeezed dynamics can be revealed and quantified even in a moderately warm oscillator, through the analysis of motional sidebands. We provide a theoretical framework for quantitatively interpreting the observations and present an extended comparison with the experiment. A notable result is that the spectral shape of each motional sideband provides a clear signature of a quantum mechanical squeezed state without the necessity of absolute calibrations, in particular in the regime where residual fluctuations in the squeezed quadrature are reduced below the zero-point level.
翻訳日:2023-05-12 19:34:54 公開日:2020-06-25
# クラウドコンピューティングにおける大規模仮想マシン配置のための多要素最適化

Multi-factorial Optimization for Large-scale Virtual Machine Placement in Cloud Computing ( http://arxiv.org/abs/2001.06585v2 )

ライセンス: Link先を確認
Zhengping Liang, Jian Zhang, Liang Feng, Zexuan Zhu(参考訳) 仮想マシン(VM)を物理サーバ(PS)に配置することは、クラウドプロバイダの運用コスト削減に不可欠である。 進化的アルゴリズム(EA)は、過去に仮想マシン配置(VMP)問題に対して有望な解決がなされてきた。 しかし、クラウドサービスの需要が増大するにつれて、既存のEAは、リアルタイムの複雑さとスケーラビリティの低下により、大規模な仮想マシン配置(LVMP)問題では実装できない。 近年,MFO(Multi-factorial Optimization)技術が進化コンピューティングの新しい探索パラダイムとして浮上している。 進化過程中に複数の最適化タスクを同時に進化させる機能を提供する。 異種環境におけるLVMP問題にMFO技術を適用することを目的とする。 まず、デプロイコストに基づくVMP問題をMFO問題として定式化する。 そして、グリーディベースのアロケーション演算子を組み込んだ多要素進化アルゴリズム(MFEA)を開発し、確立されたMFO問題に対処する。 その後、再マイグレーションおよびマージ演算子は、MFO問題の解からLVMP問題の統合解を提供するように設計されている。 提案手法の有効性を評価するため,大規模および大規模のVMテストデータセットを用いてシミュレーション実験を行った。 その結果, 種々のヒューリスティック手法と比較して, 最適化時間を著しく短縮し, 異種環境におけるLVMP問題に対する競合配置ソリューションを提供することができた。

The placement scheme of virtual machines (VMs) to physical servers (PSs) is crucial to lowering operational cost for cloud providers. Evolutionary algorithms (EAs) have been performed promising-solving on virtual machine placement (VMP) problems in the past. However, as growing demand for cloud services, the existing EAs fail to implement in large-scale virtual machine placement (LVMP) problem due to the high time complexity and poor scalability. Recently, the multi-factorial optimization (MFO) technology has surfaced as a new search paradigm in evolutionary computing. It offers the ability to evolve multiple optimization tasks simultaneously during the evolutionary process. This paper aims to apply the MFO technology to the LVMP problem in heterogeneous environment. Firstly, we formulate a deployment cost based VMP problem in the form of the MFO problem. Then, a multi-factorial evolutionary algorithm (MFEA) embedded with greedy-based allocation operator is developed to address the established MFO problem. After that, a re-migration and merge operator is designed to offer the integrated solution of the LVMP problem from the solutions of MFO problem. To assess the effectiveness of our proposed method, the simulation experiments are carried on large-scale and extra large-scale VMs test data sets. The results show that compared with various heuristic methods, our method could shorten optimization time significantly and offer a competitive placement solution for the LVMP problem in heterogeneous environment.
翻訳日:2023-01-10 05:04:14 公開日:2020-06-25
# ERA: 空中ビデオにおけるイベント認識のためのデータセットとディープラーニングベンチマーク

ERA: A Dataset and Deep Learning Benchmark for Event Recognition in Aerial Videos ( http://arxiv.org/abs/2001.11394v4 )

ライセンス: Link先を確認
Lichao Mou, Yuansheng Hua, Pu Jin, Xiao Xiang Zhu(参考訳) 無人航空機(UAV)の使用の増加とともに、大量の空中ビデオが制作されている。 人間がそのようなビッグデータを映し出し、その内容を理解することは現実的ではない。 したがって、uavビデオの自動理解に関する方法論研究が重要である。 本稿では,リモートセンシングコミュニティにおける非拘束型空中ビデオにおけるイベント認識の新たな問題を紹介し,イベント展開5秒に対応する25クラスのラベル付き2,864本のビデオからなる,ERA(Event Recognition in Aerial video)という,大規模で人間による注釈付きデータセットを提案する。 ERAデータセットは、クラス内の大きな変動とクラス間の類似性を持ち、様々な状況および劇的に異なるスケールで動的イベントをキャプチャするように設計されている。 さらに、このタスクのベンチマークを提供するため、既存のディープネットワークを広範囲に検証します。 eraデータセットは、自動空中ビデオ理解のさらなる進歩を促進することを期待している。 ウェブサイトはhttps://lcmou.github.io/ERA_Dataset/

Along with the increasing use of unmanned aerial vehicles (UAVs), large volumes of aerial videos have been produced. It is unrealistic for humans to screen such big data and understand their contents. Hence methodological research on the automatic understanding of UAV videos is of paramount importance. In this paper, we introduce a novel problem of event recognition in unconstrained aerial videos in the remote sensing community and present a large-scale, human-annotated dataset, named ERA (Event Recognition in Aerial videos), consisting of 2,864 videos each with a label from 25 different classes corresponding to an event unfolding 5 seconds. The ERA dataset is designed to have a significant intra-class variation and inter-class similarity and captures dynamic events in various circumstances and at dramatically various scales. Moreover, to offer a benchmark for this task, we extensively validate existing deep networks. We expect that the ERA dataset will facilitate further progress in automatic aerial video comprehension. The website is https://lcmou.github.io/ERA_Dataset/
翻訳日:2023-01-05 12:30:34 公開日:2020-06-25
# ブリッジング標準ラベル学習と補完ラベル学習

Bridging Ordinary-Label Learning and Complementary-Label Learning ( http://arxiv.org/abs/2002.02158v5 )

ライセンス: Link先を確認
Yasuhiro Katsura, Masato Uchida(参考訳) パターンが属さないクラスを表す補完ラベルを各トレーニングデータに提供する状況において,教師付き学習フレームワークが提案されている。 既存の文献では、各学習データにそのパターンが属するクラスを表すラベルを付与することを前提として、通常のラベル学習とは独立に相補的ラベル学習が研究されている。 しかしながら、補完的なラベルを提供することは、すべてのラベルを真のクラスの候補として提供することと同等として扱われるべきである。 本稿では,通常のラベル学習と相補的なラベル学習に対応する一対一の分類における損失関数が一定の付加性と双対性を満たすという事実に着目し,既存の教師付き学習フレームワークを直接ブリッジする枠組みを提案する。 さらに、加法性と双対性を満たす損失関数に対する分類リスクと誤差バインドを導出する。

A supervised learning framework has been proposed for the situation where each training data is provided with a complementary label that represents a class to which the pattern does not belong. In the existing literature, complementary-label learning has been studied independently from ordinary-label learning, which assumes that each training data is provided with a label representing the class to which the pattern belongs. However, providing a complementary label should be treated as equivalent to providing the rest of all the labels as the candidates of the one true class. In this paper, we focus on the fact that the loss functions for one-versus-all and pairwise classification corresponding to ordinary-label learning and complementary-label learning satisfy certain additivity and duality, and provide a framework which directly bridge those existing supervised learning frameworks. Further, we derive classification risk and error bound for any loss functions which satisfy additivity and duality.
翻訳日:2023-01-03 09:53:38 公開日:2020-06-25
# 潜在変数の後方比推定

Posterior Ratio Estimation of Latent Variables ( http://arxiv.org/abs/2002.06410v2 )

ライセンス: Link先を確認
Song Liu, Yulong Zhang, Mingxuan Yi, Mladen Kolar(参考訳) 密度比の推定は、2つのデータセットの基盤となる分布を比較する能力があるため、機械学習コミュニティから注目を集めている。 しかし、いくつかのアプリケーションでは、観測結果から \emph{inferred} となる確率変数の分布を比較したい。 本稿では,潜在変数の2つの後方確率密度関数間の比を推定する問題について検討する。 特に、後方比関数はパラメトリックモデルによってよく近似できると仮定し、観測情報と先行標本を用いて推定する。 推定パラメータの漸近正規度と推定パラメータの整合性は、無限大に傾向する先行サンプルの数として証明する。 最後に, この理論を数値実験を用いて検証し, 実世界の応用を通して提案手法の有用性を実証する。

Density Ratio Estimation has attracted attention from the machine learning community due to its ability to compare the underlying distributions of two datasets. However, in some applications, we want to compare distributions of random variables that are \emph{inferred} from observations. In this paper, we study the problem of estimating the ratio between two posterior probability density functions of a latent variable. Particularly, we assume the posterior ratio function can be well-approximated by a parametric model, which is then estimated using observed information and prior samples. We prove the consistency of our estimator and the asymptotic normality of the estimated parameters as the number of prior samples tending to infinity. Finally, we validate our theories using numerical experiments and demonstrate the usefulness of the proposed method through some real-world applications.
翻訳日:2022-12-31 22:52:14 公開日:2020-06-25
# メタモルフィック真理とインプットフィードバックを用いたデノナイズドオートエンコーダによる多重インプテーション

Multiple Imputation with Denoising Autoencoder using Metamorphic Truth and Imputation Feedback ( http://arxiv.org/abs/2002.08338v2 )

ライセンス: Link先を確認
Haw-minn Lu (1), Giancarlo Perrone (1), Jos\'e Unpingco (1) ((1) Gary and Mary West Health Institute)(参考訳) データは豊富だが、列や行が欠落しているため、完全なデータはそうではない。 この欠如は、不完全なケースを省いたり、その後の処理のために派生したデータを生成するダウンストリームデータ製品のパフォーマンスを損なう。 データを完全に活用し、正しく使用するためには、欠落したデータを適切に管理する必要がある。 データの内部表現を学習するために,Denoising Autoencoder を用いた多重命令モデルを提案する。 さらに,属性の統計的完全性を維持し,学習過程におけるバイアスを取り除くために,メタモルフィック真理とインプテーションフィードバックの新たなメカニズムを用いる。 提案手法は,様々な欠落機構および欠落データのパターンに対するインプテーションの効果を探求し,多くの標準テストケースで他の手法に匹敵する。

Although data may be abundant, complete data is less so, due to missing columns or rows. This missingness undermines the performance of downstream data products that either omit incomplete cases or create derived completed data for subsequent processing. Appropriately managing missing data is required in order to fully exploit and correctly use data. We propose a Multiple Imputation model using Denoising Autoencoders to learn the internal representation of data. Furthermore, we use the novel mechanisms of Metamorphic Truth and Imputation Feedback to maintain statistical integrity of attributes and eliminate bias in the learning process. Our approach explores the effects of imputation on various missingness mechanisms and patterns of missing data, outperforming other methods in many standard test cases.
翻訳日:2022-12-30 13:45:32 公開日:2020-06-25
# 多重ノックオフの凝集

Aggregation of Multiple Knockoffs ( http://arxiv.org/abs/2002.09269v2 )

ライセンス: Link先を確認
Tuan-Binh Nguyen, J\'er\^ome-Alexis Chevalier, Bertrand Thirion, Sylvain Arlot(参考訳) 我々は,Barber and Candes (2015) によって導入された Knockoff Inference 手順の拡張を開発する。 AKO(Aggregation of Multiple Knockoffs)と呼ばれるこの新しい手法は、Knockoffベースの推論のランダムな性質に固有の不安定性に対処する。 具体的には、AKOはFalse Discovery Rateコントロールの保証を維持しながら、元のKnockoffアルゴリズムと比較して安定性とパワーの両方を改善している。 我々は、新しい推論手順を提供し、そのコア特性を証明し、その利点を合成および実際のデータセットに関する一連の実験で実証する。

We develop an extension of the Knockoff Inference procedure, introduced by Barber and Candes (2015). This new method, called Aggregation of Multiple Knockoffs (AKO), addresses the instability inherent to the random nature of Knockoff-based inference. Specifically, AKO improves both the stability and power compared with the original Knockoff algorithm while still maintaining guarantees for False Discovery Rate control. We provide a new inference procedure, prove its core properties, and demonstrate its benefits in a set of experiments on synthetic and real datasets.
翻訳日:2022-12-30 01:45:46 公開日:2020-06-25
# 測度不等式の新しい変化とpac-ベイズ境界およびモンテカルロ推定への応用

Novel Change of Measure Inequalities with Applications to PAC-Bayesian Bounds and Monte Carlo Estimation ( http://arxiv.org/abs/2002.10678v2 )

ライセンス: Link先を確認
Yuki Ohnishi and Jean Honorio(参考訳) 我々は, 2 種類の異種族に対する測度不等式について,いくつかの新しい変化を導入する: $f$-divergences と $\alpha$-divergences である。 我々は、$f$-divergencesの変分表現が、測度不等式の新しい変化をもたらすことを示す。 また、\alpha$-divergences に対する測度不等式を乗法的に変化させ、ハマーズリー・チャップマン・ロビンズ不等式を一般化する。 最後に、様々な損失のクラスに対するPAC-ベイズ境界やモンテカルロ推定に対する漸近区間を含む測度不等式の変化のいくつかの応用を示す。

We introduce several novel change of measure inequalities for two families of divergences: $f$-divergences and $\alpha$-divergences. We show how the variational representation for $f$-divergences leads to novel change of measure inequalities. We also present a multiplicative change of measure inequality for $\alpha$-divergences and a generalized version of Hammersley-Chapman-Robbins inequality. Finally, we present several applications of our change of measure inequalities, including PAC-Bayesian bounds for various classes of losses and non-asymptotic intervals for Monte Carlo estimates.
翻訳日:2022-12-28 20:43:29 公開日:2020-06-25
# 分散・フェデレーション最適化における圧縮勾配降下の加速

Acceleration for Compressed Gradient Descent in Distributed and Federated Optimization ( http://arxiv.org/abs/2002.11364v2 )

ライセンス: Link先を確認
Zhize Li and Dmitry Kovalev and Xun Qian and Peter Richt\'arik(参考訳) 分散学習問題や連合学習問題における通信コストが高いため,通信メッセージの圧縮に依存する手法が普及している。 他の文脈では、最も優れた勾配型手法は繰り返し回数を減らすために加速度/モーメントの何らかの形式に依存するが、勾配圧縮と加速度の両方の利点を組み合わせた方法はない。 本稿では、この状況を緩和し、最初の加速圧縮勾配降下法(ACGD)を提案する。 単一マシンのシステムでは、agcd は $o\big((1+\omega)\sqrt{\frac{l}{\mu}}\log \frac{1}{\epsilon}\big)$ と $o\big((1+\omega)\sqrt{\frac{l}{\epsilon}}\big)$ のそれぞれ対流問題に対して$o\big((1+\omega)\sqrt{\frac{l}{\epsilon}}\big)$ を満足していることが証明される。 その結果,既存の非加速速度である$o\big((1+\omega)\frac{l}{\mu}\log \frac{1}{\epsilon}\big)$と$o\big((1+\omega)\frac{l}{\epsilon}\big)$をそれぞれ改善し,圧縮(\omega=0$)が適用されない場合の特別な場合として,加速勾配降下の最適速度を回復した。 さらに、ACGD の分散変種 (ADIANA) を提案し、収束率 $\widetilde{O}\Big(\omega+\sqrt {\frac{L}{\mu}}+\sqrt{\big(\frac {\omega}{n}+\sqrt{\frac{\omega}{n}}\big)\frac {\omega L}{\mu}}\big)$, $n$ はデバイス/ワーカーの数であり、$\widetilde{O}$ は対数係数 $\log \frac{1}{\epsilon}$ を隠蔽する。 これにより、Mishchenko et al. (2019) の DIANA 法で達成された $\widetilde{O}\Big(\omega + \frac{L}{\mu}+\frac{\omega L}{n\mu} \Big)$ が改善される。 最後に, 実世界のデータセットについて実験を行い, 理論結果と照合し, 高速化手法の実用的優位性を確認した。

Due to the high communication cost in distributed and federated learning problems, methods relying on compression of communicated messages are becoming increasingly popular. While in other contexts the best performing gradient-type methods invariably rely on some form of acceleration/momentum to reduce the number of iterations, there are no methods which combine the benefits of both gradient compression and acceleration. In this paper, we remedy this situation and propose the first accelerated compressed gradient descent (ACGD) methods. In the single machine regime, we prove that ACGD enjoys the rate $O\Big((1+\omega)\sqrt{\frac{L}{\mu}}\log \frac{1}{\epsilon}\Big)$ for $\mu$-strongly convex problems and $O\Big((1+\omega)\sqrt{\frac{L}{\epsilon}}\Big)$ for convex problems, respectively, where $\omega$ is the compression parameter. Our results improve upon the existing non-accelerated rates $O\Big((1+\omega)\frac{L}{\mu}\log \frac{1}{\epsilon}\Big)$ and $O\Big((1+\omega)\frac{L}{\epsilon}\Big)$, respectively, and recover the optimal rates of accelerated gradient descent as a special case when no compression ($\omega=0$) is applied. We further propose a distributed variant of ACGD (called ADIANA) and prove the convergence rate $\widetilde{O}\Big(\omega+\sqrt{\frac{L}{\mu}}+\sqrt{\big(\frac{\omega}{n}+\sqrt{\frac{\omega}{n}}\big)\frac{\omega L}{\mu}}\Big)$, where $n$ is the number of devices/workers and $\widetilde{O}$ hides the logarithmic factor $\log \frac{1}{\epsilon}$. This improves upon the previous best result $\widetilde{O}\Big(\omega + \frac{L}{\mu}+\frac{\omega L}{n\mu} \Big)$ achieved by the DIANA method of Mishchenko et al. (2019). Finally, we conduct several experiments on real-world datasets which corroborate our theoretical results and confirm the practical superiority of our accelerated methods.
翻訳日:2022-12-28 16:01:27 公開日:2020-06-25
# ドメインデスパッタリング:画像の簡易化による合成-実領域シフトの緩和と深さ推定の改善

Domain Decluttering: Simplifying Images to Mitigate Synthetic-Real Domain Shift and Improve Depth Estimation ( http://arxiv.org/abs/2002.12114v2 )

ライセンス: Link先を確認
Yunhan Zhao, Shu Kong, Daeyun Shin, Charless Fowlkes(参考訳) 合成レンダリングデータを活用することで、単眼深度推定やその他の幾何学的推定タスクを改善することができるが、合成-実領域間隙を閉じることは非自明で重要なタスクである。 最近の研究は教師なしのドメイン適応に焦点を絞っているが、大量の合成訓練データを実際の画像の小さなセットで補うという、より現実的なシナリオを考える。 この設定では、既存のドメイン翻訳アプローチは訓練が困難であり、実データと合成データを混在させた単純なベースラインにはほとんど利点がないことがわかった。 重要な障害モードは、実世界の画像が、合成トレーニングに存在しない新しいオブジェクトとクラッタを含むことである。 このハイレベルなドメインシフトは、既存の画像翻訳モデルでは処理されない。 これらの観察に基づいて,実画像中の難解な領域を識別・除去し,主に合成データに基づいて訓練されたモデルの奥行き予測を改善するアテンションモジュールを開発した。 提案手法の有効性を検証し,最先端領域適応法よりも高い精度で深度を予測できることを示す。 削除された領域を視覚化することで、合成ドメインギャップに対する解釈可能な洞察が得られる。

Leveraging synthetically rendered data offers great potential to improve monocular depth estimation and other geometric estimation tasks, but closing the synthetic-real domain gap is a non-trivial and important task. While much recent work has focused on unsupervised domain adaptation, we consider a more realistic scenario where a large amount of synthetic training data is supplemented by a small set of real images with ground-truth. In this setting, we find that existing domain translation approaches are difficult to train and offer little advantage over simple baselines that use a mix of real and synthetic data. A key failure mode is that real-world images contain novel objects and clutter not present in synthetic training. This high-level domain shift isn't handled by existing image translation models. Based on these observations, we develop an attention module that learns to identify and remove difficult out-of-domain regions in real images in order to improve depth prediction for a model trained primarily on synthetic data. We carry out extensive experiments to validate our attend-remove-complete approach (ARC) and find that it significantly outperforms state-of-the-art domain adaptation methods for depth prediction. Visualizing the removed regions provides interpretable insights into the synthetic-real domain gap.
翻訳日:2022-12-28 09:01:02 公開日:2020-06-25
# 軽量対称性のないスケーラブルなクレジットアサインメントへの2つの道

Two Routes to Scalable Credit Assignment without Weight Symmetry ( http://arxiv.org/abs/2003.01513v2 )

ライセンス: Link先を確認
Daniel Kunin, Aran Nayebi, Javier Sagastuy-Brena, Surya Ganguli, Jonathan M. Bloom, Daniel L. K. Yamins(参考訳) バックプロパゲーションの神経的可視性は、主に非局所的な重量輸送を$-$で、あるニューロンが別のニューロンのシナプス重量を瞬時に測定するという生物学的に疑わしい要求のために、長い間議論されてきた。 最近まで、重量輸送を避けるローカルな学習ルールを作成する試みは、バックプロパゲーションが輝く大規模学習シナリオ(例えば、深層畳み込みネットワークによるImageNet分類)で失敗した。 本稿では,バックプロパゲーションによる競合性能を生かした,最近提案されている局所学習ルールについて検討し,ネットワークアーキテクチャをまたいで転送しない複雑なチューニングを必要とするメタパラメータ選択に非常に敏感であることを示す。 解析により,この不安定性の数学的理由が示され,メタパラメータチューニングを使わずに,より堅牢な局所学習ルールが特定できるようになった。 それでも、この局所的なルールとモデル深度の増加とともに広がるバックプロパゲーションの間には、性能と安定性のギャップがある。 次に,より生物学的に評価可能な「重み推定」プロセスへの瞬時重み輸送の必要性を緩和する非ローカル学習ルールについて検討し,これらのルールがディープネットワークにおける最先端のパフォーマンスと一致し,ノイズの多い更新が存在する場合に効果的に動作することを示す。 重みの対称性のないクレジット割り当てのための神経的実装の発見に向けた2つの経路について考察した。 局所的なルールをさらに改善し、アーキテクチャをまたいで一貫して実行し、非局所的な学習メカニズムのための生物学的実装の同定を行う。

The neural plausibility of backpropagation has long been disputed, primarily for its use of non-local weight transport $-$ the biologically dubious requirement that one neuron instantaneously measure the synaptic weights of another. Until recently, attempts to create local learning rules that avoid weight transport have typically failed in the large-scale learning scenarios where backpropagation shines, e.g. ImageNet categorization with deep convolutional networks. Here, we investigate a recently proposed local learning rule that yields competitive performance with backpropagation and find that it is highly sensitive to metaparameter choices, requiring laborious tuning that does not transfer across network architecture. Our analysis indicates the underlying mathematical reason for this instability, allowing us to identify a more robust local learning rule that better transfers without metaparameter tuning. Nonetheless, we find a performance and stability gap between this local rule and backpropagation that widens with increasing model depth. We then investigate several non-local learning rules that relax the need for instantaneous weight transport into a more biologically-plausible "weight estimation" process, showing that these rules match state-of-the-art performance on deep networks and operate effectively in the presence of noisy updates. Taken together, our results suggest two routes towards the discovery of neural implementations for credit assignment without weight symmetry: further improvement of local rules so that they perform consistently across architectures and the identification of biological implementations for non-local learning mechanisms.
翻訳日:2022-12-28 01:20:25 公開日:2020-06-25
# 1つか2つのコンポーネント? 散乱変換は

One or Two Components? The Scattering Transform Answers ( http://arxiv.org/abs/2003.01037v2 )

ライセンス: Link先を確認
Vincent Lostanlen and Alice Cohen-Hadria and Juan Pablo Bello(参考訳) 機械聴きの生物学的に妥当なモデルの構築を目的として,ウェーブレット散乱ネットワークによる多成分定常信号の表現について検討する。 まず,2次ノードの再正規化は,隣り合う2つのコンポーネントが精神音響的に干渉するかどうかを評価するための簡単な数値的基準を与えることを示す。 次に, パラメトリック加法合成に基づく類似性空間を可視化するために, 散乱係数上の多様体学習アルゴリズム(アイソマップ)を実行する。 第3に、"1つか2つのコンポーネント" フレームワークを3つの正弦波に一般化し、フーリエ級数の実効散乱深さがその帯域幅に比例して増加することを証明した。

With the aim of constructing a biologically plausible model of machine listening, we study the representation of a multicomponent stationary signal by a wavelet scattering network. First, we show that renormalizing second-order nodes by their first-order parents gives a simple numerical criterion to assess whether two neighboring components will interfere psychoacoustically. Secondly, we run a manifold learning algorithm (Isomap) on scattering coefficients to visualize the similarity space underlying parametric additive synthesis. Thirdly, we generalize the "one or two components" framework to three sine waves or more, and prove that the effective scattering depth of a Fourier series grows in logarithmic proportion to its bandwidth.
翻訳日:2022-12-27 06:06:41 公開日:2020-06-25
# ニューラルネットワークを用いた生成的対数模倣学習:大域的最適性と収束率

Generative Adversarial Imitation Learning with Neural Networks: Global Optimality and Convergence Rate ( http://arxiv.org/abs/2003.03709v2 )

ライセンス: Link先を確認
Yufeng Zhang, Qi Cai, Zhuoran Yang, Zhaoran Wang(参考訳) GAIL(Generative Adversarial mimicion Learning)は、特にニューラルネットワークと組み合わせた場合、実際に非常に成功している。 強化学習とは異なるGAILは、専門家(人間)のデモンストレーションからポリシーと報酬機能の両方を学ぶ。 実験的な成功にもかかわらず、GAILとニューラルネットワークがグローバルな最適解に収束するかどうかは不明だ。 主な困難は、非凸非凸ミニマックス最適化構造から生じる。 実践と理論のギャップを埋めるために,交互更新を伴う勾配に基づくアルゴリズムを解析し,その部分線形収束を大域的最適解に確立する。 我々の知識を最大限に活用するために、我々の分析は、GAILとニューラルネットワークのグローバル最適性と収束率を初めて確立する。

Generative adversarial imitation learning (GAIL) demonstrates tremendous success in practice, especially when combined with neural networks. Different from reinforcement learning, GAIL learns both policy and reward function from expert (human) demonstration. Despite its empirical success, it remains unclear whether GAIL with neural networks converges to the globally optimal solution. The major difficulty comes from the nonconvex-nonconcave minimax optimization structure. To bridge the gap between practice and theory, we analyze a gradient-based algorithm with alternating updates and establish its sublinear convergence to the globally optimal solution. To the best of our knowledge, our analysis establishes the global optimality and convergence rate of GAIL with neural networks for the first time.
翻訳日:2022-12-25 14:06:25 公開日:2020-06-25
# rezeroは必要なすべてです:大深度での高速収束

ReZero is All You Need: Fast Convergence at Large Depth ( http://arxiv.org/abs/2003.04887v2 )

ライセンス: Link先を確認
Thomas Bachlechner, Bodhisattwa Prasad Majumder, Huanru Henry Mao, Garrison W. Cottrell, Julian McAuley(参考訳) ディープネットワークは、非効率な信号伝搬による勾配の消失や爆発に悩まされ、長い訓練時間や収束困難を引き起こす。 様々なアーキテクチャ設計、洗練された残差スタイルのネットワーク、および初期化スキームは深い信号伝播を改善することが示されている。 近年、ペニントンらは自由確率理論を用いて、動的等尺が効率的な深層学習において重要な役割を果たすことを示した。 1つのゼロ初期化パラメータを用いて各残差接続をゲーティングする最も単純なアーキテクチャ変更は、初期動的等長法を満足し、より複雑なアプローチを上回ることを示す。 このゲートは以前のものよりもはるかにシンプルだが、CIFAR-10でトレーニングされたResNetの高速収束とより良いテスト性能で数千の完全に接続されたレイヤーをトレーニングすることができる。 この手法を言語モデルに適用し,120層トランスフォーマーの学習を容易にする。 12層トランスフォーマーに適用すると、enwiki8で56%高速に収束する。

Deep networks often suffer from vanishing or exploding gradients due to inefficient signal propagation, leading to long training times or convergence difficulties. Various architecture designs, sophisticated residual-style networks, and initialization schemes have been shown to improve deep signal propagation. Recently, Pennington et al. used free probability theory to show that dynamical isometry plays an integral role in efficient deep learning. We show that the simplest architecture change of gating each residual connection using a single zero-initialized parameter satisfies initial dynamical isometry and outperforms more complex approaches. Although much simpler than its predecessors, this gate enables training thousands of fully connected layers with fast convergence and better test performance for ResNets trained on CIFAR-10. We apply this technique to language modeling and find that we can easily train 120-layer Transformers. When applied to 12 layer Transformers, it converges 56% faster on enwiki8.
翻訳日:2022-12-24 20:18:08 公開日:2020-06-25
# 拡張型連続論理ネットワークを用いた非線形ループ不変量の学習

Learning Nonlinear Loop Invariants with Gated Continuous Logic Networks (Extended Version) ( http://arxiv.org/abs/2003.07959v4 )

ライセンス: Link先を確認
Jianan Yao, Gabriel Ryan, Justin Wong, Suman Jana, Ronghui Gu(参考訳) 実世界のプログラムを検証するには、非線形制約付きループ不変量の推定がしばしば必要となる。 これは、アビオニクスや工業プラントの制御システムなど、多くの数値演算を実行するプログラムにおいて特に当てはまる。 近年、ループ不変推論のためのデータ駆動手法は、特に線形不変量において有望であることが示されている。 しかし、非線形ループ不変量へのデータ駆動推論の適用は、高次項の多量および等級、少数のサンプルに過度に適合する可能性、および可能な不等式境界の広い空間のために困難である。 本稿では,一般smt学習のための新しいニューラルネットワークであるゲート型連続論理ネットワーク(g-cln)を導入し,非線形ループ不変学習に適用する。 G-CLNは継続論理ネットワーク(CLN)アーキテクチャを拡張し、ゲーティングユニットとドロップアウトにより、モデルが多数の用語で一般的な不変性をしっかりと学習できるようにする。 有限プログラムサンプリングから生じるオーバーフィッティングに対処するため,実領域での非有界サンプリングを容易にするループセマンティクスを連続関数に緩和する分数サンプリングを導入する。 さらに、我々は、厳密な不等式境界を自然に学習する新しいCLN活性化関数PBQU(Piecewise Biased Quadratic Unit)を設計する。 一般非線形ループ不変量の学習が可能な非線形ループ不変推論系にこれらの手法を組み込む。 非線形ループ不変量のベンチマークを用いてシステム評価を行い, 平均実行時間53.3秒で, 先行処理よりも3倍の27の問題を26個解決したことを示す。 線形Code2Invベンチマークの124問題を全て解き、G-CLNの汎用学習能力を更に示す。 また, 定量的安定度評価を行い, g-cln が二次問題に対して 97.5\%$, cln モデルより39.2\%$向上することを示す。

Verifying real-world programs often requires inferring loop invariants with nonlinear constraints. This is especially true in programs that perform many numerical operations, such as control systems for avionics or industrial plants. Recently, data-driven methods for loop invariant inference have shown promise, especially on linear invariants. However, applying data-driven inference to nonlinear loop invariants is challenging due to the large numbers of and magnitudes of high-order terms, the potential for overfitting on a small number of samples, and the large space of possible inequality bounds. In this paper, we introduce a new neural architecture for general SMT learning, the Gated Continuous Logic Network (G-CLN), and apply it to nonlinear loop invariant learning. G-CLNs extend the Continuous Logic Network (CLN) architecture with gating units and dropout, which allow the model to robustly learn general invariants over large numbers of terms. To address overfitting that arises from finite program sampling, we introduce fractional sampling---a sound relaxation of loop semantics to continuous functions that facilitates unbounded sampling on real domain. We additionally design a new CLN activation function, the Piecewise Biased Quadratic Unit (PBQU), for naturally learning tight inequality bounds. We incorporate these methods into a nonlinear loop invariant inference system that can learn general nonlinear loop invariants. We evaluate our system on a benchmark of nonlinear loop invariants and show it solves 26 out of 27 problems, 3 more than prior work, with an average runtime of 53.3 seconds. We further demonstrate the generic learning ability of G-CLNs by solving all 124 problems in the linear Code2Inv benchmark. We also perform a quantitative stability evaluation and show G-CLNs have a convergence rate of $97.5\%$ on quadratic problems, a $39.2\%$ improvement over CLN models.
翻訳日:2022-12-22 22:05:45 公開日:2020-06-25
# 逆データアノテーションを用いた質問応答コーパス作成手法

A Methodology for Creating Question Answering Corpora Using Inverse Data Annotation ( http://arxiv.org/abs/2004.07633v2 )

ライセンス: Link先を確認
Jan Deriu, Katsiaryna Mlynchyk, Philippe Schl\"apfer, Alvaro Rodrigo, Dirk von Gr\"unigen, Nicolas Kaiser, Kurt Stockinger, Eneko Agirre, and Mark Cieliebak(参考訳) 本稿では,構造化データ上で質問応答を行うコーパスを効率的に構築する新しい手法を提案する。 そこで我々は,OT(Operation Trees)と呼ばれるデータベースにおいて,論理的クエリ計画に基づく中間表現を導入する。 この表現は、生成するクエリのタイプで柔軟性を失うことなく、アノテーションプロセスの反転を可能にします。 さらに、クエリトークンをOT操作にきめ細かいアライメントを可能にする。 本手法では,文脈自由文法からランダムにotを生成する。 その後、アノテーションはOTで表される適切な自然言語の質問を書く必要がある。 最後に、アノテーションはトークンをOT操作に割り当てる。 本手法は,データベースへの自然言語インタフェース評価のための大規模意味構文解析コーパスである,新しいコーパスotta (operation tree and token assignment) の作成に適用する。 我々は,otta と spider と lc-quad 2.0 を比較し,クエリの複雑さを維持しつつアノテーションの速度を3倍以上にする手法を示した。 最後に、データに最先端のセマンティック解析モデルをトレーニングし、我々のコーパスが困難なデータセットであること、トークンアライメントを利用してパフォーマンスを大幅に向上できることを示します。

In this paper, we introduce a novel methodology to efficiently construct a corpus for question answering over structured data. For this, we introduce an intermediate representation that is based on the logical query plan in a database called Operation Trees (OT). This representation allows us to invert the annotation process without losing flexibility in the types of queries that we generate. Furthermore, it allows for fine-grained alignment of query tokens to OT operations. In our method, we randomly generate OTs from a context-free grammar. Afterwards, annotators have to write the appropriate natural language question that is represented by the OT. Finally, the annotators assign the tokens to the OT operations. We apply the method to create a new corpus OTTA (Operation Trees and Token Assignment), a large semantic parsing corpus for evaluating natural language interfaces to databases. We compare OTTA to Spider and LC-QuaD 2.0 and show that our methodology more than triples the annotation speed while maintaining the complexity of the queries. Finally, we train a state-of-the-art semantic parsing model on our data and show that our corpus is a challenging dataset and that the token alignment can be leveraged to increase the performance significantly.
翻訳日:2022-12-12 20:43:12 公開日:2020-06-25
# 天文画像分類のための自己指導型学習

Self-supervised Learning for Astronomical Image Classification ( http://arxiv.org/abs/2004.11336v2 )

ライセンス: Link先を確認
Ana Martinazzo, Mateus Espadoto, Nina S. T. Hirata(参考訳) 天文学では、星や銀河、その他の天体からのデータを収集するために空をスキャンする測光観測によって、毎日大量の画像データが生成される。 本稿では,未ラベルの天体画像を深部畳み込みニューラルネットワークに活用する手法を提案し,少ないラベル付きデータを利用可能なセットアップにおいて,機械学習技術の結果を改善するドメイン固有の特徴抽出器を学習する。 我々は,ImageNetの事前学習よりも多くの場合に優れた結果が得られることを示す。

In Astronomy, a huge amount of image data is generated daily by photometric surveys, which scan the sky to collect data from stars, galaxies and other celestial objects. In this paper, we propose a technique to leverage unlabeled astronomical images to pre-train deep convolutional neural networks, in order to learn a domain-specific feature extractor which improves the results of machine learning techniques in setups with small amounts of labeled data available. We show that our technique produces results which are in many cases better than using ImageNet pre-training.
翻訳日:2022-12-10 09:56:13 公開日:2020-06-25
# リモートセンシング画像シーン分類がディープラーニングを満たす - 課題,方法,ベンチマーク,機会

Remote Sensing Image Scene Classification Meets Deep Learning: Challenges, Methods, Benchmarks, and Opportunities ( http://arxiv.org/abs/2005.01094v2 )

ライセンス: Link先を確認
Gong Cheng, Xingxing Xie, Junwei Han, Lei Guo, Gui-Song Xia(参考訳) リモートセンシング画像の分類は、その内容に基づいたセマンティックなカテゴリのセットをラベル付けすることを目的としており、幅広い分野に応用されている。 ディープニューラルネットワークの強力な機能学習能力によって、ディープラーニングによって駆動されるリモートセンシングイメージシーン分類が注目され、大きなブレークスルーを達成した。 しかし、我々の知る限りでは、リモートセンシング画像のシーン分類におけるディープラーニングに関する最近の成果の総合的なレビューが不足している。 この分野の急速な発展を考えると,160以上の論文をカバーし,リモートセンシング画像シーン分類のためのディープラーニング手法を体系的に調査する。 具体的には,(1)自動エンコーダ型リモートセンシング画像シーン分類法,(2)畳み込みニューラルネットワーク型リモートセンシング画像シーン分類法,(3)生成型逆ネットワーク型リモートセンシング画像シーン分類法,といった,リモートセンシング画像シーン分類とサーベイの主な課題について論じる。 さらに,画像シーンのリモートセンシングに使用されるベンチマークを紹介し,一般的な3つのベンチマークデータセット上で20以上の代表的なアルゴリズムのパフォーマンスを要約する。 最後に,今後の研究に期待できる機会について論じる。

Remote sensing image scene classification, which aims at labeling remote sensing images with a set of semantic categories based on their contents, has broad applications in a range of fields. Propelled by the powerful feature learning capabilities of deep neural networks, remote sensing image scene classification driven by deep learning has drawn remarkable attention and achieved significant breakthroughs. However, to the best of our knowledge, a comprehensive review of recent achievements regarding deep learning for scene classification of remote sensing images is still lacking. Considering the rapid evolution of this field, this paper provides a systematic survey of deep learning methods for remote sensing image scene classification by covering more than 160 papers. To be specific, we discuss the main challenges of remote sensing image scene classification and survey (1) Autoencoder-based remote sensing image scene classification methods, (2) Convolutional Neural Network-based remote sensing image scene classification methods, and (3) Generative Adversarial Network-based remote sensing image scene classification methods. In addition, we introduce the benchmarks used for remote sensing image scene classification and summarize the performance of more than two dozen of representative algorithms on three commonly-used benchmark data sets. Finally, we discuss the promising opportunities for further research.
翻訳日:2022-12-07 06:40:11 公開日:2020-06-25
# 機械学習を用いたモデルとリードタイムを横断する確率的気象予報のフレームワーク

A framework for probabilistic weather forecast post-processing across models and lead times using machine learning ( http://arxiv.org/abs/2005.06613v2 )

ライセンス: Link先を確認
Charlie Kirkwood, Theo Economou, Henry Odbert, Nicolas Pugeault(参考訳) 天気予報は、ますますデータ集約的な運動だ。 数値気象予測(nwp)モデルは、より高い解像度でより複雑になりつつあり、運用中の様々なモデルが増えている。 NWPモデルの予測スキルは改善され続けているが、これらのモデルの数と複雑さは、運用気象学者にとって新たな課題となる。 本稿では,道路表面温度の例を用いて,nwpモデルから分離した予測セットと意思決定支援のための「理想」予測とのギャップを埋めるために機械学習を用いた3段階の枠組みを実証する。 まず、各数値モデルの誤差プロファイルを学習するためにQuantile Regression Forestsを使用し、これを経験から導いた確率分布を予測に適用する。 第二に、これらの確率予測を量子平均化を用いて組み合わせる。 第3に,集合量子化の間で完全な予測分布を生成するために補間を行い,決定支援に適した特性を示す。 以上の結果から,このアプローチは,複数のモデルとリードタイムにわたる気象予報の凝集後処理を効果的かつ運用的に実現可能なフレームワークであることが示唆された。

Forecasting the weather is an increasingly data intensive exercise. Numerical Weather Prediction (NWP) models are becoming more complex, with higher resolutions, and there are increasing numbers of different models in operation. While the forecasting skill of NWP models continues to improve, the number and complexity of these models poses a new challenge for the operational meteorologist: how should the information from all available models, each with their own unique biases and limitations, be combined in order to provide stakeholders with well-calibrated probabilistic forecasts to use in decision making? In this paper, we use a road surface temperature example to demonstrate a three-stage framework that uses machine learning to bridge the gap between sets of separate forecasts from NWP models and the 'ideal' forecast for decision support: probabilities of future weather outcomes. First, we use Quantile Regression Forests to learn the error profile of each numerical model, and use these to apply empirically-derived probability distributions to forecasts. Second, we combine these probabilistic forecasts using quantile averaging. Third, we interpolate between the aggregate quantiles in order to generate a full predictive distribution, which we demonstrate has properties suitable for decision support. Our results suggest that this approach provides an effective and operationally viable framework for the cohesive post-processing of weather forecasts across multiple models and lead times to produce a well-calibrated probabilistic output.
翻訳日:2022-12-06 05:13:49 公開日:2020-06-25
# 胸部CTスキャンにおける結節検出における偽陽性除去のための点雲の深層学習

Deep Learning on Point Clouds for False Positive Reduction at Nodule Detection in Chest CT Scans ( http://arxiv.org/abs/2005.03654v2 )

ライセンス: Link先を確認
Ivan Drokin, Elena Ericheva(参考訳) 本稿では,疑わしい病変検出段階を経て,コンピュータ支援検出システム(CADe)における結節候補の偽陽性化(FPR)に対する新しいアプローチに焦点を当てた。 医用画像解析における一般的な決定とは対照的に,提案手法では入力データを2d画像や3d画像ではなくポイントクラウドとして捉え,ポイントクラウドにディープラーニングモデルを用いる。 ポイントクラウドモデルは、従来のcnn 3dと比較してトレーニングと推論の両方においてより高速で、優れたパフォーマンスを実現し、入力画像のサイズに制限を課さないこと、すなわち、nodule候補のサイズに制限がないことが分かりました。 3次元ctスキャンデータをポイントクラウドに変換するアルゴリズムを提案する。 場合によっては、結節候補の体積が周囲の文脈よりもはるかに小さい場合があり、例えば、結節の胸腔内局在の場合である。 そこで我々は,候補領域の3次元画像から構築した点群から点をサンプリングするアルゴリズムを開発した。 このアルゴリズムは、ノード候補のポイントクラウドの一部として、コンテキスト情報と候補情報の捕捉を保証することができる。 我々は,FPRタスクの特徴としてオープンLIDC-IDRIデータベースからデータセットを作成する実験を設計し,設定した。 データ拡張は、オーバーフィッティングを避けるためにも、アップサンプリング方法としても適用された。 PointNet、PointNet++、DGCNNで実験が行われた。 提案手法はベースラインモデルに対して85.98 FROCに対して77.26 FROCよりも優れていることを示す。 提案アルゴリズムを発行したSOTAと比較し,LUNA2016における適切な性能レベルで動作し,LIDC-IDRI上でのSOTAを示す。

This paper focuses on a novel approach for false-positive reduction (FPR) of nodule candidates in Computer-aided detection (CADe) systems following the suspicious lesions detection stage. Contrary to typical decisions in medical image analysis, the proposed approach considers input data not as a 2D or 3D image, but rather as a point cloud, and uses deep learning models for point clouds. We discovered that point cloud models require less memory and are faster both in training and inference compared to traditional CNN 3D, they achieve better performance and do not impose restrictions on the size of the input image, i.e. no restrictions on the size of the nodule candidate. We propose an algorithm for transforming 3D CT scan data to point cloud. In some cases, the volume of the nodule candidate can be much smaller than the surrounding context, for example, in the case of subpleural localization of the nodule. Therefore, we developed an algorithm for sampling points from a point cloud constructed from a 3D image of the candidate region. The algorithm is able to guarantee the capture of both context and candidate information as part of the point cloud of the nodule candidate. We designed and set up an experiment in creating a dataset from an open LIDC-IDRI database for a feature of the FPR task, and is herein described in detail. Data augmentation was applied both to avoid overfitting and as an upsampling method. Experiments were conducted with PointNet, PointNet++, and DGCNN. We show that the proposed approach outperforms baseline CNN 3D models and resulted in 85.98 FROC versus 77.26 FROC for baseline models. We compare our algorithm with published SOTA and demonstrate that even without significant modifications it works at the appropriate performance level on LUNA2016 and shows SOTA on LIDC-IDRI.
翻訳日:2022-12-05 22:20:41 公開日:2020-06-25
# SurfelGAN: 自律運転のためのリアルなセンサデータの合成

SurfelGAN: Synthesizing Realistic Sensor Data for Autonomous Driving ( http://arxiv.org/abs/2005.03844v2 )

ライセンス: Link先を確認
Zhenpei Yang, Yuning Chai, Dragomir Anguelov, Yin Zhou, Pei Sun, Dumitru Erhan, Sean Rafferty, Henrik Kretzschmar(参考訳) 自動運転システムの開発は、シミュレーションにおいて複雑で多様な交通シナリオを再生する能力に依存する。 このようなシナリオでは、カメラ、ライダー、レーダーなどの車両センサーを正確にシミュレートする能力が不可欠である。 しかし、現在のセンサーシミュレータはunrealやunityのようなゲームエンジンを利用し、環境やオブジェクト、素材の手動生成を必要とする。 このようなアプローチはスケーラビリティが限られており、カメラ、ライダー、レーダーデータの現実的な近似を、大きな作業なしでは生成できない。 本稿では,自動運転車が収集するライダーやカメラデータに限らず,現実的なシナリオセンサデータを生成するための,シンプルかつ効果的なアプローチを提案する。 本手法では,テクスチャマップを用いたサーフセルを用いて,初期車両パスやパスセットからシーンを効率的に再構成し,物体の3次元形状や外観やシーン条件に関する豊富な情報を保存する。 次に、surferganネットワークを利用して、写実的なカメラ画像を再構成し、自動運転車の新たな位置と方向とシーン内の動く物体を再現する。 waymo open datasetのアプローチを実演し,シミュレーションシナリオに対して現実的なカメラデータを合成できることを実証した。 また、2台の自動運転車が同時に同じシーンを観察するケースを含む、新しいデータセットも作成します。 このデータセットを使ってさらなる評価を行い、surferganモデルの有用性を実証します。

Autonomous driving system development is critically dependent on the ability to replay complex and diverse traffic scenarios in simulation. In such scenarios, the ability to accurately simulate the vehicle sensors such as cameras, lidar or radar is essential. However, current sensor simulators leverage gaming engines such as Unreal or Unity, requiring manual creation of environments, objects and material properties. Such approaches have limited scalability and fail to produce realistic approximations of camera, lidar, and radar data without significant additional work. In this paper, we present a simple yet effective approach to generate realistic scenario sensor data, based only on a limited amount of lidar and camera data collected by an autonomous vehicle. Our approach uses texture-mapped surfels to efficiently reconstruct the scene from an initial vehicle pass or set of passes, preserving rich information about object 3D geometry and appearance, as well as the scene conditions. We then leverage a SurfelGAN network to reconstruct realistic camera images for novel positions and orientations of the self-driving vehicle and moving objects in the scene. We demonstrate our approach on the Waymo Open Dataset and show that it can synthesize realistic camera data for simulated scenarios. We also create a novel dataset that contains cases in which two self-driving vehicles observe the same scene at the same time. We use this dataset to provide additional evaluation and demonstrate the usefulness of our SurfelGAN model.
翻訳日:2022-12-05 12:43:45 公開日:2020-06-25
# PENNI: 効率的なCNN推論のためのカーネル共有

PENNI: Pruned Kernel Sharing for Efficient CNN Inference ( http://arxiv.org/abs/2005.07133v2 )

ライセンス: Link先を確認
Shiyu Li, Edward Hanson, Hai Li, Yiran Chen(参考訳) 最先端(SOTA)のCNNは様々なタスクにおいて優れた性能を発揮するが、高い計算要求と大量のパラメータにより、リソース制約されたデバイスにこれらのSOTA CNNをデプロイすることは困難である。 cnnアクセラレーションに関する以前の研究では、計算コストを削減するためにオリジナルの畳み込み層の低ランク近似を利用する。 しかし、これらの手法はスパースモデルでは実行速度を制限し、CNNモデル内の冗長性は完全には利用されない。 残ったコンパクト係数の冗長性を利用して、カーネルの粒度分解を低ランクの仮定で行うことができる。 そこで本研究では,(1)少数の基底カーネルによる畳み込み層でのカーネル共有を実現すること,(2)スパース制約によるベースと係数の交互調整を行うことにより,モデルコンパクト性とハードウェア効率を同時に達成できるcnnモデル圧縮フレームワークであるpenniを提案する。 実験の結果,ResNet18 CIFAR10では,97%のパラメータと92%のFLOPを精度低下なく実行時のメモリ消費を44%削減し,推論遅延を53%低減できることがわかった。

Although state-of-the-art (SOTA) CNNs achieve outstanding performance on various tasks, their high computation demand and massive number of parameters make it difficult to deploy these SOTA CNNs onto resource-constrained devices. Previous works on CNN acceleration utilize low-rank approximation of the original convolution layers to reduce computation cost. However, these methods are very difficult to conduct upon sparse models, which limits execution speedup since redundancies within the CNN model are not fully exploited. We argue that kernel granularity decomposition can be conducted with low-rank assumption while exploiting the redundancy within the remaining compact coefficients. Based on this observation, we propose PENNI, a CNN model compression framework that is able to achieve model compactness and hardware efficiency simultaneously by (1) implementing kernel sharing in convolution layers via a small number of basis kernels and (2) alternately adjusting bases and coefficients with sparse constraints. Experiments show that we can prune 97% parameters and 92% FLOPs on ResNet18 CIFAR10 with no accuracy loss, and achieve 44% reduction in run-time memory consumption and a 53% reduction in inference latency.
翻訳日:2022-12-03 05:14:21 公開日:2020-06-25
# 知的試行錯誤による数回の試行において正しい難易度を持つゲームレベルを見つける

Finding Game Levels with the Right Difficulty in a Few Trials through Intelligent Trial-and-Error ( http://arxiv.org/abs/2005.07677v2 )

ライセンス: Link先を確認
Miguel Gonz\'alez-Duque, Rasmus Berg Palm, David Ha, Sebastian Risi(参考訳) ダイナミックな難易度調整の方法は、ゲームが特定のプレイヤーにカスタマイズされ、エンゲージメントを最大化することができる。 しかし、現在の手法では、対戦相手の難易度や資源の入手性など、限られたゲームの特徴のみを変更することが多い。 経験駆動型手続き型コンテンツ生成(PCG)のような他のアプローチは、困難でも簡単でも、多くのイテレーションを必要とするレベルなど、望ましい特性を持つ完全なレベルを生成することができる。 本稿では,数回の試行で特定の目的の難易度で完全なレベルを生成・探索できる手法を提案する。 この進歩は、ロボットが素早く適応できるように開発されたインテリジェントな試行錯誤アルゴリズムによって実現されている。 我々のアルゴリズムはまず、冗長性やマップカバレッジなど、予め定義された次元によって異なる様々なレベルを生成する。 これらのマップ上でAIプレイングエージェントのパフォーマンスは、他のAIエージェント(例えば、グレディツリーサーチの代わりにモンテカルロツリーサーチを採用するもの)がどの程度難しいかのプロキシを提供する。 このアプローチは、彼らのスキルの状況を理解しながら、ほんの数回の試行で、さまざまな計画エージェントにとって、特定の目標の難易度を持つレベルを確実に見つけることができる。

Methods for dynamic difficulty adjustment allow games to be tailored to particular players to maximize their engagement. However, current methods often only modify a limited set of game features such as the difficulty of the opponents, or the availability of resources. Other approaches, such as experience-driven Procedural Content Generation (PCG), can generate complete levels with desired properties such as levels that are neither too hard nor too easy, but require many iterations. This paper presents a method that can generate and search for complete levels with a specific target difficulty in only a few trials. This advance is enabled by through an Intelligent Trial-and-Error algorithm, originally developed to allow robots to adapt quickly. Our algorithm first creates a large variety of different levels that vary across predefined dimensions such as leniency or map coverage. The performance of an AI playing agent on these maps gives a proxy for how difficult the level would be for another AI agent (e.g. one that employs Monte Carlo Tree Search instead of Greedy Tree Search); using this information, a Bayesian Optimization procedure is deployed, updating the difficulty of the prior map to reflect the ability of the agent. The approach can reliably find levels with a specific target difficulty for a variety of planning agents in only a few trials, while maintaining an understanding of their skill landscape.
翻訳日:2022-12-02 22:34:30 公開日:2020-06-25
# 多層フィードフォワードニューラルネットワークのための効率的かつ効率的な初期化法

An Effective and Efficient Initialization Scheme for Training Multi-layer Feedforward Neural Networks ( http://arxiv.org/abs/2005.08027v3 )

ライセンス: Link先を確認
Zebin Yang, Hengtao Zhang, Agus Sudjianto, Aijun Zhang(参考訳) ネットワークの初期化は、ニューラルネットワークをトレーニングする最初の重要なステップである。 本稿では,有名なスタインのアイデンティティに基づく新しいネットワーク初期化手法を提案する。 マルチインデックスモデルのカスケードとして多層フィードフォワードニューラルネットワークを見ることにより、入力の2次スコア関数と応答の間のクロスモーメント行列の固有ベクトルを用いて、第1の隠蔽層への投影重みを初期化する。 入力データは次の層に転送され、そのような手順は全ての隠れた層が初期化されるまで繰り返される。 最後に、出力層の重みは一般化線形モデリングによって初期化される。 このようなSteinGLM法は、ニューラルネットワークのトレーニングによく使われる他の一般的な手法よりもはるかに高速で正確であることを示す。

Network initialization is the first and critical step for training neural networks. In this paper, we propose a novel network initialization scheme based on the celebrated Stein's identity. By viewing multi-layer feedforward neural networks as cascades of multi-index models, the projection weights to the first hidden layer are initialized using eigenvectors of the cross-moment matrix between the input's second-order score function and the response. The input data is then forward propagated to the next layer and such a procedure can be repeated until all the hidden layers are initialized. Finally, the weights for the output layer are initialized by generalized linear modeling. Such a proposed SteinGLM method is shown through extensive numerical results to be much faster and more accurate than other popular methods commonly used for training neural networks.
翻訳日:2022-12-02 13:05:13 公開日:2020-06-25
# グラフ表現学習における否定サンプリングの理解

Understanding Negative Sampling in Graph Representation Learning ( http://arxiv.org/abs/2005.09863v2 )

ライセンス: Link先を確認
Zhen Yang, Ming Ding, Chang Zhou, Hongxia Yang, Jingren Zhou and Jie Tang(参考訳) 近年,グラフ表現学習が広く研究されている。 様々なネットワークに対して連続的な埋め込みを生成する可能性にもかかわらず、大規模なノードに対して高品質な表現を推論する効率と効率は依然として困難である。 サンプリングはパフォーマンス目標を達成するための重要なポイントです。 先行技術は通常正のノード対のサンプリングに焦点を当てるが、負のサンプリングの戦略は十分に検討されていない。 このギャップを埋めるために,目的とリスクの両方の観点から負のサンプリングの役割を体系的に分析し,理論的に負のサンプリングは最適化目標と結果のばらつきを決定する際に負のサンプリングと同じくらい重要であることを示した。 我々の知る限りでは、この理論を導出し、負のサンプリング分布は正の値であるが、負のサンプリング分布と正の相関関係にあることを定量化する最初の方法である。 提案するMCNSは,自己コントラスト近似による正の分布の近似と,メトロポリス・ハスティングスによる負のサンプリングの高速化である。 提案手法は,リンク予測,ノード分類,パーソナライズドレコメンデーションを含む下流グラフ学習タスクをカバーする5つのデータセットに対して,合計19の実験的な設定で評価する。 これらの比較的包括的な実験結果は、その堅牢性と優位性を示している。

Graph representation learning has been extensively studied in recent years. Despite its potential in generating continuous embeddings for various networks, both the effectiveness and efficiency to infer high-quality representations toward large corpus of nodes are still challenging. Sampling is a critical point to achieve the performance goals. Prior arts usually focus on sampling positive node pairs, while the strategy for negative sampling is left insufficiently explored. To bridge the gap, we systematically analyze the role of negative sampling from the perspectives of both objective and risk, theoretically demonstrating that negative sampling is as important as positive sampling in determining the optimization objective and the resulted variance. To the best of our knowledge, we are the first to derive the theory and quantify that the negative sampling distribution should be positively but sub-linearly correlated to their positive sampling distribution. With the guidance of the theory, we propose MCNS, approximating the positive distribution with self-contrast approximation and accelerating negative sampling by Metropolis-Hastings. We evaluate our method on 5 datasets that cover extensive downstream graph learning tasks, including link prediction, node classification and personalized recommendation, on a total of 19 experimental settings. These relatively comprehensive experimental results demonstrate its robustness and superiorities.
翻訳日:2022-12-01 04:47:41 公開日:2020-06-25
# CTにおける頭蓋内出血検出のためのCNN-LSTMアーキテクチャ

A CNN-LSTM Architecture for Detection of Intracranial Hemorrhage on CT scans ( http://arxiv.org/abs/2005.10992v3 )

ライセンス: Link先を確認
Nhan T. Nguyen, Dat Q. Tran, Nghia T. Nguyen, Ha Q. Nguyen(参考訳) 本稿では,CTスキャンによる頭蓋内出血の正確な予測のために,畳み込みニューラルネットワーク(CNN)と長期記憶(LSTM)機構を組み合わせた新しい手法を提案する。 CNNはスライスワイズ機能抽出器の役割を担い、LSTMはスライス機能間のリンクを担当している。 アーキテクチャ全体をエンドツーエンドにトレーニングし、入力はRGBライクなイメージで、単一のスライスで3つの異なるビューウィンドウを積み重ねる。 近年のRSNA頭蓋内出血検出とCQ500データセットを用いて本手法の有効性を検証した。 RSNAの課題に対して、私たちの最高のシングルモデルでは、トップ3%のパフォーマンスに匹敵する重み付きログ損失0.0522をリーダボード上で達成しています。 rsnaデータセットでトレーニングされたモデルは、cq500のスライス間の関係を考慮していない2dモデルを大幅に上回っています。 私たちのコードとモデルはhttps://github.com/VinBDI-MedicalImagingTeam/midl2020-cnnlstm-ichで公開されています。

We propose a novel method that combines a convolutional neural network (CNN) with a long short-term memory (LSTM) mechanism for accurate prediction of intracranial hemorrhage on computed tomography (CT) scans. The CNN plays the role of a slice-wise feature extractor while the LSTM is responsible for linking the features across slices. The whole architecture is trained end-to-end with input being an RGB-like image formed by stacking 3 different viewing windows of a single slice. We validate the method on the recent RSNA Intracranial Hemorrhage Detection challenge and on the CQ500 dataset. For the RSNA challenge, our best single model achieves a weighted log loss of 0.0522 on the leaderboard, which is comparable to the top 3% performances, almost all of which make use of ensemble learning. Importantly, our method generalizes very well: the model trained on the RSNA dataset significantly outperforms the 2D model, which does not take into account the relationship between slices, on CQ500. Our codes and models is publicly avaiable at https://github.com/VinBDI-MedicalImagingTeam/midl2020-cnnlstm-ich.
翻訳日:2022-11-30 09:26:40 公開日:2020-06-25
# 統計的学習における公平性への投影

Projection to Fairness in Statistical Learning ( http://arxiv.org/abs/2005.11720v4 )

ライセンス: Link先を確認
Thibaut Le Gouic and Jean-Michel Loubes and Philippe Rigollet(参考訳) 回帰の文脈では、予測精度を可能な限り保ちながら、推定器を公平にすることの根本的な問題を考える。 その目的のために、予測精度を反映する意味で、フェアネスへの投影を最も近い公平な推定者として定義する。 提案手法は,任意の推定器のフェアネスを簡易な後処理ステップとして効率的に構築するために最適なトランスポートからツールを活用する。 さらに,予測精度の観点から測定した公平性コストを精度良く定量化する。

In the context of regression, we consider the fundamental question of making an estimator fair while preserving its prediction accuracy as much as possible. To that end, we define its projection to fairness as its closest fair estimator in a sense that reflects prediction accuracy. Our methodology leverages tools from optimal transport to construct efficiently the projection to fairness of any given estimator as a simple post-processing step. Moreover, our approach precisely quantifies the cost of fairness, measured in terms of prediction accuracy.
翻訳日:2022-11-29 13:33:50 公開日:2020-06-25
# 逆強化学習による目標指向型人間注意の予測

Predicting Goal-directed Human Attention Using Inverse Reinforcement Learning ( http://arxiv.org/abs/2005.14310v2 )

ライセンス: Link先を確認
Zhibo Yang, Lihan Huang, Yupei Chen, Zijun Wei, Seoyoung Ahn, Gregory Zelinsky, Dimitris Samaras, Minh Hoai(参考訳) 人間の視線行動を予測することは、行動視覚やコンピュータビジョンアプリケーションにとって明らかに重要である。 ほとんどのモデルは、主にサリエンシーマップを用いた自由視聴行動の予測に焦点を当てているが、これらの予測は、視覚対象オブジェクトを探索するなど、ゴール指向の行動に一般化していない。 視覚探索においてヒトが使用する報酬関数とポリシーを学習するための最初の逆強化学習(IRL)モデルを提案する。 視聴者の内部信念状態は、オブジェクトの位置の動的文脈的信念マップとしてモデル化された。 これらのマップはIRLによって学習され、複数のターゲットカテゴリに対する行動スキャンパスの予測に使用された。 IRLモデルをトレーニングし、評価するために、私たちはCOCO-Search18を作成しました。 COCO-Search18には18のターゲットオブジェクトカテゴリを6202のイメージで検索する参加者が10人いて、約30万の目標指向の修正が行われている。 COCO-Search18でトレーニングおよび評価を行うと、IRLモデルは人間の検索行動と検索効率の両方において、探索固定スキャンパスを予測するベースラインモデルよりも優れていた。 最後に、IRLモデルにより復元された報酬写像は、学習対象コンテキストとして解釈される対象優先の特異な目標依存パターンを明らかにする。

Being able to predict human gaze behavior has obvious importance for behavioral vision and for computer vision applications. Most models have mainly focused on predicting free-viewing behavior using saliency maps, but these predictions do not generalize to goal-directed behavior, such as when a person searches for a visual target object. We propose the first inverse reinforcement learning (IRL) model to learn the internal reward function and policy used by humans during visual search. The viewer's internal belief states were modeled as dynamic contextual belief maps of object locations. These maps were learned by IRL and then used to predict behavioral scanpaths for multiple target categories. To train and evaluate our IRL model we created COCO-Search18, which is now the largest dataset of high-quality search fixations in existence. COCO-Search18 has 10 participants searching for each of 18 target-object categories in 6202 images, making about 300,000 goal-directed fixations. When trained and evaluated on COCO-Search18, the IRL model outperformed baseline models in predicting search fixation scanpaths, both in terms of similarity to human search behavior and search efficiency. Finally, reward maps recovered by the IRL model reveal distinctive target-dependent patterns of object prioritization, which we interpret as a learned object context.
翻訳日:2022-11-27 05:28:34 公開日:2020-06-25
# Scene Text Visual Question Answeringのためのマルチモーダルグリッド機能とセルポインタ

Multimodal grid features and cell pointers for Scene Text Visual Question Answering ( http://arxiv.org/abs/2006.00923v2 )

ライセンス: Link先を確認
Llu\'is G\'omez, Ali Furkan Biten, Rub\`en Tito, Andr\'es Mafla, Mar\c{c}al Rusi\~nol, Ernest Valveny, Dimosthenis Karatzas(参考訳) そこで本稿では,シーンテキストの読み解きと理解によってのみ,与えられた画像に関する質問に回答できるシーンテキストの視覚的質問応答のタスクのための新しいモデルを提案する。 提案モデルは,質問に条件づけられたマルチモーダル特徴に適応する注意機構に基づき,場面のテクスト的・視覚的モダリティを共同で判断する。 多モード空間特徴グリッド上のこの注目モジュールの出力重みは、画像の特定の空間的位置が与えられた質問に対する回答テキストを含む確率として解釈される。 実験では、2つの標準データセットで競合性能を示す。 さらに,本研究では,ヒトのパフォーマンス調査に基づくST-VQAデータセットの新規解析を行った。

This paper presents a new model for the task of scene text visual question answering, in which questions about a given image can only be answered by reading and understanding scene text that is present in it. The proposed model is based on an attention mechanism that attends to multi-modal features conditioned to the question, allowing it to reason jointly about the textual and visual modalities in the scene. The output weights of this attention module over the grid of multi-modal spatial features are interpreted as the probability that a certain spatial location of the image contains the answer text the to the given question. Our experiments demonstrate competitive performance in two standard datasets. Furthermore, this paper provides a novel analysis of the ST-VQA dataset based on a human performance study.
翻訳日:2022-11-26 07:26:13 公開日:2020-06-25
# iqa:セマンティック質問応答システムにおける対話型クエリ構築

IQA: Interactive Query Construction in Semantic Question Answering Systems ( http://arxiv.org/abs/2006.11534v3 )

ライセンス: Link先を確認
Hamid Zafar, Mohnish Dubey, Jens Lehmann, Elena Demidova(参考訳) Semantic Question Answering (SQA)システムは、自然言語で表現されたユーザ質問を自動的に意味的なクエリで解釈する。 このプロセスには不確実性が含まれており、結果として得られるクエリは常にユーザの意図に一致しない。 本稿では,ユーザに対して,対話を通じて意図したセマンティッククエリへ向けたSQAシステムを支援することを目的とする。 本稿では,SQAパイプラインに対するIQAanインタラクション方式を提案する。 このスキームは、質問応答プロセスにおけるユーザフィードバックのシームレスな統合を促進し、効率的で直感的なユーザインタラクションを可能にする新しいメトリックであるOption Gainに依存します。 提案手法を用いることで,少数のユーザインタラクションであっても,SQAシステムの性能が大幅に向上する可能性が示唆された。

Semantic Question Answering (SQA) systems automatically interpret user questions expressed in a natural language in terms of semantic queries. This process involves uncertainty, such that the resulting queries do not always accurately match the user intent, especially for more complex and less common questions. In this article, we aim to empower users in guiding SQA systems towards the intended semantic queries through interaction. We introduce IQA - an interaction scheme for SQA pipelines. This scheme facilitates seamless integration of user feedback in the question answering process and relies on Option Gain - a novel metric that enables efficient and intuitive user interaction. Our evaluation shows that using the proposed scheme, even a small number of user interactions can lead to significant improvements in the performance of SQA systems.
翻訳日:2022-11-18 22:54:36 公開日:2020-06-25
# アーティスト誘導半自動アニメーションカラー化

Artist-Guided Semiautomatic Animation Colorization ( http://arxiv.org/abs/2006.13717v2 )

ライセンス: Link先を確認
Harrish Thasarathan and Mehran Ebrahimi(参考訳) 創造的な領域における反復的な作業を自動化することと、アーティストのビジョンを忠実に保ちながら、微妙なバランスがある。 アニメーション産業は、労働が安価で長時間の作業が一般的である海外に、大規模なアニメーションワークロードを定期的にアウトソースしている。 このプロセスの自動化は、コスト削減と主要なアニメーションスタジオとアウトソースアーティストの管理可能なワークロードの作成に非常に役立ちます。 本稿では,アーティストの視界に忠実でありながら,この作業量を削減するために,アーティストをループに留めてラインアートのカラー化を自動化する手法を提案する。 色ヒントと時間情報を逆画像合成フレームワークに組み込むことにより,アーティストの入力による自動化と信頼性のバランスを満たすことができ,時間的整合性のある色フレームを生成することができることを示す。

There is a delicate balance between automating repetitive work in creative domains while staying true to an artist's vision. The animation industry regularly outsources large animation workloads to foreign countries where labor is inexpensive and long hours are common. Automating part of this process can be incredibly useful for reducing costs and creating manageable workloads for major animation studios and outsourced artists. We present a method for automating line art colorization by keeping artists in the loop to successfully reduce this workload while staying true to an artist's vision. By incorporating color hints and temporal information to an adversarial image-to-image framework, we show that it is possible to meet the balance between automation and authenticity through artist's input to generate colored frames with temporal consistency.
翻訳日:2022-11-18 06:31:52 公開日:2020-06-25
# 全般的ランダム対策のためのスライスサンプリング

Slice Sampling for General Completely Random Measures ( http://arxiv.org/abs/2006.13925v2 )

ライセンス: Link先を確認
Peiyuan Zhu, Alexandre Bouchard-C\^ot\'e, and Trevor Campbell(参考訳) 完全なランダム測度は、潜在機能の数は無限であり、データのサイズによってデータに影響を与える機能の数は増加する、柔軟な教師なしモデルを作成するための原則的なアプローチを提供する。 遅れた特徴の無限大のため、後部推論は、-パラレル化と共役性による効率的な計算を防ぐための依存構造の辺縁化--またはモデルの柔軟性を任意に制限する有限トランケーション-のいずれかを必要とする。 本稿では, マルコフ連鎖モンテカルロアルゴリズムを用いて, 補助スライス変数を用いてトラクションレベルを適応的に設定し, 柔軟性を犠牲にすることなく, 効率的な並列化計算を可能にする。 モデル・バイ・モデルでこれを達成した過去の研究とは対照的に、完全にランダムな測度に基づく事前の幅広いクラスに適用可能な一般的なレシピを提供する。 提案アルゴリズムの有効性を複数の非パラメトリックモデルで評価し, 限界化を用いたアルゴリズムと比較して1秒あたりの有効サンプルサイズ, 固定トランケーションを用いたモデルと比較して高い予測性能を示した。

Completely random measures provide a principled approach to creating flexible unsupervised models, where the number of latent features is infinite and the number of features that influence the data grows with the size of the data set. Due to the infinity the latent features, posterior inference requires either marginalization---resulting in dependence structures that prevent efficient computation via parallelization and conjugacy---or finite truncation, which arbitrarily limits the flexibility of the model. In this paper we present a novel Markov chain Monte Carlo algorithm for posterior inference that adaptively sets the truncation level using auxiliary slice variables, enabling efficient, parallelized computation without sacrificing flexibility. In contrast to past work that achieved this on a model-by-model basis, we provide a general recipe that is applicable to the broad class of completely random measure-based priors. The efficacy of the proposed algorithm is evaluated on several popular nonparametric models, demonstrating a higher effective sample size per second compared to algorithms using marginalization as well as a higher predictive performance compared to models employing fixed truncations.
翻訳日:2022-11-17 10:09:23 公開日:2020-06-25
# 線形および対数振幅スペクトルを同時モデル化するガンマボルツマン機械

Gamma Boltzmann Machine for Simultaneously Modeling Linear- and Log-amplitude Spectra ( http://arxiv.org/abs/2006.13590v2 )

ライセンス: Link先を確認
Toru Nakashika and Kohei Yatabe(参考訳) オーディオアプリケーションでは、オーディオ信号の最も重要な表現の一つが振幅スペクトログラムである。 制限付きボルツマンマシン(RBM)など、多くの機械学習ベースの情報処理手法で使用されている。 しかし、通常のガウス・ベルヌーリ rbm(変種の中で最も人気のあるrbm)は、ガウス分布が振幅に決して現れない負の値を許容する対称モデルであるため、直接振幅スペクトルを扱うことができない。 本稿では,一般のガンマ・ボルツマンマシンを提案し,線形および対数振幅のスペクトログラムを同時に扱うガンマ・ベルヌーリrbmと呼ばれる実用モデルを提案する。 観測可能なデータの条件分布はガンマ分布によって与えられるため、提案したRBMは振幅スペクトルとして正の数で表されるデータを自然に扱うことができる。 また、知覚的な観点からの音声信号にとって重要な対数スケールの振幅も扱うことができる。 音声信号の振幅スペクトルを表す実験において,通常のガウス・ベルヌーリRBMと比較して,提案モデルの利点をPSSQとMSEで確認した。

In audio applications, one of the most important representations of audio signals is the amplitude spectrogram. It is utilized in many machine-learning-based information processing methods including the ones using the restricted Boltzmann machines (RBM). However, the ordinary Gaussian-Bernoulli RBM (the most popular RBM among its variations) cannot directly handle amplitude spectra because the Gaussian distribution is a symmetric model allowing negative values which never appear in the amplitude. In this paper, after proposing a general gamma Boltzmann machine, we propose a practical model called the gamma-Bernoulli RBM that simultaneously handles both linear- and log-amplitude spectrograms. Its conditional distribution of the observable data is given by the gamma distribution, and thus the proposed RBM can naturally handle the data represented by positive numbers as the amplitude spectra. It can also treat amplitude in the logarithmic scale which is important for audio signals from the perceptual point of view. The advantage of the proposed model compared to the ordinary Gaussian-Bernoulli RBM was confirmed by PESQ and MSE in the experiment of representing the amplitude spectrograms of speech signals.
翻訳日:2022-11-17 10:00:50 公開日:2020-06-25
# ニューラルリレーショナル推論軌道再構成の不確かさ

Uncertainty in Neural Relational Inference Trajectory Reconstruction ( http://arxiv.org/abs/2006.13666v2 )

ライセンス: Link先を確認
Vasileios Karavias, Ben Day, Pietro Li\`o(参考訳) マルチインタラクション軌道再構成に使用されるニューラルネットワークは、出力の不確かさを推定する能力が欠如している。 本稿では,相空間ベクトルの各成分に対する平均偏差と標準偏差を,適切な損失関数と組み合わせることで不確実性を考慮し,因子的ニューラルネットワーク推論モデルを拡張した。 凸化とベイズ処理のアイデアを含む,種々の損失関数について検討した。 また,不確実性を考慮した場合,変数の物理的意味が重要であることを示し,訓練中の回避が困難である病的局所極小の存在を示す。

Neural networks used for multi-interaction trajectory reconstruction lack the ability to estimate the uncertainty in their outputs, which would be useful to better analyse and understand the systems they model. In this paper we extend the Factorised Neural Relational Inference model to output both a mean and a standard deviation for each component of the phase space vector, which together with an appropriate loss function, can account for uncertainty. A variety of loss functions are investigated including ideas from convexification and a Bayesian treatment of the problem. We show that the physical meaning of the variables is important when considering the uncertainty and demonstrate the existence of pathological local minima that are difficult to avoid during training.
翻訳日:2022-11-17 09:23:14 公開日:2020-06-25
# 生成的逆模倣学習アルゴリズムがグローバル収束を達成するのはいつか

When Will Generative Adversarial Imitation Learning Algorithms Attain Global Convergence ( http://arxiv.org/abs/2006.13506v2 )

ライセンス: Link先を確認
Ziwei Guan, Tengyu Xu and Yingbin Liang(参考訳) GAIL(Generative Adversarial mimicion Learning)は、専門家の軌道から政策と報酬を共同で最適化するための逆強化学習手法として人気がある。 GAILに関する主要な問題は、あるポリシー勾配アルゴリズムをGAILに適用することで、既存の理解が極めて限定された世界最小化(すなわち、専門家のポリシーを得る)が達成できるかどうかである。 このような大域収束は線型(または線型型) MDP と線型(または線形化可能)報酬に対してのみ示される。 本稿では,GAIL を一般 MDP と非線形報酬関数クラス(目的関数が報酬パラメータに関して強く絡み合っている限り)で検討する。 本稿では,広範に使用される政策勾配アルゴリズムのサブリニアレートによるグローバル収束を特徴付け,これらはすべて,予測政策勾配(PPG)-GAIL,フランク・ウルフ政策勾配(FWPG)-GAIL,信頼地域政策最適化(TRPO)-GAIL,自然政策勾配(NPG)-GAILなど,報奨更新のための確率勾配と交互に実施されている。 これは世界収束のためのGAILに関する最初の体系的理論的研究である。

Generative adversarial imitation learning (GAIL) is a popular inverse reinforcement learning approach for jointly optimizing policy and reward from expert trajectories. A primary question about GAIL is whether applying a certain policy gradient algorithm to GAIL attains a global minimizer (i.e., yields the expert policy), for which existing understanding is very limited. Such global convergence has been shown only for the linear (or linear-type) MDP and linear (or linearizable) reward. In this paper, we study GAIL under general MDP and for nonlinear reward function classes (as long as the objective function is strongly concave with respect to the reward parameter). We characterize the global convergence with a sublinear rate for a broad range of commonly used policy gradient algorithms, all of which are implemented in an alternating manner with stochastic gradient ascent for reward update, including projected policy gradient (PPG)-GAIL, Frank-Wolfe policy gradient (FWPG)-GAIL, trust region policy optimization (TRPO)-GAIL and natural policy gradient (NPG)-GAIL. This is the first systematic theoretical study of GAIL for global convergence.
翻訳日:2022-11-17 09:13:54 公開日:2020-06-25
# マルチドメインシミュレーションによる変分ネットワークの訓練:音速画像再構成

Training Variational Networks with Multi-Domain Simulations: Speed-of-Sound Image Reconstruction ( http://arxiv.org/abs/2006.14395v1 )

ライセンス: Link先を確認
Melanie Bernhardt, Valery Vishnevskiy, Richard Rau, Orcun Goksel(参考訳) speed-of-soundは乳がん画像のバイオマーカーとなり、悪性腫瘍と良性腫瘍との鑑別に成功している。 従来のハンドヘルド超音波トランスデューサを用いて取得した超音波画像から飛行時間計測から音速画像の再構成を行うことができる。 近年,画像再構成における逆問題に対する学習ベースアプローチとして変分ネットワーク(VN)が提案されている。 しかし、初期の有望な結果にもかかわらず、これらの手法はドメインシフトのため、シミュレーションデータから取得データへの一般化が不十分である。 本研究では,従来のトランスデューサを用いた発振波と単側組織アクセスを用いたパルスエコーSoS画像再構成問題のVN解を初めて提示する。 これはトレーニングに複雑なシミュレーションを組み込むことによって実現されている。 運動量による勾配降下のループアンロールを各アンロールイテレーションで指数関数的に重み付けされた出力損失を用いてトレーニングを正則化する。 我々は、入力分布の変動に頑健なスムーズな形式を持つように正規化された活性化関数としてノルムを学ぶ。 この画像再構成問題の古典的イテレーティブ (L-BFGS) 最適化と比較し, レイベースおよびフルウェーブシミュレーションおよび組織模倣ファントムデータに基づく再構成品質の評価を行った。 提案手法とマルチソースドメイントレーニングを組み合わせることで、VNのドメイン適応能力を大幅に向上し、ベースラインのVNと比較して、波動シミュレーションデータセット上でのRMSEの中央値を54%削減できることを示す。 また, 組織ミミック乳房ファントムから得られたデータから, 提案したVNが12ミリ秒で再建できることを示した。

Speed-of-sound has been shown as a potential biomarker for breast cancer imaging, successfully differentiating malignant tumors from benign ones. Speed-of-sound images can be reconstructed from time-of-flight measurements from ultrasound images acquired using conventional handheld ultrasound transducers. Variational Networks (VN) have recently been shown to be a potential learning-based approach for optimizing inverse problems in image reconstruction. Despite earlier promising results, these methods however do not generalize well from simulated to acquired data, due to the domain shift. In this work, we present for the first time a VN solution for a pulse-echo SoS image reconstruction problem using diverging waves with conventional transducers and single-sided tissue access. This is made possible by incorporating simulations with varying complexity into training. We use loop unrolling of gradient descent with momentum, with an exponentially weighted loss of outputs at each unrolled iteration in order to regularize training. We learn norms as activation functions regularized to have smooth forms for robustness to input distribution variations. We evaluate reconstruction quality on ray-based and full-wave simulations as well as on tissue-mimicking phantom data, in comparison to a classical iterative (L-BFGS) optimization of this image reconstruction problem. We show that the proposed regularization techniques combined with multi-source domain training yield substantial improvements in the domain adaptation capabilities of VN, reducing median RMSE by 54% on a wave-based simulation dataset compared to the baseline VN. We also show that on data acquired from a tissue-mimicking breast phantom the proposed VN provides improved reconstruction in 12 milliseconds.
翻訳日:2022-11-17 04:40:35 公開日:2020-06-25
# マルチマージ最適輸送と確率的グラフィカルモデル

Multi-marginal optimal transport and probabilistic graphical models ( http://arxiv.org/abs/2006.14113v1 )

ライセンス: Link先を確認
Isabel Haasler, Rahul Singh, Qinsheng Zhang, Johan Karlsson, and Yongxin Chen(参考訳) 確率的グラフィカルモデルの観点から,マルチマルジナル最適輸送問題について検討する。 最適輸送の基盤となるコストがグラフ構造を許容する場合、両者のエレガントな接続が指摘される。 特に、エントロピー正則化されたマルチマルジナル最適輸送は、確率的グラフィカルモデルに対するベイズ境界推論問題と等価であり、いくつかの辺分布が特定されるという追加の要件がある。 一方、この関係は最適輸送と確率的グラフィカルモデル理論を拡張し、一方、ベイズ推論においてよく開発されたアルゴリズムを活用することによって、多元最適輸送のための高速アルゴリズムをもたらす。 結果を示す数値例がいくつか提供されている。

We study multi-marginal optimal transport problems from a probabilistic graphical model perspective. We point out an elegant connection between the two when the underlying cost for optimal transport allows a graph structure. In particular, an entropy regularized multi-marginal optimal transport is equivalent to a Bayesian marginal inference problem for probabilistic graphical models with the additional requirement that some of the marginal distributions are specified. This relation on the one hand extends the optimal transport as well as the probabilistic graphical model theories, and on the other hand leads to fast algorithms for multi-marginal optimal transport by leveraging the well-developed algorithms in Bayesian inference. Several numerical examples are provided to highlight the results.
翻訳日:2022-11-17 04:40:06 公開日:2020-06-25
# SASO:マルチスケールセマンティックアソシエーションとサリアントポイントクラスタリング最適化による3次元セマンティック・セマンティック・セマンティック・セグメンテーション

SASO: Joint 3D Semantic-Instance Segmentation via Multi-scale Semantic Association and Salient Point Clustering Optimization ( http://arxiv.org/abs/2006.15015v1 )

ライセンス: Link先を確認
Jingang Tan, Lili Chen, Kangru Wang, Jingquan Peng, Jiamao Li, Xiaolin Zhang(参考訳) セマンティクスとインスタンスセグメンテーションを共同で実行する,新たな3dポイントクラウドセグメンテーションフレームワークであるsasoを提案する。 意味的セグメンテーションタスクは、空間的文脈におけるオブジェクト間の固有の相関から着想を得たものであり、意味的文脈情報の構成的効果を探索するマルチスケールセマンティックアソシエーション(MSA)モジュールを提案する。 例えば、推論手順でのみクラスタリングを利用する従来の作業とは違い、トレーニングプロセスにクラスタリング手順を導入し、区別が難しい点に着目したネットワークを実現するために、Salient Point Clustering Optimization (SPCO)モジュールを提案する。 また,室内シーンの固有構造から,カテゴリー分布の不均衡問題はほとんど考慮されないが,3次元シーン知覚の性能は著しく制限されている。 そこで本研究では, 適応型水充填サンプリング(wfs)アルゴリズムを導入し, 学習データのカテゴリ分布のバランスをとる。 広範な実験により,本手法は,セマンティクスセグメンテーションとインスタンスセグメンテーションタスクの両方において,ベンチマークデータセットにおける最先端メソッドよりも優れていることが証明された。

We propose a novel 3D point cloud segmentation framework named SASO, which jointly performs semantic and instance segmentation tasks. For semantic segmentation task, inspired by the inherent correlation among objects in spatial context, we propose a Multi-scale Semantic Association (MSA) module to explore the constructive effects of the semantic context information. For instance segmentation task, different from previous works that utilize clustering only in inference procedure, we propose a Salient Point Clustering Optimization (SPCO) module to introduce a clustering procedure into the training process and impel the network focusing on points that are difficult to be distinguished. In addition, because of the inherent structures of indoor scenes, the imbalance problem of the category distribution is rarely considered but severely limits the performance of 3D scene perception. To address this issue, we introduce an adaptive Water Filling Sampling (WFS) algorithm to balance the category distribution of training data. Extensive experiments demonstrate that our method outperforms the state-of-the-art methods on benchmark datasets in both semantic segmentation and instance segmentation tasks.
翻訳日:2022-11-17 04:35:18 公開日:2020-06-25
# CPL-SLAM:複素数表現を用いた平面グラフベースSLAMの効率と精度

CPL-SLAM: Efficient and Certifiably Correct Planar Graph-Based SLAM Using the Complex Number Representation ( http://arxiv.org/abs/2007.06708v1 )

ライセンス: Link先を確認
Taosha Fan, Hanlin Wang, Michael Rubenstein and Todd Murphey(参考訳) 本稿では,自律エージェントのポーズと観測されたランドマークの位置の両方を含む,平面グラフに基づく同時局在・マッピング(slam)の問題を考える。 複素数表現を用いて平面グラフベースのSLAMを解くアルゴリズムであるCPL-SLAMを提案する。 単体複素数の積上で平面グラフに基づくSLAMを最大推定(MLE)として定式化し、この非凸二次複素最適化問題を緩和し、複素半定値プログラミング(SDP)を凸する。 さらに、リーマン信頼領域 (rtr) 法で解くことができる複素斜多様体上のリーマン階段最適化 (rso) に対する、対応する複素半定義型プログラミングを単純化する。 さらに,SDP緩和とRSO単純化は,雑音の大きさが一定の閾値以下である限り厳密であることを示す。 本研究の有効性は,CPL-SLAMの適用による検証と,計画グラフベースのSLAMにおける既存の最先端手法との比較により検証され,提案アルゴリズムは平面グラフベースのSLAMを確実に解くことができ,数値計算においてより効率的であり,既存の最先端手法よりも頑健であることを示す。 CPL-SLAMのC++コードはhttps://github.com/MurpheyLab/CPL-SLAMで入手できる。

In this paper, we consider the problem of planar graph-based simultaneous localization and mapping (SLAM) that involves both poses of the autonomous agent and positions of observed landmarks. We present CPL-SLAM, an efficient and certifiably correct algorithm to solve planar graph-based SLAM using the complex number representation. We formulate and simplify planar graph-based SLAM as the maximum likelihood estimation (MLE) on the product of unit complex numbers, and relax this nonconvex quadratic complex optimization problem to convex complex semidefinite programming (SDP). Furthermore, we simplify the corresponding complex semidefinite programming to Riemannian staircase optimization (RSO) on the complex oblique manifold that can be solved with the Riemannian trust region (RTR) method. In addition, we prove that the SDP relaxation and RSO simplification are tight as long as the noise magnitude is below a certain threshold. The efficacy of this work is validated through applications of CPL-SLAM and comparisons with existing state-of-the-art methods on planar graph-based SLAM, which indicates that our proposed algorithm is capable of solving planar graph-based SLAM certifiably, and is more efficient in numerical computation and more robust to measurement noise than existing state-of-the-art methods. The C++ code for CPL-SLAM is available at https://github.com/MurpheyLab/CPL-SLAM.
翻訳日:2022-11-17 04:34:57 公開日:2020-06-25
# 雑音・カオス・遅延を考慮したニューラルネットワークの予測符号化

Predictive coding in balanced neural networks with noise, chaos and delays ( http://arxiv.org/abs/2006.14178v1 )

ライセンス: Link先を確認
Jonathan Kadmon, Jonathan Timcheck, and Surya Ganguli(参考訳) 生物学的ニューラルネットワークは、個々のニューロンに固有の確率性に直面して信頼できる計算を実行すること、不正確に指定されたシナプス接続、シナプス伝達における無視できない遅延である。 このような生物学的異質性に対処する一般的なアプローチは、n$ニューロンの大きな冗長ネットワーク上で平均化することで、従来の1/\sqrt{n}$というコードエラーが発生する。 最近の研究は、繰り返しスパイキングネットワークが動的刺激を効率的にエンコードし、コーディングエラーを1/N$で減少させる超古典的スケーリングを実現するメカニズムを実証している。 この特定のメカニズムには、予測コーディングとタイトなバランス、強いフィードフォワード入力と強いリカレントフィードバックの間のキャンセルという2つの重要なアイデアが含まれていた。 しかし、バランスの取れた予測符号化の有効性とノイズ、シナプス重みの不均一性、通信遅延に対する頑健さを規定する理論的原理はいまだに理解されていない。 このような原理を明らかにするために、従来のバランス付きネットワークモデルと異なり、バランスの度合いと重み付け障害の度合いを分離できるバランス付き予測符号化モデルを導入し、符号化精度の平均場理論を構築した。 全体として、我々の研究は、神経ノイズ、シナプス障害、カオス、シナプス遅延、予測的ニューラルコードの忠実性へのバランスを識別するための一般的な理論的枠組みを提供し、解決し、超古典的なスケーリングを達成する上でバランスが果たす基本的な役割を明らかにし、理論的ニューロサイエンスにおいてこれまで異なるモデルを統一する。

Biological neural networks face a formidable task: performing reliable computations in the face of intrinsic stochasticity in individual neurons, imprecisely specified synaptic connectivity, and nonnegligible delays in synaptic transmission. A common approach to combatting such biological heterogeneity involves averaging over large redundant networks of $N$ neurons resulting in coding errors that decrease classically as $1/\sqrt{N}$. Recent work demonstrated a novel mechanism whereby recurrent spiking networks could efficiently encode dynamic stimuli, achieving a superclassical scaling in which coding errors decrease as $1/N$. This specific mechanism involved two key ideas: predictive coding, and a tight balance, or cancellation between strong feedforward inputs and strong recurrent feedback. However, the theoretical principles governing the efficacy of balanced predictive coding and its robustness to noise, synaptic weight heterogeneity and communication delays remain poorly understood. To discover such principles, we introduce an analytically tractable model of balanced predictive coding, in which the degree of balance and the degree of weight disorder can be dissociated unlike in previous balanced network models, and we develop a mean field theory of coding accuracy. Overall, our work provides and solves a general theoretical framework for dissecting the differential contributions neural noise, synaptic disorder, chaos, synaptic delays, and balance to the fidelity of predictive neural codes, reveals the fundamental role that balance plays in achieving superclassical scaling, and unifies previously disparate models in theoretical neuroscience.
翻訳日:2022-11-17 04:34:15 公開日:2020-06-25
# ソフトウェア工学におけるディープラーニングの再現性と再現性について

On the Replicability and Reproducibility of Deep Learning in Software Engineering ( http://arxiv.org/abs/2006.14244v1 )

ライセンス: Link先を確認
Chao Liu, Cuiyun Gao, Xin Xia, David Lo, John Grundy, Xiaohu Yang(参考訳) 近年,ディープラーニング(DL)技術は,ソフトウェア工学(SE)研究者の間で大きな人気を集めている。 これは、非常に手作業による機能エンジニアリングや複雑なドメイン知識なしに、多くのSEの課題を解決できるためです。 多くのdl研究は、実効性に関する他の最先端モデルよりも大きな利点を報告しているが、彼らはしばしば2つの要因を無視している: (1) 再現性 - 報告された実験結果が同一のdlモデルと同一のデータでほぼ確率的に再現できるか、(2) 再現性 - 報告された実験結果が同じ実験プロトコルとdlモデルで新しい実験によって再現できるか しかし、異なるサンプルされた実世界のデータによって再現できるか。 従来の機械学習(ML)モデルとは異なり、DL研究は一般的にこれらの2つの要因を軽視し、それらを小さな脅威として宣言するか、将来の作業に残す。 これは主に、多くの手動設定パラメータと時間消費最適化プロセスを伴う高いモデルの複雑さによるものである。 本研究は、最近、20のSEジャーナルや会議に掲載された93のDL研究に関する文献レビューを行った。 我々の統計は、SEにおけるこれらの2つの要因を調査する緊急性を示している。 さらに,SE における 4 つの代表型 DL モデルを再検討する。 実験の結果,不安定な最適化プロセスにおいて,DLモデルの性能を再現できない再現性と再現性の重要性が示された。 モデルのトレーニングが収束しない場合や、語彙やテストデータのサイズに敏感な場合、再現性は実質的に損なわれる可能性がある。 そのためseコミュニティは、レプリケーションパッケージへの長期のリンクを提供し、dlベースのソリューションの安定性と収束を高め、異なるサンプルデータのパフォーマンスの感度を回避すべきである。

Deep learning (DL) techniques have gained significant popularity among software engineering (SE) researchers in recent years. This is because they can often solve many SE challenges without enormous manual feature engineering effort and complex domain knowledge. Although many DL studies have reported substantial advantages over other state-of-the-art models on effectiveness, they often ignore two factors: (1) replicability - whether the reported experimental result can be approximately reproduced in high probability with the same DL model and the same data; and (2) reproducibility - whether one reported experimental findings can be reproduced by new experiments with the same experimental protocol and DL model, but different sampled real-world data. Unlike traditional machine learning (ML) models, DL studies commonly overlook these two factors and declare them as minor threats or leave them for future work. This is mainly due to high model complexity with many manually set parameters and the time-consuming optimization process. In this study, we conducted a literature review on 93 DL studies recently published in twenty SE journals or conferences. Our statistics show the urgency of investigating these two factors in SE. Moreover, we re-ran four representative DL models in SE. Experimental results show the importance of replicability and reproducibility, where the reported performance of a DL model could not be replicated for an unstable optimization process. Reproducibility could be substantially compromised if the model training is not convergent, or if performance is sensitive to the size of vocabulary and testing data. It is therefore urgent for the SE community to provide a long-lasting link to a replication package, enhance DL-based solution stability and convergence, and avoid performance sensitivity on different sampled data.
翻訳日:2022-11-17 04:32:48 公開日:2020-06-25
# 事例研究:機械学習によるテグシガルパの未編入地域を計画地調査にマッピングする

Case study: Mapping potential informal settlements areas in Tegucigalpa with machine learning to plan ground survey ( http://arxiv.org/abs/2006.14490v1 )

ライセンス: Link先を確認
Federico Bayle and Damian E. Silvani(参考訳) 国勢調査によるデータ収集は、ラテンアメリカで平均10年ごとに行われており、これらの集落に住むコミュニティが必要とする成長と支援を監視することは困難である。 現地調査を行うには,リソースを徹底的に活用する必要がある。 オープンデータ,高解像度衛星画像,およびそれらを処理するフリーソフトウェアの普及により,これらの情報源の分析に基づいて,スケーラブルな処理が可能になった。 このケーススタディでは、Dymaxion LabsとNGO Techoが共同で機械学習技術を使って、ホンジュラスのテグシガルパで最初の非公式な居住地調査を行った。

Data collection through censuses is conducted every 10 years on average in Latin America, making it difficult to monitor the growth and support needed by communities living in these settlements. Conducting a field survey requires logistical resources to be able to do it exhaustively. The increasing availability of open data, high-resolution satellite images, and free software to process them allow us to be able to do so in a scalable way based on the analysis of these sources of information. This case study shows the collaboration between Dymaxion Labs and the NGO Techo to employ machine learning techniques to create the first informal settlements census of Tegucigalpa, Honduras.
翻訳日:2022-11-17 04:32:18 公開日:2020-06-25
# LSBert: 語彙単純化のためのシンプルなフレームワーク

LSBert: A Simple Framework for Lexical Simplification ( http://arxiv.org/abs/2006.14939v1 )

ライセンス: Link先を確認
Jipeng Qiang and Yun Li and Yi Zhu and Yunhao Yuan and Xindong Wu(参考訳) lexical simplification (ls) は、与えられた文の複雑な単語を、同等の意味のより単純な代替語に置き換えることを目的としている。 最近、教師なし語彙単純化のアプローチは、与えられた文にかかわらず複雑な単語自体に依存して候補置換を生成し、必然的に多くの突発的候補を生成する。 In this paper, we propose a lexical simplification framework LSBert based on pretrained representation model Bert, that is capable of (1) making use of the wider context when both detecting the words in need of simplification and generating substitue candidates, and (2) taking five high-quality features into account for ranking candidates, including Bert prediction order, Bert-based language model, and the paraphrase database PPDB, in addition to the word frequency and word similarity commonly used in other LS methods. 本システムは,文法的に正確かつ意味的に適切である語彙的単純化を出力し,これらベースラインと比較して明らかに改善し,既知の3つのベンチマークの精度点を29.8で上回った。

Lexical simplification (LS) aims to replace complex words in a given sentence with their simpler alternatives of equivalent meaning, to simplify the sentence. Recently unsupervised lexical simplification approaches only rely on the complex word itself regardless of the given sentence to generate candidate substitutions, which will inevitably produce a large number of spurious candidates. In this paper, we propose a lexical simplification framework LSBert based on pretrained representation model Bert, that is capable of (1) making use of the wider context when both detecting the words in need of simplification and generating substitue candidates, and (2) taking five high-quality features into account for ranking candidates, including Bert prediction order, Bert-based language model, and the paraphrase database PPDB, in addition to the word frequency and word similarity commonly used in other LS methods. We show that our system outputs lexical simplifications that are grammatically correct and semantically appropriate, and obtains obvious improvement compared with these baselines, outperforming the state-of-the-art by 29.8 Accuracy points on three well-known benchmarks.
翻訳日:2022-11-17 04:26:02 公開日:2020-06-25
# Lest We Forget:スイスメディアのコロナウイルス関連ニュース記事のデータセット

Lest We Forget: A Dataset of Coronavirus-Related News Headlines in Swiss Media ( http://arxiv.org/abs/2006.16967v1 )

ライセンス: Link先を確認
Alireza Ghasemi and Amina Chebira(参考訳) 2020年1月初旬にスイスのメディアで公表されたコロナウイルスのパンデミックに関連するニュース記事へのリンクが1万件以上含まれている。 この収集は、スイスのメディアと新型コロナウイルスのパンデミックの反応を採掘し分析し、さらなる研究のために洞察力のある情報を抽出する上で有益である。 このデータセットは、パンデミックを分析し、イベントをよりよく理解する上で役立つ、研究者や一般大衆が結果を提供するのに役立つことを願っています。

We release our COVID-19 news dataset, containing more than 10,000 links to news articles related to the Coronavirus pandemic published in the Swiss media since early January 2020. This collection can prove beneficial in mining and analysis of the reaction of the Swiss media and the COVID-19 pandemic and extracting insightful information for further research. We hope this dataset helps researchers and the public deliver results that will help analyse the pandemic and potentially lead to a better understanding of the events.
翻訳日:2022-11-17 04:25:44 公開日:2020-06-25
# 多様体上の熱核と固有ガウス過程

Heat kernel and intrinsic Gaussian processes on manifolds ( http://arxiv.org/abs/2006.14266v1 )

ライセンス: Link先を確認
Ke Ye, Mu Niu and Pokman Cheung(参考訳) ガウス過程のような非パラメトリック回帰の問題に対する関心が高まり、予測子は多様体上に位置する。 最近の研究は、熱核を近似するために$\mathbb r^2$ と $\mathbb r^3$ の部分多様体上のブラウン運動の遷移密度を用いて内在的ガウス過程を開発した。 実際、多様体の次元が 2 より大きいとき、既存の手法は熱核を適切に推定するのに苦労した。 本研究では、直交群、ユニタリ群、スティーフェル多様体、グラスマン多様体などの行列リー群 \fi における \if more \fi general manifolds \if {\color{red} 上のガウス過程を構成する固有のアプローチを提案する。 熱核は、多様体の埋め込みに依存しない指数写像を通してブラウン運動サンプルパスをシミュレートすることによって推定される。 より正確に言うと、この本質的な方法は以下の特徴を持っている。 (i)高次元多様体に対して有効である。 (ii)任意の多様体に適用できる。 三 冗長パラメータを導入することができる大域的パラメトリゼーション又は埋め込みを必要としないこと。 (iv)この方法により得られた結果は、多様体の周囲空間に依存しない。 この方法に基づいて,任意の多様体に対する球アルゴリズムと,余剰対称性を持つ多様体に対するストリップアルゴリズムを提案する。 この研究において、次元 8 の射影空間上の回帰例は、ガウス過程に対する我々の本質的方法が、大一般において事実上有効であることを示すものである。

There is an increasing interest in the problem of nonparametric regression like Gaussian processes with predictors locating on manifold. Some recent researches developed intrinsic Gaussian processes by using the transition density of the Brownian motion on submanifolds of $\mathbb R^2$ and $\mathbb R^3$ to approximate the heat kernels. {However}, when the dimension of a manifold is bigger than two, the existing method struggled to get good estimation of the heat kernel. In this work, we propose an intrinsic approach of constructing the Gaussian process on \if more \fi general manifolds \if {\color{red} in the matrix Lie groups} \fi such as orthogonal groups, unitary groups, Stiefel manifolds and Grassmannian manifolds. The heat kernel is estimated by simulating Brownian motion sample paths via the exponential map, which does not depend on the embedding of the manifold. To be more precise, this intrinsic method has the following features: (i) it is effective for high dimensional manifolds; (ii) it is applicable to arbitrary manifolds; (iii) it does not require the global parametrisation or embedding which may introduce redundant parameters; (iv) results obtained by this method do not depend on the ambient space of the manifold. Based on this method, we propose the ball algorithm for arbitrary manifolds and the strip algorithm for manifolds with extra symmetries, which is both theoretically proven and numerically tested to be much more efficient than the ball algorithm. A regression example on the projective space of dimension eight is given in this work, which demonstrates that our intrinsic method for Gaussian process is practically effective in great generality.
翻訳日:2022-11-17 04:25:34 公開日:2020-06-25
# LPar - ポリグロット、オムニチャネル、産業用グレード自然言語インタフェースを構築するための分散マルチエージェントプラットフォーム

LPar -- A Distributed Multi Agent platform for building Polyglot, Omni Channel and Industrial grade Natural Language Interfaces ( http://arxiv.org/abs/2006.14666v1 )

ライセンス: Link先を確認
Pranav Sharma(参考訳) 顧客を個人的、人間に近い方法で提供し、喜ばせるという目標は、ほとんどの企業の自動化アジェンダにおいて非常に高い。 ここ数年、自然言語処理領域は大きな進歩を遂げており、多くの企業で会話型エージェントがデプロイされている。 現在の産業展開のほとんどは、ドメインの知識とスキル全体をモデル化するモノリシックな単一エージェント設計を使いがちです。 このアプローチは市場最速の1つですが、モノリシックな設計は、ポイントを超えたスケーリングを非常に困難にします。 また、自然言語処理と情報検索のサブ分野が提供する多くのツールを単一のソリューションでシームレスに活用する上でも課題があります。 関連する情報を提供するために活用できるサブ分野は、質問・回答システム、抽象要約、意味検索、知識グラフなどである。 現在のデプロイメントは、基盤となるConversational AIプラットフォーム(オープンソースまたは商用)にも大きく依存する傾向があります。 最近は、マスターエージェントの概念を利用する傾向があるマルチエージェントソリューションを構築する作業も行われている。 これは将来性を示しているが、このアプローチはマスターエージェント自体のスケーリングを難しくしている。 これらの課題に対処するために,多言語,多種多様な相互運用可能な大規模産業展開のための分散マルチエージェントプラットフォームであるlparを紹介する。 LParの非同期設計は動的に拡張可能なドメインをサポートする。 また、LParシステムで利用可能な複数の戦略を導入し、顧客の問い合わせに最も適したエージェントを選択します。

The goal of serving and delighting customers in a personal and near human like manner is very high on automation agendas of most Enterprises. Last few years, have seen huge progress in Natural Language Processing domain which has led to deployments of conversational agents in many enterprises. Most of the current industrial deployments tend to use Monolithic Single Agent designs that model the entire knowledge and skill of the Domain. While this approach is one of the fastest to market, the monolithic design makes it very hard to scale beyond a point. There are also challenges in seamlessly leveraging many tools offered by sub fields of Natural Language Processing and Information Retrieval in a single solution. The sub fields that can be leveraged to provide relevant information are, Question and Answer system, Abstractive Summarization, Semantic Search, Knowledge Graph etc. Current deployments also tend to be very dependent on the underlying Conversational AI platform (open source or commercial) , which is a challenge as this is a fast evolving space and no one platform can be considered future proof even in medium term of 3-4 years. Lately,there is also work done to build multi agent solutions that tend to leverage a concept of master agent. While this has shown promise, this approach still makes the master agent in itself difficult to scale. To address these challenges, we introduce LPar, a distributed multi agent platform for large scale industrial deployment of polyglot, diverse and inter-operable agents. The asynchronous design of LPar supports dynamically expandable domain. We also introduce multiple strategies available in the LPar system to elect the most suitable agent to service a customer query.
翻訳日:2022-11-17 04:25:08 公開日:2020-06-25
# 誤りマップ予測のための協調境界対応コンテキスト符号化ネットワーク

Collaborative Boundary-aware Context Encoding Networks for Error Map Prediction ( http://arxiv.org/abs/2006.14345v1 )

ライセンス: Link先を確認
Zhenxi Zhang, Chunna Tian, Jie Li, Zhusi Zhong, Zhicheng Jiao, and Xinbo Gao(参考訳) 医療画像のセグメンテーションは通常、臨床状況と医療画像研究において最も重要な中間段階の1つとみなされる。 したがって、コンピュータ支援診断(CAD)の結果の信頼性を保証するためには、自動生成された予測のセグメンテーション品質を正確に評価することが不可欠である。 多くの研究者は、新しいデータコホートのセグメンテーション品質をラベル付き基底真理なしで推定するために、セグメンテーション品質回帰モデルをトレーニングするためにニューラルネットワークを適用する。 近年,セグメンテーション品質評価(SQA)問題をピクセル単位の誤差マップ予測タスクに分割形式で変換するという新たな考え方が提案されている。 しかし、医療画像におけるバニラセグメンテーション構造の単純な応用は、複雑な解剖学的構造を持つ自動生成マスクの小さなエラー領域を検出できない。 本稿では,AEP-Netと呼ばれる協調的コンテキスト符号化ネットワークを提案する。 具体的には,画像とマスク間の機能融合と誤差領域の正確な位置決めを改善するための協調的特徴変換ブランチを提案する。 さらに,エラーマップからグローバル予測子を活用し,特徴表現の強化とネットワークの正規化を行うコンテキストエンコーディングモジュールを提案する。 IBSR v2.0データセットとACDCデータセットの実験を行った。 AEP-Netは、エラー予測タスクに対する平均DSC 0.8358, 0.8164 を達成し、実際のセグメント化精度と予測誤差マップから推定される予測精度との間に高いピアソン相関係数 0.9873 を示し、AEP-Netの有効性を検証する。

Medical image segmentation is usually regarded as one of the most important intermediate steps in clinical situations and medical imaging research. Thus, accurately assessing the segmentation quality of the automatically generated predictions is essential for guaranteeing the reliability of the results of the computer-assisted diagnosis (CAD). Many researchers apply neural networks to train segmentation quality regression models to estimate the segmentation quality of a new data cohort without labeled ground truth. Recently, a novel idea is proposed that transforming the segmentation quality assessment (SQA) problem intothe pixel-wise error map prediction task in the form of segmentation. However, the simple application of vanilla segmentation structures in medical image fails to detect some small and thin error regions of the auto-generated masks with complex anatomical structures. In this paper, we propose collaborative boundaryaware context encoding networks called AEP-Net for error prediction task. Specifically, we propose a collaborative feature transformation branch for better feature fusion between images and masks, and precise localization of error regions. Further, we propose a context encoding module to utilize the global predictor from the error map to enhance the feature representation and regularize the networks. We perform experiments on IBSR v2.0 dataset and ACDC dataset. The AEP-Net achieves an average DSC of 0.8358, 0.8164 for error prediction task,and shows a high Pearson correlation coefficient of 0.9873 between the actual segmentation accuracy and the predicted accuracy inferred from the predicted error map on IBSR v2.0 dataset, which verifies the efficacy of our AEP-Net.
翻訳日:2022-11-17 04:24:02 公開日:2020-06-25
# 二元異方性拡散テンソルによる不連続かつ滑らかな深さ完了

Discontinuous and Smooth Depth Completion with Binary Anisotropic Diffusion Tensor ( http://arxiv.org/abs/2006.14374v1 )

ライセンス: Link先を確認
Yasuhiro Yao, Menandro Roxas, Ryoichi Ishikawa, Shingo Ando, Jun Shimamura, Takeshi Oishi(参考訳) 単一画像で誘導されるスパース深度マップから教師なしリアルタイム高密度深度補完を提案する。 本手法は,異なる物体間の不連続を保ちながら,滑らかな深度マップを生成する。 我々の重要なアイデアは二元異方性拡散テンソル(b-adt)であり、変動正規化に適用することで、意図する位置や方向における滑らかさの制約を完全に排除することができる。 また,B-ADTの導出や変動エネルギーのデータ項において,画像誘導近傍探索 (IGNNS) を用いて一定深度マップを導出する手法を提案する。 実験の結果,従来の教師なし・半教師付き深度補完法よりも精度が高いことがわかった。 さらに,得られた深度マップは物体間の不連続性を保ち,その結果を視認可能な点雲に変換することができる。 これは、従来手法が不連続物体間の不自然な表面的人工物を生成するため、顕著である。

We propose an unsupervised real-time dense depth completion from a sparse depth map guided by a single image. Our method generates a smooth depth map while preserving discontinuity between different objects. Our key idea is a Binary Anisotropic Diffusion Tensor (B-ADT) which can completely eliminate smoothness constraint at intended positions and directions by applying it to variational regularization. We also propose an Image-guided Nearest Neighbor Search (IGNNS) to derive a piecewise constant depth map which is used for B-ADT derivation and in the data term of the variational energy. Our experiments show that our method can outperform previous unsupervised and semi-supervised depth completion methods in terms of accuracy. Moreover, since our resulting depth map preserves the discontinuity between objects, the result can be converted to a visually plausible point cloud. This is remarkable since previous methods generate unnatural surface-like artifacts between discontinuous objects.
翻訳日:2022-11-17 04:23:37 公開日:2020-06-25
# 複数物体追跡における解離経路の応用

Lifted Disjoint Paths with Application in Multiple Object Tracking ( http://arxiv.org/abs/2006.14550v1 )

ライセンス: Link先を確認
Andrea Hornakova, Roberto Henschel, Bodo Rosenhahn, Paul Swoboda(参考訳) 本稿では, 経路接続先を提供するために, 追加の \emph{lifted} エッジを導入する不連結経路問題の拡張を提案する。 結果として生じる最適化問題を解き放たれた経路問題と呼ぶ。 この問題は整数多商品フローと3-SATの削減によってNPハードであることが示される。 実用的大域的最適化を実現するために,高品質なlpリラクシエーションを実現する線形不等式を複数提案する。 さらに,提案する線形不等式を分離する効率的な切断平面アルゴリズムを提案する。 lifted disjoint path problem は、複数の対象追跡のための自然なモデルであり、長距離時間相互作用に対するエレガントな数学的定式化を可能にする。 リフテッドエッジは、idスイッチの防止と、人物の再識別に役立つ。 移動経路追跡装置は入力検出に関してほぼ最適な割り当てを実現する。 その結果、MOTチャレンジの3つの主要なベンチマークすべてに導かれ、最先端よりも大幅に改善されている。

We present an extension to the disjoint paths problem in which additional \emph{lifted} edges are introduced to provide path connectivity priors. We call the resulting optimization problem the lifted disjoint paths problem. We show that this problem is NP-hard by reduction from integer multicommodity flow and 3-SAT. To enable practical global optimization, we propose several classes of linear inequalities that produce a high-quality LP-relaxation. Additionally, we propose efficient cutting plane algorithms for separating the proposed linear inequalities. The lifted disjoint path problem is a natural model for multiple object tracking and allows an elegant mathematical formulation for long range temporal interactions. Lifted edges help to prevent id switches and to re-identify persons. Our lifted disjoint paths tracker achieves nearly optimal assignments with respect to input detections. As a consequence, it leads on all three main benchmarks of the MOT challenge, improving significantly over state-of-the-art.
翻訳日:2022-11-17 04:23:21 公開日:2020-06-25
# 染色正常化と増強のための多指式wasserstein barycenter

Multimarginal Wasserstein Barycenter for Stain Normalization and Augmentation ( http://arxiv.org/abs/2006.14566v1 )

ライセンス: Link先を確認
Saad Nadeem, Travis Hollmann and Allen Tannenbaum(参考訳) ヘマトキシリンおよびエオシン(H&E)染色画像(臨床検査プロトコルやスキャナーなどによる)の変異は、臨床診断の品質や精度に直接影響し、信頼性の高い診断のためにこれらの変化を制御することが重要である。 本研究では,複数参照のH&E染色画像の正規化と増大を図るため,マルチマージナルなワッサースタインバリセンタに基づく新しいアプローチを提案する。 具体的には,汚れの正規化と増補を同時に行うために,画像の追加を中間参照として自然に組み込む数学的にロバストな方法を提案する。 従来の染色法と比較して定量的・定性的に優れた結果を示した。 我々はさらに,公開データセット上での核分画タスクにおける染色の正規化と増強を検証し,競合するアプローチに対して最先端の結果を得た。

Variations in hematoxylin and eosin (H&E) stained images (due to clinical lab protocols, scanners, etc) directly impact the quality and accuracy of clinical diagnosis, and hence it is important to control for these variations for a reliable diagnosis. In this work, we present a new approach based on the multimarginal Wasserstein barycenter to normalize and augment H&E stained images given one or more references. Specifically, we provide a mathematically robust way of naturally incorporating additional images as intermediate references to drive stain normalization and augmentation simultaneously. The presented approach showed superior results quantitatively and qualitatively as compared to state-of-the-art methods for stain normalization. We further validated our stain normalization and augmentations in the nuclei segmentation task on a publicly available dataset, achieving state-of-the-art results against competing approaches.
翻訳日:2022-11-17 04:23:07 公開日:2020-06-25
# SmallBigNet: ビデオ分類のためのコアとコンテキストビューの統合

SmallBigNet: Integrating Core and Contextual Views for Video Classification ( http://arxiv.org/abs/2006.14582v1 )

ライセンス: Link先を確認
Xianhang Li, Yali Wang, Zhipeng Zhou, Yu Qiao(参考訳) 時間的畳み込みはビデオ分類に広く用いられている。 しかし、それは限られた視点で時空間的な文脈で行われ、しばしばビデオ表現の学習能力を弱める。 この問題を軽減するために,小・大視野の協調により,簡潔で斬新なSmallBigネットワークを提案する。 現在のステップでは、小さなビューブランチを使用してコアセマンティクスを学習し、大きなビューブランチはコンテキストセマンティクスをキャプチャします。 従来の時間的畳み込みとは異なり、big viewブランチはより広い3d受容フィールドから最も活性化されたビデオ機能を備えた小さなビューブランチを提供することができる。 このようなビッグビューコンテキストを集約することで、small viewブランチはビデオ分類のためのより堅牢で差別的な時空間表現を学ぶことができる。 さらに, モデルコンパクト性を改善し, オーバーフィッティングを緩和する, 小型かつ大視野の分岐部における畳み込みの共有を提案する。 その結果、SmallBigNetは2D CNNのようなモデルサイズを実現し、3D CNNのような精度を高めました。 本研究では,Kineetics400,Something V1,V2などの大規模ビデオベンチマークについて広範な実験を行った。 私たちのSmallBigネットワークは、精度や効率の点で、最近の最先端のアプローチよりも優れています。 コードとモデルはhttps://github.com/xhl-video/smallbignetで入手できる。

Temporal convolution has been widely used for video classification. However, it is performed on spatio-temporal contexts in a limited view, which often weakens its capacity of learning video representation. To alleviate this problem, we propose a concise and novel SmallBig network, with the cooperation of small and big views. For the current time step, the small view branch is used to learn the core semantics, while the big view branch is used to capture the contextual semantics. Unlike traditional temporal convolution, the big view branch can provide the small view branch with the most activated video features from a broader 3D receptive field. Via aggregating such big-view contexts, the small view branch can learn more robust and discriminative spatio-temporal representations for video classification. Furthermore, we propose to share convolution in the small and big view branch, which improves model compactness as well as alleviates overfitting. As a result, our SmallBigNet achieves a comparable model size like 2D CNNs, while boosting accuracy like 3D CNNs. We conduct extensive experiments on the large-scale video benchmarks, e.g., Kinetics400, Something-Something V1 and V2. Our SmallBig network outperforms a number of recent state-of-the-art approaches, in terms of accuracy and/or efficiency. The codes and models will be available on https://github.com/xhl-video/SmallBigNet.
翻訳日:2022-11-17 04:16:44 公開日:2020-06-25
# 複雑なシーンをシミュレートする学習

Learning to simulate complex scenes ( http://arxiv.org/abs/2006.14611v1 )

ライセンス: Link先を確認
Zhenfeng Xue, Weijie Mao, Liang Zheng(参考訳) Unityのようなデータシミュレーションエンジンはますます重要なデータソースになりつつある。 さらに,オブジェクト(位置,方向)や環境(照明,咬合)など,エンジン内の画像の内容を柔軟に編集することができる。 シミュレーションデータをトレーニングセットとして使用する場合、その編集可能なコンテンツを利用して実世界のデータの分布を模倣し、合成ドメインと実ドメインのコンテンツ差を低減することができる。 本稿では, 複雑な街路シーンを, 一人称運転者の視点から19種類の仮想オブジェクトを用いて完全に合成し, 23の属性で制御するセグメンテーションの文脈におけるコンテンツ適応について検討する。 属性値を最適化し、実世界のデータと類似したコンテンツのトレーニングセットを得るために、スケーラブルな離散化・相対化(SDR)アプローチを提案する。 強化学習フレームワークでは,ニューラルネットワークを用いたランダム・最適マッピング問題として属性最適化を定式化する。 我々の方法には3つの特徴がある。 1)個々のオブジェクトの属性を編集する代わりに,オブジェクト密度や照明といったシーン構造に大きな影響を与えるグローバル属性に焦点を当てる。 2) 属性を離散値に量子化し, 探索空間を減らし, 学習の複雑さを訓練する。 3) 関連属性をグループで共同最適化することにより,無意味なシーン構造を回避し,より良い収束点を求める。 実験により,本システムは合理的かつ有用なシーンを生成できることが示され,既存の合成トレーニングセットと比較して,実世界のセグメンテーションの精度が期待できる。

Data simulation engines like Unity are becoming an increasingly important data source that allows us to acquire ground truth labels conveniently. Moreover, we can flexibly edit the content of an image in the engine, such as objects (position, orientation) and environments (illumination, occlusion). When using simulated data as training sets, its editable content can be leveraged to mimic the distribution of real-world data, and thus reduce the content difference between the synthetic and real domains. This paper explores content adaptation in the context of semantic segmentation, where the complex street scenes are fully synthesized using 19 classes of virtual objects from a first person driver perspective and controlled by 23 attributes. To optimize the attribute values and obtain a training set of similar content to real-world data, we propose a scalable discretization-and-relaxation (SDR) approach. Under a reinforcement learning framework, we formulate attribute optimization as a random-to-optimized mapping problem using a neural network. Our method has three characteristics. 1) Instead of editing attributes of individual objects, we focus on global attributes that have large influence on the scene structure, such as object density and illumination. 2) Attributes are quantized to discrete values, so as to reduce search space and training complexity. 3) Correlated attributes are jointly optimized in a group, so as to avoid meaningless scene structures and find better convergence points. Experiment shows our system can generate reasonable and useful scenes, from which we obtain promising real-world segmentation accuracy compared with existing synthetic training sets.
翻訳日:2022-11-17 04:16:05 公開日:2020-06-25
# 深部回転推定のためのSVDの解析

An Analysis of SVD for Deep Rotation Estimation ( http://arxiv.org/abs/2006.14616v1 )

ライセンス: Link先を確認
Jake Levinson, Carlos Esteves, Kefan Chen, Noah Snavely, Angjoo Kanazawa, Afshin Rostamizadeh, Ameesh Makadia(参考訳) SVD による対称直交化と密接に関連する手順は、行列を $O(n)$ あるいは $SO(n)$ に射影するためのよく知られた技法である。 これらのツールは長い間コンピュータビジョンの応用に使われており、例えば直交プロクサート、回転平均化、本質行列分解によって解かれる最適な3次元アライメント問題などである。 異なる設定で有用であるにもかかわらず、回転行列を生成する手順としてのsvd直交化は、通常、深層学習モデルでは見過ごされ、単位四元数、オイラー角、軸角、あるいはより最近導入された方法のような古典的な表現を好む。 コンピュータビジョンとロボット工学における3次元回転の重要性にもかかわらず、単一の普遍的に有効な表現はいまだに欠けている。 本稿では,ニューラルネットワークにおける3次元回転のSVD直交化の実現可能性について検討する。 SVDが回転群に射影する自然な選択であることを示す理論的解析を提案する。 我々は,既存の表現をSVDの直交化手順に置き換えることで,教師なし学習と教師なし学習の両方をカバーする多くの深層学習アプリケーションにおいて,技術性能の状態を得られることを示す。

Symmetric orthogonalization via SVD, and closely related procedures, are well-known techniques for projecting matrices onto $O(n)$ or $SO(n)$. These tools have long been used for applications in computer vision, for example optimal 3D alignment problems solved by orthogonal Procrustes, rotation averaging, or Essential matrix decomposition. Despite its utility in different settings, SVD orthogonalization as a procedure for producing rotation matrices is typically overlooked in deep learning models, where the preferences tend toward classic representations like unit quaternions, Euler angles, and axis-angle, or more recently-introduced methods. Despite the importance of 3D rotations in computer vision and robotics, a single universally effective representation is still missing. Here, we explore the viability of SVD orthogonalization for 3D rotations in neural networks. We present a theoretical analysis that shows SVD is the natural choice for projecting onto the rotation group. Our extensive quantitative analysis shows simply replacing existing representations with the SVD orthogonalization procedure obtains state of the art performance in many deep learning applications covering both supervised and unsupervised training.
翻訳日:2022-11-17 04:15:41 公開日:2020-06-25
# 準ユークリッド距離による画像類似性の決定

Determining Image similarity with Quasi-Euclidean Metric ( http://arxiv.org/abs/2006.14644v1 )

ライセンス: Link先を確認
Vibhor Singh, Vishesh Devgan, Ishu Anand(参考訳) 画像類似性(英: Image similarity)は、コンピュータビジョン、画像処理、パターン認識に広く応用されている画像解析の中核的な概念である。 本研究の目的は, 準ユークリッド計量を画像類似度尺度として評価し, SSIM やユークリッド計量といった既存の標準手法とどのように一致しているかを分析することである。 本稿では,我々の初級データセットから得られた2つの画像の類似性を解析し,ユークリッド距離測定とSSIMとの比較を行った。 また,提案手法が初歩的なデータセットに適用された場合,有効性と精度の点で標準値と異なる結果が得られることを示す証拠とともに実験結果を示す。 いくつかのケースでは、我々の方法論は顕著な性能を予測しており、また、我々の実装が類似性を認識するための一歩であることを証明していることも興味深い。

Image similarity is a core concept in Image Analysis due to its extensive application in computer vision, image processing, and pattern recognition. The objective of our study is to evaluate Quasi-Euclidean metric as an image similarity measure and analyze how it fares against the existing standard ways like SSIM and Euclidean metric. In this paper, we analyzed the similarity between two images from our own novice dataset and assessed its performance against the Euclidean distance metric and SSIM. We also present experimental results along with evidence indicating that our proposed implementation when applied to our novice dataset, furnished different results than standard metrics in terms of effectiveness and accuracy. In some cases, our methodology projected remarkable performance and it is also interesting to note that our implementation proves to be a step ahead in recognizing similarity when compared to
翻訳日:2022-11-17 04:15:20 公開日:2020-06-25
# Duodepth:デュアル深さセンサによる静的ジェスチャー認識

Duodepth: Static Gesture Recognition Via Dual Depth Sensors ( http://arxiv.org/abs/2006.14691v1 )

ライセンス: Link先を確認
Ilya Chugunov and Avideh Zakhor(参考訳) 静的ジェスチャー認識は、ユーザとデバイス間の効果的な非言語コミュニケーションチャネルであるが、多くの現代的な手法は、ジェスチャーの一部が隠蔽される可能性があるため、キャプチャデバイスに対するユーザの手の相対的なポーズに敏感である。 本稿では,2つの奥行きカメラからの同期記録によるジェスチャー認識手法を提案する。 ひとつは、ポイントクラウドを正確に融合するための反復的最接近点登録と分類のための単一ポイントネットアーキテクチャを使ったより古典的なアプローチであり、もうひとつは登録のない分類のためのデュアルポイントネットアーキテクチャである。 手動で収集した20,100個のポイントクラウドのデータセットでは、標準の単一カメラパイプラインと比較して、融合したポイントクラウドメソッドの誤分類が39.2%減少し、デュアルポイントネットが53.4%減少した。

Static gesture recognition is an effective non-verbal communication channel between a user and their devices; however many modern methods are sensitive to the relative pose of the user's hands with respect to the capture device, as parts of the gesture can become occluded. We present two methodologies for gesture recognition via synchronized recording from two depth cameras to alleviate this occlusion problem. One is a more classic approach using iterative closest point registration to accurately fuse point clouds and a single PointNet architecture for classification, and the other is a dual Point-Net architecture for classification without registration. On a manually collected data-set of 20,100 point clouds we show a 39.2% reduction in misclassification for the fused point cloud method, and 53.4% for the dual PointNet, when compared to a standard single camera pipeline.
翻訳日:2022-11-17 04:14:45 公開日:2020-06-25
# 転写学習に基づく皮膚病変分類における画像分解能の検討と活用

Investigating and Exploiting Image Resolution for Transfer Learning-based Skin Lesion Classification ( http://arxiv.org/abs/2006.14715v1 )

ライセンス: Link先を確認
Amirreza Mahbod, Gerald Schaefer, Chunliang Wang, Rupert Ecker, Georg Dorffner, Isabella Ellinger(参考訳) 皮膚がんは最も一般的ながんの1つである。 皮膚内視鏡画像解析は悪性黒色腫および他の色素性皮膚病変の診断精度を未確認視診と比較して向上させる。 したがって、診断手順における医療専門家を支援するコンピュータベースの方法は非常に興味深い。 微調整事前訓練された畳み込みニューラルネットワーク(cnns)は皮膚病変の分類に有効であることが示されている。 予め訓練されたcnnは、通常、撮影された皮膚病変画像よりもかなり小さい固定画像サイズの自然画像で訓練される。 しかし、この変換によって有用な医療情報が失われる可能性がある。 本稿では,入力画像サイズが細調整CNNの皮膚病変分類性能に及ぼす影響について検討する。 そこで本研究では,64x64から768x768ピクセルの異なる解像度で,DenseNet-121,ResNet-18,ResNet-50の3つのCNNの分類性能について検討した。 以上の結果から,64×64ピクセルの非常に小さな画像を用いて分類性能を低下させる一方,128×128ピクセル以上の画像では画像サイズが大きくなり,分類精度がわずかに向上した。 さらに,様々なサイズのデルモスコピック画像で訓練された複数の微調整ネットワークを活用する3レベルアンサンブル戦略に基づく新しい融合手法を提案する。 isic 2017皮膚病変分類チャレンジに適用されると、本融合アプローチは、メラノーマ分類と下垂体角膜症分類で89.2%と96.6%の受信特性曲線の下の領域が、最先端アルゴリズムよりも優れている。

Skin cancer is among the most common cancer types. Dermoscopic image analysis improves the diagnostic accuracy for detection of malignant melanoma and other pigmented skin lesions when compared to unaided visual inspection. Hence, computer-based methods to support medical experts in the diagnostic procedure are of great interest. Fine-tuning pre-trained convolutional neural networks (CNNs) has been shown to work well for skin lesion classification. Pre-trained CNNs are usually trained with natural images of a fixed image size which is typically significantly smaller than captured skin lesion images and consequently dermoscopic images are downsampled for fine-tuning. However, useful medical information may be lost during this transformation. In this paper, we explore the effect of input image size on skin lesion classification performance of fine-tuned CNNs. For this, we resize dermoscopic images to different resolutions, ranging from 64x64 to 768x768 pixels and investigate the resulting classification performance of three well-established CNNs, namely DenseNet-121, ResNet-18, and ResNet-50. Our results show that using very small images (of size 64x64 pixels) degrades the classification performance, while images of size 128x128 pixels and above support good performance with larger image sizes leading to slightly improved classification. We further propose a novel fusion approach based on a three-level ensemble strategy that exploits multiple fine-tuned networks trained with dermoscopic images at various sizes. When applied on the ISIC 2017 skin lesion classification challenge, our fusion approach yields an area under the receiver operating characteristic curve of 89.2% and 96.6% for melanoma classification and seborrheic keratosis classification, respectively, outperforming state-of-the-art algorithms.
翻訳日:2022-11-17 04:14:29 公開日:2020-06-25
# 反復読解がコンピュータ支援言語学習における口語頻度とナラティブ生産に及ぼす影響の分析

Analyzing Effect of Repeated Reading on Oral Fluency and Narrative Production for Computer-Assisted Language Learning ( http://arxiv.org/abs/2006.14320v1 )

ライセンス: Link先を確認
Santosh Kumar Barnwal, Uma Shanker Tiwary(参考訳) 反復読解(RR)は, 学習者に対して, 信頼度, 速さ, 言葉の自動処理に精通した経験がほとんど, あるいは全くない学習者を支援する。 繰り返し読むことの利点は、すべての学習者が事実を思い出すのを助けること、学習者の主アイデアや語彙の識別を支援すること、理解を深めること、単語認識の精度を向上させること、単語毎の読みから意味のある書き起こしへ移行する際に苦闘する学習者を助けること、などである。 したがって、RRは学習者の口頭流感と物語の制作を改善するのに役立つ。 しかし、RRの実践に基づいて学習者の口頭反応にオープンな音声データセットは存在しない。 そこで本研究では,英語学習者を対象に,音響的,韻律的,語彙的,統語的特性を用いて,その特性を考察し,口頭流速と物語生成を評価する手法を提案する。 以上の結果から,CALLシステムは,学習者の口頭流感と物語制作の改善を評価するために開発された。

Repeated reading (RR) helps learners, who have little to no experience with reading fluently to gain confidence, speed and process words automatically. The benefits of repeated readings include helping all learners with fact recall, aiding identification of learners' main ideas and vocabulary, increasing comprehension, leading to faster reading as well as increasing word recognition accuracy, and assisting struggling learners as they transition from word-by-word reading to more meaningful phrasing. Thus, RR ultimately helps in improvements of learners' oral fluency and narrative production. However, there are no open audio datasets available on oral responses of learners based on their RR practices. Therefore, in this paper, we present our dataset, discuss its properties, and propose a method to assess oral fluency and narrative production for learners of English using acoustic, prosodic, lexical and syntactical characteristics. The results show that a CALL system can be developed for assessing the improvements in learners' oral fluency and narrative production.
翻訳日:2022-11-17 04:07:58 公開日:2020-06-25
# ニューラルマシン翻訳のための学習ソース句表現

Learning Source Phrase Representations for Neural Machine Translation ( http://arxiv.org/abs/2006.14405v1 )

ライセンス: Link先を確認
Hongfei Xu and Josef van Genabith and Deyi Xiong and Qiuhui Liu and Jingyi Zhang(参考訳) マルチヘッドアテンション機構に基づくトランスフォーマー変換モデル(Vaswani et al., 2017)を並列に効率的に計算し,ニューラルマシン翻訳(NMT)の性能を著しく推し進めている。 直感的には、注意ネットワークはRNNよりも短いネットワークパスを介して遠くの単語を繋ぐことができるが、実験的な分析によって、長距離依存を完全に把握するのは難しいことが示されている(Tang et al., 2018)。 単語ではなくフレーズのモデリングは、より大きな翻訳ブロック("phrases")とその再順序付け能力を用いて統計機械翻訳(statistical machine translation, smt)アプローチを大幅に改善したと考えると、句レベルでのnmtのモデリングは、モデルが長距離関係を捉えるのに役立つ直感的な提案である。 本稿では,まず,対応するトークン表現から句表現を生成するための注意的句表現生成機構を提案する。 さらに,生成した句表現をトランスフォーマー翻訳モデルに取り入れ,長距離関係を捉える能力を高める。 実験では,強力なトランスフォーマーベースライン上でのWMT 14の英語・ドイツ語・英語・フランス語タスクを改良し,本手法の有効性を示した。 提案手法は,トランスフォーマーのベースモデルがトランスフォーマーの大型モデルと同等の性能を発揮することを支援し,長文ではさらに優れているが,パラメータやトレーニングステップは大幅に少ない。 句表現が大局的にさえ役立つという事実は、長距離関係に貴重な貢献をしているという我々の予想をさらに裏付ける。

The Transformer translation model (Vaswani et al., 2017) based on a multi-head attention mechanism can be computed effectively in parallel and has significantly pushed forward the performance of Neural Machine Translation (NMT). Though intuitively the attentional network can connect distant words via shorter network paths than RNNs, empirical analysis demonstrates that it still has difficulty in fully capturing long-distance dependencies (Tang et al., 2018). Considering that modeling phrases instead of words has significantly improved the Statistical Machine Translation (SMT) approach through the use of larger translation blocks ("phrases") and its reordering ability, modeling NMT at phrase level is an intuitive proposal to help the model capture long-distance relationships. In this paper, we first propose an attentive phrase representation generation mechanism which is able to generate phrase representations from corresponding token representations. In addition, we incorporate the generated phrase representations into the Transformer translation model to enhance its ability to capture long-distance relationships. In our experiments, we obtain significant improvements on the WMT 14 English-German and English-French tasks on top of the strong Transformer baseline, which shows the effectiveness of our approach. Our approach helps Transformer Base models perform at the level of Transformer Big models, and even significantly better for long sentences, but with substantially fewer parameters and training steps. The fact that phrase representations help even in the big setting further supports our conjecture that they make a valuable contribution to long-distance relations.
翻訳日:2022-11-17 04:07:37 公開日:2020-06-25
# theaitre: 演劇を書くための人工知能

THEaiTRE: Artificial Intelligence to Write a Theatre Play ( http://arxiv.org/abs/2006.14668v1 )

ライセンス: Link先を確認
Rudolf Rosa, Ond\v{r}ej Du\v{s}ek, Tom Kocmi, David Mare\v{c}ek, Tom\'a\v{s} Musil, Patr\'icia Schmidtov\'a, Dominik Jurko, Ond\v{r}ej Bojar, Daniel Hrbek, David Ko\v{s}\v{t}\'ak, Martina Kinsk\'a, Josef Dole\v{z}al and Kl\'ara Voseck\'a(参考訳) TheaiTREは劇場劇の脚本の自動生成を目的としたスタートプロジェクトである。 本稿では,研究成果をレビューし,これからのアプローチを概説する。 我々は,要約と機械翻訳法をサポートする生成型ニューラルネットワークモデルと階層型生成アプローチを採用し,ループ内アプローチを補完する計画である。

We present THEaiTRE, a starting project aimed at automatic generation of theatre play scripts. This paper reviews related work and drafts an approach we intend to follow. We plan to adopt generative neural language models and hierarchical generation approaches, supported by summarization and machine translation methods, and complemented with a human-in-the-loop approach.
翻訳日:2022-11-17 04:06:51 公開日:2020-06-25
# 概念補間を用いたELオントロジーのプラウシブル推論

Plausible Reasoning about EL-Ontologies using Concept Interpolation ( http://arxiv.org/abs/2006.14437v1 )

ライセンス: Link先を確認
Yazm\'in Ib\'a\~nez-Garc\'ia, V\'ictor Guti\'errez-Basulto, Steven Schockaert(参考訳) 記述論理(DL)はオントロジーをモデル化するための標準的な知識表現言語である。 残念ながら、dlオントロジーはデータから学ぶのが難しく、手動でエンコードするのに時間がかかる。 その結果、広い領域のオントロジーは必然的に不完全である。 近年、このようなオントロジーを自動拡張するためのデータ駆動アプローチがいくつか提案されている。 メソッドの1つのファミリーは、テキスト記述から派生した概念の特性に依存している。 このような特徴は存在論的知識を直接捉えるものではないが、既存の存在論のギャップを埋めるために活用できる異なる概念間の類似性に関する情報を符号化する。 この目的のために、いくつかの帰納的推論メカニズムが既に提案されているが、これらはヒューリスティックな方法で定義され使用されてきた。 本稿では,その代わりに,明確なモデル理論的意味論に基づく帰納的推論機構を提案する。 特に,カテゴリーベース誘導の認知モデルと密接に関連した,強力なコモンセンス推論機構である補間に注目した。 基礎となるセマンティクスの形式化は別として、我々の主要な技術的貢献として、この補間機構を用いてELにおける推論の計算複雑性境界を提供する。

Description logics (DLs) are standard knowledge representation languages for modelling ontologies, i.e. knowledge about concepts and the relations between them. Unfortunately, DL ontologies are difficult to learn from data and time-consuming to encode manually. As a result, ontologies for broad domains are almost inevitably incomplete. In recent years, several data-driven approaches have been proposed for automatically extending such ontologies. One family of methods rely on characterizations of concepts that are derived from text descriptions. While such characterizations do not capture ontological knowledge directly, they encode information about the similarity between different concepts, which can be exploited for filling in the gaps in existing ontologies. To this end, several inductive inference mechanisms have already been proposed, but these have been defined and used in a heuristic fashion. In this paper, we instead propose an inductive inference mechanism which is based on a clear model-theoretic semantics, and can thus be tightly integrated with standard deductive reasoning. We particularly focus on interpolation, a powerful commonsense reasoning mechanism which is closely related to cognitive models of category-based induction. Apart from the formalization of the underlying semantics, as our main technical contribution we provide computational complexity bounds for reasoning in EL with this interpolation mechanism.
翻訳日:2022-11-17 04:06:45 公開日:2020-06-25
# 行列乗算のための定数深さ及びサブキュービックサイズ閾値回路

Constant-Depth and Subcubic-Size Threshold Circuits for Matrix Multiplication ( http://arxiv.org/abs/2006.14652v1 )

ライセンス: Link先を確認
Ojas Parekh, Cynthia A. Phillips, Conrad D. James, James B. Aimone(参考訳) マカロック・ピットのしきい値ゲートのブール回路は、20世紀後半に一般的な計算のモデルとして大きく研究されたニューラルネットワークの古典的なモデルである。 大規模ニューラルコンピューティングハードウェアの最近の進歩は、その実用的実装を近い将来に可能にしている。 閾値ゲート論理を従来の高速行列乗算アルゴリズムと統合し、正の定数$\omega < 3$に対して$O(N^\omega)$算術演算を行う2つの$N$を$N$行列に乗算する理論的アプローチを述べる。 提案手法は,そのような高速行列乗算アルゴリズムを,約$O(N^\omega)$ゲートを持つ定数深度しきい値回路に変換する。 我々の研究に先立ち、行列乗算の$\Theta(N^3)$-gateバリアが定数深さしきい値回路で実装可能かどうかは分かっていなかった。 Dense matrix multiplicationは畳み込みニューラルネットワークトレーニングにおけるコア操作である。 この作業をGPUにオフロードするのではなく、ニューラルネットワークで実行するというのは、魅力的な選択肢かもしれません。

Boolean circuits of McCulloch-Pitts threshold gates are a classic model of neural computation studied heavily in the late 20th century as a model of general computation. Recent advances in large-scale neural computing hardware has made their practical implementation a near-term possibility. We describe a theoretical approach for multiplying two $N$ by $N$ matrices that integrates threshold gate logic with conventional fast matrix multiplication algorithms, that perform $O(N^\omega)$ arithmetic operations for a positive constant $\omega < 3$. Our approach converts such a fast matrix multiplication algorithm into a constant-depth threshold circuit with approximately $O(N^\omega)$ gates. Prior to our work, it was not known whether the $\Theta(N^3)$-gate barrier for matrix multiplication was surmountable by constant-depth threshold circuits. Dense matrix multiplication is a core operation in convolutional neural network training. Performing this work on a neural architecture instead of off-loading it to a GPU may be an appealing option.
翻訳日:2022-11-17 04:06:05 公開日:2020-06-25
# PropagationNet: 構造情報を学ぶためのポイントを伝搬する

PropagationNet: Propagate Points to Curve to Learn Structure Information ( http://arxiv.org/abs/2006.14308v1 )

ライセンス: Link先を確認
Xiehe Huang, Weihong Deng, Haifeng Shen, Xiubao Zhang, Jieping Ye(参考訳) ディープラーニング技術は、顔アライメントアルゴリズムのパフォーマンスを劇的に向上させた。 しかし、大きなばらつきとサンプルの欠如により、制約のない状況におけるアライメントの問題、 \emph{e.g}\onedot large head poses, exaggerated expression, and uneven illumination は未解決のままである。 本稿では,この問題に対処するための2つの提案である「emph{i.e}\onedot Propagation Module」と「focal Wing Loss」の本質と理由について考察する。 具体的には、ランドマークのヒートマップを境界のヒートマップに伝播させることにより、ヒートマップ回帰に基づく新しい構造注入顔アライメントアルゴリズムを提案する。 さらに,実地条件下での難試料の採掘と強調を行うため,焦点翼損失法を提案する。 さらに、顔アライメントのためのCNNのシフト分散問題に対処する他の分野から、CoordConv や Anti-aliased CNN などの手法を採用する。 異なるベンチマーク(emph{i.e}\onedot WFLW, 300W, COFW)で広範な実験を行う場合, 提案手法は最先端の手法よりも大幅に優れる。 提案手法は,wflwでは4.05\%平均誤差,300wフルセットでは2.93\%平均誤差,cofwでは3.71\%平均誤差を達成する。

Deep learning technique has dramatically boosted the performance of face alignment algorithms. However, due to large variability and lack of samples, the alignment problem in unconstrained situations, \emph{e.g}\onedot large head poses, exaggerated expression, and uneven illumination, is still largely unsolved. In this paper, we explore the instincts and reasons behind our two proposals, \emph{i.e}\onedot Propagation Module and Focal Wing Loss, to tackle the problem. Concretely, we present a novel structure-infused face alignment algorithm based on heatmap regression via propagating landmark heatmaps to boundary heatmaps, which provide structure information for further attention map generation. Moreover, we propose a Focal Wing Loss for mining and emphasizing the difficult samples under in-the-wild condition. In addition, we adopt methods like CoordConv and Anti-aliased CNN from other fields that address the shift-variance problem of CNN for face alignment. When implementing extensive experiments on different benchmarks, \emph{i.e}\onedot WFLW, 300W, and COFW, our method outperforms state-of-the-arts by a significant margin. Our proposed approach achieves 4.05\% mean error on WFLW, 2.93\% mean error on 300W full-set, and 3.71\% mean error on COFW.
翻訳日:2022-11-17 04:05:37 公開日:2020-06-25
# 角膜顕微鏡によるブラインドの深層学習

Deep Learning for Cornea Microscopy Blind Deblurring ( http://arxiv.org/abs/2006.14319v1 )

ライセンス: Link先を確認
Toussain Cardot, Pilar Marxer, and Ivan Snozzi(参考訳) このプロジェクトの目標は、医学検査に使用される角膜スキャンを分解するディープラーニングソリューションを構築することだ。 眼球の形状は、眼科医が完全に鋭い画像を持つことを防ぐ。 共焦点画像からの角膜のスタックを備えており,sr(super resolution)ネットワークを用いて画像のスケールアップを行うモデルを構築することを目的としている。

The goal of this project is to build a deep-learning solution that deblurs cornea scans, used for medical examination. The spherical shape of the eye prevents ophtamologist from having completely sharp image. Provided with a stack of corneas from confocal images, our approach is to build a model that performs an upscaling of the images using an SR (Super Resolution) Network.
翻訳日:2022-11-17 04:05:10 公開日:2020-06-25
# 完全畳み込み開集合セグメンテーション

Fully Convolutional Open Set Segmentation ( http://arxiv.org/abs/2006.14673v1 )

ライセンス: Link先を確認
Hugo Oliveira, Caio Silva, Gabriel L. S. Machado, Keiller Nogueira, Jefersson A. dos Santos(参考訳) 意味セグメンテーションにおいて、すべての既存のクラスについて知ることは、既存のアプローチの大部分で効果的な結果をもたらすために不可欠である。 しかし、閉じたクラスでトレーニングされたこれらのメソッドは、テストフェーズで新しいクラスが見つかると失敗する。 これは、実際のコンピュータビジョンやリモートセンシングアプリケーションで非常に一般的なOpen Setシナリオには適していないことを意味する。 本稿では,閉集合セグメンテーションの限界について議論し,OpenFCN と OpenPCS という,Open Setセグメンテーションを効果的に扱うための2つの完全な畳み込みアプローチを提案する。 OpenFCNはよく知られたOpenMaxアルゴリズムに基づいており、セグメント設定でこのアプローチの新しいアプリケーションを設定する。 OpenPCSは、DNNアクティベーションから特徴空間をベースとした完全に新しいアプローチであり、低次元空間におけるPCAと多変量ガウス確率の計算機能として機能する。 有名なヴァイヒンゲンとポツダムのセグメンテーションデータセットの実験を行った。 OpenFCNは、よりシンプルではるかに時間効率のよいSoftMaxしきい値よりもわずかに改善した。 OpenPCSはOpenFCNとSoftMaxの閾値を克服することでほぼ全ての実験で有望な結果を得た。 OpenPCSはまた、非常に高速なSoftMaxしきい値設定と非常に遅いOpenFCNのランタイムパフォーマンスの合理的な妥協であり、リアルタイムに近い動作が可能である。 実験によれば、openpcsはオープンセットセグメンテーションに効果的で堅牢であり、既知のクラスピクセルの精度を低下させることなく未知のクラスピクセルの認識を改善することができる。

In semantic segmentation knowing about all existing classes is essential to yield effective results with the majority of existing approaches. However, these methods trained in a Closed Set of classes fail when new classes are found in the test phase. It means that they are not suitable for Open Set scenarios, which are very common in real-world computer vision and remote sensing applications. In this paper, we discuss the limitations of Closed Set segmentation and propose two fully convolutional approaches to effectively address Open Set semantic segmentation: OpenFCN and OpenPCS. OpenFCN is based on the well-known OpenMax algorithm, configuring a new application of this approach in segmentation settings. OpenPCS is a fully novel approach based on feature-space from DNN activations that serve as features for computing PCA and multi-variate gaussian likelihood in a lower dimensional space. Experiments were conducted on the well-known Vaihingen and Potsdam segmentation datasets. OpenFCN showed little-to-no improvement when compared to the simpler and much more time efficient SoftMax thresholding, while being between some orders of magnitude slower. OpenPCS achieved promising results in almost all experiments by overcoming both OpenFCN and SoftMax thresholding. OpenPCS is also a reasonable compromise between the runtime performances of the extremely fast SoftMax thresholding and the extremely slow OpenFCN, being close able to run close to real-time. Experiments also indicate that OpenPCS is effective, robust and suitable for Open Set segmentation, being able to improve the recognition of unknown class pixels without reducing the accuracy on the known class pixels.
翻訳日:2022-11-17 03:58:47 公開日:2020-06-25
# ハイブリッド制約付き半教師付き学習とデュアルUNetによる3D USのQ-Network-Driven Catheter Segmentation

Deep Q-Network-Driven Catheter Segmentation in 3D US by Hybrid Constrained Semi-Supervised Learning and Dual-UNet ( http://arxiv.org/abs/2006.14702v1 )

ライセンス: Link先を確認
Hongxu Yang, Caifeng Shan, Alexander F. Kolen, Peter H. N. de With(参考訳) 3D超音波におけるカテーテルセグメンテーションは, 心的介入に重要である。 しかし,CNN(Deep Convolutional Neural Network, 深層畳み込みニューラルネットワーク)をトレーニングしてカテーテルを分割するには,大量のラベル付き画像が必要である。 本稿では,教師あり学習法よりも少ないアノテーションを要求できるが,それでも優れた性能を実現するための新しいカテーテルセグメンテーション手法を提案する。 提案手法では,Voxelレベルのアノテーションを回避し,ターゲットカテーテルを効率よくローカライズできる,深層Q学習を事前局所化ステップとみなす。 検出されたカテーテルでは、パッチベースのDual-UNetを使用してカテーテルを3Dボリュームデータに分割する。 ラベル付き画像の制限付き双対を訓練し,ラベル付き画像の情報を活用するために,ハイブリッド制約に基づくラベルなし画像を予測から活用する,新しい半教師付きスキームを提案する。 実験により,提案手法は最先端の半教師付き手法よりも高い性能を示すとともに,大規模な未ラベル画像から学習できることを示す。

Catheter segmentation in 3D ultrasound is important for computer-assisted cardiac intervention. However, a large amount of labeled images are required to train a successful deep convolutional neural network (CNN) to segment the catheter, which is expensive and time-consuming. In this paper, we propose a novel catheter segmentation approach, which requests fewer annotations than the supervised learning method, but nevertheless achieves better performance. Our scheme considers a deep Q learning as the pre-localization step, which avoids voxel-level annotation and which can efficiently localize the target catheter. With the detected catheter, patch-based Dual-UNet is applied to segment the catheter in 3D volumetric data. To train the Dual-UNet with limited labeled images and leverage information of unlabeled images, we propose a novel semi-supervised scheme, which exploits unlabeled images based on hybrid constraints from predictions. Experiments show the proposed scheme achieves a higher performance than state-of-the-art semi-supervised methods, while it demonstrates that our method is able to learn from large-scale unlabeled images.
翻訳日:2022-11-17 03:58:19 公開日:2020-06-25
# 最大マルチスケールエントロピーとニューラルネットワーク規則化

Maximum Multiscale Entropy and Neural Network Regularization ( http://arxiv.org/abs/2006.14614v1 )

ライセンス: Link先を確認
Amir R. Asadi, Emmanuel Abbe(参考訳) 情報理論、機械学習、統計物理学においてよく知られた結果は、平均制約の下での最大エントロピー分布がギブス・ボルツマン分布と呼ばれる指数型を持つことを示している。 これは例えば密度推定や、単一スケールエントロピー正規化器 (xu-raginsky '17) に由来する過剰なリスク境界を達成するために用いられる。 本稿では,これらの結果をマルチスケール環境に一般化する。 スケールの概念を取り入れることで、最大エントロピー結果を一般化する様々な方法を提案する。 異なるエントロピーや任意のスケール変換に対して、マルチスケールエントロピーを最大化する分布は、統計物理学における再正規化群法に類似した手順によって特徴づけられる。 デシメーション変換の場合、最適単スケール分布がガウス分布であれば、この分布はガウス分布であることがさらに示される。 これはニューラルネットワークに適用され、教師-学生のシナリオでは、マルチスケールギブス後部はシングルスケールギブス後部よりも小さな過剰リスクを達成できることが示された。

A well-known result across information theory, machine learning, and statistical physics shows that the maximum entropy distribution under a mean constraint has an exponential form called the Gibbs-Boltzmann distribution. This is used for instance in density estimation or to achieve excess risk bounds derived from single-scale entropy regularizers (Xu-Raginsky '17). This paper investigates a generalization of these results to a multiscale setting. We present different ways of generalizing the maximum entropy result by incorporating the notion of scale. For different entropies and arbitrary scale transformations, it is shown that the distribution maximizing a multiscale entropy is characterized by a procedure which has an analogy to the renormalization group procedure in statistical physics. For the case of decimation transformation, it is further shown that this distribution is Gaussian whenever the optimal single-scale distribution is Gaussian. This is then applied to neural networks, and it is shown that in a teacher-student scenario, the multiscale Gibbs posterior can achieve a smaller excess risk than the single-scale Gibbs posterior.
翻訳日:2022-11-17 03:58:00 公開日:2020-06-25
# 音声学と文字列類似性に基づく言語モデルによるテキストの正規化

Normalizing Text using Language Modelling based on Phonetics and String Similarity ( http://arxiv.org/abs/2006.14116v1 )

ライセンス: Link先を確認
Fenil Doshi, Jimit Gandhi, Deep Gosalia and Sudhir Bagul(参考訳) ソーシャルメディアネットワークやチャットプラットフォームは、しばしば非公式の自然テキストを使用する。 逆スペル攻撃は、テキスト中の文字を変更することで入力テキストを変更する傾向がある。 これらのテキストを正規化することは、言語翻訳やテキストから音声合成への様々なアプリケーションにとって重要なステップである。 テキスト正規化を行うための新しいロバストモデルを提案する。 本システムでは,非正規化単語に対応するマスク単語の予測にbert言語モデルを用いる。 本研究では,テキスト中の正規化されていない単語を,音韻的・文字列的類似度指標に基づくユニークなスコアを用いて根本形式に置き換えようとする2つのユニークなマスキング手法を提案する。 我々の戦略は86.7%と83.2%の精度を示し,テキスト正規化処理におけるシステムの有効性を示している。

Social media networks and chatting platforms often use an informal version of natural text. Adversarial spelling attacks also tend to alter the input text by modifying the characters in the text. Normalizing these texts is an essential step for various applications like language translation and text to speech synthesis where the models are trained over clean regular English language. We propose a new robust model to perform text normalization. Our system uses the BERT language model to predict the masked words that correspond to the unnormalized words. We propose two unique masking strategies that try to replace the unnormalized words in the text with their root form using a unique score based on phonetic and string similarity metrics.We use human-centric evaluations where volunteers were asked to rank the normalized text. Our strategies yield an accuracy of 86.7% and 83.2% which indicates the effectiveness of our system in dealing with text normalization.
翻訳日:2022-11-17 03:57:18 公開日:2020-06-25
# 自動ドメイン適応による財務成果予測のための手動ドメイン適応

Automatic Domain Adaptation Outperforms Manual Domain Adaptation for Predicting Financial Outcomes ( http://arxiv.org/abs/2006.14209v1 )

ライセンス: Link先を確認
Marina Sedinkina, Nikolas Breitkopf, Hinrich Sch\"utze(参考訳) 本稿では,財務成果を予測するための感情辞書を自動作成する。 我々は3つのアプローチを比較する: (I) ドメイン一般辞書H4Nのマニュアル適応 (II)H4NとH4Nの自動適応 (iii)第1マニュアルからなり、その後自動適応。 提案実験では, 自動適応型感情辞書が, 金銭的利益とボラティリティの予測において, 先行技術よりも優れていることを示す。 特に、自動適応は手動適応よりも優れている。 本分析では,単語の意味に対する専門家の先入観に基づく注釈は誤りであり,その代わりに対象ドメインにおける単語の文脈に基づいて注釈を行う必要がある。

In this paper, we automatically create sentiment dictionaries for predicting financial outcomes. We compare three approaches: (I) manual adaptation of the domain-general dictionary H4N, (ii) automatic adaptation of H4N and (iii) a combination consisting of first manual, then automatic adaptation. In our experiments, we demonstrate that the automatically adapted sentiment dictionary outperforms the previous state of the art in predicting the financial outcomes excess return and volatility. In particular, automatic adaptation performs better than manual adaptation. In our analysis, we find that annotation based on an expert's a priori belief about a word's meaning can be incorrect -- annotation should be performed based on the word's contexts in the target domain instead.
翻訳日:2022-11-17 03:56:24 公開日:2020-06-25
# リカレント量子ニューラルネットワーク

Recurrent Quantum Neural Networks ( http://arxiv.org/abs/2006.14619v1 )

ライセンス: Link先を確認
Johannes Bausch(参考訳) リカレントニューラルネットワークは、機械翻訳や音声合成など、機械学習におけるシーケンス対シーケンスモデルの基盤となっている。 対照的に、応用量子コンピューティングはその初期段階にある。 それでも、例えばエネルギー最小化タスクの文脈でうまく使われている変分量子固有ソルバのような量子機械学習モデルがすでに存在する。 本研究では,シーケンス学習や整数桁分類などの非自明なタスクにおいて,実証可能な性能を持つ量子リカレントニューラルネットワーク(qrnn)を構築する。 QRNNセルは、振幅増幅と合わせて、入力とセル状態の多項式の非線形活性化を生成し、各ステップで予測されたクラス上の確率分布の抽出を可能にするパラメタライズされた量子ニューロンから構築される。 モデルの性能を調べるために、ピトルチの実装を提供し、数千のパラメータを持つパラメトリック量子回路の比較的効率的な最適化を可能にする。 最適化ハイパーパラメータのベンチマークによるqrnnトレーニングセットアップを確立し,時間構造学習に関するelman's seminal paper (1990) から,簡単な記憶とシーケンス予測タスクに適したネットワークトポロジを分析した。 MNIST分類におけるQRNNの評価は、QRNNに各画像ピクセルを供給し、また、最新のデータ拡張を前処理ステップとして利用する。 最後に、ネットワークのユニタリ性が、既存の多くの量子分類器や古典的RNNを悩ませる消滅する勾配問題にどの程度対処するかを分析する。

Recurrent neural networks are the foundation of many sequence-to-sequence models in machine learning, such as machine translation and speech synthesis. In contrast, applied quantum computing is in its infancy. Nevertheless there already exist quantum machine learning models such as variational quantum eigensolvers which have been used successfully e.g. in the context of energy minimization tasks. In this work we construct a quantum recurrent neural network (QRNN) with demonstrable performance on non-trivial tasks such as sequence learning and integer digit classification. The QRNN cell is built from parametrized quantum neurons, which, in conjunction with amplitude amplification, create a nonlinear activation of polynomials of its inputs and cell state, and allow the extraction of a probability distribution over predicted classes at each step. To study the model's performance, we provide an implementation in pytorch, which allows the relatively efficient optimization of parametrized quantum circuits with thousands of parameters. We establish a QRNN training setup by benchmarking optimization hyperparameters, and analyse suitable network topologies for simple memorisation and sequence prediction tasks from Elman's seminal paper (1990) on temporal structure learning. We then proceed to evaluate the QRNN on MNIST classification, both by feeding the QRNN each image pixel-by-pixel; and by utilising modern data augmentation as preprocessing step. Finally, we analyse to what extent the unitary nature of the network counteracts the vanishing gradient problem that plagues many existing quantum classifiers and classical RNNs.
翻訳日:2022-11-17 03:50:57 公開日:2020-06-25
# 機械学習によるcovid-19対策

Machine-Learning Driven Drug Repurposing for COVID-19 ( http://arxiv.org/abs/2006.14707v1 )

ライセンス: Link先を確認
Semih Cant\"urk, Aman Singh, Patrick St-Amant, Jason Behrmann(参考訳) 機械学習の手法をバイオインフォマティクスに統合することは、ある文脈において治療がいかに効果的であるかを特定する上で、未知の臨床的文脈や新しい病理学に対する有用性を与える。 我々は,ニューラルネットワークモデルを用いて,ウイルスタンパクと抗ウイルス療法との関連を明らかにすることを目的とした。 バイオテクノロジー情報タンパク質データベースであるnational center for biotechnology information virus protein databaseと、bsaas(broad-spectrum antiviral agents)とそれらの阻害するウイルスの包括的報告を提供する drugvirus database を用いて、ウイルスタンパク質配列を入力としてannモデルを訓練し、安否判定する抗ウイルス剤を出力として訓練した。 モデルトレーニングはSARS-CoV-2タンパク質を除外し、第II相、第III相、第IV相、承認されたレベルドラッグのみを含む。 訓練されたモデルへの入力としてSARS-CoV-2(COVID-19を引き起こすウイルス)のシーケンスを使用することで、COVID-19の治療のための暫定的なセーフ・イン・ヒューマン・アンチウイルス候補の出力を生成する。 以上の結果から,複数の薬剤候補が示唆され,その一部は最近の臨床研究の成果を補完するものである。 当社のin-silicoアプローチは、新しい薬剤候補を特定し、他のウイルスに対する治療を行うことを約束しています。

The integration of machine learning methods into bioinformatics provides particular benefits in identifying how therapeutics effective in one context might have utility in an unknown clinical context or against a novel pathology. We aim to discover the underlying associations between viral proteins and antiviral therapeutics that are effective against them by employing neural network models. Using the National Center for Biotechnology Information virus protein database and the DrugVirus database, which provides a comprehensive report of broad-spectrum antiviral agents (BSAAs) and viruses they inhibit, we trained ANN models with virus protein sequences as inputs and antiviral agents deemed safe-in-humans as outputs. Model training excluded SARS-CoV-2 proteins and included only Phases II, III, IV and Approved level drugs. Using sequences for SARS-CoV-2 (the coronavirus that causes COVID-19) as inputs to the trained models produces outputs of tentative safe-in-human antiviral candidates for treating COVID-19. Our results suggest multiple drug candidates, some of which complement recent findings from noteworthy clinical studies. Our in-silico approach to drug repurposing has promise in identifying new drug candidates and treatments for other viruses.
翻訳日:2022-11-17 03:50:03 公開日:2020-06-25
# 非同期マルチエージェントアクティブサーチ

Asynchronous Multi Agent Active Search ( http://arxiv.org/abs/2006.14718v1 )

ライセンス: Link先を確認
Ramina Ghods, Arundhati Banerjee, Jeff Schneider(参考訳) アクティブサーチ(active search)は、データ収集決定を積極的に行うことで未知の環境における目標を効率的に特定する問題であり、空中・地上ロボット(agents)を用いたガス漏れ、放射線源、災害生存者の検出など多くの応用がある。 既存のアクティブ検索手法は一般に1つのエージェントにのみ対応可能であるか、あるいは複数のエージェントに拡張した場合、すべてのエージェントの動作を調整するために中央制御システムを必要とする。 しかし、このような制御システムはロボット工学の応用では実用的でないことが多い。 本稿では,複数のエージェントが中央コーディネータを使わずにデータコレクション決定を独立に行えるように,spats (sparse parallel asynchronous thompson sampling) とlatsi (laplace thompson sampling with information gain) という2つの異なるアクティブ検索アルゴリズムを提案する。 全体を通して、ターゲットは、現実のシナリオにおける圧縮センシングの仮定とその適用性を維持しながら、環境の周囲に疎い位置にあると考えます。 さらに、ほとんどの一般的な探索アルゴリズムは、エージェントが環境全体(例えば圧縮センシング)やポイントワイド(例えばベイズ最適化)を常に感知できると仮定するが、各エージェントが一度に連続した空間領域しか認識できないという現実的な仮定を行う。 提案手法の有効性を実証するためにシミュレーション結果と理論的解析を行った。

Active search refers to the problem of efficiently locating targets in an unknown environment by actively making data-collection decisions, and has many applications including detecting gas leaks, radiation sources or human survivors of disasters using aerial and/or ground robots (agents). Existing active search methods are in general only amenable to a single agent, or if they extend to multi agent they require a central control system to coordinate the actions of all agents. However, such control systems are often impractical in robotics applications. In this paper, we propose two distinct active search algorithms called SPATS (Sparse Parallel Asynchronous Thompson Sampling) and LATSI (LAplace Thompson Sampling with Information gain) that allow for multiple agents to independently make data-collection decisions without a central coordinator. Throughout we consider that targets are sparsely located around the environment in keeping with compressive sensing assumptions and its applicability in real world scenarios. Additionally, while most common search algorithms assume that agents can sense the entire environment (e.g. compressive sensing) or sense point-wise (e.g. Bayesian Optimization) at all times, we make a realistic assumption that each agent can only sense a contiguous region of space at a time. We provide simulation results as well as theoretical analysis to demonstrate the efficacy of our proposed algorithms.
翻訳日:2022-11-17 03:49:17 公開日:2020-06-25
# 仮想スクリーニングのためのディープラーニング - ROCコスト関数を使用する5つの理由

Deep Learning for Virtual Screening: Five Reasons to Use ROC Cost Functions ( http://arxiv.org/abs/2007.07029v1 )

ライセンス: Link先を確認
Vladimir Golkov, Alexander Becker, Daniel T. Plop, Daniel \v{C}uturilo, Neda Davoudi, Jeffrey Mendenhall, Rocco Moretti, Jens Meiler, Daniel Cremers(参考訳) コンピュータ支援薬物発見は、現代薬物開発の重要な要素である。 これにより、深層学習は、望まれる化学的特徴を含む潜在的なヒットに対して、シリコ中の数十億の分子を迅速にスクリーニングするための重要なツールとなった。 その重要性にもかかわらず、厳格なクラス不均衡、高い決定しきい値、いくつかのデータセットにおける根拠の真理ラベルの欠如など、これらのモデルのトレーニングにおいて重大な課題が続いている。 本研究は,クラス不均衡に対する頑健性,異なる決定しきい値を超えて妥協する能力,この妥協における相対重みに影響を及ぼす一定の自由度,典型的なベンチマーク尺度に対する忠実度,正・未ラベル学習に対する同値性などの理由から,レシーバ動作特性(ROC)を直接最適化することを支持する。 また、ROCに基づくコスト関数に対する新しいトレーニングスキーム(コヒーレント・ミニバッチ・アレンジメントおよびアウト・オブ・バッチ・サンプルの使用)や、早期の濃縮を容易にするlogAUCメトリックに基づくコスト関数(予測ヒット化合物の合成においてしばしば望まれるような高い判定しきい値の性能向上)を提案する。 これらのアプローチは、主要な薬物標的家族に対する現実的で多様な薬物発見キャンペーンを表す一連のPubChem高スループットスクリーニングデータセットにおいて、標準的なディープラーニングアプローチよりも優れていることを示す。

Computer-aided drug discovery is an essential component of modern drug development. Therein, deep learning has become an important tool for rapid screening of billions of molecules in silico for potential hits containing desired chemical features. Despite its importance, substantial challenges persist in training these models, such as severe class imbalance, high decision thresholds, and lack of ground truth labels in some datasets. In this work we argue in favor of directly optimizing the receiver operating characteristic (ROC) in such cases, due to its robustness to class imbalance, its ability to compromise over different decision thresholds, certain freedom to influence the relative weights in this compromise, fidelity to typical benchmarking measures, and equivalence to positive/unlabeled learning. We also propose new training schemes (coherent mini-batch arrangement, and usage of out-of-batch samples) for cost functions based on the ROC, as well as a cost function based on the logAUC metric that facilitates early enrichment (i.e. improves performance at high decision thresholds, as often desired when synthesizing predicted hit compounds). We demonstrate that these approaches outperform standard deep learning approaches on a series of PubChem high-throughput screening datasets that represent realistic and diverse drug discovery campaigns on major drug target families.
翻訳日:2022-11-17 03:48:35 公開日:2020-06-25
# 内視鏡画像からの拡散定量化:腫瘍信号の読み方を学ぶ

Perfusion Quantification from Endoscopic Videos: Learning to Read Tumor Signatures ( http://arxiv.org/abs/2006.14321v1 )

ライセンス: Link先を確認
Sergiy Zhuk, Jonathan P. Epperlein, Rahul Nair, Seshu Thirupati, Pol Mac Aonghusa, Ronan Cahill, Donal O'Shea(参考訳) 悪性組織と良性組織との術中鑑別は,蛍光ガイド下癌手術において大きな課題である。 多眼内視鏡映像を用いて術中正常組織と良性腫瘍および悪性腫瘍の鑑別に使用できる動的灌流パターンの微妙な差異をコンピュータ支援で解釈する灌流定量法を提案する。 この方法は、癌血管新生による血管新生が周囲の組織と異なる灌流パターンをもたらすという事実を利用しており、正常な組織と腫瘍を区別するために用いられる腫瘍の徴候を定義する。 大腸癌手術内視鏡ビデオのコホートを用いた方法の実験的評価から,提案する腫瘍マーカーは95%の精度で健康組織,癌組織,良性組織を判別できる可能性が示唆された。

Intra-operative identification of malignant versus benign or healthy tissue is a major challenge in fluorescence guided cancer surgery. We propose a perfusion quantification method for computer-aided interpretation of subtle differences in dynamic perfusion patterns which can be used to distinguish between normal tissue and benign or malignant tumors intra-operatively in real-time by using multispectral endoscopic videos. The method exploits the fact that vasculature arising from cancer angiogenesis gives tumors differing perfusion patterns from the surrounding tissue, and defines a signature of tumor which could be used to differentiate tumors from normal tissues. Experimental evaluation of our method on a cohort of colorectal cancer surgery endoscopic videos suggests that the proposed tumor signature is able to successfully discriminate between healthy, cancerous and benign tissue with 95% accuracy.
翻訳日:2022-11-17 03:47:59 公開日:2020-06-25
# ディープリコンストラクションと予測を用いた自律システムの異常検出

Anomaly Detection using Deep Reconstruction and Forecasting for Autonomous Systems ( http://arxiv.org/abs/2006.14556v1 )

ライセンス: Link先を確認
Nadarasar Bahavan, Navaratnarajah Suman, Sulhi Cader, Ruwinda Ranganayake, Damitha Seneviratne, Vinu Maddumage, Gershom Seneviratne, Yasinha Supun, Isuru Wijesiri, Suchitha Dehigaspitiya, Dumindu Tissera, Chamira Edussooriya(参考訳) 我々は,正面カメラ映像とIMU読影を用いた異種自律システムの異常検出のための自己教師型ディープアルゴリズムを提案する。 ビデオとIMUデータが同期されていないことを考慮し、それぞれ別々に分析する。 条件付きGANを利用するビジョンベースシステムは、直前の3つのフレームを分析し、次のフレームを予測する。 フレームは、予測誤差としきい値を用いて推定される差の程度に基づいて、異常ケースまたは正常ケースのいずれかに分類される。 IMUベースのシステムはタイムスタンプの分類に2つのアプローチを利用する: 1つは3つの連続したIMUベクトルを再構成するLSTMオートエンコーダ、2つは3つのIMUベクトルを使用して次のベクトルを予測するLSTM予測器である。 再構成誤差、予測誤差、閾値に基づいて、タイムスタンプを異常ケースまたは正常ケースに分類する。 アルゴリズムの合成は、2020年のIEEE Signal Processing Cupの異常検出コンテストで優勝した。 正常ケースと異常ケースの両方からなるカメラフレームの競合データセットにおいて、テスト精度は94%、F1スコアは0.95である。 さらに、通常のIMUデータを含むテストセットで100%の精度、異常IMUデータのテストセットで0.98のF1スコアを実現する。

We propose self-supervised deep algorithms to detect anomalies in heterogeneous autonomous systems using frontal camera video and IMU readings. Given that the video and IMU data are not synchronized, each of them are analyzed separately. The vision-based system, which utilizes a conditional GAN, analyzes immediate-past three frames and attempts to predict the next frame. The frame is classified as either an anomalous case or a normal case based on the degree of difference estimated using the prediction error and a threshold. The IMU-based system utilizes two approaches to classify the timestamps; the first being an LSTM autoencoder which reconstructs three consecutive IMU vectors and the second being an LSTM forecaster which is utilized to predict the next vector using the previous three IMU vectors. Based on the reconstruction error, the prediction error, and a threshold, the timestamp is classified as either an anomalous case or a normal case. The composition of algorithms won runners up at the IEEE Signal Processing Cup anomaly detection challenge 2020. In the competition dataset of camera frames consisting of both normal and anomalous cases, we achieve a test accuracy of 94% and an F1-score of 0.95. Furthermore, we achieve an accuracy of 100% on a test set containing normal IMU data, and an F1-score of 0.98 on the test set of abnormal IMU data.
翻訳日:2022-11-17 03:47:29 公開日:2020-06-25
# アンサンブルカルマンフィルタと貯留層計算を組み合わせた不完全な観測とモデルによる時空間カオスシステムの予測

Combining Ensemble Kalman Filter and Reservoir Computing to predict spatio-temporal chaotic systems from imperfect observations and models ( http://arxiv.org/abs/2006.14276v1 )

ライセンス: Link先を確認
Futo Tomizawa and Yohei Sawada(参考訳) 数値気象予測(NWP)など様々な分野において,時空間カオスシステムの予測が重要である。 nwpではデータ同化手法が採用されているが、リザーバコンピューティング(rc)のような機械学習技術は、時空間カオスシステムを予測する有望なツールとして最近認識されている。 しかし、観察の不完全さに対する予測に基づく機械学習のスキルの感度は明らかでない。 本研究では,騒音の少ない分散観測を行い,rcの技能を評価する。 局所アンサンブル変換カルマンフィルタと局所アンサンブル変換カルマンフィルタ(LETKF)の性能を,ロレンツ96系の予測に適用することにより,集中的に比較した。 完全に観測された場合、rcはlorenz 96システムの予測に成功するが、reckfと比較して、rcは観測スパーシティに弱いことが判明した。 RCの限界を克服するため,LETKFとRCを組み合わせることを提案する。 提案手法では,LETKFで推定した解析時系列をRCにより予測する。 提案手法は,ノイズと疎分布の観測によりロレンツ96系の予測に成功した。 最も重要なことは、プロセスベースモデルが不完全である場合、LETKFよりも予測が優れていることである。

Prediction of spatio-temporal chaotic systems is important in various fields, such as Numerical Weather Prediction (NWP). While data assimilation methods have been applied in NWP, machine learning techniques, such as Reservoir Computing (RC), are recently recognized as promising tools to predict spatio-temporal chaotic systems. However, the sensitivity of the skill of the machine learning based prediction to the imperfectness of observations is unclear. In this study, we evaluate the skill of RC with noisy and sparsely distributed observations. We intensively compare the performances of RC and Local Ensemble Transform Kalman Filter (LETKF) by applying them to the prediction of the Lorenz 96 system. Although RC can successfully predict the Lorenz 96 system if the system is perfectly observed, we find that RC is vulnerable to observation sparsity compared with LETKF. To overcome this limitation of RC, we propose to combine LETKF and RC. In our proposed method, the system is predicted by RC that learned the analysis time series estimated by LETKF. Our proposed method can successfully predict the Lorenz 96 system using noisy and sparsely distributed observations. Most importantly, our method can predict better than LETKF when the process-based model is imperfect.
翻訳日:2022-11-17 03:41:55 公開日:2020-06-25
# 負サンプリングを用いた高次スキップグラムによる時変グラフ表現学習

Time-varying Graph Representation Learning via Higher-Order Skip-Gram with Negative Sampling ( http://arxiv.org/abs/2006.14330v1 )

ライセンス: Link先を確認
Simone Piaggesi, Andr\'e Panisson(参考訳) グラフの表現学習モデルは、ノードを他の機械学習アルゴリズムによって活用できる特徴空間に投影する技術群として成功している。 多くの実世界のネットワークは本質的に動的であり、ノード間の相互作用は時間とともに変化するため、これらの技法は静的グラフと時変グラフの両方で定義できる。 ここでは,スキップグラム埋め込み手法が行列因数分解を暗黙的に行うという事実に基づいて,時間変化グラフの異なるテンソル表現に対して暗黙的なテンソル因数分解を行うように拡張する。 負サンプリングを用いた高次スキップグラム(HOSGNS)は,ノードと時間の役割を,他のアプローチで必要とされるパラメータのごく一部で切り離すことができることを示す。 本研究では,ネットワーク再構築などの下流課題の解決や,病気の拡散などの動的プロセスの結果を予測するために,学習した時間変化グラフ表現が最先端の手法よりも優れていることを示す。 ソースコードとデータはhttps://github.com/simonepiaggesi/hosgnsで公開されている。

Representation learning models for graphs are a successful family of techniques that project nodes into feature spaces that can be exploited by other machine learning algorithms. Since many real-world networks are inherently dynamic, with interactions among nodes changing over time, these techniques can be defined both for static and for time-varying graphs. Here, we build upon the fact that the skip-gram embedding approach implicitly performs a matrix factorization, and we extend it to perform implicit tensor factorization on different tensor representations of time-varying graphs. We show that higher-order skip-gram with negative sampling (HOSGNS) is able to disentangle the role of nodes and time, with a small fraction of the number of parameters needed by other approaches. We empirically evaluate our approach using time-resolved face-to-face proximity data, showing that the learned time-varying graph representations outperform state-of-the-art methods when used to solve downstream tasks such as network reconstruction, and to predict the outcome of dynamical processes such as disease spreading. The source code and data are publicly available at https://github.com/simonepiaggesi/hosgns.
翻訳日:2022-11-17 03:41:13 公開日:2020-06-25
# 個人の確率的勾配降下におけるプライバシの安定性向上と応用

Stability Enhanced Privacy and Applications in Private Stochastic Gradient Descent ( http://arxiv.org/abs/2006.14360v1 )

ライセンス: Link先を確認
Lauren Watson, Benedek Rozemberczki, Rik Sarkar(参考訳) プライベート機械学習は、トレーニング中にノイズを追加し、精度を低下させる。 直感的には、より大きな安定性はプライバシーを高め、プライバシーとユーティリティのトレードオフを改善する可能性がある。 出力の摂動によって差分プライバシーが達成されるプライベートな経験的リスク最小化におけるこの安定性の役割を考察し、強凸損失関数に対して、$\beta$の均一な安定性を持つアルゴリズムは、差分プライバシーに必要なノイズのスケールにおいて$O(\sqrt{\beta})$の上限を意味することを示す。 その結果は、明らかな正則化と、安定であることが知られている確率勾配 Descent の適応のような暗黙的に安定化された ERM の両方に適用できる。 これにより、SGDの修正によってプライバシーを改善する最近の結果を一般化し、統一的な視点として安定性を確立する。 これは、統一された安定性を保証する最適化のための新しいプライバシー保証を意味する。 弾性ネットの適用や特徴選択など,安定性の向上されたプライバシの有効性を検証する実験結果が得られた。

Private machine learning involves addition of noise while training, resulting in lower accuracy. Intuitively, greater stability can imply greater privacy and improve this privacy-utility tradeoff. We study this role of stability in private empirical risk minimization, where differential privacy is achieved by output perturbation, and establish a corresponding theoretical result showing that for strongly-convex loss functions, an algorithm with uniform stability of $\beta$ implies a bound of $O(\sqrt{\beta})$ on the scale of noise required for differential privacy. The result applies to both explicit regularization and to implicitly stabilized ERM, such as adaptations of Stochastic Gradient Descent that are known to be stable. Thus, it generalizes recent results that improve privacy through modifications to SGD, and establishes stability as the unifying perspective. It implies new privacy guarantees for optimizations with uniform stability guarantees, where a corresponding differential privacy guarantee was previously not known. Experimental results validate the utility of stability enhanced privacy in several problems, including application of elastic nets and feature selection.
翻訳日:2022-11-17 03:40:53 公開日:2020-06-25
# ベイズ最適化による確率勾配降下の自動チューニング

Automatic Tuning of Stochastic Gradient Descent with Bayesian Optimisation ( http://arxiv.org/abs/2006.14376v1 )

ライセンス: Link先を確認
Victor Picheny, Vincent Dutordoir, Artem Artemev, Nicolas Durrande(参考訳) 多くの機械学習モデルは、確率勾配降下に基づくトレーニング手順を必要とする。 これらのアルゴリズムの効率性の重要な要素は、学習率スケジュールの選択である。 ベイズ最適化を使って優れた学習率のスケジュールを見つけることは、いくつかの著者によって取り組まれているが、データ駆動の方法で動的にそれを適用することは、オープン質問である。 単一の高価なモデルをトレーニングする必要があるユーザーにとって、これは非常に実用的です。 そこで本研究では,潜在ガウス過程と自己回帰的定式化に基づき,新しい学習率値によって引き起こされる行動の変化に対して柔軟に適応する光学系トレースの確率モデルを提案する。 上述したように、このモデルは、まず、コールドスタート実行における学習率のオンライン適応のために、次に、類似したタスクのセット(古典的なBO設定)のスケジュールを調整し、新しいタスクのためにウォームスタートする、という一連の問題に対処するのに適している。

Many machine learning models require a training procedure based on running stochastic gradient descent. A key element for the efficiency of those algorithms is the choice of the learning rate schedule. While finding good learning rates schedules using Bayesian optimisation has been tackled by several authors, adapting it dynamically in a data-driven way is an open question. This is of high practical importance to users that need to train a single, expensive model. To tackle this problem, we introduce an original probabilistic model for traces of optimisers, based on latent Gaussian processes and an auto-/regressive formulation, that flexibly adjusts to abrupt changes of behaviours induced by new learning rate values. As illustrated, this model is well-suited to tackle a set of problems: first, for the on-line adaptation of the learning rate for a cold-started run; then, for tuning the schedule for a set of similar tasks (in a classical BO setup), as well as warm-starting it for a new task.
翻訳日:2022-11-17 03:40:32 公開日:2020-06-25
# 2層ニューラルネットワークモデルにおけるグラディエントDescent Dynamicsの焼入れ活性化挙動

The Quenching-Activation Behavior of the Gradient Descent Dynamics for Two-layer Neural Network Models ( http://arxiv.org/abs/2006.14450v1 )

ライセンス: Link先を確認
Chao Ma, Lei Wu, Weinan E(参考訳) 比較的少数のニューロンで目標関数を正確に近似できる場合, 2層ニューラルネットワークモデルを訓練するための勾配降下(GD)アルゴリズムの数値的および現象論的研究を行う。 It is found that for Xavier-like initialization, there are two distinctive phases in the dynamic behavior of GD in the under-parametrized regime: An early phase in which the GD dynamics follows closely that of the corresponding random feature model and the neurons are effectively quenched, followed by a late phase in which the neurons are divided into two groups: a group of a few "activated" neurons that dominate the dynamics and a group of background (or "quenched") neurons that support the continued activation and deactivation process. このニューラルネットワークのような振る舞いは、ランダムな特徴のような振る舞いに遷移する、軽度にパラメトリ化されたレジームに継続される。 焼成活性化プロセスは「単純正則化」の明確なメカニズムを提供するようである。 これは、全てのニューロンが等しく参加し、ネットワークパラメータが変更されたときに定性的変化がないという「平均場」スケーリングに関連する力学と定性的に異なる。

A numerical and phenomenological study of the gradient descent (GD) algorithm for training two-layer neural network models is carried out for different parameter regimes when the target function can be accurately approximated by a relatively small number of neurons. It is found that for Xavier-like initialization, there are two distinctive phases in the dynamic behavior of GD in the under-parametrized regime: An early phase in which the GD dynamics follows closely that of the corresponding random feature model and the neurons are effectively quenched, followed by a late phase in which the neurons are divided into two groups: a group of a few "activated" neurons that dominate the dynamics and a group of background (or "quenched") neurons that support the continued activation and deactivation process. This neural network-like behavior is continued into the mildly over-parametrized regime, where it undergoes a transition to a random feature-like behavior. The quenching-activation process seems to provide a clear mechanism for "implicit regularization". This is qualitatively different from the dynamics associated with the "mean-field" scaling where all neurons participate equally and there does not appear to be qualitative changes when the network parameters are changed.
翻訳日:2022-11-17 03:39:58 公開日:2020-06-25
# 適応正規化ハードThresholdingによるスパース凸最適化

Sparse Convex Optimization via Adaptively Regularized Hard Thresholding ( http://arxiv.org/abs/2006.14571v1 )

ライセンス: Link先を確認
Kyriakos Axiotis and Maxim Sviridenko(参考訳) Sparse Convex Optimization の目標は、余剰制約の下で凸関数 $f$ を最適化することである。$s\leq s^*\gamma$, ここで、$s^*$ は実現可能な解(スパーシティ)におけるゼロでないエントリのターゲット数であり、$\gamma\geq 1$ は近似係数である。 制限条件番号$\kappa$の観点で、様々なアルゴリズム(LASSO, Orthogonal Matching Pursuit (OMP), Iterative Hard Thresholding (IHT))のスパーシビリティ保証を分析する作業が数多く行われている。 最もよく知られたアルゴリズムは、$\gamma = o\left(\kappa\min\left\{\log \frac{f(x^0)-f(x^*)}{\epsilon}, \kappa\right\}\right)$ のスパーシティ境界を持つ値 $f(x^*)+\epsilon$ の近似解を見つけることを保証する。 本稿では,適応正規化ハードThresholding (ARHT) アルゴリズムを提案する。このアルゴリズムは, LASSO, OMP, IHT などのアルゴリズムの一般クラスに対して厳密であることを示す$\gamma=O(\kappa)$に値下げすることで,この問題を大幅に進展させる。 これは、既知のアルゴリズムと比較してランタイム効率を大幅に犠牲にすることなく実現されている。 また, s > s^* \frac{\kappa^2}{4}$ という条件下では, s > s^* \frac{\kappa^2}{4}$ で omp with replacement (ompr) の新たな解析法を提案する。 他の圧縮センシングアプローチと比較すると、rip条件と解スパーシティの間の強いトレードオフを提供し、rip条件を満たす任意の一般的な関数$f$で作業する利点がある。

The goal of Sparse Convex Optimization is to optimize a convex function $f$ under a sparsity constraint $s\leq s^*\gamma$, where $s^*$ is the target number of non-zero entries in a feasible solution (sparsity) and $\gamma\geq 1$ is an approximation factor. There has been a lot of work to analyze the sparsity guarantees of various algorithms (LASSO, Orthogonal Matching Pursuit (OMP), Iterative Hard Thresholding (IHT)) in terms of the Restricted Condition Number $\kappa$. The best known algorithms guarantee to find an approximate solution of value $f(x^*)+\epsilon$ with the sparsity bound of $\gamma = O\left(\kappa\min\left\{\log \frac{f(x^0)-f(x^*)}{\epsilon}, \kappa\right\}\right)$, where $x^*$ is the target solution. We present a new Adaptively Regularized Hard Thresholding (ARHT) algorithm that makes significant progress on this problem by bringing the bound down to $\gamma=O(\kappa)$, which has been shown to be tight for a general class of algorithms including LASSO, OMP, and IHT. This is achieved without significant sacrifice in the runtime efficiency compared to the fastest known algorithms. We also provide a new analysis of OMP with Replacement (OMPR) for general $f$, under the condition $s > s^* \frac{\kappa^2}{4}$, which yields Compressed Sensing bounds under the Restricted Isometry Property (RIP). When compared to other Compressed Sensing approaches, it has the advantage of providing a strong tradeoff between the RIP condition and the solution sparsity, while working for any general function $f$ that meets the RIP condition.
翻訳日:2022-11-17 03:39:20 公開日:2020-06-25
# 教師なし視覚特徴学習のためのパラメトリックインスタンス分類

Parametric Instance Classification for Unsupervised Visual Feature Learning ( http://arxiv.org/abs/2006.14618v1 )

ライセンス: Link先を確認
Yue Cao, Zhenda Xie, Bin Liu, Yutong Lin, Zheng Zhang, Han Hu(参考訳) 本稿では、教師なし視覚特徴学習のためのパラメトリックインスタンス分類(PIC)を提案する。 二重ブランチの非パラメトリックな方法でインスタンス識別を行う最先端のアプローチとは異なり、PICは直接1ブランチのパラメトリックのインスタンス分類を実行し、教師付き分類に似た単純なフレームワークを明らかにし、情報漏洩問題に対処する必要がない。 我々は,このシンプルなPICフレームワークが,最先端のアプローチ,すなわちSimCLRとMoCo v2と同等に効果的であることを示し,最先端のアプローチで使用されるいくつかの共通コンポーネント設定を適用した。 PICの有効性と実用性をさらに向上する2つの新しい手法を提案する。 1)スライディングウインドウデータスケジューラは,前回のエポックベースのデータスケジューラの代わりに,picの極めて稀なインスタンス訪問問題に対処し,その効果を向上させる。 2) トレーニング時間とGPUメモリ消費を削減し, PICをほぼ無制限のトレーニング画像に適用する, 負サンプリングと重み更新補正手法を提案する。 PICフレームワークが,今後の研究を促進するためのシンプルなベースラインとして機能できることを願っている。

This paper presents parametric instance classification (PIC) for unsupervised visual feature learning. Unlike the state-of-the-art approaches which do instance discrimination in a dual-branch non-parametric fashion, PIC directly performs a one-branch parametric instance classification, revealing a simple framework similar to supervised classification and without the need to address the information leakage issue. We show that the simple PIC framework can be as effective as the state-of-the-art approaches, i.e. SimCLR and MoCo v2, by adapting several common component settings used in the state-of-the-art approaches. We also propose two novel techniques to further improve effectiveness and practicality of PIC: 1) a sliding-window data scheduler, instead of the previous epoch-based data scheduler, which addresses the extremely infrequent instance visiting issue in PIC and improves the effectiveness; 2) a negative sampling and weight update correction approach to reduce the training time and GPU memory consumption, which also enables application of PIC to almost unlimited training images. We hope that the PIC framework can serve as a simple baseline to facilitate future study.
翻訳日:2022-11-17 03:31:45 公開日:2020-06-25
# 適応的付加的分類に基づくDeep Metric Learningのための損失

Adaptive additive classification-based loss for deep metric learning ( http://arxiv.org/abs/2006.14693v1 )

ライセンス: Link先を確認
Istvan Fehervari and Ives Macedo(参考訳) 近年の研究では、深い計量学習アルゴリズムは、他の入力モダリティの弱い監督の恩恵を受けることが示されている。 この追加のモダリティは、距離として人気のある三重項に基づく損失関数に直接組み込むことができる。 また、近年では分類損失やプロキシに基づく計量学習が観察され、複雑でコストのかかるサンプリング戦略を必要とせず、より高速な収束とより良い検索結果が得られている。 本稿では,分類に基づくディープメトリック学習のための適応マージンの拡張を提案する。 当社のエクステンションでは,サンプル毎の負のプロキシ毎にマージンを別々に導入しています。 これらのマージンは、他のモダリティのクラスの事前計算された距離からトレーニング中に計算される。 私たちの結果は、Amazonのファッション検索データセットとパブリックなDeepFashionデータセットの両方に新しい最先端技術を設定しました。 これは、追加のテキストモダリティのためのfastTextとBERTベースの埋め込みで観察された。 私たちの結果は、コンバージェンスとコードの複雑さを従来の最先端よりも速くして達成しました。

Recent works have shown that deep metric learning algorithms can benefit from weak supervision from another input modality. This additional modality can be incorporated directly into the popular triplet-based loss function as distances. Also recently, classification loss and proxy-based metric learning have been observed to lead to faster convergence as well as better retrieval results, all the while without requiring complex and costly sampling strategies. In this paper we propose an extension to the existing adaptive margin for classification-based deep metric learning. Our extension introduces a separate margin for each negative proxy per sample. These margins are computed during training from precomputed distances of the classes in the other modality. Our results set a new state-of-the-art on both on the Amazon fashion retrieval dataset as well as on the public DeepFashion dataset. This was observed with both fastText- and BERT-based embeddings for the additional textual modality. Our results were achieved with faster convergence and lower code complexity than the prior state-of-the-art.
翻訳日:2022-11-17 03:31:26 公開日:2020-06-25
# 時空間反復推論を用いた教師なしビデオ分解

Unsupervised Video Decomposition using Spatio-temporal Iterative Inference ( http://arxiv.org/abs/2006.14727v1 )

ライセンス: Link先を確認
Polina Zablotskaia, Edoardo A. Dominici, Leonid Sigal, Andreas M. Lehrmann(参考訳) 教師なしマルチオブジェクトシーン分解は、表現学習の高速化問題である。 静的シーンの大幅な進歩にもかかわらず、このようなモデルはビデオに現れる重要なダイナミックな手がかりを活用できない。 本稿では,複雑な多対象表現と,フレーム間の潜在変数間の明示的な時間的依存関係をモデル化するのに十分な,新しい時空間反復推論フレームワークを提案する。 これは、2D-LSTM、時間的条件付き推論と生成を反復的償却推論に活用することで達成される。 本手法は分解の全体的な品質を改善し,オブジェクトのダイナミクスに関する情報をエンコードし,各オブジェクトの軌跡を別々に予測する。 さらに,色情報のないモデルでも精度が高いことを示す。 モデルの分解、セグメンテーション、予測機能を実証し、いくつかのベンチマークデータセットの最先端を上回っており、そのうちの1つはこの作業のためにキュレートされ、公開される予定だ。

Unsupervised multi-object scene decomposition is a fast-emerging problem in representation learning. Despite significant progress in static scenes, such models are unable to leverage important dynamic cues present in video. We propose a novel spatio-temporal iterative inference framework that is powerful enough to jointly model complex multi-object representations and explicit temporal dependencies between latent variables across frames. This is achieved by leveraging 2D-LSTM, temporally conditioned inference and generation within the iterative amortized inference for posterior refinement. Our method improves the overall quality of decompositions, encodes information about the objects' dynamics, and can be used to predict trajectories of each object separately. Additionally, we show that our model has a high accuracy even without color information. We demonstrate the decomposition, segmentation, and prediction capabilities of our model and show that it outperforms the state-of-the-art on several benchmark datasets, one of which was curated for this work and will be made publicly available.
翻訳日:2022-11-17 03:31:12 公開日:2020-06-25
# State of AI Ethics Report(2020年6月)

The State of AI Ethics Report (June 2020) ( http://arxiv.org/abs/2006.14662v1 )

ライセンス: Link先を確認
Abhishek Gupta (1 and 2), Camylle Lanteigne (1 and 3), Victoria Heath (1 and 4), Marianna Bergamaschi Ganapini (1 and 5), Erick Galinkin (1 and 6), Allison Cohen (1 and 7), Tania De Gasperis (1 and 8), Mo Akif (1 and 3), Renjie Butalid (1) ((1) Montreal AI Ethics Institute, (2) Microsoft, (3) McGill University, (4) Creative Commons, (5) Union College, (6) Rapid7, (7) AI Global, (8) OCAD University)(参考訳) ここ数ヶ月は特に困難であり、unrivalledのペースでテストされていない方法でのテクノロジーの展開は、インターネットとテクノロジーウォッチャーを苦しめている。 人工知能はテクノロジーの進歩の副産物となり、新型コロナウイルス(COVID-19)のパンデミックと戦うことから、インターネット上でますます多くの時間を過ごすようになり、さまざまな方向に注意を向けることまで、あらゆる分野で利用されています。 この分野の発展と、それが私たちの社会とお互いの相互作用をどのように形作っているのかを注視することは、これまで以上に重要でした。 state of ai ethicsのこの第1版では、この四半期にモントリオールai倫理研究所で注目された最も重要な開発を前進させたいと思っています。 私たちのゴールは、この進化を続ける領域を素早くナビゲートし、あなたとあなたの組織が情報的な決定を下せるようにすることです。 この、言論、研究、開発の現状のパルスチェックは、AI対応ソリューションの社会的影響を考慮する上で、組織に代わって意思決定をしている研究者や実践者などを対象としている。 このレポートでは、Acrea and Responsibility, Security and Risk, Disinformation, Jobs and Labor, the Future of AI Ethicsなど、さまざまな分野をカバーしています。 当社のスタッフは過去4四半期にわたって、ノイズからの信号に疲れなく取り組んできたので、この複雑で連続的なドメインを確実に踏むための適切なツールと知識が備わっています。

These past few months have been especially challenging, and the deployment of technology in ways hitherto untested at an unrivalled pace has left the internet and technology watchers aghast. Artificial intelligence has become the byword for technological progress and is being used in everything from helping us combat the COVID-19 pandemic to nudging our attention in different directions as we all spend increasingly larger amounts of time online. It has never been more important that we keep a sharp eye out on the development of this field and how it is shaping our society and interactions with each other. With this inaugural edition of the State of AI Ethics we hope to bring forward the most important developments that caught our attention at the Montreal AI Ethics Institute this past quarter. Our goal is to help you navigate this ever-evolving field swiftly and allow you and your organization to make informed decisions. This pulse-check for the state of discourse, research, and development is geared towards researchers and practitioners alike who are making decisions on behalf of their organizations in considering the societal impacts of AI-enabled solutions. We cover a wide set of areas in this report spanning Agency and Responsibility, Security and Risk, Disinformation, Jobs and Labor, the Future of AI Ethics, and more. Our staff has worked tirelessly over the past quarter surfacing signal from the noise so that you are equipped with the right tools and knowledge to confidently tread this complex yet consequential domain.
翻訳日:2022-11-17 03:30:57 公開日:2020-06-25
# 一般化性を保証したグラフニューラルネットワークの高速学習:一層化の場合

Fast Learning of Graph Neural Networks with Guaranteed Generalizability: One-hidden-layer Case ( http://arxiv.org/abs/2006.14117v1 )

ライセンス: Link先を確認
Shuai Zhang, Meng Wang, Sijia Liu, Pin-Yu Chen, Jinjun Xiong(参考訳) グラフニューラルネットワーク(gnns)は、グラフ構造化データから実際に学習することで近年大きな進歩を遂げているが、その一般化可能性に関する理論的保証は文献ではまだ解明されていない。 本稿では,回帰と二項分類の両問題に対して,GNNを1つの隠蔽層で解析する。 グランドトルースGNNモデルが存在すると仮定すると(一般化誤差ゼロ)、GNN学習の目的はトレーニングデータからグランドトルースGNNパラメータを推定することである。 この目的を達成するために,テンソル初期化と勾配降下の高速化に基づく学習アルゴリズムを提案する。 そこで,提案した学習アルゴリズムは回帰問題に対する基底構造GNNモデルに収束し,二項分類問題に対する基底構造に十分近いモデルに収束することを示した。 また,いずれの場合においても,提案手法の収束率はバニラ勾配降下アルゴリズムよりも線形かつ高速であることが証明された。 さらに、GNNのサンプル複雑性と基礎となるグラフ特性との関係について検討する。 最後に,GNNにおける解析の有効性と学習アルゴリズムの有効性を示す数値実験を行った。

Although graph neural networks (GNNs) have made great progress recently on learning from graph-structured data in practice, their theoretical guarantee on generalizability remains elusive in the literature. In this paper, we provide a theoretically-grounded generalizability analysis of GNNs with one hidden layer for both regression and binary classification problems. Under the assumption that there exists a ground-truth GNN model (with zero generalization error), the objective of GNN learning is to estimate the ground-truth GNN parameters from the training data. To achieve this objective, we propose a learning algorithm that is built on tensor initialization and accelerated gradient descent. We then show that the proposed learning algorithm converges to the ground-truth GNN model for the regression problem, and to a model sufficiently close to the ground-truth for the binary classification problem. Moreover, for both cases, the convergence rate of the proposed learning algorithm is proven to be linear and faster than the vanilla gradient descent algorithm. We further explore the relationship between the sample complexity of GNNs and their underlying graph properties. Lastly, we provide numerical experiments to demonstrate the validity of our analysis and the effectiveness of the proposed learning algorithm for GNNs.
翻訳日:2022-11-17 03:30:29 公開日:2020-06-25
# lyapunov exponents for rnnsについて:動的システムツールを用いた情報伝達の理解

On Lyapunov Exponents for RNNs: Understanding Information Propagation Using Dynamical Systems Tools ( http://arxiv.org/abs/2006.14123v1 )

ライセンス: Link先を確認
Ryan Vogt, Maximilian Puelma Touzel, Eli Shlizerman, Guillaume Lajoie(参考訳) リカレントニューラルネットワーク(RNN)は、シーケンシャルデータを含む様々な問題にうまく適用されているが、その最適化はパラメータの初期化、アーキテクチャ、オプティマイザハイパーパラメーターに敏感である。 RNNを力学系として考えると、安定を捉える自然な方法、すなわち長い反復による成長と崩壊は、リアプノフスペクトルを形成するリアプノフ指数(LE)である。 情報の前方伝播は誤差勾配の後方伝播に関連しているため、lesはrnnトレーニングダイナミクスの安定性に重点を置いている。 LEは非線形系軌跡の拡大と収縮の漸近速度を測定し、データ駆動RNNの非自律力学を構造化する時間変化アトラクタに安定性解析を一般化する。 トレーニングダイナミクスの安定性を理解し、活用するためのツールとして、リアプノフスペクトルは、限られたスコープの規範的数学的アプローチと計算的に拡張された経験的アプローチとのギャップを埋める。 このツールを活用するために、トレーニング中にRNNのLEを計算する効率的な方法を実装し、典型的なシーケンシャルデータセットによって駆動される標準RNNアーキテクチャに特有の側面について議論し、Lyapunovスペクトルがハイパーパラメータ間のトレーニング安定性の堅牢な読み出しとして役立つことを示す。 この展示指向の貢献により、RNNのトレーニング安定性を理解するための理論的に根拠のあるツールに注意を向けたい。

Recurrent neural networks (RNNs) have been successfully applied to a variety of problems involving sequential data, but their optimization is sensitive to parameter initialization, architecture, and optimizer hyperparameters. Considering RNNs as dynamical systems, a natural way to capture stability, i.e., the growth and decay over long iterates, are the Lyapunov Exponents (LEs), which form the Lyapunov spectrum. The LEs have a bearing on stability of RNN training dynamics because forward propagation of information is related to the backward propagation of error gradients. LEs measure the asymptotic rates of expansion and contraction of nonlinear system trajectories, and generalize stability analysis to the time-varying attractors structuring the non-autonomous dynamics of data-driven RNNs. As a tool to understand and exploit stability of training dynamics, the Lyapunov spectrum fills an existing gap between prescriptive mathematical approaches of limited scope and computationally-expensive empirical approaches. To leverage this tool, we implement an efficient way to compute LEs for RNNs during training, discuss the aspects specific to standard RNN architectures driven by typical sequential datasets, and show that the Lyapunov spectrum can serve as a robust readout of training stability across hyperparameters. With this exposition-oriented contribution, we hope to draw attention to this understudied, but theoretically grounded tool for understanding training stability in RNNs.
翻訳日:2022-11-17 03:30:10 公開日:2020-06-25
# 幾何学的予測:スカラーを越える

Geometric Prediction: Moving Beyond Scalars ( http://arxiv.org/abs/2006.14163v1 )

ライセンス: Link先を確認
Raphael J. L. Townshend, Brent Townshend, Stephan Eismann, Ron O. Dror(参考訳) 予測することに興味のある量の多くは幾何テンソルであり、このクラスの問題を幾何学的予測と呼ぶ。 現実世界のシナリオで幾何学的予測を行う試みは、スカラー予測を通じてそれらを近似することに限られており、データの効率が低下している。 本研究では,同変ネットワークが,そのような近似を必要とせずに実世界の幾何テンソルを予測できることを示す。 本稿では,この手法が力場予測に適用可能であることを示すとともに,生体分子構造改善という重要な課題の新たな定式化を幾何学的予測問題として提案する。 両方の設定において、我々の同変ネットワークは、小さなサンプルセットで訓練されたにもかかわらず、目に見えないシステムに一般化できることがわかった。 現実世界の幾何学的テンソルを予測できるこの新規でデータ効率の良い能力は、3dビジョン、ロボティクス、分子・構造生物学といった分野における幾何学的予測のレンズを通して多くの問題に対処するための扉を開く。

Many quantities we are interested in predicting are geometric tensors; we refer to this class of problems as geometric prediction. Attempts to perform geometric prediction in real-world scenarios have been limited to approximating them through scalar predictions, leading to losses in data efficiency. In this work, we demonstrate that equivariant networks have the capability to predict real-world geometric tensors without the need for such approximations. We show the applicability of this method to the prediction of force fields and then propose a novel formulation of an important task, biomolecular structure refinement, as a geometric prediction problem, improving state-of-the-art structural candidates. In both settings, we find that our equivariant network is able to generalize to unseen systems, despite having been trained on small sets of examples. This novel and data-efficient ability to predict real-world geometric tensors opens the door to addressing many problems through the lens of geometric prediction, in areas such as 3D vision, robotics, and molecular and structural biology.
翻訳日:2022-11-17 03:29:42 公開日:2020-06-25
# ロバスト回帰問題に対するグローバル収束反復重み付き最小方形

Globally-convergent Iteratively Reweighted Least Squares for Robust Regression Problems ( http://arxiv.org/abs/2006.14211v1 )

ライセンス: Link先を確認
Bhaskar Mukhoty and Govind Gopakumar and Prateek Jain and Purushottam Kar(参考訳) 我々は,ロバスト回帰問題に対するirls (iterative reweighted least squares) ヒューリスティックの最初のグローバルモデル回復結果を提供する。 IRLSは、いくつかのパラメータ推定問題に対して、悪い初期化とデータ破損にもかかわらず優れた性能を提供することが知られている。 既存のIRLSの分析は、しばしば慎重な初期化を必要とするため、局所収束保証のみを提供する。 我々は、グローバルリカバリが保証されるだけでなく、ロバストレグレッションのための最先端のアルゴリズムよりも優れている、基本的なIRLSルーチンに拡張を提案することでこれを改善する。 我々のルーチンは、線形武装バンディット問題などの応用タスクと同様に、基本的な回帰タスクにおけるハイパーパラメータの誤特定に対してより免疫性が高い。 我々の理論解析は、強い凸性と滑らか性の概念を、重み付き強い凸性および滑らか性へと拡張し、ガウス以下の設計が有界な重み付き条件数を提供することを示す。 これらの概念は他のアルゴリズムの解析にも有用である。

We provide the first global model recovery results for the IRLS (iteratively reweighted least squares) heuristic for robust regression problems. IRLS is known to offer excellent performance, despite bad initializations and data corruption, for several parameter estimation problems. Existing analyses of IRLS frequently require careful initialization, thus offering only local convergence guarantees. We remedy this by proposing augmentations to the basic IRLS routine that not only offer guaranteed global recovery, but in practice also outperform state-of-the-art algorithms for robust regression. Our routines are more immune to hyperparameter misspecification in basic regression tasks, as well as applied tasks such as linear-armed bandit problems. Our theoretical analyses rely on a novel extension of the notions of strong convexity and smoothness to weighted strong convexity and smoothness, and establishing that sub-Gaussian designs offer bounded weighted condition numbers. These notions may be useful in analyzing other algorithms as well.
翻訳日:2022-11-17 03:29:24 公開日:2020-06-25
# 分布外検出手法のロバスト性に及ぼす最適化法の影響

The Effect of Optimization Methods on the Robustness of Out-of-Distribution Detection Approaches ( http://arxiv.org/abs/2006.14584v1 )

ライセンス: Link先を確認
Vahdat Abdelzad, Krzysztof Czarnecki, Rick Salay(参考訳) ディープニューラルネットワーク(DNN)は、さまざまなドメインにおいて事実上の学習メカニズムとなっている。 アウト・オブ・ディストリビューション(OOD)インプットで不確実に実行する傾向は、クリティカルドメインへの導入を妨げる。 OOD入力の検出にはいくつかの方法が提案されている。 しかし、既存のアプローチには堅牢性がない。 本稿では,OOD検出(OODD)手法のロバスト性に光を当て,最適化手法の重要な役割を明らかにする。 OODDアプローチは深層モデルのトレーニングで使用される最適化手法の種類に敏感であることを示す。 最適化手法は非凸問題に対する異なる解を与えることができるので、これらの解はooddアプローチによってなされる仮定(例えば、深い特徴の分布)を満たさないかもしれない。 さらに,最適化手法の役割を考慮したロバスト性スコアを提案する。 これはOODDアプローチを比較するための健全な方法を提供する。 提案したロバスト性スコアを用いて複数のOODD手法を比較することに加えて,最適化手法がOODD手法により良いソリューションを提供することを示す。

Deep neural networks (DNNs) have become the de facto learning mechanism in different domains. Their tendency to perform unreliably on out-of-distribution (OOD) inputs hinders their adoption in critical domains. Several approaches have been proposed for detecting OOD inputs. However, existing approaches still lack robustness. In this paper, we shed light on the robustness of OOD detection (OODD) approaches by revealing the important role of optimization methods. We show that OODD approaches are sensitive to the type of optimization method used during training deep models. Optimization methods can provide different solutions to a non-convex problem and so these solutions may or may not satisfy the assumptions (e.g., distributions of deep features) made by OODD approaches. Furthermore, we propose a robustness score that takes into account the role of optimization methods. This provides a sound way to compare OODD approaches. In addition to comparing several OODD approaches using our proposed robustness score, we demonstrate that some optimization methods provide better solutions for OODD approaches.
翻訳日:2022-11-17 03:22:51 公開日:2020-06-25
# 離散データのための生成逆ネットワークのアンサンブル

Ensembles of Generative Adversarial Networks for Disconnected Data ( http://arxiv.org/abs/2006.14600v1 )

ライセンス: Link先を確認
Lorenzo Luzi, Randall Balestriero, Richard G. Baraniuk(参考訳) 現在のコンピュータビジョンデータセットの多くは、異なるクラスの画像など、切断された集合で構成されている。 このタイプのデータの分布は、誤りなく連続的な生成ネットワークでは表現できないことを実証する。 それらは2つの方法で表現できる: ネットワークのアンサンブルと、切断された潜在空間を持つ単一のネットワークである。 アンサンブルは実際には切り裂かれた分布よりも望ましいことを示す。 我々は,単一連続GAN,GANのアンサンブル,条件付きGAN,ガウス混合GANの関係を確立する正規化された最適化問題を構築する。 この正規化は効率よく計算でき、我々のフレームワークにはハイパーパラメータチューニングによるパフォーマンススイートスポットがあることを実証的に示す。 このアンサンブルフレームワークは、単一の連続GANやcGANよりもパフォーマンスが良く、総パラメータは少ない。

Most current computer vision datasets are composed of disconnected sets, such as images from different classes. We prove that distributions of this type of data cannot be represented with a continuous generative network without error. They can be represented in two ways: With an ensemble of networks or with a single network with truncated latent space. We show that ensembles are more desirable than truncated distributions in practice. We construct a regularized optimization problem that establishes the relationship between a single continuous GAN, an ensemble of GANs, conditional GANs, and Gaussian Mixture GANs. This regularization can be computed efficiently, and we show empirically that our framework has a performance sweet spot which can be found with hyperparameter tuning. This ensemble framework allows better performance than a single continuous GAN or cGAN while maintaining fewer total parameters.
翻訳日:2022-11-17 03:22:12 公開日:2020-06-25
# mtadam: 複数のトレーニング損失項の自動バランス

MTAdam: Automatic Balancing of Multiple Training Loss Terms ( http://arxiv.org/abs/2006.14683v1 )

ライセンス: Link先を確認
Itzik Malkiel, Lior Wolf(参考訳) 神経モデルのトレーニングでは、複数の損失項を組み合わせるのが一般的である。 これらの用語のバランスにはかなりの人的努力が必要であり、計算的に要求される。 さらに、損失項間の最適なトレードオフは、トレーニングが進むにつれて変化しうる。 本研究では、Adam最適化アルゴリズムを一般化し、複数の損失項を扱う。 導出原理は、すべての層に対して、項の勾配の等級はバランスをとるべきであるということである。 この目的のために、多項adam(mtadam)は、各損失項の微分を別々に計算し、パラメータ毎及び損失項毎の第1及び第2モーメントを推定し、各損失から生じる勾配の層毎のモーメントに対する第1モーメントを算出する。 この大きさは、すべての層にまたがる勾配の連続的なバランスをとるために使用され、どちらも1つの層から次の層に変化し、時間とともに動的に変化する。 以上の結果から,新しい手法を用いたトレーニングは,最適初期損失重み付けから,従来のトレーニングと所定のハイパーパラメータを一致させるトレーニング結果へと高速に回復することが示唆された。

When training neural models, it is common to combine multiple loss terms. The balancing of these terms requires considerable human effort and is computationally demanding. Moreover, the optimal trade-off between the loss term can change as training progresses, especially for adversarial terms. In this work, we generalize the Adam optimization algorithm to handle multiple loss terms. The guiding principle is that for every layer, the gradient magnitude of the terms should be balanced. To this end, the Multi-Term Adam (MTAdam) computes the derivative of each loss term separately, infers the first and second moments per parameter and loss term, and calculates a first moment for the magnitude per layer of the gradients arising from each loss. This magnitude is used to continuously balance the gradients across all layers, in a manner that both varies from one layer to the next and dynamically changes over time. Our results show that training with the new method leads to fast recovery from suboptimal initial loss weighting and to training outcomes that match conventional training with the prescribed hyperparameters of each method.
翻訳日:2022-11-17 03:20:59 公開日:2020-06-25
# スパイク共分散モデルによる高次元二次判別解析

High-Dimensional Quadratic Discriminant Analysis under Spiked Covariance Model ( http://arxiv.org/abs/2006.14325v1 )

ライセンス: Link先を確認
Houssem Sifaou, Abla Kammoun, Mohamed-Slim Alouini(参考訳) 二次判別分析 (QDA) は、線形判別分析 (LDA) 分類器をクラス間で異なる共分散行列の場合に一般化する、広く使われている分類手法である。 QDA分類器が高い分類性能を得るためには、共分散行列の正確な推定が必要である。 このようなタスクは、高次元の設定においてより難しいものとなり、観測回数は特徴次元と同等になる。 このような状況下でQDA分類器の性能を高める一般的な方法は、共分散行列を正規化し、対応する分類器にQDA (R-QDA) という名前を与えることである。 本研究では,集団共分散行列がスパイク共分散構造を持つ場合を考える。 古典qdaを基礎として,フィッシャー判別率を最大化するようにパラメータを選択できる新しい二次分類手法を提案する。 数値シミュレーションにより,提案手法は合成データと実データの両方において古典的R-QDAよりも優れるだけでなく,計算量も小さく,高次元設定に適していることが示された。

Quadratic discriminant analysis (QDA) is a widely used classification technique that generalizes the linear discriminant analysis (LDA) classifier to the case of distinct covariance matrices among classes. For the QDA classifier to yield high classification performance, an accurate estimation of the covariance matrices is required. Such a task becomes all the more challenging in high dimensional settings, wherein the number of observations is comparable with the feature dimension. A popular way to enhance the performance of QDA classifier under these circumstances is to regularize the covariance matrix, giving the name regularized QDA (R-QDA) to the corresponding classifier. In this work, we consider the case in which the population covariance matrix has a spiked covariance structure, a model that is often assumed in several applications. Building on the classical QDA, we propose a novel quadratic classification technique, the parameters of which are chosen such that the fisher-discriminant ratio is maximized. Numerical simulations show that the proposed classifier not only outperforms the classical R-QDA for both synthetic and real data but also requires lower computational complexity, making it suitable to high dimensional settings.
翻訳日:2022-11-17 03:13:53 公開日:2020-06-25
# データ依存型プルーニングによるウィンニングロッテリチケットの探索

Data-dependent Pruning to find the Winning Lottery Ticket ( http://arxiv.org/abs/2006.14350v1 )

ライセンス: Link先を確認
D\'aniel L\'evai and Zsolt Zombori(参考訳) Lottery Ticket仮説は、新しい初期化ニューラルネットワークには、完全なネットワークと同じようなパフォーマンスを達成するために、独立してトレーニング可能な小さなサブネットワークが含まれていることを仮定している。 本稿では,このようなサブネットワークの探索方法について検討する。 SNIP法のように、トレーニング損失の勾配の形でプルーニング基準にデータ依存コンポーネントを組み込むことで、既存のプルーニングアルゴリズムの性能が一貫して向上する、と結論付けている。

The Lottery Ticket Hypothesis postulates that a freshly initialized neural network contains a small subnetwork that can be trained in isolation to achieve similar performance as the full network. Our paper examines several alternatives to search for such subnetworks. We conclude that incorporating a data dependent component into the pruning criterion in the form of the gradient of the training loss -- as done in the SNIP method -- consistently improves the performance of existing pruning algorithms.
翻訳日:2022-11-17 03:13:09 公開日:2020-06-25
# 機能独立な特徴抽出のための新しいモーダルオートエンコーダ

A New Modal Autoencoder for Functionally Independent Feature Extraction ( http://arxiv.org/abs/2006.14390v1 )

ライセンス: Link先を確認
Yuzhu Guo, Kang Pan, Simeng Li, Zongchang Han, Kexin Wang and Li Li(参考訳) オートエンコーダは次元減少と特徴抽出に広く用いられている。 正規化項を導入することで、様々な種類のオートエンコーダが提案されている。 これらの正規化の多くは、入力を隠れたノードにマッピングし、特徴の生成に影響を与えるエンコーダ部分の重みを制約することで、表現学習を改善する。 本研究では,遅延変数が入力の再構成にどのように寄与するかを決定するため,デコーダに対する制約も性能を著しく向上させることができることを示す。 機械工学における構造モーダル解析法にインスパイアされた新しいモーダルオートエンコーダ(MAE)は、読み出し重み行列の列をオトゴナライズすることによって提案される。 新しい正規化は、変動の説明的要因を解消し、maeにデータの基本モードを抽出させるのに役立つ。 学習された表現は入力の再構成において機能的に独立であり、連続的な分類タスクにおいてより良い性能を発揮する。 結果は、MNIST変異とUSPS分類ベンチマークスイートで検証された。 比較実験は、新しいアルゴリズムが驚くべき優位性を持っていることを明らかに示している。 新しいmaeは、オートエンコーダのための非常にシンプルなトレーニング原則を導入し、ディープニューラルネットワークの事前トレーニングに期待できる。

Autoencoders have been widely used for dimensional reduction and feature extraction. Various types of autoencoders have been proposed by introducing regularization terms. Most of these regularizations improve representation learning by constraining the weights in the encoder part, which maps input into hidden nodes and affects the generation of features. In this study, we show that a constraint to the decoder can also significantly improve its performance because the decoder determines how the latent variables contribute to the reconstruction of input. Inspired by the structural modal analysis method in mechanical engineering, a new modal autoencoder (MAE) is proposed by othogonalising the columns of the readout weight matrix. The new regularization helps to disentangle explanatory factors of variation and forces the MAE to extract fundamental modes in data. The learned representations are functionally independent in the reconstruction of input and perform better in consecutive classification tasks. The results were validated on the MNIST variations and USPS classification benchmark suite. Comparative experiments clearly show that the new algorithm has a surprising advantage. The new MAE introduces a very simple training principle for autoencoders and could be promising for the pre-training of deep neural networks.
翻訳日:2022-11-17 03:13:01 公開日:2020-06-25
# rbmにおけるgibbsサンプリングプロセスによるドメイン間インスタンス遷移

Between-Domain Instance Transition Via the Process of Gibbs Sampling in RBM ( http://arxiv.org/abs/2006.14538v1 )

ライセンス: Link先を確認
Hossein Shahabadi Farahani, Alireza Fatehi, Mahdi Aliyari Shoorehdeli(参考訳) 本稿では,gibbsサンプリングに基づくトランスファー学習(tl)の新たなアイデアを提案する。 ギブズサンプリング(ギブズサンプリング)は、確率分布に関して高い確率でインスタンスが新しい状態に遷移する確率の高いアルゴリズムである。 このようなアルゴリズムは、ドメイン間のインスタンスの転送に利用できる。 制限ボルツマン機械(英語版)(rbm)はエネルギーベースのモデルであり、データ分布を表す訓練やギブスサンプリングを行うために非常に実現可能である。 我々はRBMを用いて、ソースドメインのデータ分布をキャプチャし、ターゲットインスタンスをソースデータの分布に似た分布を持つ新しいデータにキャストする。 TL手法の評価によく用いられるデータセットを用いて,本手法は目標分類をかなりの比率で向上させることができることを示す。 さらに,提案手法は,モデル学習過程において対象データを必要としない,一般的なDA手法よりも有利である。

In this paper, we present a new idea for Transfer Learning (TL) based on Gibbs Sampling. Gibbs sampling is an algorithm in which instances are likely to transfer to a new state with a higher possibility with respect to a probability distribution. We find that such an algorithm can be employed to transfer instances between domains. Restricted Boltzmann Machine (RBM) is an energy based model that is very feasible for being trained to represent a data distribution and also for performing Gibbs sampling. We used RBM to capture data distribution of the source domain and use it in order to cast target instances into new data with a distribution similar to the distribution of source data. Using datasets that are commonly used for evaluation of TL methods, we show that our method can successfully enhance target classification by a considerable ratio. Additionally, the proposed method has the advantage over common DA methods that it needs no target data during the process of training of models.
翻訳日:2022-11-17 03:11:36 公開日:2020-06-25
# STORM:エッジ上の実証的リスク最小化の基礎

STORM: Foundations of End-to-End Empirical Risk Minimization on the Edge ( http://arxiv.org/abs/2006.14554v1 )

ライセンス: Link先を確認
Benjamin Coleman, Gaurav Gupta, John Chen, Anshumali Shrivastava(参考訳) 経験的リスク最小化は、おそらく統計学習において最も影響力のあるアイデアであり、回帰と分類モデルという形で、ほぼ全ての科学および技術領域に適用できる。 分散コンピューティング環境で大規模ストリーミングデータセットを分析するため、実践者はクラウドではなくエッジに回帰モデルをデプロイすることを好むようになった。 データをエッジデバイスに保持することにより、モデルに関連するエネルギー、通信、およびデータのセキュリティリスクを最小限に抑える。 エッジでモデルをトレーニングすることは同じように有利だが、一般的な仮定は、モデルは元々はクラウドでトレーニングされていた、というものである。 そこで我々は,経験的リスク最小化のためのオンラインスケッチSTORMを提案する。 STORMはデータストリームを整数カウンタの小さな配列に圧縮する。 このスケッチは、オリジナルのデータセットに対する様々な代理損失を推定するのに十分である。 厳密な理論的分析を行い、最小二乗目的に対して慎重に選択された代理損失を推定できることを示す。 実世界のデータセット上の線形回帰モデルに対する徹底的な実験的比較では、STORMは正確な回帰モデルを訓練することができる。

Empirical risk minimization is perhaps the most influential idea in statistical learning, with applications to nearly all scientific and technical domains in the form of regression and classification models. To analyze massive streaming datasets in distributed computing environments, practitioners increasingly prefer to deploy regression models on edge rather than in the cloud. By keeping data on edge devices, we minimize the energy, communication, and data security risk associated with the model. Although it is equally advantageous to train models at the edge, a common assumption is that the model was originally trained in the cloud, since training typically requires substantial computation and memory. To this end, we propose STORM, an online sketch for empirical risk minimization. STORM compresses a data stream into a tiny array of integer counters. This sketch is sufficient to estimate a variety of surrogate losses over the original dataset. We provide rigorous theoretical analysis and show that STORM can estimate a carefully chosen surrogate loss for the least-squares objective. In an exhaustive experimental comparison for linear regression models on real-world datasets, we find that STORM allows accurate regression models to be trained.
翻訳日:2022-11-17 03:11:21 公開日:2020-06-25
# 拡張ガウス過程とマルチ情報ソース最適化によるグリーン機械学習

Green Machine Learning via Augmented Gaussian Processes and Multi-Information Source Optimization ( http://arxiv.org/abs/2006.14233v1 )

ライセンス: Link先を確認
Antonio Candelieri, Riccardo Perego, Francesco Archetti(参考訳) 正確な機械学習モデルとディープラーニングモデルの検索は、計算コストが高く、非常に精力的なプロセスです。 計算時間と消費エネルギーを大幅に削減するために近年重要になっている戦略は、異なる計算コストと大きなデータセットのより小さな部分の「忠実さ」の異なる異なる情報ソースの可用性を活用することである。 マルチソース最適化戦略はガウス過程に基づくベイズ最適化のスキームに適合する。 複数の情報ソース(すなわち AGP-MISO)を利用する拡張ガウス過程法を提案する。 Augmented Gaussian Processは利用可能なソースの"信頼性"情報のみを使用してトレーニングされている。 Augmented Gaussian Process に従って新しい取得関数が定義される。 計算結果は,SVM(Support Vector Machine)分類器のハイパーパラメータの最適化に関連して報告されている。 大規模データセットのみ上のSVM分類器のハイパーパラメータを最適化するベイズ最適化手法との比較を報告する。

Searching for accurate Machine and Deep Learning models is a computationally expensive and awfully energivorous process. A strategy which has been gaining recently importance to drastically reduce computational time and energy consumed is to exploit the availability of different information sources, with different computational costs and different "fidelity", typically smaller portions of a large dataset. The multi-source optimization strategy fits into the scheme of Gaussian Process based Bayesian Optimization. An Augmented Gaussian Process method exploiting multiple information sources (namely, AGP-MISO) is proposed. The Augmented Gaussian Process is trained using only "reliable" information among available sources. A novel acquisition function is defined according to the Augmented Gaussian Process. Computational results are reported related to the optimization of the hyperparameters of a Support Vector Machine (SVM) classifier using two sources: a large dataset - the most expensive one - and a smaller portion of it. A comparison with a traditional Bayesian Optimization approach to optimize the hyperparameters of the SVM classifier on the large dataset only is reported.
翻訳日:2022-11-17 03:03:55 公開日:2020-06-25
# 解釈可能なシーケンス分類のための背景知識注入

Background Knowledge Injection for Interpretable Sequence Classification ( http://arxiv.org/abs/2006.14248v1 )

ライセンス: Link先を確認
Severin Gsponer, Luca Costabello, Chan Le Van, Sumit Pai, Christophe Gueret, Georgiana Ifrim, Freddy Lecue(参考訳) シーケンス分類は、目に見えない記号列のクラスラベルを予測するモデルを構築するための教師付き学習タスクである。 正確性は最重要だが、あるシナリオでは解釈性は必須である。 残念ながら、人間に依存しない解釈可能性の指標が欠けているため、このようなトレードオフは達成が難しいことが多い。 そこで我々は,新しいシーケンス学習アルゴリズムを提案する。 (i)線形分類器-予測力と解釈可能性のバランスが良いことが知られているもの (ii)背景知識の埋め込み。 従来のサブシーケンスの特徴空間を,単語やグラフの埋め込みによる背景知識によって生成される記号群で拡張し,この特徴空間を用いて線形分類器を学習する。 また,シンボル埋め込みに基づく記号特徴集合の解釈可能性を評価するための新しい尺度を提案する。 ウェアラブルとアミノ酸配列の分類による人間の行動認識実験では,より解釈可能なモデルを提供しながら,予測能力を維持していることが示された。

Sequence classification is the supervised learning task of building models that predict class labels of unseen sequences of symbols. Although accuracy is paramount, in certain scenarios interpretability is a must. Unfortunately, such trade-off is often hard to achieve since we lack human-independent interpretability metrics. We introduce a novel sequence learning algorithm, that combines (i) linear classifiers - which are known to strike a good balance between predictive power and interpretability, and (ii) background knowledge embeddings. We extend the classic subsequence feature space with groups of symbols which are generated by background knowledge injected via word or graph embeddings, and use this new feature space to learn a linear classifier. We also present a new measure to evaluate the interpretability of a set of symbolic features based on the symbol embeddings. Experiments on human activity recognition from wearables and amino acid sequence classification show that our classification approach preserves predictive power, while delivering more interpretable models.
翻訳日:2022-11-17 03:03:39 公開日:2020-06-25
# 拡張蒸留による単語データの高速, 高精度, 簡便なモデル

Fast, Accurate, and Simple Models for Tabular Data via Augmented Distillation ( http://arxiv.org/abs/2006.14284v1 )

ライセンス: Link先を確認
Rasool Fakoor, Jonas Mueller, Nick Erickson, Pratik Chaudhari, Alexander J. Smola(参考訳) 自動機械学習(AutoML)は、木や深いネットワーク、近くの推定器など、多数の個別モデルを積み重ね、バッジし、強化することで、複雑なモデルアンサンブルを生成することができる。 精度は高いが、結果として得られる予測子は、構成成分と比較して大きく、遅く、不透明である。 表データへのautomlの配置を改善するために,木,ランダム林,深層ネットワークなどの個別モデルに任意に複雑なアンサンブル予測器を蒸留する高速ダッドを提案する。 我々のアプローチの核心は、自己注意型擬似的推定器からのGibbsサンプリングに基づくデータ拡張戦略である。 FAST-DAD蒸留は、回帰と二項/複数分類タスクにまたがる30のデータセットにまたがって、元のデータに対する標準トレーニングによって得られるものよりも、はるかに優れた個別モデルを生成する。 我々の個々の蒸留モデルは、H2O/AutoSklearnのようなAutoMLツールが生成するアンサンブル予測よりも10倍高速で精度が高い。

Automated machine learning (AutoML) can produce complex model ensembles by stacking, bagging, and boosting many individual models like trees, deep networks, and nearest neighbor estimators. While highly accurate, the resulting predictors are large, slow, and opaque as compared to their constituents. To improve the deployment of AutoML on tabular data, we propose FAST-DAD to distill arbitrarily complex ensemble predictors into individual models like boosted trees, random forests, and deep networks. At the heart of our approach is a data augmentation strategy based on Gibbs sampling from a self-attention pseudolikelihood estimator. Across 30 datasets spanning regression and binary/multiclass classification tasks, FAST-DAD distillation produces significantly better individual models than one obtains through standard training on the original data. Our individual distilled models are over 10x faster and more accurate than ensemble predictors produced by AutoML tools like H2O/AutoSklearn.
翻訳日:2022-11-17 03:03:06 公開日:2020-06-25
# ヒンジ損失を伴う暗黙的に最大化マージン

Implicitly Maximizing Margins with the Hinge Loss ( http://arxiv.org/abs/2006.14286v1 )

ライセンス: Link先を確認
Justin Lizama(参考訳) 階層化タスクのニューラルネットワークに対して,勾配を臨界点に割り当てることでヒンジ損失を拡張する新しい損失関数を提案する。 固定ステップサイズを持つ線形分離可能なデータ上の線形分類器の場合、この修正されたヒンジ損失のマージンは$\ell_2$ max-marginに$\mathcal{O}( 1/t )$で収束する。 このレートはロジスティック損失のような指数的損失の$\mathcal{o}(1/\log t)$レートと比較すると速い。 さらに、この収束速度の増大がReLUネットワークにまたがることを示す実験結果が得られた。

A new loss function is proposed for neural networks on classification tasks which extends the hinge loss by assigning gradients to its critical points. We will show that for a linear classifier on linearly separable data with fixed step size, the margin of this modified hinge loss converges to the $\ell_2$ max-margin at the rate of $\mathcal{O}( 1/t )$. This rate is fast when compared with the $\mathcal{O}(1/\log t)$ rate of exponential losses such as the logistic loss. Furthermore, empirical results suggest that this increased convergence speed carries over to ReLU networks.
翻訳日:2022-11-17 03:02:49 公開日:2020-06-25
# 単目的問題に対する多目的化の利点に関する実証的研究

Empirical Study on the Benefits of Multiobjectivization for Solving Single-Objective Problems ( http://arxiv.org/abs/2006.14423v1 )

ライセンス: Link先を確認
Vera Steinhoff and Pascal Kerschke and Christian Grimme(参考訳) 連続的な単一目的問題を扱う場合、マルチモダリティはグローバル最適化の最大の困難の1つとなる。 ローカルオプティマはアルゴリズムの進歩を妨げ、深刻な脅威となることが多い。 本稿では, 単目的最適化が多目的化のメリットを, 追加目的を考慮し分析する。 マルチオブジェクトの勾配に基づく高度な可視化技術を用いて,出現するマルチオブジェクトの景観の特性を図示し,考察した。 多目的最適化MOGSAがこれらの特性を利用して局所トラップを克服できることを実証的に示す。 MOGSAの性能はCOCOプラットフォームが提供するいくつかの機能のテストベッド上で評価される。 結果は局所オプティマイザnelder-meadと比較される。

When dealing with continuous single-objective problems, multimodality poses one of the biggest difficulties for global optimization. Local optima are often preventing algorithms from making progress and thus pose a severe threat. In this paper we analyze how single-objective optimization can benefit from multiobjectivization by considering an additional objective. With the use of a sophisticated visualization technique based on the multi-objective gradients, the properties of the arising multi-objective landscapes are illustrated and examined. We will empirically show that the multi-objective optimizer MOGSA is able to exploit these properties to overcome local traps. The performance of MOGSA is assessed on a testbed of several functions provided by the COCO platform. The results are compared to the local optimizer Nelder-Mead.
翻訳日:2022-11-17 02:56:20 公開日:2020-06-25
# 注意に基づく脳波信号からの運動インテント検出用グラフResNet

Attention-based Graph ResNet for Motor Intent Detection from Raw EEG signals ( http://arxiv.org/abs/2007.13484v1 )

ライセンス: Link先を確認
Shuyue Jia, Yimin Hou, Yan Shi, Yang Li(参考訳) 前回の研究では、脳波(EEG)信号は脳波電極のトポロジカルな関係を考慮していない。 しかし、最新の神経科学は脳ネットワークの接続を示唆している。 したがって、脳波チャンネル間の相互作用はユークリッド距離を介して適切に測定されない可能性がある。 このギャップを埋めるために、グラフ畳み込みニューラルネットワーク(GCN)の新たな構造である注目型グラフ残差ネットワークが提示され、生の脳波信号から人間の運動意図を検知し、脳波電極の位相構造をグラフとして構築した。 一方,脳波運動画像(MI)データにおける深部ネットワークの劣化問題に対処するために,フルアテンションアーキテクチャによる深部学習を導入した。 脳波信号の基礎となる批判的かつ長期にわたる課題である個人変動は、最先端のパフォーマンス、被験者の98.08%の精度、20人の被験者の94.28%の精度でうまく処理されている。 グラフ構造トポロジの実装は生の脳波データをデコードするよりも優れていると予測された。 革新的なディープラーニングアプローチは、神経科学研究と現実世界の脳波に基づく実用的な応用、例えば発作予測の両方に普遍的な方法をもたらすことが期待された。

In previous studies, decoding electroencephalography (EEG) signals has not considered the topological relationship of EEG electrodes. However, the latest neuroscience has suggested brain network connectivity. Thus, the exhibited interaction between EEG channels might not be appropriately measured via Euclidean distance. To fill the gap, an attention-based graph residual network, a novel structure of Graph Convolutional Neural Network (GCN), was presented to detect human motor intents from raw EEG signals, where the topological structure of EEG electrodes was built as a graph. Meanwhile, deep residual learning with a full-attention architecture was introduced to address the degradation problem concerning deeper networks in raw EEG motor imagery (MI) data. Individual variability, the critical and longstanding challenge underlying EEG signals, has been successfully handled with the state-of-the-art performance, 98.08% accuracy at the subject level, 94.28% for 20 subjects. Numerical results were promising that the implementation of the graph-structured topology was superior to decode raw EEG data. The innovative deep learning approach was expected to entail a universal method towards both neuroscience research and real-world EEG-based practical applications, e.g., seizure prediction.
翻訳日:2022-11-17 02:56:08 公開日:2020-06-25
# ディープグリッドを用いた雑音領域の高速安定マップイライト

Fast and stable MAP-Elites in noisy domains using deep grids ( http://arxiv.org/abs/2006.14253v1 )

ライセンス: Link先を確認
Manon Flageat, Antoine Cully(参考訳) 品質多様性最適化アルゴリズムは、高性能かつ多様なソリューションのコレクションの進化を可能にする。 これらのコレクションは、期待通りに動作しない場合に、素早く適応し、あるソリューションから別のソリューションに切り替えることを可能にする。 したがって、ロボット制御のような現実世界のドメイン問題には多くの応用がある。 しかし、ほとんどの最適化アルゴリズムと同様に、QDアルゴリズムはフィットネス機能に対する不確実性に対して非常に敏感である。 しかし、そのような不確実性は現実世界のアプリケーションでは頻繁に発生する。 QDアルゴリズムの特定のケースでこの問題を探求する研究はほとんどなく、進化的計算の文献に触発され、主にサンプリングを用いて解のパフォーマンスの「真の」値を近似することに焦点を当てている。 しかし、サンプリングアプローチには多くの評価が必要であり、ロボット工学などの多くの応用において、すぐに非現実的になる可能性がある。 本研究では,前に遭遇した類似解のアーカイブを用いて解の性能を近似する,map-elitesアルゴリズムの変種であるdeep-grid map-elitesを提案する。 従来の3つのノイズのあるタスク(標準最適化タスク、冗長アームの制御、シミュレートされたヘキサポッドロボット)と比較した。 実験の結果, この単純な手法は, 動作記述子のノイズに対する耐性が著しく向上する一方で, 適合度最適化の点で競争性能が向上し, 既存の手法よりもサンプル効率がよいことがわかった。

Quality-Diversity optimisation algorithms enable the evolution of collections of both high-performing and diverse solutions. These collections offer the possibility to quickly adapt and switch from one solution to another in case it is not working as expected. It therefore finds many applications in real-world domain problems such as robotic control. However, QD algorithms, like most optimisation algorithms, are very sensitive to uncertainty on the fitness function, but also on the behavioural descriptors. Yet, such uncertainties are frequent in real-world applications. Few works have explored this issue in the specific case of QD algorithms, and inspired by the literature in Evolutionary Computation, mainly focus on using sampling to approximate the "true" value of the performances of a solution. However, sampling approaches require a high number of evaluations, which in many applications such as robotics, can quickly become impractical. In this work, we propose Deep-Grid MAP-Elites, a variant of the MAP-Elites algorithm that uses an archive of similar previously encountered solutions to approximate the performance of a solution. We compare our approach to previously explored ones on three noisy tasks: a standard optimisation task, the control of a redundant arm and a simulated Hexapod robot. The experimental results show that this simple approach is significantly more resilient to noise on the behavioural descriptors, while achieving competitive performances in terms of fitness optimisation, and being more sample-efficient than other existing approaches.
翻訳日:2022-11-17 02:55:47 公開日:2020-06-25
# soac: ソフトオプションのアクタ-クリティックアーキテクチャ

SOAC: The Soft Option Actor-Critic Architecture ( http://arxiv.org/abs/2006.14363v1 )

ライセンス: Link先を確認
Chenghao Li, Xiaoteng Ma, Chongjie Zhang, Jun Yang, Li Xia and Qianchuan Zhao(参考訳) オプションフレームワークは、長いホリゾンタスクから時間的に拡張されたサブタスクを自動的に抽出することで、大きな期待を示しています。 低レベルのオプション内ポリシーと高レベルのオプション選択ポリシーを同時に学習する手法が提案されている。 しかし、既存の手法は通常、非効率な探索と不安定な更新という2つの大きな課題に悩まされる。 本稿では,これらの課題に対処するために,最大エントロピーモデルに基づく新しい安定なオフポリシーアプローチを提案する。 提案手法では,多様な選択肢と効果的な選択肢の識別を促す情報理論固有の報酬を導入する。 一方,確率推論モデルを用いて最適軌道に適合する最適化問題を単純化する。 実験の結果,本手法は,トランスファー学習の利点を享受しながら,様々なmujocoベンチマークタスクにおいて,事前のオン・ポリシーおよびオフ・ポリシー法を大きく上回っていることがわかった。 これらのタスクにおいて、我々の手法は様々な選択肢の集合を学び、それぞれの状態-作用空間は強いコヒーレンスを持つ。

The option framework has shown great promise by automatically extracting temporally-extended sub-tasks from a long-horizon task. Methods have been proposed for concurrently learning low-level intra-option policies and high-level option selection policy. However, existing methods typically suffer from two major challenges: ineffective exploration and unstable updates. In this paper, we present a novel and stable off-policy approach that builds on the maximum entropy model to address these challenges. Our approach introduces an information-theoretical intrinsic reward for encouraging the identification of diverse and effective options. Meanwhile, we utilize a probability inference model to simplify the optimization problem as fitting optimal trajectories. Experimental results demonstrate that our approach significantly outperforms prior on-policy and off-policy methods in a range of Mujoco benchmark tasks while still providing benefits for transfer learning. In these tasks, our approach learns a diverse set of options, each of whose state-action space has strong coherence.
翻訳日:2022-11-17 02:54:58 公開日:2020-06-25
# 最大カット決定木:決定木の正確性と実行時間の改善

The Max-Cut Decision Tree: Improving on the Accuracy and Running Time of Decision Trees ( http://arxiv.org/abs/2006.14118v1 )

ライセンス: Link先を確認
Jonathan Bodine and Dorit S. Hochbaum(参考訳) 決定木(Decision Tree)は,複数の異なるアンサンブル学習手法の構成要素として,単独でも広く用いられている分類法である。 Max-Cut決定木は、分類決定木構築の標準的なベースラインモデル(正確にはCART Gini)に新しい修正を加えている。 1つの修正は、異なるクラスに属する全ての観測のペアとしきい値の分離側の間の距離を最大化することに基づいて、代替の分割計量、最大カットを含む。 もう1つの変更は、各ノードで主成分分析(PCA)を用いて構築された入力特徴の線形結合から決定特徴を選択することである。 実験により,新しい分割修正を伴うノードベースの局所化pcaは分類を劇的に改善すると同時に,ベースライン決定木と比較して計算時間を著しく短縮することを示した。 さらに,高次元あるいはそれ以上のクラスを持つデータセットで評価した場合,この結果が最も有意であり,例えばcifar-100では,cpu時間を94%削減しながら,精度を49%向上させることができた。 これらの変更により、難しい分類作業のための決定木の性能が劇的に向上した。

Decision trees are a widely used method for classification, both by themselves and as the building blocks of multiple different ensemble learning methods. The Max-Cut decision tree involves novel modifications to a standard, baseline model of classification decision tree construction, precisely CART Gini. One modification involves an alternative splitting metric, maximum cut, based on maximizing the distance between all pairs of observations belonging to separate classes and separate sides of the threshold value. The other modification is to select the decision feature from a linear combination of the input features constructed using Principal Component Analysis (PCA) locally at each node. Our experiments show that this node-based localized PCA with the novel splitting modification can dramatically improve classification, while also significantly decreasing computational time compared to the baseline decision tree. Moreover, our results are most significant when evaluated on data sets with higher dimensions, or more classes; which, for the example data set CIFAR-100, enable a 49% improvement in accuracy while reducing CPU time by 94%. These introduced modifications dramatically advance the capabilities of decision trees for difficult classification tasks.
翻訳日:2022-11-17 02:54:19 公開日:2020-06-25
# 逆アクティブセンシング:モデリングとタイムリーな意思決定の理解

Inverse Active Sensing: Modeling and Understanding Timely Decision-Making ( http://arxiv.org/abs/2006.14141v1 )

ライセンス: Link先を確認
Daniel Jarrett, Mihaela van der Schaar(参考訳) エビデンスに基づく意思決定は、基礎となる利害現象に関する(コスト的に)観察を収集し、次に蓄積された証拠に基づいて(インフォームドされた)決定を行う。 この設定では、アクティブセンシングは、どの買収を行うか、いつ、どの決定をするかを効率的に選択する目標指向の問題である。 逆アクティブな感覚は、観察可能な意思決定行動を考えると、エージェントの好みや戦略を明らかにする。 本稿では,内在的かつ文脈に依存した時間的圧力下でのエビデンスに基づく意思決定の一般的な設定のための,表現的かつ統一的な枠組みを開発する。 この言語を用いることで、意思決定戦略(前方問題)における驚き、サスペンス、最適性の直感的な概念をモデリングできることを実証する。 最後に、この定式化によって、観察された意思決定戦略(逆問題)において暗黙の選好を定量化することにより、意思決定行動の理解が可能になることを示す。

Evidence-based decision-making entails collecting (costly) observations about an underlying phenomenon of interest, and subsequently committing to an (informed) decision on the basis of accumulated evidence. In this setting, active sensing is the goal-oriented problem of efficiently selecting which acquisitions to make, and when and what decision to settle on. As its complement, inverse active sensing seeks to uncover an agent's preferences and strategy given their observable decision-making behavior. In this paper, we develop an expressive, unified framework for the general setting of evidence-based decision-making under endogenous, context-dependent time pressure---which requires negotiating (subjective) tradeoffs between accuracy, speediness, and cost of information. Using this language, we demonstrate how it enables modeling intuitive notions of surprise, suspense, and optimality in decision strategies (the forward problem). Finally, we illustrate how this formulation enables understanding decision-making behavior by quantifying preferences implicit in observed decision strategies (the inverse problem).
翻訳日:2022-11-17 02:54:00 公開日:2020-06-25
# GANトレーニングにおけるオーバーフィッティングとモードドロップの実証分析

Empirical Analysis of Overfitting and Mode Drop in GAN Training ( http://arxiv.org/abs/2006.14265v1 )

ライセンス: Link先を確認
Yasin Yazici, Chuan-Sheng Foo, Stefan Winkler, Kim-Hui Yap, Vijay Chandrasekhar(参考訳) GANトレーニングにおける2つの重要な質問、すなわち過剰適合とモードドロップを経験的観点から検討する。 トレーニング手順から確率性を取り除いた場合、GANは過度に適合し、ほとんどモードドロップを示さないことを示す。 以上の結果から,gan訓練手順の重要な特徴を明らかにした。 また、GANがトレーニングセットを記憶していないという一般的な直観や、モデムの減少は主にトレーニング中にどのように最適化されているかというよりも、GANの目的の性質によるものであるという証拠も提示されている。

We examine two key questions in GAN training, namely overfitting and mode drop, from an empirical perspective. We show that when stochasticity is removed from the training procedure, GANs can overfit and exhibit almost no mode drop. Our results shed light on important characteristics of the GAN training procedure. They also provide evidence against prevailing intuitions that GANs do not memorize the training set, and that mode dropping is mainly due to properties of the GAN objective rather than how it is optimized during training.
翻訳日:2022-11-17 02:46:33 公開日:2020-06-25
# エポック進化型ガウス過程指導学習

Epoch-evolving Gaussian Process Guided Learning ( http://arxiv.org/abs/2006.14347v1 )

ライセンス: Link先を確認
Jiabao Cui, Xuewei Li, Bin Li, Hanbin Zhao, Bourahla Omar, and Xi Li(参考訳) 本稿では,バッチレベル分布とグローバルデータ分布の相関情報を特徴付けることを目的とした,エポック進化型ガウスプロセスガイド学習(GPGL)と呼ばれる新しい学習手法を提案する。 このような相関情報はコンテキストラベルとしてエンコードされ、エポックごとに更新する必要がある。 文脈ラベルと基底真理ラベルのガイダンスにより、GPGLスキームは三角形の整合性損失でモデルパラメータを更新することでより効率的な最適化を提供する。 さらに,既存のバッチベースの最先端モデル(cifar-10,cifar-100,tiny-imagenet)を著しく上回って,gpglスキームをさらに一般化し,現在の深層モデルに適用することができる。

In this paper, we propose a novel learning scheme called epoch-evolving Gaussian Process Guided Learning (GPGL), which aims at characterizing the correlation information between the batch-level distribution and the global data distribution. Such correlation information is encoded as context labels and needs renewal every epoch. With the guidance of the context label and ground truth label, GPGL scheme provides a more efficient optimization through updating the model parameters with a triangle consistency loss. Furthermore, our GPGL scheme can be further generalized and naturally applied to the current deep models, outperforming the existing batch-based state-of-the-art models on mainstream datasets (CIFAR-10, CIFAR-100, and Tiny-ImageNet) remarkably.
翻訳日:2022-11-17 02:46:23 公開日:2020-06-25
# リプレイアタック検出のためのバランスのとれた焦点損失によるデータ不一致の動的緩和

Dynamically Mitigating Data Discrepancy with Balanced Focal Loss for Replay Attack Detection ( http://arxiv.org/abs/2006.14563v1 )

ライセンス: Link先を確認
Yongqiang Dou, Haocheng Yang, Maolin Yang, Yanyan Xu and Dengfeng Ke(参考訳) 高品質再生装置の進歩により,脆弱な話者照合システムに対する効果的なアンチスプーフィングアルゴリズムの設計が急務となる。 最近の研究では、主に抗スプーフィングをボナフィドとスプーフィングの2次分類問題として扱うが、見分けがつかないサンプルがないため、頑健なスプーフィング検出器の訓練は困難である。 本稿では, アンチ・スプーフィングにおいては, 識別の精度を最優先する上で, 分類し易いサンプルよりも識別し難いサンプルに注意が必要であることを論じる。 そこで本研究では, トレーニングと推論のデータの相違を緩和するために, バランスの取れた焦点損失関数をトレーニング目的として活用し, サンプル自体の特性に基づいて損失を動的にスケールすることを提案する。 さらに,実験では,等級情報と位相情報の両方を含む3種類の特徴を選択し,相補的かつ情報的特徴を形成する。 asvspoof2019データセットにおける実験結果は,提案手法とトップパフォーマンス法との比較により,提案手法が優れていることを示した。 バランスの取れた焦点損失で訓練されたシステムは、従来のクロスエントロピー損失よりも大幅に向上する。 相補的な特徴を伴って,3種類の機能しか持たない核融合システムは, min-tDCFが22.5%, EERが7%, min-tDCFが0.0124, EERが0.55%のシステムよりも優れている。 さらに,シミュレーションされたASVspoof2019データとは別に,実再生データに対する評価結果を提示し,検討した。

It becomes urgent to design effective anti-spoofing algorithms for vulnerable automatic speaker verification systems due to the advancement of high-quality playback devices. Current studies mainly treat anti-spoofing as a binary classification problem between bonafide and spoofed utterances, while lack of indistinguishable samples makes it difficult to train a robust spoofing detector. In this paper, we argue that for anti-spoofing, it needs more attention for indistinguishable samples over easily-classified ones in the modeling process, to make correct discrimination a top priority. Therefore, to mitigate the data discrepancy between training and inference, we propose to leverage a balanced focal loss function as the training objective to dynamically scale the loss based on the traits of the sample itself. Besides, in the experiments, we select three kinds of features that contain both magnitude-based and phase-based information to form complementary and informative features. Experimental results on the ASVspoof2019 dataset demonstrate the superiority of the proposed methods by comparison between our systems and top-performing ones. Systems trained with the balanced focal loss perform significantly better than conventional cross-entropy loss. With complementary features, our fusion system with only three kinds of features outperforms other systems containing five or more complex single models by 22.5% for min-tDCF and 7% for EER, achieving a min-tDCF and an EER of 0.0124 and 0.55% respectively. Furthermore, we present and discuss the evaluation results on real replay data apart from the simulated ASVspoof2019 data, indicating that research for anti-spoofing still has a long way to go.
翻訳日:2022-11-17 02:45:42 公開日:2020-06-25
# 単一画像からの視点平面プログラム誘導

Perspective Plane Program Induction from a Single Image ( http://arxiv.org/abs/2006.14708v1 )

ライセンス: Link先を確認
Yikai Li, Jiayuan Mao, Xiuming Zhang, William T. Freeman, Joshua B. Tenenbaum, Jiajun Wu(参考訳) 自然画像の全体表現を推測する逆グラフィックス問題について検討する。 入力画像が与えられた場合、私たちの目標は、カメラのポーズ、オブジェクトの位置、グローバルなシーン構造を共同でモデル化する、ニューロシンボリックなプログラムライクな表現を誘発することです。 このような高レベルで総合的なシーン表現は、インペインティングのような低レベルのイメージ操作タスクをさらに促進します。 この問題を,入力画像の最もよく説明できるカメラのポーズとシーン構造を共同で見つけ出す問題として定式化する。 このようなジョイント推論の利点は2つある: シーンの規則性は視点の補正のための新しい手がかりとなり、そしてその結果として、正しい視点の補正は、テクスチャから最も規則的なテクスチャとなるように、単純なシーン構造につながる。 提案するフレームワークであるP3Iは,探索に基づくアルゴリズムと勾配に基づくアルゴリズムを組み合わせて効率よく問題を解く。 P3Iは、カメラポーズ推定、グローバル構造推論、ダウンストリームイメージ操作タスクなどを含む、インターネットイメージの集合に対して、一連のベースラインを上回ります。

We study the inverse graphics problem of inferring a holistic representation for natural images. Given an input image, our goal is to induce a neuro-symbolic, program-like representation that jointly models camera poses, object locations, and global scene structures. Such high-level, holistic scene representations further facilitate low-level image manipulation tasks such as inpainting. We formulate this problem as jointly finding the camera pose and scene structure that best describe the input image. The benefits of such joint inference are two-fold: scene regularity serves as a new cue for perspective correction, and in turn, correct perspective correction leads to a simplified scene structure, similar to how the correct shape leads to the most regular texture in shape from texture. Our proposed framework, Perspective Plane Program Induction (P3I), combines search-based and gradient-based algorithms to efficiently solve the problem. P3I outperforms a set of baselines on a collection of Internet images, across tasks including camera pose estimation, global structure inference, and down-stream image manipulation tasks.
翻訳日:2022-11-17 02:44:45 公開日:2020-06-25
# SACT:ビデオキャプションのための多項アテンションのための自己認識多空間特徴量変換器

SACT: Self-Aware Multi-Space Feature Composition Transformer for Multinomial Attention for Video Captioning ( http://arxiv.org/abs/2006.14262v1 )

ライセンス: Link先を確認
Chiranjib Sur(参考訳) ビデオキャプションは、特徴検出と特徴合成という2つの基本的な概念で機能する。 現代のトランスフォーマーは機能を構成する上で有益であるが、コンテンツの選択と理解に関する根本的な問題が欠けている。 特徴長が大きくなるにつれて、関連するコンテンツの捕獲を改善するための規定を含めることがますます重要になる。 本研究では,フレームの様々な組み合わせの分布を生成する方法である多項アテンション(MultAtt)を生成することができる自己認識型コンポジショントランス (SACT) の概念を導入した。 また、マルチヘッドアテンショントランスフォーマーは、自然言語の分類には適しているが、ビデオキャプションに制限がある、すべてのコンテンツを組み合わせて注意を向ける原理に基づいている。 ビデオコンテンツには繰り返しがあり、コンテンツ構成を改善するために重要なコンテンツを解析する必要がある。 本研究では、より選択的な注意のためにSACTを導入し、それらを異なる注意ヘッドに組み合わせて、任意のアプリケーションで使用可能なコンテンツをよりよくキャプチャする。 本稿では,多角化の問題に対処し,選択的利用を促進するため,高精細ビデオキャプションのための自己認識合成トランスフォーマーモデルを提案し,activitynetやyoucookiiといった2つのベンチマークデータセットに適用する。

Video captioning works on the two fundamental concepts, feature detection and feature composition. While modern day transformers are beneficial in composing features, they lack the fundamental problems of selecting and understanding of the contents. As the feature length increases, it becomes increasingly important to include provisions for improved capturing of the pertinent contents. In this work, we have introduced a new concept of Self-Aware Composition Transformer (SACT) that is capable of generating Multinomial Attention (MultAtt) which is a way of generating distributions of various combinations of frames. Also, multi-head attention transformer works on the principle of combining all possible contents for attention, which is good for natural language classification, but has limitations for video captioning. Video contents have repetitions and require parsing of important contents for better content composition. In this work, we have introduced SACT for more selective attention and combined them for different attention heads for better capturing of the usable contents for any applications. To address the problem of diversification and encourage selective utilization, we propose the Self-Aware Composition Transformer model for dense video captioning and apply the technique on two benchmark datasets like ActivityNet and YouCookII.
翻訳日:2022-11-17 02:38:47 公開日:2020-06-25
# 視覚質問応答のための集中型深層マルチモジュラーネットワークのための自己分離・協調分離トランス

Self-Segregating and Coordinated-Segregating Transformer for Focused Deep Multi-Modular Network for Visual Question Answering ( http://arxiv.org/abs/2006.14264v1 )

ライセンス: Link先を確認
Chiranjib Sur(参考訳) 注意機構は、異なるドメインで高い精度を達成する効果により、大きな人気を集めている。 しかし、注目は機会的であり、コンテンツの内容やユーザビリティによって正当化されていない。 トランスフォーマーのような構造は、あらゆる可能な注意を喚起する。 性能向上のためのアプリケーションの内容の優先順位付けが可能な分離戦略を定義する。 我々は,SST(Self Segregating Transformer)とCST(Coordinated-Segregating Transformer)の2つの戦略を定義した。 注意のための自己分離戦略は、質問に答え、注意のための視覚的推論の多様性を生み出すのに最も役立つ情報の理解とフィルタリングに寄与する。 この作業は、繰り返しや複数の特徴のフレームを含む他の多くのアプリケーションで容易に利用することができ、注意の共通性を大幅に減らすことができる。 VQA(Visual Question Answering)は、画像とテキストの解釈の両方の理解と調整を必要とする。 実験により、カスケード型マルチヘッドトランスフォーマーアテンションの分離戦略は、過去の多くの作業より優れており、VQA-v2データセットベンチマークでかなりの改善が得られた。

Attention mechanism has gained huge popularity due to its effectiveness in achieving high accuracy in different domains. But attention is opportunistic and is not justified by the content or usability of the content. Transformer like structure creates all/any possible attention(s). We define segregating strategies that can prioritize the contents for the applications for enhancement of performance. We defined two strategies: Self-Segregating Transformer (SST) and Coordinated-Segregating Transformer (CST) and used it to solve visual question answering application. Self-segregation strategy for attention contributes in better understanding and filtering the information that can be most helpful for answering the question and create diversity of visual-reasoning for attention. This work can easily be used in many other applications that involve repetition and multiple frames of features and would reduce the commonality of the attentions to a great extent. Visual Question Answering (VQA) requires understanding and coordination of both images and textual interpretations. Experiments demonstrate that segregation strategies for cascaded multi-head transformer attention outperforms many previous works and achieved considerable improvement for VQA-v2 dataset benchmark.
翻訳日:2022-11-17 02:38:26 公開日:2020-06-25
# ニューラルネットワークの早期学習ダイナミクスの驚くべき単純さ

The Surprising Simplicity of the Early-Time Learning Dynamics of Neural Networks ( http://arxiv.org/abs/2006.14599v1 )

ライセンス: Link先を確認
Wei Hu, Lechao Xiao, Ben Adlam, Jeffrey Pennington(参考訳) 現代のニューラルネットワークは、データへの非線形依存と損失景観における非凸性のため、振る舞いが理解しにくい複雑なブラックボックス関数と見なされることが多い。 本研究では,これらの共通認識が学習の初期段階において完全に誤りであることを示す。 特に, 入力分布のクラスにおいて, 2層完全連結ニューラルネットワークの早期学習ダイナミクスは, 入力上の単純な線形モデルを訓練することによって模倣できることを正式に証明する。 さらに、この驚くべき単純さは、より多くの層と畳み込みアーキテクチャを持つネットワークで持続し、実証的に検証できると論じている。 我々の分析の鍵は、初期化時の神経接核(ntk)とデータカーネルのアフィン変換との差のスペクトルノルムを限定することである。しかし、ntkを使用する多くの以前の結果とは異なり、ネットワークが不釣り合いに広い幅を持つ必要はなく、ネットワークは後にカーネルレジームから逃れることができる。

Modern neural networks are often regarded as complex black-box functions whose behavior is difficult to understand owing to their nonlinear dependence on the data and the nonconvexity in their loss landscapes. In this work, we show that these common perceptions can be completely false in the early phase of learning. In particular, we formally prove that, for a class of well-behaved input distributions, the early-time learning dynamics of a two-layer fully-connected neural network can be mimicked by training a simple linear model on the inputs. We additionally argue that this surprising simplicity can persist in networks with more layers and with convolutional architecture, which we verify empirically. Key to our analysis is to bound the spectral norm of the difference between the Neural Tangent Kernel (NTK) at initialization and an affine transform of the data kernel; however, unlike many previous results utilizing the NTK, we do not require the network to have disproportionately large width, and the network is allowed to escape the kernel regime later in training.
翻訳日:2022-11-17 02:37:10 公開日:2020-06-25
# パラフレーズ生成のためのニューラルマシン翻訳

Neural Machine Translation For Paraphrase Generation ( http://arxiv.org/abs/2006.14223v1 )

ライセンス: Link先を確認
Alex Sokolov, Denis Filimonov(参考訳) alexaのように、音声言語理解システムのトレーニングには、通常、大きな人間の注釈によるデータのコーパスが必要です。 手動アノテーションは高価で時間がかかります。 Alexa Skill Kit(ASK)では、スキルを持つユーザエクスペリエンスは、スキル開発者が提供するデータ量に大きく依存する。 本稿では,パラフレージングによって人間的インタラクションとアノテーションの両方を生成できる自動自然言語生成システムを提案する。 我々のアプローチは、機械翻訳(MT)にインスパイアされたエンコーダ-デコーダディープリカレントニューラルネットワークから成り立っている。 我々は,本モデルがASKスキル,意図,名前付きエンティティ分類精度,文レベルカバレッジに与える影響について評価し,自然言語理解(NLU)モデルにおける未知のスキルに対する顕著な改善を示す。

Training a spoken language understanding system, as the one in Alexa, typically requires a large human-annotated corpus of data. Manual annotations are expensive and time consuming. In Alexa Skill Kit (ASK) user experience with the skill greatly depends on the amount of data provided by skill developer. In this work, we present an automatic natural language generation system, capable of generating both human-like interactions and annotations by the means of paraphrasing. Our approach consists of machine translation (MT) inspired encoder-decoder deep recurrent neural network. We evaluate our model on the impact it has on ASK skill, intent, named entity classification accuracy and sentence level coverage, all of which demonstrate significant improvements for unseen skills on natural language understanding (NLU) models, trained on the data augmented with paraphrases.
翻訳日:2022-11-17 02:36:04 公開日:2020-06-25
# テキスト表現の個人化に向けて

Towards Differentially Private Text Representations ( http://arxiv.org/abs/2006.14170v1 )

ライセンス: Link先を確認
Lingjuan Lyu, Yitong Li, Xuanli He, Tong Xiao(参考訳) ほとんどのディープラーニングフレームワークでは、グローバルなモデルをトレーニングまたは維持するために、ローカルデータをプールしたり、信頼できるサーバにモデル更新をする必要がある。 ユーザ情報にアクセス可能な信頼できるサーバの仮定は多くのアプリケーションで不適当である。 この問題を解決するために,(1)埋め込みモジュール,(2)ランダム化モジュール,(3)分類モジュールの3つのモジュールを含む,信頼できないサーバ設定下での新たなディープラーニングフレームワークを開発した。 乱数化モジュールに対して、プライバシーパラメータ$\epsilon$の精度への影響を低減し、LDPのランダム化確率を選択する際の柔軟性を向上させるために、新しいローカル微分プライベート(LDP)プロトコルを提案する。 分析と実験により、我々のフレームワークは、非プライベートなフレームワークや既存のLDPプロトコルと同等またはそれ以上の性能を提供し、我々のLDPプロトコルの利点を実証している。

Most deep learning frameworks require users to pool their local data or model updates to a trusted server to train or maintain a global model. The assumption of a trusted server who has access to user information is ill-suited in many applications. To tackle this problem, we develop a new deep learning framework under an untrusted server setting, which includes three modules: (1) embedding module, (2) randomization module, and (3) classifier module. For the randomization module, we propose a novel local differentially private (LDP) protocol to reduce the impact of privacy parameter $\epsilon$ on accuracy, and provide enhanced flexibility in choosing randomization probabilities for LDP. Analysis and experiments show that our framework delivers comparable or even better performance than the non-private framework and existing LDP protocols, demonstrating the advantages of our LDP protocol.
翻訳日:2022-11-17 02:35:51 公開日:2020-06-25