このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200909となっている論文です。

PDF登録状況(公開日: 20200909)

TitleAuthorsAbstract論文公表日・翻訳日
# 対称群からの正写像とトレース多項式

Positive maps and trace polynomials from the symmetric group ( http://arxiv.org/abs/2002.12887v2 )

ライセンス: Link先を確認
Felix Huber(参考訳) 量子情報理論から借用した手法を用いて,複数の行列変数の演算子不等式と同一性を求める手法を開発した。 行列単項$x_{\alpha_1} \cdots x_{\alpha_r}$とそのトレース$\operatorname{tr}(x_{\alpha_1} \cdots x_{\alpha_r})$を含む多項式のような表現である。 本手法はテンソル積空間上の対称群の作用を行列乗算の作用に変換するものである。 その結果、偏極ケイリー・ハミルトン恒等式を正の錐上の作用素不等式に拡張し、ヴェルナー状態証人の観点から多線型同変正写像の集合を特徴づけ、テンソル積空間上で置換多項式とテンソル多項式の恒等性を構築する。 量子情報理論と不変理論の概念との接続を与える。

With techniques borrowed from quantum information theory, we develop a method to systematically obtain operator inequalities and identities in several matrix variables. These take the form of trace polynomials: polynomial-like expressions that involve matrix monomials $X_{\alpha_1} \cdots X_{\alpha_r}$ and their traces $\operatorname{tr}(X_{\alpha_1} \cdots X_{\alpha_r})$. Our method rests on translating the action of the symmetric group on tensor product spaces into that of matrix multiplication. As a result, we extend the polarized Cayley-Hamilton identity to an operator inequality on the positive cone, characterize the set of multilinear equivariant positive maps in terms of Werner state witnesses, and construct permutation polynomials and tensor polynomial identities on tensor product spaces. We give connections to concepts in quantum information theory and invariant theory.
翻訳日:2023-06-01 07:42:12 公開日:2020-09-09
# communication memento: メモリレス通信の複雑さ

Communication memento: Memoryless communication complexity ( http://arxiv.org/abs/2005.04068v2 )

ライセンス: Link先を確認
Srinivasan Arunachalam and Supartha Podder(参考訳) メモリレス通信モデルにおいて,計算関数の通信複雑性を$F:\{0,1\}^n\times \{0,1\}^n \rightarrow \{0,1\}$で検討する。 ここで、aliceは$x\in \{0,1\}^n$、bobは$y\in \{0,1\}^n$、彼らの目標は次の制約に従うf(x,y)を計算することである。 このモデルにおけるFの計算コストは、アリスとボブの間の任意のラウンドで交換される最大ビット数である(最悪の場合、x,y)。 本稿では,一方のパーティがメモリを持つことができ,一方のパーティが量子ビットを通信でき,一方のプレーヤーだけがメッセージを送信することができる,という,メモリレスモデルのバリエーションについても検討する。 本モデルでは,buhrman et al. (itcs'13), space bounded communication complexity by brody et al. (itcs'13), and the overlay communication complexity by papakonstantinou et al. (ccc'14) による計算のガーデン・hoseモデルを取り込む。 したがって、メモリレス通信複雑性モデルは、空間境界通信モデルを研究するための統一的なフレームワークを提供する。 1) f のメモリレス通信複雑性が最小二部分岐プログラム演算 f の大きさの対数(因子2 まで)に等しいこと,(2)メモリレス通信複雑性がガーデン・ホース複雑度に等しいこと,(3)メモリレス通信モデル間の指数関数的分離を示すこと,の2つを定式化する。 明示的な関数 f と普遍定数 c>1 は、メモリレス通信の複雑さが少なくとも $c \log n$ であるようなものを見つけることができるか? c\geq 2+\varepsilon$ は一般式のサイズに対して$\omega(n^{2+\varepsilon})$の下限を意味し、1966年のne\v{c}iporukによる最下限を改善している。

We study the communication complexity of computing functions $F:\{0,1\}^n\times \{0,1\}^n \rightarrow \{0,1\}$ in the memoryless communication model. Here, Alice is given $x\in \{0,1\}^n$, Bob is given $y\in \{0,1\}^n$ and their goal is to compute F(x,y) subject to the following constraint: at every round, Alice receives a message from Bob and her reply to Bob solely depends on the message received and her input x; the same applies to Bob. The cost of computing F in this model is the maximum number of bits exchanged in any round between Alice and Bob (on the worst case input x,y). In this paper, we also consider variants of our memoryless model wherein one party is allowed to have memory, the parties are allowed to communicate quantum bits, only one player is allowed to send messages. We show that our memoryless communication model capture the garden-hose model of computation by Buhrman et al. (ITCS'13), space bounded communication complexity by Brody et al. (ITCS'13) and the overlay communication complexity by Papakonstantinou et al. (CCC'14). Thus the memoryless communication complexity model provides a unified framework to study space-bounded communication models. We establish the following: (1) We show that the memoryless communication complexity of F equals the logarithm of the size of the smallest bipartite branching program computing F (up to a factor 2); (2) We show that memoryless communication complexity equals garden-hose complexity; (3) We exhibit various exponential separations between these memoryless communication models. We end with an intriguing open question: can we find an explicit function F and universal constant c>1 for which the memoryless communication complexity is at least $c \log n$? Note that $c\geq 2+\varepsilon$ would imply a $\Omega(n^{2+\varepsilon})$ lower bound for general formula size, improving upon the best lower bound by Ne\v{c}iporuk in 1966.
翻訳日:2023-05-20 20:06:32 公開日:2020-09-09
# ブッシュ定理の量子力学的定式化

Quantum mechanical formulation of the Busch theorem ( http://arxiv.org/abs/2006.12948v2 )

ライセンス: Link先を確認
Klaus Floettmann, Dmitry Karlovets(参考訳) 電子渦ビームは、電子顕微鏡におけるキラル構造や磁気構造の研究や、粒子物理学における量子干渉の基礎的な効果をもたらす。 ソレノイド場に陰極を浸漬すると、加速器で使用されるが、まだ電子顕微鏡では実現されていない渦電子ビームの高効率で柔軟な生成法が提示される。 電子顕微鏡における没入陰極からの量子化軌道角運動量を持つ渦ビームの発生条件について論じ, この技術が他の荷電粒子の渦ビーム生成に有効である可能性が指摘された。

Electron vortex beams offer unique opportunities for the study of chiral or magnetic structures in electron microscopes and of fundamental effects of quantum interference in particle physics. Immersing a cathode in a solenoid field presents a highly efficient and flexible method for the generation of vortex electron beams which is utilized at accelerators, but has not yet been realized in an electron microscope. The conditions for the generation of vortex beams with quantized orbital angular momentum from an immersed cathode in an electron microscope are discussed, and general possibilities of this technique for the production of vortex beams of other charged particles are pointed out.
翻訳日:2023-05-13 00:51:17 公開日:2020-09-09
# エンタングルメントダイナミクスにおける熱前化と熱化

Prethermalisation and Thermalisation in the Entanglement Dynamics ( http://arxiv.org/abs/2007.01286v2 )

ライセンス: Link先を確認
Bruno Bertini and Pasquale Calabrese(参考訳) ほぼ可積分系の熱的値に対する絡み合いエントロピーの交叉について検討する。 量子クエンチ後の弱相互作用スピンレスフェルミオンの格子モデルにおいて、絡み合いダイナミクスを研究するために運動方程式を用いる。 弱い相互作用に対しては、有限サブシステムの絡み合いエントロピーの2段階緩和を観測する。 当初、エントロピーはほぼ可積分な進化を辿り、非摂動モデルの一般化ギブズ・アンサンブル(GGE)によって予測される値に近づいた。 次に、標準ギブズ・アンサンブル(GE)によって記述された熱定常値に向かって緩やかなドリフトを開始する。 GGEへの初期緩和は相互作用とは無関係であるが、GEからGEへの緩やかなドリフトは、逆相互作用の2乗に比例する時間スケールで起こる。 漸近的に大きな時間とサブシステムのサイズに対して、エントロピーのダイナミクスは、可積分性の崩壊によって引き起こされるフェルミオン的職業の進化を追跡する修正された準粒子画像を用いて予測できる。 この図は、積分可能性破りの時間スケールが、GEへの(準)飽和に関連するものよりもはるかに大きい限り、結果を定量的に記述する。 反対の極限では、準粒子像は依然として正確な深夜挙動を与えるが、絡み合いエントロピーの初期傾斜を過小評価する。

We investigate the crossover of the entanglement entropy towards its thermal value in nearly integrable systems. We employ equation of motion techniques to study the entanglement dynamics in a lattice model of weakly interacting spinless fermions after a quantum quench. For weak enough interactions we observe a two-step relaxation of the entanglement entropies of finite subsystems. Initially the entropies follow a nearly integrable evolution, approaching the value predicted by the Generalized Gibbs Ensemble (GGE) of the unperturbed model. Then, they start a slow drift towards the thermal stationary value described by a standard Gibbs Ensemble (GE). While the initial relaxation to the GGE is independent of the interaction, the slow drift from GGE to GE values happens on time scales proportional to the inverse interaction squared. For asymptotically large times and subsystem sizes the dynamics of the entropies can be predicted using a modified quasiparticle picture that keeps track of the evolution of the fermionic occupations caused by the integrability breaking. This picture gives a quantitative description of the results as long as the integrability-breaking timescale is much larger than the one associated with the (quasi) saturation to the GGE. In the opposite limit the quasiparticle picture still provides the correct late-time behaviour, but it underestimates the initial slope of the entanglement entropy.
翻訳日:2023-05-11 20:37:44 公開日:2020-09-09
# 量子粒子の古典性の条件について

On the conditions for the classicality of a quantum particle ( http://arxiv.org/abs/2007.11886v2 )

ライセンス: Link先を確認
V. E. Kuzmichev, V. V. Kuzmichev (Bogolyubov Institute for Theoretical Physics)(参考訳) 古典量を用いて量子粒子を記述する条件について研究する。 1次元(1D)および3次元(3D)問題を考察する。 量子粒子が特定の媒体と相互作用するとき、すべての量子補正(WKBの意味で)からの寄与の合計は厳密に消滅する。 このような媒体の屈折率の指標が見つかる。 この場合、プランク定数の小ささは仮定されない。 これらの媒体中の量子粒子のモーメントと定常状態の波動関数が決定される。 1Dの場合、波動関数は特異な誘電率で結合エネルギーがゼロの試験粒子のものと似ており、中心に「落下」が認められる。 中心対称性を持つ3次元の場合、古典運動量を持つ量子粒子を記述する定常状態は、2つのド・ブロイ波長の幅の共鳴を持つ波動関数によって定義される。

Conditions under which a quantum particle is described using classical quantities are studied. The one-dimensional (1D) and three-dimensional (3D) problems are considered. It is shown that the sum of the contributions from all quantum corrections (in the WKB sense) strictly vanishes, when a quantum particle interacts with some specific medium. The indices of refraction of such media are found. In this case, the smallness of the Planck constant is not assumed. The momenta of quantum particles in these media and the wave functions of stationary states are determined. It is found that, for the 1D case, the wave function is similar to that of the test particle with zero binding energy in a singular attractive potential, which admits "fall" to the center. For the 3D case with central symmetry, a stationary state, describing a quantum particle with a classical momentum, is defined by the wave function, which has the resonance of width about two de Broglie wavelengths.
翻訳日:2023-05-08 11:09:32 公開日:2020-09-09
# ワイル・ハイゼンベルクコヒーレント状態の量子力学

Quantum dynamics in Weyl-Heisenberg coherent states ( http://arxiv.org/abs/2009.00056v2 )

ライセンス: Link先を確認
Artur Miroszewski(参考訳) この記事では、量子力学における運動を記述するための新しい形式を探求する。 この構成は、一般化されたコヒーレント状態と進化するフィデューシャルベクトルに基づいている。 ワイル=ハイゼンベルクコヒーレント状態は、量子系を「古典」と「量子」の自由度に分割するために用いられる。 この分解は、半古典的フレームから知覚される量子力学と等価である。 この分割は古典状態の新しい定義の導入を可能にし、量子力学の近似解析のための便利な出発点である。 メタ安定状態の例は、導入された概念の実例として与えられる。

The article explores a new formalism for describing motion in quantum mechanics. The construction is based on generalized coherent states with evolving fiducial vector. Weyl-Heisenberg coherent states are utilised to split quantum systems into `classical' and `quantum' degrees of freedom. The decomposition is found to be equivalent to quantum mechanics perceived from a semi-classical frame. The split allows for introduction of a new definition of classical state and is a convenient starting point for approximate analysis of quantum dynamics. An example of a meta-stable state is given as a practical illustration of the introduced concepts.
翻訳日:2023-05-04 05:25:10 公開日:2020-09-09
# jeffrey bub氏の"understanding the frauchiger-renner argument"に対するコメント

Comment on "Understanding the Frauchiger-Renner argument" by Jeffrey Bub ( http://arxiv.org/abs/2009.00983v2 )

ライセンス: Link先を確認
Anthony Sudbery(参考訳) Bubは最近、Frauchiger-Renner引数は状態ベクトルが測定後に射影されるという仮定を必要としないと主張した。 この主張は真実ではないことが示され、議論に対する別の理解が提供される。

Bub has recently claimed that the Frauchiger-Renner argument does not require an assumption that the state vector undergoes projection after measurement. It is shown that this claim is not true, and an alternative understanding of the argument is offered.
翻訳日:2023-05-04 01:12:18 公開日:2020-09-09
# シリコンのスケーラブルドナー量子アレイに対する99.87%信頼度を持つ決定論的単一イオン注入

Deterministic Single Ion Implantation with 99.87% Confidence for Scalable Donor-Qubit Arrays in Silicon ( http://arxiv.org/abs/2009.02892v2 )

ライセンス: Link先を確認
Alexander M. Jakob, Simon G. Robson, Vivien Schmitt, Vincent Mourik, Matthias Posselt, Daniel Spemann, Brett C. Johnson, Hannes R. Firgau, Edwin Mayes, Jeffrey C. McCallum, Andrea Morello, David N. Jamieson(参考訳) 等方的に精製された$^{28}$Si結晶に埋め込まれた群V-ドナースピンの特性は、大規模量子コンピュータデバイスに魅力的な量子ビットを与える。 重要な特徴は、$^{31}$Pの長い核スピンと電子スピンの寿命、$^{209}$Biの超微細クロック遷移、および電気的に制御可能な$^{123}$Sb核スピンである。 しかし、スケーラブルな量子デバイスのためのアーキテクチャは、高忠実な量子演算を可能にするのに十分な精度で配置された個々のドナー原子の決定論的配列を作る能力を必要とする。 ここでは,1個の低エネルギー(14 keV)P$^+$イオンを,室温に近い動作で99.87 pm0.02$%の信頼性で注入することを示すために,感電電子を用いたオンチップ電極を用いる。 これにより、走査プローブイオン開口を備えた原子間力顕微鏡との統合が可能となり、移植されたイオンを正確な位置に向けることの重大な問題に対処できる。 これらの結果から, 決定論的単一イオン注入は, 量子計算やその他の応用のために大規模ドナーアレイを製造する上で有効な経路であることが示唆された。

The attributes of group-V-donor spins implanted in an isotopically purified $^{28}$Si crystal make them attractive qubits for large-scale quantum computer devices. Important features include long nuclear and electron spin lifetimes of $^{31}$P, hyperfine clock transitions in $^{209}$Bi and electrically controllable $^{123}$Sb nuclear spins. However, architectures for scalable quantum devices require the ability to fabricate deterministic arrays of individual donor atoms, placed with sufficient precision to enable high-fidelity quantum operations. Here we employ on-chip electrodes with charge-sensitive electronics to demonstrate the implantation of single low-energy (14 keV) P$^+$ ions with an unprecedented $99.87\pm0.02$% confidence, while operating close to room-temperature. This permits integration with an atomic force microscope equipped with a scanning-probe ion aperture to address the critical issue of directing the implanted ions to precise locations. These results show that deterministic single-ion implantation can be a viable pathway for manufacturing large-scale donor arrays for quantum computation and other applications.
翻訳日:2023-05-03 07:32:12 公開日:2020-09-09
# 2量子ビット量子ゲートの不変部分空間とその量子コンピュータの検証への応用

Invariant subspaces of two-qubit quantum gates and their application in the verification of quantum computers ( http://arxiv.org/abs/2009.03642v2 )

ライセンス: Link先を確認
Yordan S. Yordanov, Jacob Chevalier-Drori, Thierry Ferrus, Matthew Applegate and Crispin H. W. Barnes(参考訳) 我々は,$CP$,$CNOT$および$SWAP^\alpha$(SWAPのパワー)量子ゲート演算が$n$量子ビットに作用する群について検討する。 標準群への同型は見出され、表現論の技法を用いて各群の作用の下で、$n-$qubit ヒルベルト空間の不変部分空間を決定することができる。 CP$演算の場合、$n(n-1)/2$ 巡回群の直積の同型は2$であり、計算状態ベクトルに対応する2^n$1$次元不変部分空間を決定する。 CNOT$演算に対して、$2$要素の体上の$n$-次元空間の一般線型群の同型を見つけ、$GL(n,2)$を2つの1$-次元不変部分空間と$(2^n-2)$-次元不変部分空間を決定する。 SWAP^\alpha$ 演算に対して、次元や発生の異なる不変部分空間の複素構造を決定し、それらを構成する再帰的な手順を示す。 本研究の応用例として,これらの不変部分空間を用いて,任意の大きさの量子コンピュータの動作を評価する簡単な形式的検証手順を構築することを提案する。

We investigate the groups generated by the sets of $CP$, $CNOT$ and $SWAP^\alpha$ (power-of-SWAP) quantum gate operations acting on $n$ qubits. Isomorphisms to standard groups are found, and using techniques from representation theory, we are able to determine the invariant subspaces of the $n-$qubit Hilbert space under the action of each group. For the $CP$ operation, we find isomorphism to the direct product of $n(n-1)/2$ cyclic groups of order $2$, and determine $2^n$ $1$-dimensional invariant subspaces corresponding to the computational state-vectors. For the $CNOT$ operation, we find isomorphism to the general linear group of an $n$-dimensional space over a field of $2$ elements, $GL(n,2)$, and determine two $1$-dimensional invariant subspaces and one $(2^n-2)$-dimensional invariant subspace. For the $SWAP^\alpha$ operation we determine a complex structure of invariant subspaces with varying dimensions and occurrences and present a recursive procedure to construct them. As an example of an application for our work, we suggest that these invariant subspaces can be used to construct simple formal verification procedures to assess the operation of quantum computers of arbitrary size.
翻訳日:2023-05-03 05:15:13 公開日:2020-09-09
# Belle IIでのユーザドキュメントとトレーニング

User documentation and training at Belle II ( http://arxiv.org/abs/2009.04166v1 )

ライセンス: Link先を確認
Sam Cunliffe, Ilya Komarov, Thomas Kuhr, Martin Ritter, and Francesco Tenchini(参考訳) ベルIIは、世界中に広がる100か19の機関のメンバーとの、急速に成長するコラボレーションである。 実験のソフトウェア開発チームは、ソフトウェアユーザだけでなく、非常に分散化されています。 ソフトウェアのアクティブな開発と合わせて、このような分散化は、ユーザによる最新のソフトウェアリリースの採用を不可欠だが、非常に難しい課題にしている。 ドキュメンテーションの関連性を保証するため、インコードドキュメンテーションのポリシーを採用し、ドキュメンテーションを所定のリリースに結びつけるためのWebサイトを設定しました。 チュートリアルが時代遅れになるのを防ぐため、単体テストでそれらをカバーしました。 ユーザサポートには,同じ質問を繰り返し繰り返すだけでなく,専門家同士の議論の場にもなった質問と回答サービスを使用します。 異なるドキュメンテーションソースのためのメタ検索エンジンのプロトタイプが開発されている。 新しいユーザのトレーニングには、コラボレーションミーティングに付属する集中型StarterKitワークショップを組織します。 ワークショップの材料は、後に地元のトレーニングセッションの自己教育と組織化に使用される。

Belle II is a rapidly growing collaboration with members from one hundred and nineteen institutes spread around the globe. The software development team of the experiment, as well as the software users, are very much decentralised. Together with the active development of the software, such decentralisation makes the adoption of the latest software releases by users an essential, but quite challenging task. To ensure the relevance of the documentation, we adopted the policy of in-code documentation and configured a website that allows us to tie the documentation to given releases. To prevent tutorials from becoming outdated, we covered them by unit-tests. For the user support, we use a question and answer service that not only reduces repetition of the same questions but also turned out to be a place for discussions among the experts. A prototype of a metasearch engine for the different sources of documentation has been developed. For training of the new users, we organise centralised StarterKit workshops attached to the collaboration meetings. The materials of the workshops are later used for self-education and organisation of local training sessions.
翻訳日:2023-05-03 03:12:58 公開日:2020-09-09
# フェルミボース熱浴に結合したフェルミボース系の非マルコフモデル

Non-Markovian modeling of Fermi-Bose systems coupled to one or several Fermi-Bose thermal baths ( http://arxiv.org/abs/2009.04152v1 )

ライセンス: Link先を確認
Denis Lacroix, V. V. Sargsyan, G. G. Adamian, N. V. Antonenko, and A. A. Hovhannisyan(参考訳) フェミオンおよび/またはボソンからなる1つまたは複数の熱浴に結合したフェルミまたはボース系を記述する方法を提案する。 Coupled Equations of Motion Methodと呼ばれるこの方法は、マルコフ効果を適切に含んでいる。 このアプローチは、システムと浴室にボソニック粒子だけが存在する場合のフルカップリング近似において正確である。 このアプローチは、フェルミオンがシステムまたは/または1つまたは複数の環境に存在する場合の近似処理を提供する。 この新しいアプローチは、進化中のフェルミオンに対するパウリ排除原理を適切に尊重する利点がある。 異なる種類の量子統計量(フェルミオンまたはボーソン)を仮定した1つまたは2つのヒートバスと結合した1つのフェルミまたはボース2準位系のアプローチを説明する。 フェルミ系がフェルミオンやボソン熱浴に結合した事例や両者の混合物を詳細に分析した。 2段階システム(qubits)の増加によって形成されるフェルミ系を扱うための今後の目標として,運動方程式やシステム-バスカップリングや初期熱浴温度の観点で有効性が限界となるような単純化の可能性について論じる。

A method is proposed to describe Fermi or Bose systems coupled to one or several heat baths composed of fermions and/or bosons. The method, called Coupled Equations of Motion method, properly includes non-Markovian effects. The approach is exact in the Full-Coupling approximation when only bosonic particles are present in the system and baths. The approach provides an approximate treatment when fermions are present either in the system and/or in one or several environments. The new approach has the advantage to properly respect the Pauli exclusion principle for fermions during the evolution. We illustrate the approach for the single Fermi or Bose two-level system coupled to one or two heat-baths assuming different types of quantum statistics (Fermion or Bosons) for them. The cases of Fermi system coupled to fermion or boson heat baths or a mixture of both are analyzed in details. With the future goal to treat Fermi systems formed of increasing number of two-level systems (Qubits), we discuss possible simplifications that could be made in the equations of motion and their limits of validity in terms of the system--baths coupling or of the initial heat baths temperatures.
翻訳日:2023-05-03 03:12:44 公開日:2020-09-09
# 量子コンピュータ上のマルチパス干渉計における波動粒子双対性のシミュレーション

Simulation of wave-particle duality in multi-path interferometers on a quantum computer ( http://arxiv.org/abs/2009.04143v1 )

ライセンス: Link先を確認
Mirko Amico and Christoph Dittel(参考訳) 2\log n$ qubits 以下を含む普遍量子コンピュータ上でのn$-path干渉計における波動粒子双対性について検討し、干渉可視性とどの経路情報を含む量子化器の効率的な抽出を可能にする計測手法を開発した。 ノイズの増加は干渉可視性とどのパス情報との相補的挙動を一貫して観察しているにもかかわらず、我々は、N=16$パスの干渉計のためのアルゴリズムを、$\mathcal{O}(\log N)$ gates まで下げた雑音の中間スケール量子(NISQ)デバイス上での実証実験で実装した。 我々の結果は、波動-粒子の双対性に関する現在の理解に従っており、NISQ時代を超えて、将来の量子デバイスにおいて指数関数的に増加する経路を持つ干渉計の研究を可能にする。

We present an architecture to investigate wave-particle duality in $N$-path interferometers on a universal quantum computer involving as low as $2\log N$ qubits and develop a measurement scheme which allows the efficient extraction of quantifiers of interference visibility and which-path information. We implement our algorithms for interferometers with up to $N=16$ paths in proof-of-principle experiments on a noisy intermediate-scale quantum (NISQ) device using down to $\mathcal{O}(\log N)$ gates and despite increasing noise consistently observe a complementary behavior between interference visibility and which-path information. Our results are in accordance with our current understanding of wave-particle duality and allow its investigation for interferometers with an exponentially growing number of paths on future quantum devices beyond the NISQ era.
翻訳日:2023-05-03 03:12:22 公開日:2020-09-09
# 量子技術のためのシリコンのドナースピン

Donor spins in silicon for quantum technologies ( http://arxiv.org/abs/2009.04081v1 )

ライセンス: Link先を確認
Andrea Morello, Jarryd J. Pla, Patrice Bertet, David N. Jamieson(参考訳) ドーパント原子は半導体技術においてユビキタスであり、現代のデジタル情報時代を支える電子特性を提供する。 これらの原子スケールの物体の量子的性質を損なうことは、新しくてエキサイティングな技術革命を表している。 本稿では,シリコンにイオンを注入したドナースピンの量子技術への応用について述べる。 本稿では,単一原子スピン量子ビットをシリコンで構築・運用する方法を概観し,最も一貫性のある固体量子ビットを得るとともに,量子ビットを大規模にスケールアップして大きな量子プロセッサを構築するための経路について論じる。 大きな核スピンを持つ重いグループvドナーは、核電気共鳴、量子カオス、歪センシングを可能にする電気四重極結合を示す。 ドナーアンサンブルはマイクロ波キャビティと結合してハイブリッド量子チューリングマシンを開発することができる。 単一のドナーを決定論的に埋め込むことは、新しい精密配置法と組み合わせることで、個々のドナースピンと業界標準のシリコン製造プロセスの統合を可能にし、埋め込みドナーを第2次量子革命の主要な物理プラットフォームにする。

Dopant atoms are ubiquitous in semiconductor technologies, providing the tailored electronic properties that underpin the modern digital information era. Harnessing the quantum nature of these atomic-scale objects represents a new and exciting technological revolution. In this article we describe the use of ion-implanted donor spins in silicon for quantum technologies. We review how to fabricate and operate single-atom spin qubits in silicon, obtaining some of the most coherent solid-state qubits, and we discuss pathways to scale up these qubits to build large quantum processors. Heavier group-V donors with large nuclear spins display electric quadrupole couplings that enable nuclear electric resonance, quantum chaos and strain sensing. Donor ensembles can be coupled to microwave cavities to develop hybrid quantum Turing machines. Counted, deterministic implantation of single donors, combined with novel methods for precision placement, will allow the integration of individual donors spins with industry-standard silicon fabrication processes, making implanted donors a prime physical platform for the second quantum revolution.
翻訳日:2023-05-03 03:11:11 公開日:2020-09-09
# 量子干渉制御による超自然線幅二光子の効率的生成

Efficient Generation of Subnatural-Linewidth Biphotons by Controlled Quantum Interference ( http://arxiv.org/abs/2009.04080v1 )

ライセンス: Link先を確認
Ravikumar Chinnarasu, Chi-Yang Liu, Yi-Feng Ding, Chuan-Yi Lee, Tsung-Hua Hsieh, Ite A. Yu, Chih-Sung Chuu(参考訳) 狭い帯域幅と長い時間長の双光子は、長距離量子通信(LDQC)と線形光量子コンピューティング(LOQC)において重要な役割を果たす。 しかし、これらの光子の生成は通常、高い光学深度を持つ原子アンサンブルや、洗練された光学キャビティを持つ自然パラメトリックダウンコンバージョンを必要とする。 低光度(低OD)原子アンサンブルから生じる2成分双光子波動関数を演算することにより、サブMHz系におけるサブ自然な線幅を持つ双光子を示す。 これらの時間長光子の量子ウェーブレットの形成と操作の可能性を実証し議論した。 我々の研究は、ldqcとloqcの量子リピータと大規模クラスター状態の実現に潜在的に応用できる。 低いODでサブナチュラル線幅の2光子を生成・操作する可能性はまた、チップスケールの量子デバイスに量子技術を実装するためにバイフォトン源を小型化する新たな機会を開く。

Biphotons of narrow bandwidth and long temporal length play a crucial role in long-distance quantum communication (LDQC) and linear optical quantum computing (LOQC). However, generation of these photons usually requires atomic ensembles with high optical depth or spontaneous parametric down-conversion with sophisticated optical cavity. By manipulating the two-component biphoton wavefunction generated from a low-optical-depth (low-OD) atomic ensemble, we demonstrate biphotons with subnatural linewidth in the sub-MHz regime. The potential of shaping and manipulating the quantum wavepackets of these temporally long photons is also demonstrated and discussed. Our work has potential applications in realizing quantum repeaters and large cluster states for LDQC and LOQC, respectively. The possibility to generate and manipulate subnatural-linewidth biphotons with low OD also opens up new opportunity to miniaturize the biphoton source for implementing quantum technologies on chip-scale quantum devices.
翻訳日:2023-05-03 03:10:52 公開日:2020-09-09
# 地球曲線時空における量子的および古典的相関のキャラクタリゼーション

Characterization of quantum and classical correlations in the Earth curved space-time ( http://arxiv.org/abs/2009.04047v1 )

ライセンス: Link先を確認
Tonghua Liu, Shuo Cao and Shumin Wu(参考訳) 量子システムの構築と、遠いユーザ間での量子情報タスクの実行は、重力と相対論的効果によって常に影響を受ける。 本研究では,2モードの圧縮状態で最初に調製された光子対間の古典的および量子的相関に,地球の時空背景がどのように影響するかを定量的に解析する。 具体的には、地球の自転を考えると、地球周辺の時空はカー計量によって記述される。 その結果、衛星の軌道高度の特定範囲では当初増加する状態相関関係は、衛星の軌道高度が増加するにつれて(特殊相対論的効果が関連するとき)徐々に有限値に近づくことが示された。 さらに, 重力の周波数シフトによって生じる相関の変化は, 静止地球軌道上での衛星高度の0.5$%$のレベルに達する可能性が示唆された。

The preparation of quantum systems and the execution of quantum information tasks between distant users are always affected by gravitational and relativistic effects. In this work, we quantitatively analyze how the curved space-time background of the Earth affects the classical and quantum correlations between photon pairs that are initially prepared in a two-mode squeezed state. More specifically, considering the rotation of the Earth, the space-time around the Earth is described by the Kerr metric. Our results show that these state correlations, which initially increase for a specific range of satellite's orbital altitude, will gradually approach a finite value with increasing height of satellites orbit (when the special relativistic effects become relevant). More importantly, our analysis demonstrates that the changes of correlations generated by the total gravitational frequency shift could reach the level of <0.5$\%$ within the satellites height at geostationary Earth orbits.
翻訳日:2023-05-03 03:10:33 公開日:2020-09-09
# 量子熱力学と量子コヒーレンスエンジン

Quantum Thermodynamics and Quantum Coherence Engines ( http://arxiv.org/abs/2009.04387v1 )

ライセンス: Link先を確認
Asl{\i} Tuncer and \"Ozg\"ur E. M\"ustecaplio\u{g}lu(参考訳) 計算や通信といったいくつかの技術における量子効果の利点は既に高く評価されており、量子コンピュータや通信リンクのような、古典的技術よりも優れているいくつかのデバイスが実証されている。 情報とエネルギーの密接な関係は、同様の量子効果がエネルギー技術で見つかるかどうかを探求する動機となる。 より広範な情報エネルギーマシンの性能限界の調査は、量子熱力学の急速に発展する分野の主題である。 古典的熱力学法則の量子空間への拡張は自明ではない。 この短いレビューは、この基本的な方向における最近の取り組みのいくつかを示し、非熱資源、特に量子コヒーレンスと相関を含むエネルギーを利用する際の量子熱エンジンとその効率限界に焦点を当てている。

Advantages of quantum effects in several technologies, such as computation and communication, have already been well appreciated, and some devices, such as quantum computers and communication links, exhibiting superiority to their classical counterparts have been demonstrated. The close relationship between information and energy motivates us to explore if similar quantum benefits can be found in energy technologies. Investigation of performance limits for a broader class of information-energy machines is the subject of the rapidly emerging field of quantum thermodynamics. Extension of classical thermodynamical laws to the quantum realm is far from trivial. This short review presents some of the recent efforts in this fundamental direction and focuses on quantum heat engines and their efficiency bounds when harnessing energy from non-thermal resources, specifically those containing quantum coherence and correlations.
翻訳日:2023-05-03 03:04:14 公開日:2020-09-09
# 深層学習による断熱量子制御の破断

Breaking Adiabatic Quantum Control with Deep Learning ( http://arxiv.org/abs/2009.04297v1 )

ライセンス: Link先を確認
Yongcheng Ding, Yue Ban, Jos\'e D. Mart\'in-Guerrero, Enrique Solano, Jorge Casanova, Xi Chen(参考訳) デジタル量子コンピューティングの時代には、最適なデジタルパルスは効率的な量子制御に必須である。 この目標は動的プログラミングに変換され、深層強化学習(DRL)エージェントが贈られる。 参照として、断熱性(STA)へのショートカットは、パルス制御による断熱速度アップに対する分析的アプローチを提供する。 ここでは、ゲート演算に対するユビキタスな2レベルLandau-Zener問題に類似した、キュービットの単一成分制御を選択する。 STAとDRLアルゴリズムを組み合わせて高速で堅牢なディジタルパルスを得る。 特に、DRLは、STAによって規定される量子速度制限で制限された演算時間で、堅牢なデジタル量子制御をもたらす。 さらに,システムエラーに対する堅牢性は,STAからの入力なしでDRLによって達成可能であることを示す。 本研究は,デジタル量子制御の一般的な枠組みを導入し,量子情報処理の進歩に繋がるものである。

In the era of digital quantum computing, optimal digitized pulses are requisite for efficient quantum control. This goal is translated into dynamic programming, in which a deep reinforcement learning (DRL) agent is gifted. As a reference, shortcuts to adiabaticity (STA) provide analytical approaches to adiabatic speed up by pulse control. Here, we select single-component control of qubits, resembling the ubiquitous two-level Landau-Zener problem for gate operation. We aim at obtaining fast and robust digital pulses by combining STA and DRL algorithm. In particular, we find that DRL leads to robust digital quantum control with operation time bounded by quantum speed limits dictated by STA. In addition, we demonstrate that robustness against systematic errors can be achieved by DRL without any input from STA. Our results introduce a general framework of digital quantum control, leading to a promising enhancement in quantum information processing.
翻訳日:2023-05-03 03:03:56 公開日:2020-09-09
# 量子論における非局所性の2つの表記

Unifying Two Notions of Nonlocality in Quantum Theory ( http://arxiv.org/abs/2009.04245v1 )

ライセンス: Link先を確認
Shiladitya Mal, Aditi Sen De(参考訳) 直交積状態を含むアンサンブルは、局所的な操作と古典的通信(locc)の下では区別できないことが判明し、これは、結合のない非局所性として一般に知られている準備と識別過程において不可逆性を示す。 一方、エンタングル状態の非相反的な測定から生じる相関はベル非局所性に繋がる。 我々は、この2つの概念を、適切な大域ユニタリ変換の下でアンサンブル中に生じるある性質の変化から統一する。 具体的には、制御NOT(CNOT)操作の下で、全積基底が絡み合った状態を生成することは、LOCC判別の過程で全基底またはその部分空間が既約となる場合に限る。 提案した基準は、不完全である積状態の集合に関連する非局所性の量を定量化する。 絡み合った状態を持つ集合に対して、その量に応じて修正し、より非局所性の現象をより絡み合いが少なく説明できることを示す。

Ensembles containing orthogonal product states are found to be indistinguishable under local operations and classical communication (LOCC), thereby showing irreversibility in the preparation and distinguishing processes, which is commonly known as nonlocality without entanglement. On the other hand, correlations arising from incompatible measurements on entangled states lead to Bell-nonlocality. We unify these two concepts from the change in certain property incurred in the ensemble under a suitable global unitary transformation. Specifically, we prove that under controlled-NOT (CNOT) operation, a full product basis can create entangled states if and only if the full bases or any subspace of it become irreducible in the process of LOCC discrimination. The proposed criteria quantifies the amount of nonlocality associated with the sets of product states which are even incomplete. For a set having entangled states, we modify the quantity accordingly and show that it can provide an explanation for the phenomena of more nonlocality with less entanglement.
翻訳日:2023-05-03 03:03:42 公開日:2020-09-09
# 量子臨界における絡み合いギャップの閉包--量子球面モデルの場合

Closure of the entanglement gap at quantum criticality: The case of the Quantum Spherical Model ( http://arxiv.org/abs/2009.04235v1 )

ライセンス: Link先を確認
Sascha Wald, Raul Arias, Vincenzo Alba(参考訳) 絡み合いスペクトルの研究は、量子多体系における普遍的な振る舞いを検出または解明するための強力なツールである。 我々は、絡み合い(あるいはシュミット)ギャップ$\delta\xi$、すなわち2次元の量子臨界点における絡み合いスペクトルの最も低いライニングギャップのスケーリングについて検討する。 我々は、2階遷移を示すパラダイム的量子球面モデルに焦点をあて、外部制約を付加した自由ボソンにマッピング可能である。 解析により, シュミットギャップは臨界点で消失するが, 対数的にのみ消失することを示した。 トーラス上の系と半系分割の場合、エンタングルメントギャップは$\pi^2/\ln(L)$として消滅し、リニアシステムサイズは$L$となる。 エンタングルメントギャップは常磁性相では非零であり、秩序相ではより早い崩壊を示す。 再スケールされたギャップ $\delta\xi\ln(L)$ は遷移時に異なるシステムサイズの交差を示すが、対数補正は有限サイズスケーリングの正確な検証を妨げている。 興味深いことに、位相図間の絡み合いギャップの変化はスピンスピン相関器のゼロモード固有ベクトルに反映される。 遷移量子揺らぎは固有ベクトルの非自明な構造をもたらすが、秩序相では平坦である。 また,ゼロモード固有ベクトルの構造を無視することで,臨界時の絡み合いギャップの消失は定性的にも定量的に捉えられないことを示した。

The study of entanglement spectra is a powerful tool to detect or elucidate universal behaviour in quantum many-body systems. We investigate the scaling of the entanglement (or Schmidt) gap $\delta\xi$, i.e., the lowest laying gap of the entanglement spectrum, at a two-dimensional quantum critical point. We focus on the paradigmatic quantum spherical model, which exhibits a second-order transition, and is mappable to free bosons with an additional external constraint. We analytically show that the Schmidt gap vanishes at the critical point, although only logarithmically. For a system on a torus and the half-system bipartition, the entanglement gap vanishes as $\pi^2/\ln(L)$, with $L$ the linear system size. The entanglement gap is nonzero in the paramagnetic phase and exhibits a faster decay in the ordered phase. The rescaled gap $\delta\xi\ln(L)$ exhibits a crossing for different system sizes at the transition, although logarithmic corrections prevent a precise verification of the finite-size scaling. Interestingly, the change of the entanglement gap across the phase diagram is reflected in the zero-mode eigenvector of the spin-spin correlator. At the transition quantum fluctuations give rise to a non-trivial structure of the eigenvector, whereas in the ordered phase it is flat. We also show that the vanishing of the entanglement gap at criticality can be qualitatively but not quantitatively captured by neglecting the structure of the zero-mode eigenvector.
翻訳日:2023-05-03 03:03:23 公開日:2020-09-09
# 足の計測のためのモバイルアプリ:スコーピングレビュー

Mobile Apps for Foot Measurement: A Scoping Review ( http://arxiv.org/abs/2009.04198v1 )

ライセンス: Link先を確認
Muhammad Ashad Kabir, Sowmen Rahman, Mohammad Mainul Islam, Sayed Ahmed, Craig Laird(参考訳) スマートフォンの普及に伴い、健康関連のアプリ、特に足の健康に関するアプリの利用が大きく増加している。 これらのアプリは、人間の足のさまざまな特性に関する正確な情報を提供することを目的として、足のスキャンに実際に使われている。 多くの'フットスキャンと計測'がapp storeで利用可能であるため、このようなアプリの評価システムの必要性は、これらのアプリのエビデンスベースの品質に関する情報が少ないため、必要とされている。 移動足測定アプリの計測技術の評価と本質的なソフトウェア品質特性を特徴付けるとともに、ペダルタイスト、ポジアトリスト、整形術師等のフットケア医療専門職の商業的ツールとしての可能性について、カスタムシューズのための足測定を支援し、個人がフットヘルスや衛生の意識を高め、足関連の問題を防止するために有効性を決定する。 androidとiosのアプリストアで2020年7月から8月にかけて、足の計測に関するアプリの電子検索が行われた。 足の計測と一般的な足の健康を目標とするモバイルアプリを3つの独立したレーダで識別し,選択したアプリに関する不一致を4番目のレーダで解決した。 評価では、すべてのアプリがカスタムメイドの履物の製造に必要な測定基準の半分を満たさないことがわかった。 23%(6/26)のアプリが、外部スキャナーまたは高度なアルゴリズムを使用して、カスタムメイドの履物や医療用カストを注文して不規則な足のサイズや形状を調整できる3Dモデルを再構築している。 概して、現在の足の測定アプリは、測定目的の具体的なガイドラインに従わない。

With the proliferation of smart phone, a major growth in the use of apps related to the health category, specifically those concerned with foot health can be observed. Although new, these apps are being used practically for scanning feet with an aim to providing accurate information about various properties of the human foot. With the availability of many 'foot scanning and measuring apps' in the app stores, the need for an evaluation system for such apps can be deemed necessary as little information regarding the evidence-based quality of these apps is available. To characterize the assessment of measurement techniques and essential software quality characteristics of mobile foot measuring apps, and determine their effectiveness for potential use as commercial professional tools for foot care health professionals such as pedorthists, podiatrists, orthotists and so on, to assist in measuring foot for custom shoes, and for individuals to enhance the awareness of foot health and hygiene and prevention of foot-related problems. An electronic search across Android and iOS app stores was conducted between July 2020 and August 2020 for apps related to foot measurement. Mobile apps with stated goals of foot measurement and general foot health were identified and selected by three independent raters and discrepancies regarding the selected apps were resolved via a fourth rater. Evaluation inferences found all apps failing to meet even half of the measurement-specific criteria required for the proper manufacturing of custom-made footwear. 23% (6/26) of apps were found to utilize either external scanners or advanced algorithms to reconstruct 3D models of user foot that can possibly be used for ordering custom-made footwear and medical casts for fitting irregular foot sizes and shapes. Overall, current apps for foot measurement do not follow any specific guidelines for measurement purposes.
翻訳日:2023-05-03 03:02:54 公開日:2020-09-09
# 捕捉イオンを用いたスピン軌道結合系における境界状態のクエンチダイナミクスの研究

Investigating the quench dynamics of the bound states in a spin-orbital coupling system using a trapped ion ( http://arxiv.org/abs/2009.04176v1 )

ライセンス: Link先を確認
Hao-Qing Zhang, Ming-Zhong Ai, Jin-Ming Cui, Yong-Jian Han, Chuan-Feng Li, Guang-Can Guo(参考訳) 古典的ランダムウォークの量子アナログである量子ウォーク(QW)は、トポロジカル現象と非平衡力学を研究するための可能なプラットフォームを提供する。 ここでは、フォック状態がウォーク空間を提供し、ゼロフォノン状態$\left|n=0\right\rangle $が自然境界となる1つの閉じ込められたイオンを持つ量子ウォークを実現するための新しいスキームを提案する。 したがって、このスキームは対応するトポロジカルシステムの有界状態の力学を研究するユニークな機会を提供する。 特に境界状態のクエンチダイナミクスは、実験的にアクセス可能なバルクパラメータと局所境界演算子をチューニングすることで、広範囲に研究することができる。 我々の提案は、トポロジカルシステムの境界状態の特性を探索する新しいアプローチを提供するだけでなく、動的過程を通じて異なる位相を決定する方法を提供する。

The quantum walk (QW), as the quantum analog of classical random walk, provides a feasible platform to study the topological phenomenon and non-equilibrium dynamics. Here, we propose a novel scheme to realize the quantum walk with a single trapped ion where the Fock states provides the walk space and zero phonon state $\left|n=0\right\rangle $ serves as its natural boundary. Thus, our scheme offers the unique opportunity to investigate the dynamics of the bound states of the corresponding topological systems. Particularly, the quench dynamics of the bound states can be extensively studied by tuning the bulk parameters and the local boundary operator, which are experimentally accessible. Our proposal not only offers a new approach to exploring the character of the bound states of the topological systems, but also offers a way to determine different phases through the dynamical processes.
翻訳日:2023-05-03 03:02:15 公開日:2020-09-09
# 極性金属からフェルミ液体へのドープmott絶縁体の微視的進化

Microscopic evolution of doped Mott insulators from polaronic metal to Fermi liquid ( http://arxiv.org/abs/2009.04440v1 )

ライセンス: Link先を確認
Joannis Koepsell, Dominik Bourgund, Pimonpan Sompet, Sarah Hirthe, Annabelle Bohrdt, Yao Wang, Fabian Grusdt, Eugene Demler, Guillaume Salomon, Christian Gross, Immanuel Bloch(参考訳) 2次元モット絶縁体における反強磁性とホール運動の競合は、異常金属から従来のフェルミ液体へのドーピング依存遷移の中心にある。 凝縮した物質実験は電荷キャリアーがこの交差で性質を変えることを示唆するが、完全な理解はいまだに解明されていない。 冷原子量子シミュレータ上でのフェルミ・ハバード系におけるそのような交叉を観測し、超交換エネルギーの温度でのドーピングの増加に伴うスピンとホールの多点相関の変換を明らかにする。 スピン感受性のような従来の観測物は、システムの顕微鏡的スナップショットからさらに計算される。 磁気ポラロン状態から始めて、この系は磁気揺らぎと根本的に変化した相関を特徴とするフェルミ液体へと進化する。 クロスオーバーは、ホールドーピングが約30\%の価格で完了する。 我々の研究は理論的なアプローチをベンチマークし、低温現象への接続の可能性について議論する。

The competition between antiferromagnetism and hole motion in two-dimensional Mott insulators lies at the heart of a doping-dependent transition from an anomalous metal to a conventional Fermi liquid. Condensed matter experiments suggest charge carriers change their nature within this crossover, but a complete understanding remains elusive. We observe such a crossover in Fermi-Hubbard systems on a cold-atom quantum simulator and reveal the transformation of multi-point correlations between spins and holes upon increasing doping at temperatures around the superexchange energy. Conventional observables, such as spin susceptibility, are furthermore computed from the microscopic snapshots of the system. Starting from a magnetic polaron regime, we find the system evolves into a Fermi liquid featuring incommensurate magnetic fluctuations and fundamentally altered correlations. The crossover is completed for hole dopings around $30\%$. Our work benchmarks theoretical approaches and discusses possible connections to lower temperature phenomena.
翻訳日:2023-05-03 02:52:25 公開日:2020-09-09
# 新型コロナウイルス(covid-19)マラソンの実施:韓国ソウルでの27週間のパンデミックにおけるモビリティとフェイスマスクの行動適応

Running the COVID-19 marathon: the behavioral adaptations in mobility and facemask over 27 weeks of pandemic in Seoul, South Korea ( http://arxiv.org/abs/2009.09073v1 )

ライセンス: Link先を確認
Jungwoo Cho, Yuyol Shin, Seyun Kim, Namwoo Kim, Soohwan Oh, Haechan Cho, Yoonjin Yoon(参考訳) 新型コロナウイルス(covid-19)との闘いは、スプリントではなくマラソンであることが判明した。 本稿では,韓国ソウルにおける個人のモビリティ適応とマスク着用について,データ中心のアプローチを用いて検討する。 まず6つの流行期と2つの波を新型コロナウイルスの症例数と地理的分散に基づいて特定した。 位相特異的線形モデルは、初回エスカレーションとピークにおける強力な自己駆動型モビリティの低減を示し、公共交通機関の利用と週末/午後の旅行の不要さに共通の焦点をあてている。 しかし,第2波では移動性からマスク着用へのシフトが顕著であったため,同等の縮小は見られなかった。 ロックダウンやマスク着用の優しさは直観に反するようには見えなかったが、個人の安全に関するシンプルで永続的なコミュニケーションは、協調的な行動適応を誘導するために効果的で持続的であった。 本研究は,流行リスクの変動と一致した標的応答の重要性を,位相特異的に分析し,解釈する。

Battle with COVID-19 turned out to be a marathon, not a sprint, and behavioral adjustments have been unavoidable to stay viable. In this paper, we employ a data-centric approach to investigate individual mobility adaptations and mask-wearing in Seoul, South Korea. We first identify six epidemic phases and two waves based on COVID-19 case count and its geospatial dispersion. The phase-specific linear models reveal the strong, self-driven mobility reductions in the first escalation and peak with a common focus on public transit use and less-essential weekend/afternoon trips. However, comparable reduction was not present in the second wave, as the shifted focus from mobility to mask-wearing was evident. Although no lockdowns and gentle nudge to wear mask seemed counter-intuitive, simple and persistent communication on personal safety has been effective and sustainable to induce cooperative behavioral adaptations. Our phase-specific analyses and interpretation highlight the importance of targeted response consistent with the fluctuating epidemic risk.
翻訳日:2023-05-03 02:45:48 公開日:2020-09-09
# 10km以上の時間相関光子対源を用いた絶対クロック同期

Absolute clock synchronization with a single time-correlated photon pair source over 10km ( http://arxiv.org/abs/2009.04815v1 )

ライセンス: Link先を確認
Jianwei Lee, Lijiong Shen, Adrian Nugraha Utama, Christian Kurtsiefer(参考訳) 単発パラメトリックダウンコンバージョン(SPDC)ソースで生成される光子を双方向に伝搬する点間クロック同期プロトコルを実証する。 光子対間のタイトタイミング相関を用いて、2つの別々のクロックで測定された単行時間とラウンドトリップ時間を決定し、対称遅延攻撃に対して距離非依存の絶対的同期を確保できる十分な情報を提供する。 10kmの電気通信ファイバーを用いて構築した同期チャネルの往復時間を決定するのに有用な一致符号は、光を付加せずにファイバの端面から反射した光子から導出できることが示される。 本手法により,クロックネットワークの同期に適したクライアントサーバ構成において,複数のクロックと1つの参照クロックをソースと同一位置で同期させることができる。

We demonstrate a point-to-point clock synchronization protocol based on bidirectionally propagating photons generated in a single spontaneous parametric down-conversion (SPDC) source. Tight timing correlations between photon pairs are used to determine the single and round-trip times measured by two separate clocks, providing sufficient information for distance-independent absolute synchronization secure against symmetric delay attacks. We show that the coincidence signature useful for determining the round-trip time of a synchronization channel, established using a 10\,km telecommunications fiber, can be derived from photons reflected off the end face of the fiber without additional optics. Our technique allows the synchronization of multiple clocks with a single reference clock co-located with the source, without requiring additional pair sources, in a client-server configuration suitable for synchronizing a network of clocks.
翻訳日:2023-05-03 02:45:31 公開日:2020-09-09
# 制度的類似性がオンラインコミュニティの文化的類似性を促進する

Institutional Similarity Drives Cultural Similarity among Online Communities ( http://arxiv.org/abs/2009.04597v1 )

ライセンス: Link先を確認
Qiankun Zhong, Seth Frey(参考訳) オンラインコミュニティを理解するには、構造と文化の両方を理解する必要がある。 しかし、基本的な質問は答えが難しいままだ。 これらのファセットはどのように相互作用し、互いに駆動するのか? 5,000の小規模オンラインコミュニティのメンバーシップとガバナンススタイルに関するデータを用いて,組織構造と文化におけるサーバ間類似性に関する実証的尺度を構築し,組織環境が文化に与える影響と,組織環境に対する文化の影響について検討した。 文化と制度が相互に与える影響を確立するため、コミュニティのネットワークを構築し、メンバーやガバナンスにおいてより類似しているものを結びつけます。 次に、ネットワーク分析を用いて、共有文化と機関間の因果関係を評価する。 以上の結果から,両方向の効果は明らかであるが,組織文化よりも文化に強い役割があることが示唆された。 これらのプロセスは、行政および情報型ルールにおいて明らかである。

Understanding online communities requires an appreciation of both structure and culture. But basic questions remain difficult to pose. How do these facets interact and drive each other? Using data on the membership and governance styles of 5,000 small-scale online communities, we construct empirical measures for cross-server similarities in institutional structure and culture to explore the influence of institutional environment on their culture, and the influence of culture on their institutional environment. To establish the influence of culture and institutions on each other, we construct networks of communities, linking those that are more similar either in their members or governance. We then use network analysis to assess the causal relationships between shared culture and institutions. Our result shows that while effects in both directions are evident, there is a much stronger role for institutions on culture than culture on institutions. These processes are evident within administrative and informational type rules.
翻訳日:2023-05-03 02:45:07 公開日:2020-09-09
# サブポアソンレジームにおける単一原子レーザーの挙動

Behavior of a Single-Atom Laser in the Sub-Poissonian Regime ( http://arxiv.org/abs/2009.04563v1 )

ライセンス: Link先を確認
Nikolay Larionov(参考訳) 本研究では, キャビティ減衰率と非コヒーレント励起速度が一致した場合に発生する単一原子レーザーのモデルについて理論的に検討する。 位相平均グラウバーp関数の定常方程式を用いて、光子の平均数とその分散に関する解析式を得る。 強結合状態の極限の場合、光子数分布関数の正確な表現が見つかる。 その結果、サブポアソニアン光子統計を記述し、ポンプがゼロになるにつれて平均光子数をゼロ値に増加させることを示した。

In the present work the model of a single-atom laser generating in the regime when incoherent pumping rate coincides with the cavity decay rate is theoretically investigated. Using the stationary equation for the phase averaged Glauber P function the analytical expressions for mean number of photons and its dispersion are obtained. In the limiting case of the strong-coupling regime the exact expression for the photon number distribution function is found. Obtained results describe the sub-Poissonian photon statistics and show an increase in mean number of photons to non-zero value when the pump tends to zero.
翻訳日:2023-05-03 02:43:46 公開日:2020-09-09
# 音響イベント検出のためのアクティブラーニング

Active Learning for Sound Event Detection ( http://arxiv.org/abs/2002.05033v2 )

ライセンス: Link先を確認
Shuyang Zhao, Toni Heittola, Tuomas Virtanen(参考訳) 本稿では,音イベント検出(sed)のためのアクティブ学習システムを提案する。 本研究の目的は,学習したSEDモデルの精度を限定的なアノテーションで最大化することである。 提案するシステムは,まずラベルなしの音声データセットを解析し,その音声セグメントを手動アノテーションで選択する。 提案する変化点検出手法に基づいて候補セグメントを生成し、その選択はミスマッチ・ファースト・トラバーサルの原理に基づいている。 sedモデルのトレーニングの間、記録は訓練入力として使われ、注釈付きセグメントの長期的文脈を保つ。 提案システムは,評価に用いる2つのデータセット(TUT Rare Sound 2017 と TAU Space Sound 2019)において,参照手法よりも明らかに優れている。 記録によるトレーニングは、注釈付きセグメントのみによるトレーニングよりも優れている。 Mismatch-first farthest-traversal はランダムサンプリングと不確実サンプリングに基づく参照サンプル選択法より優れている。 目標音イベントが稀なデータセットでは、必要なアノテーションの労力を大幅に削減することが可能であり、トレーニングデータの2%のみに注釈を付けることで、得られたsed性能は、すべてのトレーニングデータに注釈をつけるのと類似している。

This paper proposes an active learning system for sound event detection (SED). It aims at maximizing the accuracy of a learned SED model with limited annotation effort. The proposed system analyzes an initially unlabeled audio dataset, from which it selects sound segments for manual annotation. The candidate segments are generated based on a proposed change point detection approach, and the selection is based on the principle of mismatch-first farthest-traversal. During the training of SED models, recordings are used as training inputs, preserving the long-term context for annotated segments. The proposed system clearly outperforms reference methods in the two datasets used for evaluation (TUT Rare Sound 2017 and TAU Spatial Sound 2019). Training with recordings as context outperforms training with only annotated segments. Mismatch-first farthest-traversal outperforms reference sample selection methods based on random sampling and uncertainty sampling. Remarkably, the required annotation effort can be greatly reduced on the dataset where target sound events are rare: by annotating only 2% of the training data, the achieved SED performance is similar to annotating all the training data.
翻訳日:2023-01-01 19:48:36 公開日:2020-09-09
# ニューラルマシン翻訳における文脈の最大化に向けて

Towards Making the Most of Context in Neural Machine Translation ( http://arxiv.org/abs/2002.07982v2 )

ライセンス: Link先を確認
Zaixiang Zheng, Xiang Yue, Shujian Huang, Jiajun Chen, Alexandra Birch(参考訳) 文書レベルの機械翻訳は文レベルのモデルをわずかに上回っているが、広く採用されていない。 我々は,従来の研究がグローバルな文脈を明確に利用しなかったことを論じ,各文の局所的な文脈を,ソース言語とターゲット言語の両方における文書のグローバルな文脈を意識して意図的にモデル化する文書レベルのNMTフレームワークを提案する。 具体的には、単一文を含む任意の文を含む文書を扱えるようにモデルを設計する。 この統一アプローチにより、文レベルと文書レベルのデータを別々にトレーニングする必要なしに、標準データセット上でエレガントにトレーニングすることが可能になります。 実験結果から,本モデルがトランスフォーマーベースラインと従来の文書レベルのNMTモデルより優れ,最先端ベースラインでは最大2.1BLEUのマージンを持つことがわかった。 また,従来の研究が組み込んだ2文や3文よりもはるかに長い文脈の利点を示す分析を行う。

Document-level machine translation manages to outperform sentence level models by a small margin, but have failed to be widely adopted. We argue that previous research did not make a clear use of the global context, and propose a new document-level NMT framework that deliberately models the local context of each sentence with the awareness of the global context of the document in both source and target languages. We specifically design the model to be able to deal with documents containing any number of sentences, including single sentences. This unified approach allows our model to be trained elegantly on standard datasets without needing to train on sentence and document level data separately. Experimental results demonstrate that our model outperforms Transformer baselines and previous document-level NMT models with substantial margins of up to 2.1 BLEU on state-of-the-art baselines. We also provide analyses which show the benefit of context far beyond the neighboring two or three sentences, which previous studies have typically incorporated.
翻訳日:2022-12-30 13:52:27 公開日:2020-09-09
# 低線量CT画像再構成のためのMomentum-Net

Momentum-Net for Low-Dose CT Image Reconstruction ( http://arxiv.org/abs/2002.12018v4 )

ライセンス: Link先を確認
Siqi Ye, Yong Long, Il Yong Chun(参考訳) 本稿では,最近の高速反復型ニューラルネットワークフレームワークmomentum-netを低線量x線ct(ldct)画像再構成に適切なモデルを用いて適用する。 提案するモーメントネットの各層において、モデルベース画像再構成モジュールは重み付き重み付き最小二乗問題を解くとともに、画像精錬モジュールは4層畳み込みニューラルネットワーク(cnn)を使用する。 NIH AAPM-Mayo Clinical Low Dose CT Grand Challengeデータセットによる実験結果から、提案したMomentum-Netアーキテクチャは、最先端のディープニューラルネットワーク(NN)であるWavResNet(LDCT)と比較して、画像再構成の精度を著しく向上することが示された。 また,非拡張的NN特性を満たすため,画像修正NN学習に適用するスペクトル正規化手法についても検討したが,実験結果からMomentum-Netの画像再構成性能は向上しなかった。

This paper applies the recent fast iterative neural network framework, Momentum-Net, using appropriate models to low-dose X-ray computed tomography (LDCT) image reconstruction. At each layer of the proposed Momentum-Net, the model-based image reconstruction module solves the majorized penalized weighted least-square problem, and the image refining module uses a four-layer convolutional neural network (CNN). Experimental results with the NIH AAPM-Mayo Clinic Low Dose CT Grand Challenge dataset show that the proposed Momentum-Net architecture significantly improves image reconstruction accuracy, compared to a state-of-the-art noniterative image denoising deep neural network (NN), WavResNet (in LDCT). We also investigated the spectral normalization technique that applies to image refining NN learning to satisfy the nonexpansive NN property; however, experimental results show that this does not improve the image reconstruction performance of Momentum-Net.
翻訳日:2022-12-28 09:32:21 公開日:2020-09-09
# Infimum Lossにおける部分ラベリングによる構造予測

Structured Prediction with Partial Labelling through the Infimum Loss ( http://arxiv.org/abs/2003.00920v2 )

ライセンス: Link先を確認
Vivien Cabannes, Alessandro Rudi, Francis Bach(参考訳) データセットのアノテーションは、現在教師付き学習の主なコストの1つである。 弱い監督の目標は、部分的なラベル付けとして、より安価に収集できるラベル付け形式のみを用いてモデルを学習できるようにすることである。 これは不完全なアノテーションの一種であり、各データポイントに対して、監督は実際のものを含むラベルのセットとしてキャストされる。 分類,複数ラベル,ランク付け,セグメンテーションといった特定の事例に対して,部分ラベリングを用いた教師あり学習の問題が研究されているが,一般的なフレームワークはいまだに欠落している。 本稿では,構造化予測に基づく統一フレームワークと,学習問題と損失関数の幅広いファミリーに対する部分的ラベリングに対処するためのインフィルムロスの概念について述べる。 このフレームワークは、実装が容易で統計的一貫性と学習率を示す明示的なアルゴリズムを自然に導く。 実験は、一般的に使用されるベースラインよりも提案されたアプローチの優位性を確認する。

Annotating datasets is one of the main costs in nowadays supervised learning. The goal of weak supervision is to enable models to learn using only forms of labelling which are cheaper to collect, as partial labelling. This is a type of incomplete annotation where, for each datapoint, supervision is cast as a set of labels containing the real one. The problem of supervised learning with partial labelling has been studied for specific instances such as classification, multi-label, ranking or segmentation, but a general framework is still missing. This paper provides a unified framework based on structured prediction and on the concept of infimum loss to deal with partial labelling over a wide family of learning problems and loss functions. The framework leads naturally to explicit algorithms that can be easily implemented and for which proved statistical consistency and learning rates. Experiments confirm the superiority of the proposed approach over commonly used baselines.
翻訳日:2022-12-27 03:54:28 公開日:2020-09-09
# 格子細胞はニューラルネットワークでユビキタス

Grid Cells Are Ubiquitous in Neural Networks ( http://arxiv.org/abs/2003.03482v2 )

ライセンス: Link先を確認
Li Songlin, Deng Yangdong, Wang Zhihua(参考訳) 格子細胞は空間的および非空間的認知的タスクにおいて重要な役割を果たすと考えられている。 最近の研究では、LSTMの経路積分のための格子細胞の出現が観察されている。 見かけの類似性の基礎となる生物学的ニューラルネットワークと人工ニューラルネットワークの接続と、ディープニューラルネットワーク(dnn)におけるグリッドセルの応用ドメインは、さらなる探索を期待する。 この研究は、訓練パラメータの適切な設定の下で、グリッドセルを純粋視覚ベースまたは視覚誘導経路統合dnnで複製できることを示した。 また,非空間的タスクに対するフィードフォワードdnnにおけるグリッド様の振る舞いも示す。 本研究は, グリッド符号化が生体ネットワークと人工ネットワークの両方において有効な表現であることを示す。

Grid cells are believed to play an important role in both spatial and non-spatial cognition tasks. A recent study observed the emergence of grid cells in an LSTM for path integration. The connection between biological and artificial neural networks underlying the seemingly similarity, as well as the application domain of grid cells in deep neural networks (DNNs), expect further exploration. This work demonstrated that grid cells could be replicated in either pure vision based or vision guided path integration DNNs for navigation under a proper setting of training parameters. We also show that grid-like behaviors arise in feedforward DNNs for non-spatial tasks. Our findings support that the grid coding is an effective representation for both biological and artificial networks.
翻訳日:2022-12-25 19:49:04 公開日:2020-09-09
# TanhExp:軽量ニューラルネットワークのための高収束速度の滑らかな活性化関数

TanhExp: A Smooth Activation Function with High Convergence Speed for Lightweight Neural Networks ( http://arxiv.org/abs/2003.09855v2 )

ライセンス: Link先を確認
Xinyu Liu, Xiaoguang Di(参考訳) リアルタイムコンピュータビジョンタスクに使用される軽量または移動型ニューラルネットワークは、通常のネットワークよりもパラメータが少ないため、性能が制約される。 本研究では,画像分類タスクにおいて,これらのネットワークの性能を大幅に向上できる新しい活性化関数tanh exponential activation function(tanhexp)を提案する。 TanhExp の定義は f(x) = xtanh(e^x) である。 我々は、さまざまなデータセットやネットワークモデル上でTanhExpの単純さ、効率、堅牢さを実証し、TanhExpは収束速度と精度の両方でその性能を上回ります。 ノイズの追加やデータセットの変更があっても、その動作は安定している。 ネットワークのサイズを増大させることなく、TanhExpによって軽量ニューラルネットワークの容量を向上できることを示す。

Lightweight or mobile neural networks used for real-time computer vision tasks contain fewer parameters than normal networks, which lead to a constrained performance. In this work, we proposed a novel activation function named Tanh Exponential Activation Function (TanhExp) which can improve the performance for these networks on image classification task significantly. The definition of TanhExp is f(x) = xtanh(e^x). We demonstrate the simplicity, efficiency, and robustness of TanhExp on various datasets and network models and TanhExp outperforms its counterparts in both convergence speed and accuracy. Its behaviour also remains stable even with noise added and dataset altered. We show that without increasing the size of the network, the capacity of lightweight neural networks can be enhanced by TanhExp with only a few training epochs and no extra parameters added.
翻訳日:2022-12-21 05:07:13 公開日:2020-09-09
# 自動運転における画像と点雲融合のためのディープラーニング: レビュー

Deep Learning for Image and Point Cloud Fusion in Autonomous Driving: A Review ( http://arxiv.org/abs/2004.05224v2 )

ライセンス: Link先を確認
Yaodong Cui, Ren Chen, Wenbo Chu, Long Chen, Daxin Tian, Ying Li, Dongpu Cao(参考訳) 自動運転車はここ数年で急速な発展を遂げた。 しかし、複雑で動的な運転環境の性質のため、完全な自律性を達成することは簡単な作業ではない。 そのため、自動運転車には、堅牢で正確な環境認識を確保するために、さまざまなセンサーが備わっている。 特に、カメラとLiDARの融合は新たな研究テーマになりつつある。 しかし、これまでディープラーニングベースのカメラ-LiDAR融合法に焦点を当てた批判的なレビューは行われていない。 このギャップを埋め、将来の研究を動機付けるために、この論文では、画像とポイントクラウドの両方を活用する、最近のディープラーニングベースのデータ融合アプローチを精査する。 このレビューでは、イメージとポイントクラウドのデータ処理に関するディープラーニングの概要を概観する。 深度補正,オブジェクト検出,セマンティックセグメンテーション,トラッキング,オンラインクロスセンサーキャリブレーションにおけるカメラ-LiDAR融合手法の詳細なレビューにより,それぞれの融合レベルに基づいて整理した。 さらに,これらの手法を公開データセットで比較する。 最後に,現在の学術研究と実世界の応用とのギャップと見過ごされた課題を明らかにした。 これらの観測に基づいて、洞察を与え、有望な研究方向性を指摘する。

Autonomous vehicles were experiencing rapid development in the past few years. However, achieving full autonomy is not a trivial task, due to the nature of the complex and dynamic driving environment. Therefore, autonomous vehicles are equipped with a suite of different sensors to ensure robust, accurate environmental perception. In particular, the camera-LiDAR fusion is becoming an emerging research theme. However, so far there has been no critical review that focuses on deep-learning-based camera-LiDAR fusion methods. To bridge this gap and motivate future research, this paper devotes to review recent deep-learning-based data fusion approaches that leverage both image and point cloud. This review gives a brief overview of deep learning on image and point cloud data processing. Followed by in-depth reviews of camera-LiDAR fusion methods in depth completion, object detection, semantic segmentation, tracking and online cross-sensor calibration, which are organized based on their respective fusion levels. Furthermore, we compare these methods on publicly available datasets. Finally, we identified gaps and over-looked challenges between current academic researches and real-world applications. Based on these observations, we provide our insights and point out promising research directions.
翻訳日:2022-12-14 20:44:03 公開日:2020-09-09
# 自律運転のための階層的自己教師付き単眼絶対深度推定に向けて

Toward Hierarchical Self-Supervised Monocular Absolute Depth Estimation for Autonomous Driving Applications ( http://arxiv.org/abs/2004.05560v2 )

ライセンス: Link先を確認
Feng Xue, Guirong Zhuo, Ziyuan Huang, Wufei Fu, Zhuoyue Wu, Marcelo H. Ang Jr(参考訳) 近年, 単眼深度推定の自己監督手法は, 特に自律運転への応用において, 急速に深度推定の重要分野となっている。 全体的な精度は高いものの、現在の手法はいまだに苦しむ a)不正確な対象レベルの深度推定と b) 不確実なスケールファクタ。 前者はテクスチャのコピーや不正確なオブジェクト境界を生じさせ、後者はLiDARのようなセンサーを付加して、追加のトレーニング入力として深度グラウンドトルースやステレオカメラを提供する必要があるため、実装が困難である。 本稿では,これら2つの問題にDNetを導入して対処することを提案する。 私たちの貢献は2つあります a) より優れたオブジェクトレベルの深度推定を提供するために、新しい密結合予測層(DCP)を提案する。 b)特に自動運転シナリオでは,自動車のコストを増すことなく正確なスケールファクターを回収できるように,高密度幾何制約(dgc)を導入する。 大規模な実験が行われ、DCP層とDGCモジュールはそれぞれ、上記の問題を効果的に解決していることが証明された。 dcp層のおかげで、オブジェクト境界は深度マップでより識別しやすくなり、オブジェクトレベルでの深さがさらに長くなっている。 また,dgcを用いたスケールリカバリの性能は,カメラの高さが与えられ,画素の1.03\%以上を占める場合,地中情報と同等であることが示されている。 コードはhttps://github.com/TJ-IPLab/DNetで入手できる。

In recent years, self-supervised methods for monocular depth estimation has rapidly become an significant branch of depth estimation task, especially for autonomous driving applications. Despite the high overall precision achieved, current methods still suffer from a) imprecise object-level depth inference and b) uncertain scale factor. The former problem would cause texture copy or provide inaccurate object boundary, and the latter would require current methods to have an additional sensor like LiDAR to provide depth ground-truth or stereo camera as additional training inputs, which makes them difficult to implement. In this work, we propose to address these two problems together by introducing DNet. Our contributions are twofold: a) a novel dense connected prediction (DCP) layer is proposed to provide better object-level depth estimation and b) specifically for autonomous driving scenarios, dense geometrical constrains (DGC) is introduced so that precise scale factor can be recovered without additional cost for autonomous vehicles. Extensive experiments have been conducted and, both DCP layer and DGC module are proved to be effectively solving the aforementioned problems respectively. Thanks to DCP layer, object boundary can now be better distinguished in the depth map and the depth is more continues on object level. It is also demonstrated that the performance of using DGC to perform scale recovery is comparable to that using ground-truth information, when the camera height is given and the ground point takes up more than 1.03\% of the pixels. Code is available at https://github.com/TJ-IPLab/DNet.
翻訳日:2022-12-14 05:30:46 公開日:2020-09-09
# エンサンブルディープラーニングを用いたソーシャルネットワーク上のジェンダー検出

Gender Detection on Social Networks using Ensemble Deep Learning ( http://arxiv.org/abs/2004.06518v3 )

ライセンス: Link先を確認
Kamran Kowsari, Mojtaba Heidarysafa, Tolu Odukoya, Philip Potter, Laura E. Barnes, Donald E. Brown(参考訳) FacebookやTwitterなどのソーシャルメディアサイトにおける投稿数の増加を分析するには、著者のプロファイリングのための情報処理方法の改善が必要である。 文書分類はこの課題の中心であるが,ソーシャルメディアの量の増加に伴い,従来の教師付き分類器の性能は低下している。 本稿では,複数モデル深層学習アーキテクチャを用いたアンサンブル分類による性別検出の文脈でこの問題に対処し,異なる特徴空間から特殊理解を生成する。

Analyzing the ever-increasing volume of posts on social media sites such as Facebook and Twitter requires improved information processing methods for profiling authorship. Document classification is central to this task, but the performance of traditional supervised classifiers has degraded as the volume of social media has increased. This paper addresses this problem in the context of gender detection through ensemble classification that employs multi-model deep learning architectures to generate specialized understanding from different feature spaces.
翻訳日:2022-12-13 22:59:51 公開日:2020-09-09
# 限定的相互作用を伴う協調的トップ分布同定

Collaborative Top Distribution Identifications with Limited Interaction ( http://arxiv.org/abs/2004.09454v2 )

ライセンス: Link先を確認
Nikolai Karpov, Qin Zhang, Yuan Zhou(参考訳) この論文では以下の問題を考える: 1組の$n$分布が与えられた場合、最大の手段を持つ最上位の$m$分布を見つける。 この問題は強化学習の文献において「em top-m$ arm identifications」とも呼ばれ、多くの応用がある。 我々は,n$ 分布から複数のエージェントが並列にサンプルを描画できる協調学習モデルでこの問題を研究する。 私たちの目標は、学習プロセスの実行時間とエージェント間のインタラクションのラウンド数の間のトレードオフを特徴付けることです。 最適な時間単位のトレードオフを与えるとともに、平均1$の腕識別と一般的な$m$の腕識別と固定時間と固定自信の変種の間の複雑さの分離を示す。 また、副産物として、協調学習モデルにおいて、$m$-最大の平均で分布を選択するアルゴリズムも提供する。

We consider the following problem in this paper: given a set of $n$ distributions, find the top-$m$ ones with the largest means. This problem is also called {\em top-$m$ arm identifications} in the literature of reinforcement learning, and has numerous applications. We study the problem in the collaborative learning model where we have multiple agents who can draw samples from the $n$ distributions in parallel. Our goal is to characterize the tradeoffs between the running time of learning process and the number of rounds of interaction between agents, which is very expensive in various scenarios. We give optimal time-round tradeoffs, as well as demonstrate complexity separations between top-$1$ arm identification and top-$m$ arm identifications for general $m$ and between fixed-time and fixed-confidence variants. As a byproduct, we also give an algorithm for selecting the distribution with the $m$-th largest mean in the collaborative learning model.
翻訳日:2022-12-11 19:22:01 公開日:2020-09-09
# 情報密度の$m$th中心モーメントによる一般化誤差境界

Generalization Error Bounds via $m$th Central Moments of the Information Density ( http://arxiv.org/abs/2004.09148v2 )

ライセンス: Link先を確認
Fredrik Hellstr\"om, Giuseppe Durisi(参考訳) 本稿では,ランダム化学習アルゴリズムの一般化誤差に対する境界を導出する一般手法を提案する。 我々のアプローチは、アルゴリズムが使われるたびに新しい仮説がランダムに生成される場合(おそらくほぼ正しい(PAC)-ベイジアン文献でしばしば仮定される)と、仮説が1回だけ抽出される単線の場合(英語版)の両方において、平均一般化誤差とその尾確率の境界を得るのに使うことができる。 この最後のシナリオでは、情報密度の中心モーメントにおいて明示的な新しい境界を示す。 境界は、制御可能な情報密度モーメントの順序が高ければ高いほど、所望の信頼レベルに束縛された一般化の依存性が穏やかになることを示す。 さらに,二項仮説テストのツールを用いて,情報密度の尾に明示的な2番目の境界を導出する。 このバウンドは、情報密度のテールの速い崩壊は、信頼度レベルに束縛された一般化のより好ましい依存性をもたらすことを確かめる。

We present a general approach to deriving bounds on the generalization error of randomized learning algorithms. Our approach can be used to obtain bounds on the average generalization error as well as bounds on its tail probabilities, both for the case in which a new hypothesis is randomly generated every time the algorithm is used - as often assumed in the probably approximately correct (PAC)-Bayesian literature - and in the single-draw case, where the hypothesis is extracted only once. For this last scenario, we present a novel bound that is explicit in the central moments of the information density. The bound reveals that the higher the order of the information density moment that can be controlled, the milder the dependence of the generalization bound on the desired confidence level. Furthermore, we use tools from binary hypothesis testing to derive a second bound, which is explicit in the tail of the information density. This bound confirms that a fast decay of the tail of the information density yields a more favorable dependence of the generalization bound on the confidence level.
翻訳日:2022-12-11 18:10:08 公開日:2020-09-09
# CS-AF:皮膚病変分類のための費用感受性多型アクティブフュージョンフレームワーク

CS-AF: A Cost-sensitive Multi-classifier Active Fusion Framework for Skin Lesion Classification ( http://arxiv.org/abs/2004.12064v2 )

ライセンス: Link先を確認
Di Zhuang, Keyu Chen, J. Morris Chang(参考訳) 畳み込みニューラルネットワーク(CNN)は皮膚病変解析において最先端の性能を達成した。 単一のCNN分類器と比較して、融合アプローチによる複数の分類器の結果を組み合わせると、より効果的で堅牢であることが分かる。 皮膚病変データセットは通常、限定的かつ統計的に偏りがあるため、効果的な融合アプローチを設計しながら、トレーニング/検証データセット上の各分類器の性能だけでなく、テストフェーズにおける個々の試料に関する各分類器の相対的な識別力(例えば、信頼)についても検討することが重要である。 さらに、皮膚病変解析では、特定のクラス(例えば良性病変)のデータは、通常、過剰に表現された多数派となり、他のクラス(例えば癌性病変)のデータは不足しているため、少数派である。 過小表示された(データ量の観点から)標本を正確に同定することはより重要であるが、より重要なマイノリティクラス(例えば、特定のがん性病変)である。 言い換えれば、良性または軽度の病変に対してより重篤な病変を分類することは、相対的にコスト(例えばお金、時間、生活など)を増加させるべきである。 このような課題に対処するために,皮膚病変分類のための費用感受性多型化能動融合フレームワークCS-AFを提案する。 実験により,ISIC研究データセット上に96のベース分類器(12のCNNアーキテクチャ)を作成した。 実験の結果,我々のフレームワークは静的核融合の競合より一貫して優れていることがわかった。

Convolutional neural networks (CNNs) have achieved the state-of-the-art performance in skin lesion analysis. Compared with single CNN classifier, combining the results of multiple classifiers via fusion approaches shows to be more effective and robust. Since the skin lesion datasets are usually limited and statistically biased, while designing an effective fusion approach, it is important to consider not only the performance of each classifier on the training/validation dataset, but also the relative discriminative power (e.g., confidence) of each classifier regarding an individual sample in the testing phase, which calls for an active fusion approach. Furthermore, in skin lesion analysis, the data of certain classes (e.g., the benign lesions) is usually abundant making them an over-represented majority, while the data of some other classes (e.g., the cancerous lesions) is deficient, making them an underrepresented minority. It is more crucial to precisely identify the samples from an underrepresented (i.e., in terms of the amount of data) but more important minority class (e.g., certain cancerous lesion). In other words, misclassifying a more severe lesion to a benign or less severe lesion should have relative more cost (e.g., money, time and even lives). To address such challenges, we present CS-AF, a cost-sensitive multi-classifier active fusion framework for skin lesion classification. In the experimental evaluation, we prepared 96 base classifiers (of 12 CNN architectures) on the ISIC research datasets. Our experimental results show that our framework consistently outperforms the static fusion competitors.
翻訳日:2022-12-09 21:45:08 公開日:2020-09-09
# 非凸正規化法によるcovid-19患者の肺超音波画像中の線状アーティファクトの検出

Detection of Line Artefacts in Lung Ultrasound Images of COVID-19 Patients via Non-Convex Regularization ( http://arxiv.org/abs/2005.03080v3 )

ライセンス: Link先を確認
Oktay Karaku\c{s}, Nantheera Anantrasirichai, Amazigh Aguersif, Stein Silva, Adrian Basarab, Alin Achim(参考訳) 本稿では,新型コロナウイルス患者の肺超音波(LUS)画像におけるラインアーティファクトの定量化手法を提案する。 我々はこれを、空間拡大、コーシーに基づくペナルティ関数、逆ラドン変換を含む非凸正規化問題として定式化する。 我々は,ラインアーチファクトの既知臨床定義と関連するRadeon変換領域に,簡易な局所的最大値検出手法を用いた。 非凸であるにもかかわらず,提案手法は,提案手法であるコーシー近位分割法 (cps) による収束を保証し,lus画像中の水平線と垂直線の両方のアーティファクトを正確に同定する。 誤検出や誤検出を減らすため,ラドン領域と画像領域の両方で2段階検証を行う。 提案手法の性能を現状のbライン同定法と比較して評価し,9例のlus画像において87%の精度で検出されたbラインの性能向上を示した。 また,その高速収束により,提案手法はLUS画像列の処理にも容易に適用可能である。

In this paper, we present a novel method for line artefacts quantification in lung ultrasound (LUS) images of COVID-19 patients. We formulate this as a non-convex regularisation problem involving a sparsity-enforcing, Cauchy-based penalty function, and the inverse Radon transform. We employ a simple local maxima detection technique in the Radon transform domain, associated with known clinical definitions of line artefacts. Despite being non-convex, the proposed technique is guaranteed to convergence through our proposed Cauchy proximal splitting (CPS) method and accurately identifies both horizontal and vertical line artefacts in LUS images. In order to reduce the number of false and missed detection, our method includes a two-stage validation mechanism, which is performed in both Radon and image domains. We evaluate the performance of the proposed method in comparison to the current state-of-the-art B-line identification method and show a considerable performance gain with 87% correctly detected B-lines in LUS images of nine COVID-19 patients. In addition, owing to its fast convergence, our proposed method is readily applicable for processing LUS image sequences.
翻訳日:2022-12-06 06:34:31 公開日:2020-09-09
# ディープフェイス分析におけるバイアスの調査:KanFaceデータセットと実証的研究

Investigating Bias in Deep Face Analysis: The KANFace Dataset and Empirical Study ( http://arxiv.org/abs/2005.07302v2 )

ライセンス: Link先を確認
Markos Georgopoulos, Yannis Panagakis, Maja Pantic(参考訳) ディープラーニングに基づく手法は、顔分析における最先端の限界を押し上げている。 しかし、その成功にもかかわらず、これらのモデルは特定の人口層に対する偏見を懸念している。 このバイアスは、トレーニングセットの人口統計学的に限定された多様性とアルゴリズムの設計の両方によって与えられる。 本研究では,顔認識,年齢推定,性別認識,親族検証における深層学習モデルの人口統計バイアスについて検討する。 この目的のために、これまでで最も包括的で大規模な顔画像とビデオのデータセットを紹介します。 40Kの静止画と44Kのシーケンス(合計14.5Mのビデオフレーム)で構成され、1,045人の被験者から、制約のない現実世界の条件下で撮影された。 データは、アイデンティティ、正確な年齢、性別、親族関係の点で手動で注釈付けされる。 最先端モデルの性能は精査され、一連の実験によって人口統計バイアスが暴露される。 最後に,提案するベンチマークでネットワーク組込みをデバイアスする手法を紹介し,テストを行った。

Deep learning-based methods have pushed the limits of the state-of-the-art in face analysis. However, despite their success, these models have raised concerns regarding their bias towards certain demographics. This bias is inflicted both by limited diversity across demographics in the training set, as well as the design of the algorithms. In this work, we investigate the demographic bias of deep learning models in face recognition, age estimation, gender recognition and kinship verification. To this end, we introduce the most comprehensive, large-scale dataset of facial images and videos to date. It consists of 40K still images and 44K sequences (14.5M video frames in total) captured in unconstrained, real-world conditions from 1,045 subjects. The data are manually annotated in terms of identity, exact age, gender and kinship. The performance of state-of-the-art models is scrutinized and demographic bias is exposed by conducting a series of experiments. Lastly, a method to debias network embeddings is introduced and tested on the proposed benchmarks.
翻訳日:2022-12-02 23:20:42 公開日:2020-09-09
# 反復的mpcにおける未知の制約を満たすための学習

Learning to Satisfy Unknown Constraints in Iterative MPC ( http://arxiv.org/abs/2006.05054v2 )

ライセンス: Link先を確認
Monimoy Bujarbaruah, Charlott Vallon, Francesco Borrelli(参考訳) 未知多面体状態制約を満たすために反復的に学習する線形時間不変系の制御設計法を提案する。 繰り返しタスクの各イテレーションにおいて、収集された閉ループ軌跡データを用いて未知の環境制約を推定する。 この推定制約セットは、追加データの収集によって反復的に改善される。 MPCコントローラは、推定された制約セットを確実に満たすように設計されている。 本稿では,提案手法の詳細を述べるとともに,実行タスクの反復回数の関数として制約満足度を頑健かつ確率論的に保証する。 提案フレームワークの安全性を実証し,その安全性と性能のトレードオフを詳細な数値例で検証する。

We propose a control design method for linear time-invariant systems that iteratively learns to satisfy unknown polyhedral state constraints. At each iteration of a repetitive task, the method constructs an estimate of the unknown environment constraints using collected closed-loop trajectory data. This estimated constraint set is improved iteratively upon collection of additional data. An MPC controller is then designed to robustly satisfy the estimated constraint set. This paper presents the details of the proposed approach, and provides robust and probabilistic guarantees of constraint satisfaction as a function of the number of executed task iterations. We demonstrate the safety of the proposed framework and explore the safety vs. performance trade-off in a detailed numerical example.
翻訳日:2022-11-23 15:40:02 公開日:2020-09-09
# 新型コロナウイルスの文献分類

Document Classification for COVID-19 Literature ( http://arxiv.org/abs/2006.13816v2 )

ライセンス: Link先を確認
Bernal Jim\'enez Guti\'errez, Juncheng Zeng, Dongdong Zhang, Ping Zhang, Yu Su(参考訳) 世界的なパンデミックは、さまざまな分野の研究者が効果的に消費するために、関連する科学文献を迅速かつ正確に回収することが、これまで以上に重要になっている。 本稿は,2019年の新型コロナウイルスに関する23,000の研究論文集であるlitcovid dataset上で,複数ラベルの文書分類モデルの解析を行う。 このデータセット上で事前学習された言語モデルは、他のすべてのベースラインより優れており、BioBERTは、マイクロF1と精度スコアが約86%、75%の小さなマージンで他より優れている。 我々は、これらのモデルのデータの効率性と一般化性を、現在の健康危機のような緊急状況に対処するためのシステムの基本的特徴として評価する。 最後に,リトコビッド文書上での最良の実行モデルによる50の誤りについて検討し,(1)特定のラベルを密接に関連付けすぎ,(2)記事の判別的セクションに焦点を合わせていないこと,(2)将来の作業において対処すべき重要な課題である。 データとコードの両方がgithubから入手できる。

The global pandemic has made it more important than ever to quickly and accurately retrieve relevant scientific literature for effective consumption by researchers in a wide range of fields. We provide an analysis of several multi-label document classification models on the LitCovid dataset, a growing collection of 23,000 research papers regarding the novel 2019 coronavirus. We find that pre-trained language models fine-tuned on this dataset outperform all other baselines and that BioBERT surpasses the others by a small margin with micro-F1 and accuracy scores of around 86% and 75% respectively on the test set. We evaluate the data efficiency and generalizability of these models as essential features of any system prepared to deal with an urgent situation like the current health crisis. Finally, we explore 50 errors made by the best performing models on LitCovid documents and find that they often (1) correlate certain labels too closely together and (2) fail to focus on discriminative sections of the articles; both of which are important issues to address in future work. Both data and code are available on GitHub.
翻訳日:2022-11-21 04:45:58 公開日:2020-09-09
# ランダム予測を用いた個別校正

Individual Calibration with Randomized Forecasting ( http://arxiv.org/abs/2006.10288v3 )

ライセンス: Link先を確認
Shengjia Zhao, Tengyu Ma, Stefano Ermon(参考訳) 機械学習のアプリケーションは校正された予測を必要とすることが多く、例えば、90%の信頼区間は90%の真の結果を含むべきである。 しかしながら、キャリブレーションの典型的な定義は、これを平均で保持することしか必要とせず、個々のサンプルに対する予測の保証も与えていない。 したがって、予測は特定のサブグループに対して体系的に過小評価され、公平さや潜在的な脆弱性の問題に繋がる。 予測がランダム化されている場合、すなわち、ランダム化された信頼区間を出力する場合、各サンプルのキャリブレーションが可能となる。 ランダム化は、偏りと分散とのトレードオフによって体系的なバイアスを取り除く。 個々のキャリブレーションを強制するためにトレーニング目標を設計、ランダム化回帰関数のトレーニングに使用する。 得られたモデルは、任意に選択されたデータのサブグループに対してよりキャリブレーションされ、誤校正された予測を利用する敵に対する意思決定において高い実用性を達成することができる。

Machine learning applications often require calibrated predictions, e.g. a 90\% credible interval should contain the true outcome 90\% of the times. However, typical definitions of calibration only require this to hold on average, and offer no guarantees on predictions made on individual samples. Thus, predictions can be systematically over or under confident on certain subgroups, leading to issues of fairness and potential vulnerabilities. We show that calibration for individual samples is possible in the regression setup if the predictions are randomized, i.e. outputting randomized credible intervals. Randomization removes systematic bias by trading off bias with variance. We design a training objective to enforce individual calibration and use it to train randomized regression functions. The resulting models are more calibrated for arbitrarily chosen subgroups of the data, and can achieve higher utility in decision making against adversaries that exploit miscalibrated predictions.
翻訳日:2022-11-19 12:42:32 公開日:2020-09-09
# モーメント検索のための言語ガイドネットワーク

Language Guided Networks for Cross-modal Moment Retrieval ( http://arxiv.org/abs/2006.10457v2 )

ライセンス: Link先を確認
Kun Liu, Huadong Ma, and Chuang Gan(参考訳) 自然言語クエリによって記述された未編集ビデオから時間セグメントをローカライズすることを目的としたモーダルモーダルモーメント検索の課題に対処する。 視覚と言語ドメイン間の適切な意味的アライメントには大きな課題がある。 既存の手法では、ビデオと文の特徴を独立に抽出し、言語の可能性を完全に活用しないマルチモーダル融合段階に埋め込む文を純粋に利用する。 本稿では,文の埋め込みを利用してモーメント検索の全過程を案内する新しいフレームワークであるLanguage Guided Networks(LGN)を提案する。 第1の特徴抽出段階では,文クエリの複雑な意味を包含する強力な視覚情報を取り込むために,視覚機能と言語機能を同時に学習することを提案する。 具体的には、初期変調ユニットは、言語埋め込みにより視覚特徴抽出器の特徴マップを変調するように設計されている。 次に,第2融合段階においてマルチモーダル融合モジュールを採用する。 最後に、正確なローカライザを得るために、文情報を用いて、時間的位置を予測するプロセスを導く。 具体的には、チャネルアテンション機構を介してローカライズネットワークの出力を線形に変換する遅延誘導モジュールを開発した。 2つの人気のあるデータセットにおける実験結果から,提案手法のモーメント検索性能が向上した(カラードstaではrank1@iou0.5,タコスでは5.2\%向上)。 完全なシステムのソースコードは一般公開される予定だ。

We address the challenging task of cross-modal moment retrieval, which aims to localize a temporal segment from an untrimmed video described by a natural language query. It poses great challenges over the proper semantic alignment between vision and linguistic domains. Existing methods independently extract the features of videos and sentences and purely utilize the sentence embedding in the multi-modal fusion stage, which do not make full use of the potential of language. In this paper, we present Language Guided Networks (LGN), a new framework that leverages the sentence embedding to guide the whole process of moment retrieval. In the first feature extraction stage, we propose to jointly learn visual and language features to capture the powerful visual information which can cover the complex semantics in the sentence query. Specifically, the early modulation unit is designed to modulate the visual feature extractor's feature maps by a linguistic embedding. Then we adopt a multi-modal fusion module in the second fusion stage. Finally, to get a precise localizer, the sentence information is utilized to guide the process of predicting temporal positions. Specifically, the late guidance module is developed to linearly transform the output of localization networks via the channel attention mechanism. The experimental results on two popular datasets demonstrate the superior performance of our proposed method on moment retrieval (improving by 5.8\% in terms of Rank1@IoU0.5 on Charades-STA and 5.2\% on TACoS). The source code for the complete system will be publicly available.
翻訳日:2022-11-19 09:58:28 公開日:2020-09-09
# 量子アドバンテージに向けたニューラルネットワークと量子回路の協調設計フレームワーク

A Co-Design Framework of Neural Networks and Quantum Circuits Towards Quantum Advantage ( http://arxiv.org/abs/2006.14815v2 )

ライセンス: Link先を確認
Weiwen Jiang, Jinjun Xiong, Yiyu Shi(参考訳) 様々な応用において量子アドバンテージが追求されているにもかかわらず、ニューラルネットワーク計算における量子コンピュータのパワーは、主に量子回路の実装に適したニューラルネットワークモデルを効果的に設計するリンク不足のため、ほとんど不明である。 本稿では、そのような欠落したリンクを提供するために、共同設計フレームワークであるQuantumFlowを紹介します。 quantumflowは、量子フレンドリなニューラルネットワーク(qf-nets)、qf-netの量子回路(qf-circ)を生成するマッピングツール(qf-map)、実行エンジン(qf-fb)で構成される。 量子表現の強みを最大限に活用するために、ニューラルネットワーク内のデータを確率変数またはユニタリ行列の数値として表現するのが最善であることを発見し、それらが基本的な量子論理ゲートによって直接操作されることを発見した。 これらのデータ表現に基づいて、QuantumFlowでQF-pNetとQF-hNetという2つの量子親和性ニューラルネットワークを提案する。 確率変数を用いたqf-pnetは柔軟性が向上し、qf-hnetよりも多くのqbitと論理ゲートを測定せずに2つの層をシームレスに接続できる。 一方、単位行列を持つQF-hNetは2^kデータをkkビットにエンコードすることができ、新しいアルゴリズムによりO(k^2)のコスト複雑性を保証できる。 古典計算におけるO(2^k)のコストと比較すると、QF-hNetは量子上の利点を示す。 評価の結果、QF-pNetとQF-hNetはそれぞれ97.10%と98.27%の精度を達成できることがわかった。 さらに,ニューラルネットワークの入力サイズが16から2,048に大きくなると,QuantumFlowのコスト削減は2.4倍から64倍に増加した。 さらに、MNISTデータセットでは、QF-hNetは94.09%の精度を達成でき、古典的なコンピュータに対するコスト削減は10.85倍に達する。 私たちの知る限りでは、quantumflowはニューラルネットワークの計算における潜在的な量子優位性を示す最初の仕事です。

Despite the pursuit of quantum advantages in various applications, the power of quantum computers in neural network computations has mostly remained unknown, primarily due to a missing link that effectively designs a neural network model suitable for quantum circuit implementation. In this article, we present the co-design framework, namely QuantumFlow, to provide such a missing link. QuantumFlow consists of novel quantum-friendly neural networks (QF-Nets), a mapping tool (QF-Map) to generate the quantum circuit (QF-Circ) for QF-Nets, and an execution engine (QF-FB). We discover that, in order to make full use of the strength of quantum representation, it is best to represent data in a neural network as either random variables or numbers in unitary matrices, such that they can be directly operated by the basic quantum logical gates. Based on these data representations, we propose two quantum friendly neural networks, QF-pNet and QF-hNet in QuantumFlow. QF-pNet using random variables has better flexibility, and can seamlessly connect two layers without measurement with more qbits and logical gates than QF-hNet. On the other hand, QF-hNet with unitary matrices can encode 2^k data into k qbits, and a novel algorithm can guarantee the cost complexity to be O(k^2). Compared to the cost of O(2^k)in classical computing, QF-hNet demonstrates the quantum advantages. Evaluation results show that QF-pNet and QF-hNet can achieve 97.10% and 98.27% accuracy, respectively. Results further show that for input sizes of neural computation grow from 16 to 2,048, the cost reduction of QuantumFlow increased from 2.4x to 64x. Furthermore, on MNIST dataset, QF-hNet can achieve accuracy of 94.09%, while the cost reduction against the classical computer reaches 10.85x. To the best of our knowledge, QuantumFlow is the first work to demonstrate the potential quantum advantage on neural network computation.
翻訳日:2022-11-16 22:17:49 公開日:2020-09-09
# 文法的誤り訂正のためのデータ重み付け訓練戦略

Data Weighted Training Strategies for Grammatical Error Correction ( http://arxiv.org/abs/2008.02976v2 )

ライセンス: Link先を確認
Jared Lichtarge and Chris Alberti and Shankar Kumar(参考訳) 文法的誤り訂正(GEC)タスクの最近の進歩は、大規模でノイズの多い事前学習データを生成する新しい方法と、BEA-2019共有タスクで小型で高品質な微調整データを公開することによって、データの疎結合に対処することによって進められている。 最近のニューラルマシン翻訳(nmt)の研究に基づいて、より小さく高品質なデータセットに基づいて、大規模事前トレーニングデータのサンプルレベルのスコアを導出することにより、両方の種類のデータを活用する。 本研究は,GECのトレーニングスケジュールにデルタログパープレキシティ(デルタログパープレキシティ)を最適に組み込む方法について,実証的研究を行った。 そこで我々はデルタログパープレキシティの機能と適用性に光を当てる実験を行った。 スコア付きデータでトレーニングされたモデルは、共通のgecテストセットで最先端の結果を得る。

Recent progress in the task of Grammatical Error Correction (GEC) has been driven by addressing data sparsity, both through new methods for generating large and noisy pretraining data and through the publication of small and higher-quality finetuning data in the BEA-2019 shared task. Building upon recent work in Neural Machine Translation (NMT), we make use of both kinds of data by deriving example-level scores on our large pretraining data based on a smaller, higher-quality dataset. In this work, we perform an empirical study to discover how to best incorporate delta-log-perplexity, a type of example scoring, into a training schedule for GEC. In doing so, we perform experiments that shed light on the function and applicability of delta-log-perplexity. Models trained on scored data achieve state-of-the-art results on common GEC test sets.
翻訳日:2022-11-02 00:25:42 公開日:2020-09-09
# イルミネーション不整合スーパービジョンによる顔フロンダリゼーションのためのフローベース特徴ワープ学習

Learning Flow-based Feature Warping for Face Frontalization with Illumination Inconsistent Supervision ( http://arxiv.org/abs/2008.06843v2 )

ライセンス: Link先を確認
Yuxiang Wei, Ming Liu, Haolin Wang, Ruifeng Zhu, Guosheng Hu, Wangmeng Zuo(参考訳) 深層学習に基づく顔前頭化手法の最近の進歩にもかかわらず、トレーニング中のポーズや照明の不一致が原因で、顔合成を維持できるフォトリアリスティックと照明は依然として困難である。 そこで本稿では,光実像と照明の合成を学習できるフロー型特徴ウォーピングモデル(ffwm)を提案する。 具体的には照明保存モジュール (IPM) を提案し, 照明不整合画像対から照明保存画像合成を学ぶ。 IPMには2つの経路があり、合成された前頭葉画像が光を保存し、細部まで詳細に保存される。 さらに、特徴レベルの相違を低減するためにワープ注意モジュール(WAM)を導入し、フロント画像をより効果的に合成し、プロフィール画像のより詳細な情報を保存する。 WAMの注意機構は、プロファイルと正面画像の間の変位に起因するアーティファクトを減らすのに役立つ。 定量的および定性的な実験結果から、FFWMは前頭葉画像を保存するフォトリアリスティックおよび照明の合成が可能であり、最先端の結果に対して良好に機能することが示された。

Despite recent advances in deep learning-based face frontalization methods, photo-realistic and illumination preserving frontal face synthesis is still challenging due to large pose and illumination discrepancy during training. We propose a novel Flow-based Feature Warping Model (FFWM) which can learn to synthesize photo-realistic and illumination preserving frontal images with illumination inconsistent supervision. Specifically, an Illumination Preserving Module (IPM) is proposed to learn illumination preserving image synthesis from illumination inconsistent image pairs. IPM includes two pathways which collaborate to ensure the synthesized frontal images are illumination preserving and with fine details. Moreover, a Warp Attention Module (WAM) is introduced to reduce the pose discrepancy in the feature level, and hence to synthesize frontal images more effectively and preserve more details of profile images. The attention mechanism in WAM helps reduce the artifacts caused by the displacements between the profile and the frontal images. Quantitative and qualitative experimental results show that our FFWM can synthesize photo-realistic and illumination preserving frontal images and performs favorably against the state-of-the-art results.
翻訳日:2022-10-28 11:41:35 公開日:2020-09-09
# 深く強化学習したプロポフォールによる無意識の制御

Controlling Level of Unconsciousness by Titrating Propofol with Deep Reinforcement Learning ( http://arxiv.org/abs/2008.12333v2 )

ライセンス: Link先を確認
Gabe Schamberg, Marcus Badgeley, and Emery N. Brown(参考訳) 強化学習(rl)は、患者の状態から薬物療法へのマッピングに適合するために用いられる。 以前の研究では、決定論的かつ価値に基づく表式学習を用いて、観察された麻酔状態からプロポフォールの服用を学習している。 Deep RLは、テーブルをディープニューラルネットワークに置き換え、レジストリデータベースから薬局を学習するために使用されている。 ここでは, 模擬環境下での麻酔薬の閉ループ制御に対する深部RLの最初の適用を行う。 クロスエントロピー法を用いて、深層ニューラルネットワークをトレーニングし、観察された麻酔状態を固定プロポフォール投与の確率にマッピングする。 検査中, 持続的輸液率へ輸液の確率を変換する決定論的ポリシーを実装した。 このモデルは、患者の変動性に対する堅牢性を確保するために、ランダムなパラメータを持つシミュレーションされた薬物動態/薬物力学モデルで訓練され、試験される。 ディープRLエージェントは比例積分微分制御器(中間絶対性能誤差 1.7% +/- 0.6 と 3.4% +/- 1.2 )を著しく上回った。 テーブルの代わりに連続的な入力変数をモデル化することは、より堅牢なパターン認識を可能にし、以前のドメイン知識を利用する。 deep rlは、データサイエンティストや麻酔医にも自然な解釈で、スムーズな方針を学んだ。

Reinforcement Learning (RL) can be used to fit a mapping from patient state to a medication regimen. Prior studies have used deterministic and value-based tabular learning to learn a propofol dose from an observed anesthetic state. Deep RL replaces the table with a deep neural network and has been used to learn medication regimens from registry databases. Here we perform the first application of deep RL to closed-loop control of anesthetic dosing in a simulated environment. We use the cross-entropy method to train a deep neural network to map an observed anesthetic state to a probability of infusing a fixed propofol dosage. During testing, we implement a deterministic policy that transforms the probability of infusion to a continuous infusion rate. The model is trained and tested on simulated pharmacokinetic/pharmacodynamic models with randomized parameters to ensure robustness to patient variability. The deep RL agent significantly outperformed a proportional-integral-derivative controller (median absolute performance error 1.7% +/- 0.6 and 3.4% +/- 1.2). Modeling continuous input variables instead of a table affords more robust pattern recognition and utilizes our prior domain knowledge. Deep RL learned a smooth policy with a natural interpretation to data scientists and anesthesia care providers alike.
翻訳日:2022-10-24 06:59:45 公開日:2020-09-09
# グローバルコンテキスト誘導チャネルと時間周波数変換を用いた話者表現学習

Speaker Representation Learning using Global Context Guided Channel and Time-Frequency Transformations ( http://arxiv.org/abs/2009.00768v2 )

ライセンス: Link先を確認
Wei Xia, John H.L. Hansen(参考訳) 本研究では,長距離非局所的時間周波数依存性と話者表現におけるチャネル分散をモデル化するために,グローバルな文脈案内チャネルと時間周波数変換を提案する。 グローバルコンテキスト情報を用いて,グローバルコンテキストと局所的な特徴の類似度を計算し,重要なチャネルを強化し,所望の時間周波数位置を再調整する。 提案するモジュールは、人気のあるresnetベースのモデルとともに、野生で収集された大規模話者照合コーパスであるvoxceleb1データセット上で評価される。 この軽量ブロックは、計算コストの少ないCNNモデルに容易に組み込むことができ、ベースラインのResNet-LDEモデルやSqueeze&Excitationブロックと比較して、話者検証性能を大幅に向上させることができる。 詳細なアブレーション研究も行われ、提案モジュールの性能に影響を与える様々な要因を分析する。 提案したL2-tf-GTFC変換ブロックを用いることで, 平衡誤差率を4.56%から3.07%に低下させ, 相対32.68%, 相対27.28%改善した。 その結果,提案するグローバルな文脈案内型変換モジュールは,時間周波数とチャネルワイドの特徴再構成を達成し,学習した話者表現を効率的に改善できることを示す。

In this study, we propose the global context guided channel and time-frequency transformations to model the long-range, non-local time-frequency dependencies and channel variances in speaker representations. We use the global context information to enhance important channels and recalibrate salient time-frequency locations by computing the similarity between the global context and local features. The proposed modules, together with a popular ResNet based model, are evaluated on the VoxCeleb1 dataset, which is a large scale speaker verification corpus collected in the wild. This lightweight block can be easily incorporated into a CNN model with little additional computational costs and effectively improves the speaker verification performance compared to the baseline ResNet-LDE model and the Squeeze&Excitation block by a large margin. Detailed ablation studies are also performed to analyze various factors that may impact the performance of the proposed modules. We find that by employing the proposed L2-tf-GTFC transformation block, the Equal Error Rate decreases from 4.56% to 3.07%, a relative 32.68% reduction, and a relative 27.28% improvement in terms of the DCF score. The results indicate that our proposed global context guided transformation modules can efficiently improve the learned speaker representations by achieving time-frequency and channel-wise feature recalibration.
翻訳日:2022-10-22 20:04:42 公開日:2020-09-09
# テキスト非依存な話者照合のための不一致最小化によるクロスドメイン適応

Cross-domain Adaptation with Discrepancy Minimization for Text-independent Forensic Speaker Verification ( http://arxiv.org/abs/2009.02444v2 )

ライセンス: Link先を確認
Zhenyu Wang, Wei Xia, John H.L. Hansen(参考訳) 話者検証のための法医学的音声分析は、位置/シナリオの不確かさと参照と自然主義的フィールド記録間の多様性のミスマッチにより、ユニークな課題をもたらす。 真に自然主義的な法医学的音声コーパスの欠如は、この分野における大きな課題である。 また、ドメインミスマッチやパフォーマンスの損失によって複雑なニューラルネットワークアーキテクチャをトレーニングするために、小規模のドメイン固有データを直接使用することも難しい。 あるいは、複数の音響環境に対するクロスドメイン話者検証は、オーディオ法医学の研究を進める上で難しい課題である。 本研究では,複数の音響環境において収集されたCRSS-Forensicsオーディオデータセットを提案する。 voxcelebデータを用いてcnnベースのネットワークを事前学習し,crss-forensicsによるクリーン音声によるハイレベルネットワーク層の一部を微調整するアプローチを行った。 この微調整モデルに基づいて、埋め込み空間におけるドメイン固有分布を、相違損失と最大平均相違(MMD)に整合させる。 これはクリーンセット上で効果的な性能を維持し、同時にモデルを他の音響領域に一般化する。 結果から,多様な音響環境が話者照合性能に影響を与え,提案するクロスドメイン適応手法が,このシナリオにおける結果を大幅に改善することを示す。

Forensic audio analysis for speaker verification offers unique challenges due to location/scenario uncertainty and diversity mismatch between reference and naturalistic field recordings. The lack of real naturalistic forensic audio corpora with ground-truth speaker identity represents a major challenge in this field. It is also difficult to directly employ small-scale domain-specific data to train complex neural network architectures due to domain mismatch and loss in performance. Alternatively, cross-domain speaker verification for multiple acoustic environments is a challenging task which could advance research in audio forensics. In this study, we introduce a CRSS-Forensics audio dataset collected in multiple acoustic environments. We pre-train a CNN-based network using the VoxCeleb data, followed by an approach which fine-tunes part of the high-level network layers with clean speech from CRSS-Forensics. Based on this fine-tuned model, we align domain-specific distributions in the embedding space with the discrepancy loss and maximum mean discrepancy (MMD). This maintains effective performance on the clean set, while simultaneously generalizes the model to other acoustic domains. From the results, we demonstrate that diverse acoustic environments affect the speaker verification performance, and that our proposed approach of cross-domain adaptation can significantly improve the results in this scenario.
翻訳日:2022-10-21 21:09:08 公開日:2020-09-09
# 無人航空システムのための深層学習と強化学習:展開理論のロードマップ

Deep Learning and Reinforcement Learning for Autonomous Unmanned Aerial Systems: Roadmap for Theory to Deployment ( http://arxiv.org/abs/2009.03349v2 )

ライセンス: Link先を確認
Jithin Jagannath, Anu Jagannath, Sean Furman, Tyler Gwin(参考訳) 無人航空システム(UAS)は、商業、民間、軍事用途にますます利用されている。 現在のUAS状態は、これらのいくつかのアプリケーションを実行するために、ロバストなワイヤレスリンクを持つリモートヒューマンコントローラに依存している。 自律性の欠如は、UASをデプロイできるアプリケーションとタスクのドメインを制限する。 UASへの自律性とインテリジェンスの導入は、このハードルを克服し、安全性と効率性の向上に役立ちます。 コンピューティングリソースの指数的な増加と、このデジタル時代に大量のデータが利用可能になったことで、前年の冬から機械学習が復活した。 そこで本章では,機械学習の進歩,特にディープラーニングと強化学習を活用して,次世代自律型UASを開発する方法について論じる。 私たちはまず、入門部における現在のUASの適用、課題、機会について議論し、この章を動機付け始めます。 次に、この章で議論されたいくつかの重要な深層学習および強化学習技術の概要を紹介する。 UASへの自律性を実現する上で不可欠な重要な領域は、コンピュータビジョンである。 そこで,我々は,uasの自律性提供に寄与する基本的なタスクを実現するために,ディープラーニングのアプローチがどのように使われているかについて議論する。 次に,この情報を用いてUASのための自律制御とナビゲーションを実現するための強化学習について検討する。 次に、読者に適切なシミュレーションスイートとハードウェアプラットフォームを選択し、UASのための新しい機械学習ベースのソリューションを迅速にプロトタイプするのに役立ちます。 さらに,潜在的な研究分野に光を当てる自律型uasソリューションの開発における,それぞれの側面に関わるオープンな問題や課題についても論じる。

Unmanned Aerial Systems (UAS) are being increasingly deployed for commercial, civilian, and military applications. The current UAS state-of-the-art still depends on a remote human controller with robust wireless links to perform several of these applications. The lack of autonomy restricts the domains of application and tasks for which a UAS can be deployed. Enabling autonomy and intelligence to the UAS will help overcome this hurdle and expand its use improving safety and efficiency. The exponential increase in computing resources and the availability of large amount of data in this digital era has led to the resurgence of machine learning from its last winter. Therefore, in this chapter, we discuss how some of the advances in machine learning, specifically deep learning and reinforcement learning can be leveraged to develop next-generation autonomous UAS. We first begin motivating this chapter by discussing the application, challenges, and opportunities of the current UAS in the introductory section. We then provide an overview of some of the key deep learning and reinforcement learning techniques discussed throughout this chapter. A key area of focus that will be essential to enable autonomy to UAS is computer vision. Accordingly, we discuss how deep learning approaches have been used to accomplish some of the basic tasks that contribute to providing UAS autonomy. Then we discuss how reinforcement learning is explored for using this information to provide autonomous control and navigation for UAS. Next, we provide the reader with directions to choose appropriate simulation suites and hardware platforms that will help to rapidly prototype novel machine learning based solutions for UAS. We additionally discuss the open problems and challenges pertaining to each aspect of developing autonomous UAS solutions to shine light on potential research areas.
翻訳日:2022-10-21 02:37:53 公開日:2020-09-09
# kk2018 at SemEval-2020 Task 9: Adversarial Training for Code-Mixing Sentiment Classification

kk2018 at SemEval-2020 Task 9: Adversarial Training for Code-Mixing Sentiment Classification ( http://arxiv.org/abs/2009.03673v2 )

ライセンス: Link先を確認
Jiaxiang Liu, Xuyi Chen, Shikun Feng, Shuohuan Wang, Xuan Ouyang, Yu Sun, Zhengjie Huang, Weiyue Su(参考訳) コードスイッチング(code switching)は、話者が複数の言語を共有する多言語環境で発生する言語現象である。 異なる言語を持つグループ間のコミュニケーションが増加するにつれ、この現象はますます人気が高まっている。 しかし、この領域では、特にコード混合感情分類における研究やデータはほとんどない。 本研究では,最先端のユニ言語モデルであるernieからドメイン転送学習をコード混合データセット上でテストし,驚くべきことに,強力なベースラインを実現する。 さらに、多言語モデルによる敵意訓練を用いて、2020年度第9次ヒンディー語英語感情分類コンペティションの第1位を得る。

Code switching is a linguistic phenomenon that may occur within a multilingual setting where speakers share more than one language. With the increasing communication between groups with different languages, this phenomenon is more and more popular. However, there are little research and data in this area, especially in code-mixing sentiment classification. In this work, the domain transfer learning from state-of-the-art uni-language model ERNIE is tested on the code-mixing dataset, and surprisingly, a strong baseline is achieved. Furthermore, the adversarial training with a multi-lingual model is used to achieve 1st place of SemEval-2020 Task 9 Hindi-English sentiment classification competition.
翻訳日:2022-10-20 21:13:21 公開日:2020-09-09
# 救急医療における外傷患者の予後予測のためのマシンインテリジェンス

Machine Intelligence for Outcome Predictions of Trauma Patients During Emergency Department Care ( http://arxiv.org/abs/2009.03873v2 )

ライセンス: Link先を確認
Joshua D. Cardosi, Herman Shen, Jonathan I. Groner, Megan Armstrong, Henry Xiang(参考訳) 外傷死亡は, 患者の人口統計, 外傷特性, 医療提供, 医療施設の特徴など, 多数の非直線的リスク要因から生じるが, 従来のアプローチでは, 厳格な回帰モデルを用いてこれらの関係を捉えようと試みていた。 移動学習に基づく機械学習アルゴリズムは、外傷患者の状態を深く理解し、厳格な回帰モデル基準に頼ることなく、死亡リスクの高い個人を正確に識別できると仮定した。 2007-2014年に全国トラウマデータバンクから匿名の患者訪問データを得た。 不完全なバイタル、未知の結果、または行方不明の人口統計データを持つ患者は除外された。 米国の病院で患者の訪問が全て行われ、回顧調査された2,007,485件のうち8,198件が死亡(0.4%)した。 マシンインテリジェンスモデルは、感度、特異性、正および負の予測値、マシューズ相関係数に基づいて評価された。 本モデルは, 年齢別比較モデルにおいて同様の性能を示し, 全年齢に同時に適用した場合によく一般化した。 転倒関連因子の検証中に, 転倒関連障害を除くと, 成人外傷患者のパフォーマンスが向上することがわかったが, 子どもの成績は低下した。 ここで説明するマシンインテリジェンスモデルは、制限付き回帰モデル基準や広範な医学的専門知識を必要とせずに、現代のマシンインテリジェンスモデルと同様の性能を示す。

Trauma mortality results from a multitude of non-linear dependent risk factors including patient demographics, injury characteristics, medical care provided, and characteristics of medical facilities; yet traditional approach attempted to capture these relationships using rigid regression models. We hypothesized that a transfer learning based machine learning algorithm could deeply understand a trauma patient's condition and accurately identify individuals at high risk for mortality without relying on restrictive regression model criteria. Anonymous patient visit data were obtained from years 2007-2014 of the National Trauma Data Bank. Patients with incomplete vitals, unknown outcome, or missing demographics data were excluded. All patient visits occurred in U.S. hospitals, and of the 2,007,485 encounters that were retrospectively examined, 8,198 resulted in mortality (0.4%). The machine intelligence model was evaluated on its sensitivity, specificity, positive and negative predictive value, and Matthews Correlation Coefficient. Our model achieved similar performance in age-specific comparison models and generalized well when applied to all ages simultaneously. While testing for confounding factors, we discovered that excluding fall-related injuries boosted performance for adult trauma patients; however, it reduced performance for children. The machine intelligence model described here demonstrates similar performance to contemporary machine intelligence models without requiring restrictive regression model criteria or extensive medical expertise.
翻訳日:2022-10-20 20:27:37 公開日:2020-09-09
# 畳み込みニューラルネットワークを用いた声帯の複数F0推定

Multiple F0 Estimation in Vocal Ensembles using Convolutional Neural Networks ( http://arxiv.org/abs/2009.04172v1 )

ライセンス: Link先を確認
Helena Cuesta, Brian McFee, Emilia G\'omez(参考訳) 本稿では、畳み込みニューラルネットワーク(CNN)を用いたポリフォニックおよびカペラ発声性能から複数のF0値の抽出について述べる。 我々はアンサンブル・シンガーの主な課題、すなわちメロディのソースはすべてボーカルであり、歌手は調和して歌う。 我々は、入力信号のピッチサリエンス関数を生成するために既存のアーキテクチャを構築し、高調波定数Q変換(HCQT)とその位相差を入力表現として利用する。 その後、ピッチサリエンス関数を閾値にして複数のf0推定出力を得る。 訓練のために,f0アノテーション付き声帯四重奏曲の複数トラックデータセットからなるデータセットを構築する。 この研究は、様々なシナリオやデータ構成におけるタスクのための一連のCNNを提案し、評価する。 提案手法は,F0の高解像度化による評価と,マルチF0推定のための汎用手法において,同じジャンルを対象とした最先端の手法よりも優れている。 我々は今後の研究の方向性に関する議論で締めくくる。

This paper addresses the extraction of multiple F0 values from polyphonic and a cappella vocal performances using convolutional neural networks (CNNs). We address the major challenges of ensemble singing, i.e., all melodic sources are vocals and singers sing in harmony. We build upon an existing architecture to produce a pitch salience function of the input signal, where the harmonic constant-Q transform (HCQT) and its associated phase differentials are used as an input representation. The pitch salience function is subsequently thresholded to obtain a multiple F0 estimation output. For training, we build a dataset that comprises several multi-track datasets of vocal quartets with F0 annotations. This work proposes and evaluates a set of CNNs for this task in diverse scenarios and data configurations, including recordings with additional reverb. Our models outperform a state-of-the-art method intended for the same music genre when evaluated with an increased F0 resolution, as well as a general-purpose method for multi-F0 estimation. We conclude with a discussion on future research directions.
翻訳日:2022-10-20 12:25:53 公開日:2020-09-09
# クレジットスコアと利益スコアの統合によるp2p融資の投資提案の改善

Improving Investment Suggestions for Peer-to-Peer (P2P) Lending via Integrating Credit Scoring into Profit Scoring ( http://arxiv.org/abs/2009.04536v1 )

ライセンス: Link先を確認
Yan Wang, Xuelei Sherry Ni(参考訳) ピアツーピア(P2P)貸出市場において、貸し手は仮想プラットフォームを通じて借り手に貸与し、金利で生み出す可能性のある利益を得る。 貸し手の観点からは、リスクを最小限にしながら利益を最大化したい。 それゆえ、多くの研究は機械学習アルゴリズムを使用して、融資者が投資を行うための「最良の」ローンを特定するのを助ける。 研究は主に、投資リスクの最小化(クレジットスコアリングの観点)と利益の最大化(利益スコアの観点)の2つのカテゴリーに焦点を当てている。 しかし、いずれも一つのカテゴリーのみに焦点を当てており、2つのカテゴリを一体化しようとする研究はめったにない。 そこで本稿では,クレジット情報を収益評価モデルに組み込んだ2段階フレームワークを提案する。 本研究では,米国のp2p市場における実世界のp2p貸出データの実証実験を行い,この2段階の枠組みでlight gradient boosting machine (lightgbm) アルゴリズムを用いた。 その結果,提案手法は利益率の高いローンを識別でき,既存の1段階の利益獲得単独アプローチに比べ,投資家により良い投資ガイダンスを提供することができた。 したがって、提案手法は、P2P融資における投資決定の革新的な視点として機能する。

In the peer-to-peer (P2P) lending market, lenders lend the money to the borrowers through a virtual platform and earn the possible profit generated by the interest rate. From the perspective of lenders, they want to maximize the profit while minimizing the risk. Therefore, many studies have used machine learning algorithms to help the lenders identify the "best" loans for making investments. The studies have mainly focused on two categories to guide the lenders' investments: one aims at minimizing the risk of investment (i.e., the credit scoring perspective) while the other aims at maximizing the profit (i.e., the profit scoring perspective). However, they have all focused on one category only and there is seldom research trying to integrate the two categories together. Motivated by this, we propose a two-stage framework that incorporates the credit information into a profit scoring modeling. We conducted the empirical experiment on a real-world P2P lending data from the US P2P market and used the Light Gradient Boosting Machine (lightGBM) algorithm in the two-stage framework. Results show that the proposed two-stage method could identify more profitable loans and thereby provide better investment guidance to the investors compared to the existing one-stage profit scoring alone approach. Therefore, the proposed framework serves as an innovative perspective for making investment decisions in P2P lending.
翻訳日:2022-10-20 12:17:33 公開日:2020-09-09
# tsBNgen: 任意の動的ベイズネットワーク構造から時系列データを生成するPythonライブラリ

tsBNgen: A Python Library to Generate Time Series Data from an Arbitrary Dynamic Bayesian Network Structure ( http://arxiv.org/abs/2009.04595v1 )

ライセンス: Link先を確認
Manie Tadayon, Greg Pottie(参考訳) 合成データは様々な領域で広く使われている。 これは、多くの現代的なアルゴリズムが効率的なトレーニングのために大量のデータを必要としており、データ収集とラベリングは通常、時間を要するプロセスであり、エラーを起こしやすいためである。 さらに、いくつかの実世界のデータは、その性質上機密であり、共有できない。 ベイズネットワーク(英: Bayesian network)は、現実のプロセスにおける不確実性をモデル化するために広く用いられている確率的グラフィカルモデルの一種である。 動的ベイズネットワーク(Dynamic Bayesian Network)は、時間および時系列データをモデル化するベイズネットワークの特殊クラスである。 本稿では,任意の動的ベイズネットワークに基づいて時系列および逐次データを生成するPythonライブラリであるtsBNgenを紹介する。 パッケージ、ドキュメント、サンプルはhttps://github.com/manitadayon/tsbngenからダウンロードできる。

Synthetic data is widely used in various domains. This is because many modern algorithms require lots of data for efficient training, and data collection and labeling usually are a time-consuming process and are prone to errors. Furthermore, some real-world data, due to its nature, is confidential and cannot be shared. Bayesian networks are a type of probabilistic graphical model widely used to model the uncertainties in real-world processes. Dynamic Bayesian networks are a special class of Bayesian networks that model temporal and time series data. In this paper, we introduce the tsBNgen, a Python library to generate time series and sequential data based on an arbitrary dynamic Bayesian network. The package, documentation, and examples can be downloaded from https://github.com/manitadayon/tsBNgen.
翻訳日:2022-10-20 12:16:43 公開日:2020-09-09
# 耐火物酸化物の原子ポテンシャルを学習した実験駆動自動機械

An Experimentally Driven Automated Machine Learned lnter-Atomic Potential for a Refractory Oxide ( http://arxiv.org/abs/2009.04045v1 )

ライセンス: Link先を確認
Ganesh Sivaraman, Leighanne Gallington, Anand Narayanan Krishnamoorthy, Marius Stan, Gabor Csanyi, Alvaro Vazquez-Mayagoitia, Chris J. Benmore(参考訳) 高温利用には, 耐火物酸化物の構造と特性の理解が不可欠である。 本研究では,X線および中性子回折測定により初期化され,実験所定位相空間が被覆されるまで機械学習モデルを逐次改善する能動レーナーを用いた自動閉ループを用いた実験・シミュレーション手法を提案する。 室温から液状状態までの最低トレーニング構成を約2900ocで引き出すことにより、原型耐火物酸化物hfo2の正準例として多相電位を生成する。 この方法は、モデル開発時間と人的労力を大幅に削減する。

Understanding the structure and properties of refractory oxides are critical for high temperature applications. In this work, a combined experimental and simulation approach uses an automated closed loop via an active-learner, which is initialized by X-ray and neutron diffraction measurements, and sequentially improves a machine-learning model until the experimentally predetermined phase space is covered. A multi-phase potential is generated for a canonical example of the archetypal refractory oxide, HfO2, by drawing a minimum number of training configurations from room temperature to the liquid state at ~2900oC. The method significantly reduces model development time and human effort.
翻訳日:2022-10-20 12:16:11 公開日:2020-09-09
# Going Deep: XOR BRおよびTBR PUFに対する簡易な数学的モデルを用いたディープラーニング技術(アタックと対策)

Going Deep: Using deep learning techniques with simplified mathematical models against XOR BR and TBR PUFs (Attacks and Countermeasures) ( http://arxiv.org/abs/2009.04063v1 )

ライセンス: Link先を確認
Mahmoud Khalafalla, Mahmoud A. Elmohr, Catherine Gebotys(参考訳) 本稿では,XOR BR PUFs,XOR TBR PUFs,およびXOR BR PUFの難解アーキテクチャのセキュリティを評価することで,モデリング攻撃に対するPUFs脆弱性の研究に寄与する。 その結果,4入力のXOR BR PUFと4入力のXOR TBR PUFのセキュリティを,モデリング精度$\sim$99%で容易に破壊できることがわかった。 同様の攻撃は単層ニューラルネットワーク(NN)と多項式カーネルによるサポートベクターマシン(SVM)を用いて実行され、その結果、単一のNNがPUFのセキュリティを損なうことが判明した。 さらに、SVMの結果は、以前の研究で報告されたのと同じモデリング精度(\sim$ 50%)を確認した。 この研究は、従来の機械学習技術が失敗したこれらの複雑なPUFアーキテクチャに対して、DLネットワークが強力なモデリング技術として使用できることを実証的に示す。 さらに,pfsのステージサイズと複雑さに関して,dlネットワーク上で詳細なスケーラビリティ解析を行う。 解析の結果、各層内の層数と隠れたニューロン数はPUFsのステージサイズと線形関係にあり、これはディープラーニングの理論的な発見と一致することがわかった。 その結果、新しい難読化アーキテクチャがDLモデリング攻撃に対抗する最初のステップとして導入され、そのような攻撃に対して大きな抵抗(16% - 40%の精度)を示した。 この研究は、モデリング攻撃に対してより安全で不要な、新しいpufアーキテクチャを導入する取り組みを優先順位付けるための重要なステップを提供する。 さらに、特定のPUFアーキテクチャが強力なDLモデリング攻撃に対して耐性があることを確認するのに必要な、影響ビットの除去と難読化のレベルに関する今後の議論のきっかけとなる。

This paper contributes to the study of PUFs vulnerability against modeling attacks by evaluating the security of XOR BR PUFs, XOR TBR PUFs, and obfuscated architectures of XOR BR PUF using a simplified mathematical model and deep learning (DL) techniques. Obtained results show that DL modeling attacks could easily break the security of 4-input XOR BR PUFs and 4-input XOR TBR PUFs with modeling accuracy $\sim$ 99%. Similar attacks were executed using single-layer neural networks (NN) and support vector machines (SVM) with polynomial kernel and the obtained results showed that single NNs failed to break the PUF security. Furthermore, SVM results confirmed the same modeling accuracy reported in previous research ($\sim$ 50%). For the first time, this research empirically shows that DL networks can be used as powerful modeling techniques against these complex PUF architectures for which previous conventional machine learning techniques had failed. Furthermore, a detailed scalability analysis is conducted on the DL networks with respect to PUFs' stage size and complexity. The analysis shows that the number of layers and hidden neurons inside every layer has a linear relationship with PUFs' stage size, which agrees with the theoretical findings in deep learning. Consequently, A new obfuscated architecture is introduced as a first step to counter DL modeling attacks and it showed significant resistance against such attacks (16% - 40% less accuracy). This research provides an important step towards prioritizing the efforts to introduce new PUF architectures that are more secure and invulnerable to modeling attacks. Moreover, it triggers future discussions on the removal of influential bits and the level of obfuscation needed to confirm that a specific PUF architecture is resistant against powerful DL modeling attacks.
翻訳日:2022-10-20 12:16:00 公開日:2020-09-09
# 深層学習ネットワークを用いたラマンスペクトルの雑音低減手法

Noise Reduction Technique for Raman Spectrum using Deep Learning Network ( http://arxiv.org/abs/2009.04067v1 )

ライセンス: Link先を確認
Liangrui Pan, Pronthep Pipitsunthonsan, Peng Zhang, Chalongrat Daengngam, Apidach Booranawong, Mitcham Chongcheawchamnan(参考訳) 通常の屋内環境では、ラマンスペクトルはしばしばスペクトルピークを隠蔽するノイズに遭遇し、スペクトルの解釈が困難になる。 本稿では,ラマン分光法のための深層学習(dl)に基づく雑音低減手法を提案する。 提案するDLネットワークは、雑音ラマンスペクトルのトレーニングとテストセットを用いて開発されている。 提案手法は, 異なるウェーブレット雑音低減法を用いて, 性能を劣化させて比較する。 出力信号対雑音比(SNR)、ルート平均二乗誤差(RMSE)、平均絶対パーセンテージ誤差(MAPE)は性能評価指標である。 提案手法の出力SNRはウェーブレットノイズ低減法よりも10.24dB大きく、RMSEとMAPEは292.63と10.09であり、提案手法よりもはるかに優れている。

In a normal indoor environment, Raman spectrum encounters noise often conceal spectrum peak, leading to difficulty in spectrum interpretation. This paper proposes deep learning (DL) based noise reduction technique for Raman spectroscopy. The proposed DL network is developed with several training and test sets of noisy Raman spectrum. The proposed technique is applied to denoise and compare the performance with different wavelet noise reduction methods. Output signal-to-noise ratio (SNR), root-mean-square error (RMSE) and mean absolute percentage error (MAPE) are the performance evaluation index. It is shown that output SNR of the proposed noise reduction technology is 10.24 dB greater than that of the wavelet noise reduction method while the RMSE and the MAPE are 292.63 and 10.09, which are much better than the proposed technique.
翻訳日:2022-10-20 12:15:21 公開日:2020-09-09
# ウェーブレット変換とディープニューラルネットワークに基づく雑音ラマンスペクトルの分類方法

Method for classifying a noisy Raman spectrum based on a wavelet transform and a deep neural network ( http://arxiv.org/abs/2009.04078v1 )

ライセンス: Link先を確認
Liangrui Pan, Pronthep Pipitsunthonsan, Chalongrat Daengngam, Sittiporn Channumsin, Suwat Sreesawet, Mitchai Chongcheawchamnan(参考訳) 本稿では,ベースラインノイズと白色ガウス雑音環境下でのスペクトル分類が比較的困難であるため,ノイズラマンスペクトルを識別するためのウェーブレット変換とディープニューラルネットワークに基づく新しい枠組みを提案する。 このフレームワークは2つのメインエンジンで構成されている。 1次元ラマンスペクトルを2次元データに変換するためのフレームワークフロントエンドとしてウェーブレット変換を提案する。 この2次元データは、分類器であるフレームワークのバックエンドに送られる。 最適な分類器は,従来の機械学習(ml)とディープラーニング(dl)アルゴリズムを実装し,その分類精度とロバスト性について検討した。 私たちが選択した4つのMLには、Naive Bayes(NB)、SVM(Support Vector Machine)、Random Forest(RF)、K-Nearest Neighbor(KNN)があり、DL分類器にはDeep Convolution Neural Network(DCNN)が選ばれた。 MLおよびDCNNモデルの訓練および評価には、ノイズフリー、ガウスノイズ、ベースラインノイズ、混合ノイズラマンスペクトルを適用した。 最適バックエンド分類器は、MLモデルとDCNNモデルを複数のノイズラマンスペクトル(10-30dB)で試験することで得られる。 このシミュレーションに基づいて、DCNN分類器の精度はNB分類器より9%高く、RF分類器より3.5%高く、KNN分類器より1%高く、SVM分類器より0.5%高い。 混合ノイズシナリオに対する堅牢性に関しては、DCNNバックエンドのフレームワークは他のMLバックエンドよりも優れたパフォーマンスを示している。 DCNNバックエンドは3dB SNRで90%精度、NB、SVM、RF、K-NNバックエンドはそれぞれ27dB、22dB、27dB、23dB SNRであった。 さらに、低雑音試験データセットでは、DCNNのバックエンドのF測定スコアは99.1%を超え、他のMLエンジンのF測定スコアは98.7%を下回った。

This paper proposes a new framework based on a wavelet transform and deep neural network for identifying noisy Raman spectrum since, in practice, it is relatively difficult to classify the spectrum under baseline noise and additive white Gaussian noise environments. The framework consists of two main engines. Wavelet transform is proposed as the framework front-end for transforming 1-D noise Raman spectrum to two-dimensional data. This two-dimensional data will be fed to the framework back-end which is a classifier. The optimum classifier is chosen by implementing several traditional machine learning (ML) and deep learning (DL) algorithms, and then we investigated their classification accuracy and robustness performances. The four MLs we choose included a Naive Bayes (NB), a Support Vector Machine (SVM), a Random Forest (RF) and a K-Nearest Neighbor (KNN) where a deep convolution neural network (DCNN) was chosen for a DL classifier. Noise-free, Gaussian noise, baseline noise, and mixed-noise Raman spectrums were applied to train and validate the ML and DCNN models. The optimum back-end classifier was obtained by testing the ML and DCNN models with several noisy Raman spectrums (10-30 dB noise power). Based on the simulation, the accuracy of the DCNN classifier is 9% higher than the NB classifier, 3.5% higher than the RF classifier, 1% higher than the KNN classifier, and 0.5% higher than the SVM classifier. In terms of robustness to the mixed noise scenarios, the framework with DCNN back-end showed superior performance than the other ML back-ends. The DCNN back-end achieved 90% accuracy at 3 dB SNR while NB, SVM, RF, and K-NN back-ends required 27 dB, 22 dB, 27 dB, and 23 dB SNR, respectively. In addition, in the low-noise test data set, the F-measure score of the DCNN back-end exceeded 99.1% while the F-measure scores of the other ML engines were below 98.7%.
翻訳日:2022-10-20 12:14:36 公開日:2020-09-09
# 重力波データ解析のための深層学習:再サンプリング型ホワイトボックスアプローチ

Deep learning for gravitational-wave data analysis: A resampling white-box approach ( http://arxiv.org/abs/2009.04088v1 )

ライセンス: Link先を確認
Manuel D. Morales, Javier M. Antelis, Claudia Moreno, Alexander I. Nesterov(参考訳) 本研究では、LIGO検出器からの単一干渉計データを用いて、畳み込みニューラルネットワーク(CNN)を用いて、コンパクトなバイナリコリッションの重力波(GW)信号を検出する。 新たな貢献として,gwデータ分析におけるcnn固有の不確かさの統計的理解に向けて,ホワイトボックスアプローチの再サンプリングを適用した。 再サンプリングは、繰り返しk$-foldクロスバリデーション実験によって行われ、ホワイトボックスアプローチでは、cnnの挙動を数学的に詳細に記述する。 モーレットウェーブレット変換により、ストレイン時系列を時間周波数画像に変換し、入力データセットを生成する前に減少させる。 さらに,より現実的な実験条件を再現するために,非ガウジアンノイズとハードウェアインジェクションのデータのみを使用して,gwテンプレートの信号対雑音比(snr)値を手作業で設定する自由を除去した。 ハイパーパラメータ調整を行った結果、平均摂動を3.6ドルと小さくすることで、ミニバッチ確率勾配の確率性を平滑化できることが判明した。 CNNはノイズを検出するのに非常に正確だが、GW信号のリコールに十分な感度がないため、CNNはGWトリガの生成よりもノイズ低減に適している。 しかし、分析後、H1データ付きSNR$\geq 21.80$とL1データ付きSNR$\geq 26.80$のGW信号の場合、CNNはGW信号を検出するための仮の代替手段として残ることが判明した。 また, 動作特性曲線を受信することで, cnnはナイーブベイズモデルよりも優れた性能を示し, ベクターマシンモデルをサポートすることが判明し, 有意なレベルが5\%$の場合には, cnnの予測値とランダム分類器の予測値とは大きく異なると推定した。 最後に,ソフトマックス層が出力する確率的スコアの分布から,CNNの性能はクラスに依存していることが分かった。

In this work, we apply Convolutional Neural Networks (CNNs) to detect gravitational wave (GW) signals of compact binary coalescences, using single-interferometer data from LIGO detectors. As novel contribution, we adopted a resampling white-box approach to advance towards a statistical understanding of uncertainties intrinsic to CNNs in GW data analysis. Resampling is performed by repeated $k$-fold cross-validation experiments, and for a white-box approach, behavior of CNNs is mathematically described in detail. Through a Morlet wavelet transform, strain time series are converted to time-frequency images, which in turn are reduced before generating input datasets. Moreover, to reproduce more realistic experimental conditions, we worked only with data of non-Gaussian noise and hardware injections, removing freedom to set signal-to-noise ratio (SNR) values in GW templates by hand. After hyperparameter adjustments, we found that resampling smooths stochasticity of mini-batch stochastic gradient descend by reducing mean accuracy perturbations in a factor of $3.6$. CNNs were quite precise to detect noise but not sensitive enough to recall GW signals, meaning that CNNs are better for noise reduction than generation of GW triggers. However, applying a post-analysis, we found that for GW signals of SNR $\geq 21.80$ with H1 data and SNR $\geq 26.80$ with L1 data, CNNs could remain as tentative alternatives for detecting GW signals. Besides, with receiving operating characteristic curves we found that CNNs show much better performances than those of Naive Bayes and Support Vector Machines models and, with a significance level of $5\%$, we estimated that predictions of CNNs are significant different from those of a random classifier. Finally, we elucidated that performance of CNNs is highly class dependent because of the distribution of probabilistic scores outputted by the softmax layer.
翻訳日:2022-10-20 12:13:57 公開日:2020-09-09
# リコメンダシステムのためのルールガイド型グラフニューラルネットワーク

Rule-Guided Graph Neural Networks for Recommender Systems ( http://arxiv.org/abs/2009.04104v1 )

ライセンス: Link先を確認
Xinze Lyu and Guangyao Li and Jiacheng Huang and Wei Hu(参考訳) 推薦システムにおける協調フィルタリングによるコールドスタート問題を軽減するため、知識グラフ(KG)は補助資源として多くの手法で採用されている。 しかし、KGsに組み込まれた既存の作業では、ユーザとアイテム間の明示的な長距離セマンティクスをキャプチャすることはできない。 本稿ではルール学習とグラフニューラルネットワーク(GNN)を組み合わせたRGRecを提案する。 RGRecはまず、アイテムをKGの対応するエンティティにマッピングし、ユーザを新しいエンティティとして追加する。 そして、明示的な長距離セマンティクスをモデル化するルールを自動的に学習し、集約によってエンティティ間の接続をキャプチャし、さまざまな情報をよりよくエンコードする。 実世界の3つのデータセットに対するRGRecの有効性を示す。 特に,ルール学習とGNNの組み合わせは,いずれの使用方法よりも大幅に改善されている。

To alleviate the cold start problem caused by collaborative filtering in recommender systems, knowledge graphs (KGs) are increasingly employed by many methods as auxiliary resources. However, existing work incorporated with KGs cannot capture the explicit long-range semantics between users and items meanwhile consider various connectivity between items. In this paper, we propose RGRec, which combines rule learning and graph neural networks (GNNs) for recommendation. RGRec first maps items to corresponding entities in KGs and adds users as new entities. Then, it automatically learns rules to model the explicit long-range semantics, and captures the connectivity between entities by aggregation to better encode various information. We show the effectiveness of RGRec on three real-world datasets. Particularly, the combination of rule learning and GNNs achieves substantial improvement compared to methods only using either of them.
翻訳日:2022-10-20 12:07:04 公開日:2020-09-09
# 乗務員のピックアップ性能に関するドライバーの位置のダイナミクスの理解 : ケーススタディ

Understanding the Dynamics of Drivers' Locations for Passengers Pickup Performance: A Case Study ( http://arxiv.org/abs/2009.04108v1 )

ライセンス: Link先を確認
Punit Rathore, Ali Zonoozi, Omid Geramifard, Tan Kian Lee(参考訳) 配車サービスの出現に伴い、タクシー旅行データを分析し、運転者や乗客のフローパターンから洞察を得、都市交通の様々なダイナミクスを理解しようと試みる学者が増えている。 既存の研究は、サービス提供者の利益の最大化やリソース管理の改善という文脈において、乗客の位置分析(ピックアップやドロップオフポイントなど)に限られている。 また、ピックアップ要求時のタクシー運転手の位置や、時空間領域でのピックアップ性能についても検討されていない。 本稿では,予約要求時の運転者および乗客の位置を,運転者のピックアップパフォーマンスの文脈で分析する。 分析を容易にするため,シンガポールのGrab配車サービスの予約記録から得られた大規模リレーショナルデータから,有用なクラスタとクラスタを取得するために,sco-iVATと呼ばれるコクラスタリング手法の修正および拡張版を実装した。 また,すべてのトラジェクトリデータを用いることなく,予約要求のタイムリーピックアップを予測する可能性についても検討した。 最後に,予約要求に対する全てのドライバー候補に対するピックアップ性能スコアを計算するための2つのスコアリング機構を考案した。 これらのスコアは予約の割り当てモデルに統合され、乗客のピックアップに最高パフォーマンスのドライバーを優先することができる。

With the emergence of e-hailing taxi services, a growing number of scholars have attempted to analyze the taxi trips data to gain insights from drivers' and passengers' flow patterns and understand different dynamics of urban public transportation. Existing studies are limited to passengers' location analysis e.g., pick-up and drop-off points, in the context of maximizing the profits or better managing the resources for service providers. Moreover, taxi drivers' locations at the time of pick-up requests and their pickup performance in the spatial-temporal domain have not been explored. In this paper, we analyze drivers' and passengers' locations at the time of booking request in the context of drivers' pick-up performances. To facilitate our analysis, we implement a modified and extended version of a co-clustering technique, called sco-iVAT, to obtain useful clusters and co-clusters from big relational data, derived from booking records of Grab ride-hailing service in Singapore. We also explored the possibility of predicting timely pickup for a given booking request, without using entire trajectories data. Finally, we devised two scoring mechanisms to compute pickup performance score for all driver candidates for a booking request. These scores could be integrated into a booking assignment model to prioritize top-performing drivers for passenger pickups.
翻訳日:2022-10-20 12:06:51 公開日:2020-09-09
# ロボットエージェントの再現性とアクセシブル評価のための統合ベンチマークと設計

Integrated Benchmarking and Design for Reproducible and Accessible Evaluation of Robotic Agents ( http://arxiv.org/abs/2009.04362v1 )

ライセンス: Link先を確認
Jacopo Tani and Andrea F. Daniele and Gianmarco Bernasconi and Amaury Camus and Aleksandar Petrov and Anthony Courchesne and Bhairav Mehta and Rohit Suri and Tomasz Zaluska and Matthew R. Walter and Emilio Frazzoli and Liam Paull and Andrea Censi(参考訳) ロボティクスが成熟し、複雑さが増すにつれ、ロボットの自律性の研究が再現可能であることはかつてないほど必要である。 他の科学と比較すると、ソフトウェアスタックの複雑さ、ハードウェアの多様性、データ駆動技術への依存など、自律性のベンチマークには特別な課題があります。 本稿では,研究・開発プロセスの開始から再現性が「設計」されるように,開発とベンチマークを統合する再現性ロボット研究の新しい概念について述べる。 まず、この目標を達成するための全体的な概念目標と、構築した具体的なインスタンス、DUCKIENetを提供します。 このセットアップの中心的なコンポーネントの1つはDuckietown Autolabであり、これはリモートでアクセス可能な標準設定であり、それ自身は比較的低コストで再現可能である。 エージェントを評価する場合、インターフェイスの注意深い定義により、ユーザーはシミュレーション、ログ、またはリモート自動化されたハードウェア設定を使用して、ローカルかリモートかを選択できる。 本研究では,インフラを用いて実施した実験の再現性を解析し,ロボットのハードウェアや遠隔実験室間でのばらつきが低いことを示す。

As robotics matures and increases in complexity, it is more necessary than ever that robot autonomy research be reproducible. Compared to other sciences, there are specific challenges to benchmarking autonomy, such as the complexity of the software stacks, the variability of the hardware and the reliance on data-driven techniques, amongst others. In this paper, we describe a new concept for reproducible robotics research that integrates development and benchmarking, so that reproducibility is obtained "by design" from the beginning of the research/development processes. We first provide the overall conceptual objectives to achieve this goal and then a concrete instance that we have built: the DUCKIENet. One of the central components of this setup is the Duckietown Autolab, a remotely accessible standardized setup that is itself also relatively low-cost and reproducible. When evaluating agents, careful definition of interfaces allows users to choose among local versus remote evaluation using simulation, logs, or remote automated hardware setups. We validate the system by analyzing the repeatability of experiments conducted using the infrastructure and show that there is low variance across different robot hardware and across different remote labs.
翻訳日:2022-10-20 12:05:56 公開日:2020-09-09
# 信頼性のないクラウドにおけるプライバシ保護機械学習の簡易化

Privacy-Preserving Machine Learning in Untrusted Clouds Made Simple ( http://arxiv.org/abs/2009.04390v1 )

ライセンス: Link先を確認
Dayeol Lee, Dmitrii Kuvaiskii, Anjo Vahldiek-Oberwagner, Mona Vij(参考訳) 本稿では,信頼された実行環境(TEE)に基づいて,プライバシ保護機械学習(PPML)アプリケーションを信頼できないクラウドにデプロイする実践的フレームワークを提案する。 具体的には、暗号化されたモデルパラメータと暗号化された入力データでIntel SGXエンクレーブで実行することで、修正されていないPyTorch MLアプリケーションを保護する。 我々は、透過的なファイル暗号化とSGXベースのリモート認証を備えたオープンソースのGrapheneライブラリOSを使用して、ポーティングの労力を最小限に抑え、ファイル保護と認証をシームレスに提供する。 私たちのアプローチは、マシンラーニングアプリケーションに対して完全に透過的です。開発者とエンドユーザは、mlアプリケーションを変更する必要はありません。

We present a practical framework to deploy privacy-preserving machine learning (PPML) applications in untrusted clouds based on a trusted execution environment (TEE). Specifically, we shield unmodified PyTorch ML applications by running them in Intel SGX enclaves with encrypted model parameters and encrypted input data to protect the confidentiality and integrity of these secrets at rest and during runtime. We use the open-source Graphene library OS with transparent file encryption and SGX-based remote attestation to minimize porting effort and seamlessly provide file protection and attestation. Our approach is completely transparent to the machine learning application: the developer and the end-user do not need to modify the ML application in any way.
翻訳日:2022-10-20 12:05:37 公開日:2020-09-09
# 拡散mriを用いた解剖学領域の学習

Learning Anatomical Segmentations for Tractography from Diffusion MRI ( http://arxiv.org/abs/2009.04392v1 )

ライセンス: Link先を確認
Christian Ewert and David K\"ugler and Anastasia Yendiki and Martin Reuter(参考訳) 拡散MRIの深層学習アプローチは、主にボクセルによる病変や白色マター線維の分断に焦点を当てている。 トラクトを体積ラベルとして表現する欠点は、ストリームラインの集合ではなく、トラクトに沿ったミクロ構造的または幾何学的特徴のポイントワイズ解析を妨げることである。 このような分析を可能にする従来のトラクトグラフィーパイプラインは、トラクトリコンストラクションをガイドするための細部全体のセグメンテーションの恩恵を受けることができる。 本稿では,拡散強調mr画像に対して,170解剖領域の高速,深層学習に基づくセグメンテーションを導入し,t1強調画像への従来のセグメンテーション手法の依存性を除去し,処理パイプラインを遅くする。 拡散空間でネイティブに働くことは、非線型歪みやモダリティ間の登録エラーや補間アーティファクトを避ける。 組織型によっては, 0 .70 と 0 .87 のセグメンテーションが一貫した結果を示す。 拡散由来入力の様々な組合せについて検討し、勾配方向の異なる数にわたる一般化を示す。 最後に,TRACULAなどのトラクトグラフィーパイプラインの解剖学的先行情報の提供へのアプローチを統合することで,高速なT1強調スキャンがなくても,結果のトラクトグラフィー推定の品質を低下させることなく,前処理時間を短縮し,処理を可能にする。

Deep learning approaches for diffusion MRI have so far focused primarily on voxel-based segmentation of lesions or white-matter fiber tracts. A drawback of representing tracts as volumetric labels, rather than sets of streamlines, is that it precludes point-wise analyses of microstructural or geometric features along a tract. Traditional tractography pipelines, which do allow such analyses, can benefit from detailed whole-brain segmentations to guide tract reconstruction. Here, we introduce fast, deep learning-based segmentation of 170 anatomical regions directly on diffusion-weighted MR images, removing the dependency of conventional segmentation methods on T 1-weighted images and slow pre-processing pipelines. Working natively in diffusion space avoids non-linear distortions and registration errors across modalities, as well as interpolation artifacts. We demonstrate consistent segmentation results between 0 .70 and 0 .87 Dice depending on the tissue type. We investigate various combinations of diffusion-derived inputs and show generalization across different numbers of gradient directions. Finally, integrating our approach to provide anatomical priors for tractography pipelines, such as TRACULA, removes hours of pre-processing time and permits processing even in the absence of high-quality T 1-weighted scans, without degrading the quality of the resulting tract estimates.
翻訳日:2022-10-20 12:05:22 公開日:2020-09-09
# MU-GAN:マルチアテンション機構に基づく顔属性編集

MU-GAN: Facial Attribute Editing based on Multi-attention Mechanism ( http://arxiv.org/abs/2009.04177v1 )

ライセンス: Link先を確認
Ke Zhang, Yukun Su, Xiwang Guo, Liang Qi, and Zhenbing Zhao(参考訳) 顔属性編集は主に2つの目的がある。 1)ソースドメインからターゲットドメインへの画像変換、及び 2) 対象属性に関連する顔領域の変更と属性を除く詳細の保存のみ。 本研究では,マルチアテンション型U-Netベース生成適応ネットワーク(MU-GAN)を提案する。 まず,従来の畳み込みエンコーダ・デコーダを対称なU-Netライクな構造に置き換えた上で,アテンションベースのU-Net接続を構築して,エンコーダ表現を適応的に転送することで,デコーダを属性非依存で補完し,属性編集能力を向上させる。 第二に、画像領域にまたがる長距離および多レベル依存関係をモデリングするための畳み込み層に自己注意機構が組み込まれている。 実験の結果,属性編集能力と細部保存能力のバランスをとることができ,属性間の相関関係を分離できることがわかった。 属性操作精度と画質の点で最先端の手法より優れている。

Facial attribute editing has mainly two objectives: 1) translating image from a source domain to a target one, and 2) only changing the facial regions related to a target attribute and preserving the attribute-excluding details. In this work, we propose a Multi-attention U-Net-based Generative Adversarial Network (MU-GAN). First, we replace a classic convolutional encoder-decoder with a symmetric U-Net-like structure in a generator, and then apply an additive attention mechanism to build attention-based U-Net connections for adaptively transferring encoder representations to complement a decoder with attribute-excluding detail and enhance attribute editing ability. Second, a self-attention mechanism is incorporated into convolutional layers for modeling long-range and multi-level dependencies across image regions. experimental results indicate that our method is capable of balancing attribute editing ability and details preservation ability, and can decouple the correlation among attributes. It outperforms the state-of-the-art methods in terms of attribute manipulation accuracy and image quality.
翻訳日:2022-10-20 11:57:53 公開日:2020-09-09
# タイムドップラースペクトルの視覚特徴分類による海クラッタの小型浮揚目標検出

Small-floating Target Detection in Sea Clutter via Visual Feature Classifying in the Time-Doppler Spectra ( http://arxiv.org/abs/2009.04185v1 )

ライセンス: Link先を確認
Yi Zhou, Yin Cui, Xiaoke Xu, Jidong Suo, Xiaoming Liu(参考訳) 表面レーダーによる海溝内の微小な浮動物体の検出は困難である。 本稿では,TDS(Time-Doppler Spectra)画像において,ターゲットからの後方散乱が海面の基盤運動の連続性を損なうことを観察した。 この視覚的手がかりに従えば、TDS画像のテクスチャの変化を測定するためにローカルバイナリパターン(LBP)を利用する。 LBPの特徴空間において, レーダーはターゲットを含み, クラッタのみを有するレーダーは分離可能であることを示す。 次に、教師なし一級支持ベクトルマシン(SVM)を用いて、クラッタのLPPヒストグラムのずれを検出する。 検出器の出力器はターゲットとして分類される。 実生活のIPIXレーダデータセットでは、我々の視覚特徴に基づく検出器は、他の3つの既存手法と比較して良好な検出率を示している。

It is challenging to detect small-floating object in the sea clutter for a surface radar. In this paper, we have observed that the backscatters from the target brake the continuity of the underlying motion of the sea surface in the time-Doppler spectra (TDS) images. Following this visual clue, we exploit the local binary pattern (LBP) to measure the variations of texture in the TDS images. It is shown that the radar returns containing target and those only having clutter are separable in the feature space of LBP. An unsupervised one-class support vector machine (SVM) is then utilized to detect the deviation of the LBP histogram of the clutter. The outiler of the detector is classified as the target. In the real-life IPIX radar data sets, our visual feature based detector shows favorable detection rate compared to other three existing approaches.
翻訳日:2022-10-20 11:57:35 公開日:2020-09-09
# HSFM-$\Sigma$nn: フィードフォワード運動予測ネットワークと共分散予測を組み合わせる

HSFM-$\Sigma$nn: Combining a Feedforward Motion Prediction Network and Covariance Prediction ( http://arxiv.org/abs/2009.04299v1 )

ライセンス: Link先を確認
A. Postnikov, A. Gamayunov, G. Ferrer(参考訳) 本稿では,動き予測の新しい手法としてHSFM-$\Sigma$nnを提案する。 提案手法は,hsfmを用いたモデルベース遷移関数であるフィードフォワードネットワークと,これら各層上のニューラルネットワーク(nn)とを組み合わせた共分散予測を行う。 本手法を古典的手法と比較し,その限界を示す共分散推定を行う。 また,学習に基づくアプローチであるSocial-LSTMと比較し,本手法がより正確かつ効率的であることを示す。

In this paper, we propose a new method for motion prediction: HSFM-$\Sigma$nn. Our proposed method combines two different approaches: a feedforward network whose layers are model-based transition functions using the HSFM and a Neural Network (NN), on each of these layers, for covariance prediction. We will compare our method with classical methods for covariance estimation showing their limitations. We will also compare with a learning-based approach, social-LSTM, showing that our method is more precise and efficient.
翻訳日:2022-10-20 11:57:09 公開日:2020-09-09
# 深層学習を用いたMRIによる大動脈径の分別自由推定

Segmentation-free Estimation of Aortic Diameters from MRI Using Deep Learning ( http://arxiv.org/abs/2009.04507v1 )

ライセンス: Link先を確認
Axel Aguerreberry, Ezequiel de la Rosa, Alain Lalande and Elmer Fernandez(参考訳) 大動脈径の正確な再現性測定は、心血管疾患の診断および治療的意思決定に不可欠である。 現在、これらの測定は医療専門家によって手作業で行われ、時間がかかり、非常に可変であり、再現性の欠如に苦しんでいる。 本研究では,大動脈径の直接推定のための教師付きディープラーニング手法を提案する。 この手法は造影剤を使わずに100以上の磁気共鳴血管造影スキャンを考案・試験した。 データはすべて6箇所の大動脈に専門家による注釈が付され, 臨床応用が一般的であった。 提案手法では,3Dスキャンを入力とし,所定の位置で大動脈径を出力する3D+2D畳み込みニューラルネットワーク(CNN)を用いる。 完全3次元cnnと3次元マルチレゾリューションcnnとの5倍クロスバリデーション比較では, 大動脈径の予測に一貫して優れていた。 全体として、3D+2D CNNは大動脈の位置によって2.2-2.4mmの平均絶対誤差を達成した。 これらのエラーは、オブザーバ間の可変性よりも1mm未満である。 したがって,本手法は専門家の性能にほぼ届きそうな予測を行う。 本研究は, 分節化ステップを必要とせず, 解剖学的構造を直接推定する自動アルゴリズムのさらなる探索を可能にすると結論づける。 また、臨床における心血管計測の自動化の可能性も開けている。

Accurate and reproducible measurements of the aortic diameters are crucial for the diagnosis of cardiovascular diseases and for therapeutic decision making. Currently, these measurements are manually performed by healthcare professionals, being time consuming, highly variable, and suffering from lack of reproducibility. In this work we propose a supervised deep learning method for the direct estimation of aortic diameters. The approach is devised and tested over 100 magnetic resonance angiography scans without contrast agent. All data was expert-annotated at six aortic locations typically used in clinical practice. Our approach makes use of a 3D+2D convolutional neural network (CNN) that takes as input a 3D scan and outputs the aortic diameter at a given location. In a 5-fold cross-validation comparison against a fully 3D CNN and against a 3D multiresolution CNN, our approach was consistently superior in predicting the aortic diameters. Overall, the 3D+2D CNN achieved a mean absolute error between 2.2-2.4 mm depending on the considered aortic location. These errors are less than 1 mm higher than the inter-observer variability. Thus, suggesting that our method makes predictions almost reaching the expert's performance. We conclude that the work allows to further explore automatic algorithms for direct estimation of anatomical structures without the necessity of a segmentation step. It also opens possibilities for the automation of cardiovascular measurements in clinical settings.
翻訳日:2022-10-20 11:56:29 公開日:2020-09-09
# flow based priorsを用いたブラインド画像復元

Blind Image Restoration with Flow Based Priors ( http://arxiv.org/abs/2009.04583v1 )

ライセンス: Link先を確認
Leonhard Helminger, Michael Bernasconi, Abdelaziz Djelouah, Markus Gross, Christopher Schroers(参考訳) 深層ニューラルネットワークの進歩により、画像復元はここ数年で大きな進歩を遂げている。 これらの既存の技術のほとんどは、特定の劣化に対処するために適切な画像ペアによる完全な監視を使用して訓練されている。 しかし、未知の劣化のある盲目環境では、これは不可能であり、良い事前は重要なままである。 近年,ニューラルネットワーク構造自体が捉えた自己エンコーダや暗黙の正規化を活用することで,そのような先行をモデル化するためのニューラルネットワークベースのアプローチが提案されている。 これとは対照的に,正規化フローを用いて対象コンテンツの分布をモデル化し,これを最大後段(map)定式化の事前として用いることを提案する。 学習された単射写像を通して潜在空間におけるMAP最適化過程を表現することにより、勾配降下による解が得られる。 我々の知る限りでは、これは画像強調問題に先行する正規化フローを探求する最初の研究である。 さらに,複雑性の異なるデータセットのさまざまな劣化に関する実験結果を示すとともに,画像先行手法と比較した場合の競合性を示す。

Image restoration has seen great progress in the last years thanks to the advances in deep neural networks. Most of these existing techniques are trained using full supervision with suitable image pairs to tackle a specific degradation. However, in a blind setting with unknown degradations this is not possible and a good prior remains crucial. Recently, neural network based approaches have been proposed to model such priors by leveraging either denoising autoencoders or the implicit regularization captured by the neural network structure itself. In contrast to this, we propose using normalizing flows to model the distribution of the target content and to use this as a prior in a maximum a posteriori (MAP) formulation. By expressing the MAP optimization process in the latent space through the learned bijective mapping, we are able to obtain solutions through gradient descent. To the best of our knowledge, this is the first work that explores normalizing flows as prior in image enhancement problems. Furthermore, we present experimental results for a number of different degradations on data sets varying in complexity and show competitive results when comparing with the deep image prior approach.
翻訳日:2022-10-20 11:56:07 公開日:2020-09-09
# パラメトリック仮想トライオンのための完全畳み込みグラフニューラルネットワーク

Fully Convolutional Graph Neural Networks for Parametric Virtual Try-On ( http://arxiv.org/abs/2009.04592v1 )

ライセンス: Link先を確認
Raquel Vidaurre, Igor Santesteban, Elena Garces, Dan Casas(参考訳) 完全畳み込みグラフニューラルネットワークに基づく仮想試行アプリケーションのための学習に基づくアプローチを提案する。 特定の衣服やメッシュトポロジーのためにトレーニングされた既存のデータ駆動モデルとは対照的に、我々の完全な畳み込みモデルは、長いドレス、シャツ、タイトなトップを含む任意のメッシュトポロジーを持つパラメトリックな事前定義された2dパネルとして表現される、大きな種類の衣服に対応できる。 この新しい幾何学的深層学習手法は,衣服の種類,対象体型,素材の3種類の変形源を分離することで,3d衣料品のドレーピングを学習する。 具体的には,まず,入力パラメトリック衣服の3次元ドレープを平均体形状で予測する回帰器を学習する。 そして、入力された衣服タイプに対して十分な詳細レベルを生成するメッシュトポロジ最適化ステップの後、さらにメッシュを変形させて、対象の体形状による変形を再現する。 最後に,衣料素材に主に依存するしわなどの細部の詳細を予測する。 我々は、完全畳み込みアプローチが、一般化能力とメモリ要件の観点から既存の手法よりも優れていることを定性的かつ定量的に証明し、仮想トライオンアプリケーションのためのより一般的な学習ベースのモデルへの扉を開く。

We present a learning-based approach for virtual try-on applications based on a fully convolutional graph neural network. In contrast to existing data-driven models, which are trained for a specific garment or mesh topology, our fully convolutional model can cope with a large family of garments, represented as parametric predefined 2D panels with arbitrary mesh topology, including long dresses, shirts, and tight tops. Under the hood, our novel geometric deep learning approach learns to drape 3D garments by decoupling the three different sources of deformations that condition the fit of clothing: garment type, target body shape, and material. Specifically, we first learn a regressor that predicts the 3D drape of the input parametric garment when worn by a mean body shape. Then, after a mesh topology optimization step where we generate a sufficient level of detail for the input garment type, we further deform the mesh to reproduce deformations caused by the target body shape. Finally, we predict fine-scale details such as wrinkles that depend mostly on the garment material. We qualitatively and quantitatively demonstrate that our fully convolutional approach outperforms existing methods in terms of generalization capabilities and memory requirements, and therefore it opens the door to more general learning-based models for virtual try-on applications.
翻訳日:2022-10-20 11:55:51 公開日:2020-09-09
# 畳み込みニューラルネットワークを用いた画像上の植物病の認識:システムレビュー

Plant Diseases recognition on images using Convolutional Neural Networks: A Systematic Review ( http://arxiv.org/abs/2009.04365v1 )

ライセンス: Link先を確認
Andre S. Abade, Paulo Afonso Ferreira and Flavio de Barros Vidal(参考訳) 植物病は食品生産に影響を及ぼし、生産損失を最小化する要因の一つと考えられており、作物病の早期発見と認識が不可欠である。 近年の深層学習法の拡大は、植物病の検出に応用され、高い精度で堅牢なツールを提供する。 本稿では,植物疾患の同定と分類,傾向の特定,ギャップの顕在化の過程における畳み込みニューラルネットワーク(cnn)の利用の現状を明らかにすることを目的とした文献の体系的レビューを行う。 この意味では,過去10年間に選択された121の論文を,疾患の検出,データセットの特徴,作物および病原体に関する側面を扱った異なるアプローチで提示する。 系統的レビューの結果から,植物病の同定におけるcnnの利用に関する革新的傾向を理解し,研究コミュニティの注意を必要とするギャップを明らかにすることができる。

Plant diseases are considered one of the main factors influencing food production and minimize losses in production, and it is essential that crop diseases have fast detection and recognition. The recent expansion of deep learning methods has found its application in plant disease detection, offering a robust tool with highly accurate results. In this context, this work presents a systematic review of the literature that aims to identify the state of the art of the use of convolutional neural networks(CNN) in the process of identification and classification of plant diseases, delimiting trends, and indicating gaps. In this sense, we present 121 papers selected in the last ten years with different approaches to treat aspects related to disease detection, characteristics of the data set, the crops and pathogens investigated. From the results of the systematic review, it is possible to understand the innovative trends regarding the use of CNNs in the identification of plant diseases and to identify the gaps that need the attention of the research community.
翻訳日:2022-10-20 11:50:18 公開日:2020-09-09
# RoIFusion:LiDARによる3次元物体検出と視覚

RoIFusion: 3D Object Detection from LiDAR and Vision ( http://arxiv.org/abs/2009.04554v1 )

ライセンス: Link先を確認
Can Chen, Luca Zanotti Fragonara, and Antonios Tsourdos(参考訳) 自律走行シーンのための3Dオブジェクトのローカライズと検出を行う場合、複数のセンサー(例えばカメラ、LIDAR)から情報を取得することで、3D検出器の堅牢性が向上する。 しかし、LIDARとカメラから取得した様々な特徴の効率的かつ効果的な融合は、特に点雲分布の空間性と不規則性のため、依然として困難である。 にもかかわらず、ポイントクラウドは有用な補完情報を提供する。 本稿では,LIDARとカメラセンサの利点を融合のためのディープニューラルネットワークアーキテクチャと,それに対応する3次元境界ボックスの向きを識別して3Dオブジェクトの効率的な検出によって活用したい。 この課題を達成するために、点雲の点次特徴と関連する画素特徴を密結合する代わりに、点雲から対応する画像の2D RoIへの3D領域(RoIs)のセットを投影することにより、新しい融合アルゴリズムを提案する。 最後に,我々のdeep fusionアプローチがkitti 3d object detection challengeベンチマークで最先端のパフォーマンスを実現することを実証する。

When localizing and detecting 3D objects for autonomous driving scenes, obtaining information from multiple sensor (e.g. camera, LIDAR) typically increases the robustness of 3D detectors. However, the efficient and effective fusion of different features captured from LIDAR and camera is still challenging, especially due to the sparsity and irregularity of point cloud distributions. This notwithstanding, point clouds offer useful complementary information. In this paper, we would like to leverage the advantages of LIDAR and camera sensors by proposing a deep neural network architecture for the fusion and the efficient detection of 3D objects by identifying their corresponding 3D bounding boxes with orientation. In order to achieve this task, instead of densely combining the point-wise feature of the point cloud and the related pixel features, we propose a novel fusion algorithm by projecting a set of 3D Region of Interests (RoIs) from the point clouds to the 2D RoIs of the corresponding the images. Finally, we demonstrate that our deep fusion approach achieves state-of-the-art performance on the KITTI 3D object detection challenging benchmark.
翻訳日:2022-10-20 11:49:35 公開日:2020-09-09
# ドメインベース自動音声認識による無人航空機制御

Unmanned Aerial Vehicle Control Through Domain-based Automatic Speech Recognition ( http://arxiv.org/abs/2009.04215v1 )

ライセンス: Link先を確認
Ruben Contreras, Angel Ayala, Francisco Cruz(参考訳) 現在、ドローンのような無人航空機は私たちの生活の一部となり、工業化された世界を含む社会の多くの領域に手を差し伸べている。 ドローンの動きや動作を制御するための一般的な代替手段は、異なるリモコンデバイスを見つけることができる無配線の触覚インターフェースである。 しかし、このようなデバイスによる制御は人間のような自然なコミュニケーションインタフェースではないため、一部のユーザにとってはマスターが難しい場合もある。 本稿では,ドローンなどの無人航空機を効果的に制御するためのドメインベースの音声認識アーキテクチャを提案する。 ドローンのコントロールは、より自然で人間のような方法で指示を伝える。 さらに、スペイン語と英語の両方の言語を用いてコマンド解釈を行うアルゴリズムを実装し、シミュレートされた家庭環境下でのドローンの動きを制御する。 実験では、被験者の母国語を考慮し、各参加者の有効性を比較するために、両方の言語でドローンに音声コマンドを与える。 さらに,雑音の強い入力信号に直面するとき,提案手法をテストするために,音声コマンドに異なる歪みレベルを適用した。 その結果,この無人航空機は,ドメインベース命令を使わずにクラウドベースのアルゴリズムのみを使用する場合と比較して,音素マッチングを用いた場合,両方の言語での音声対話認識の改善を実現することができることがわかった。 生音声入力を用いて, 英語とスペイン語の指示に対して74.81%, 97.04%の精度が得られたが, 音声マッチングでは93.33%, スペイン語では100.00%の精度が向上した。

Currently, unmanned aerial vehicles, such as drones, are becoming a part of our lives and reaching out to many areas of society, including the industrialized world. A common alternative to control the movements and actions of the drone is through unwired tactile interfaces, for which different remote control devices can be found. However, control through such devices is not a natural, human-like communication interface, which sometimes is difficult to master for some users. In this work, we present a domain-based speech recognition architecture to effectively control an unmanned aerial vehicle such as a drone. The drone control is performed using a more natural, human-like way to communicate the instructions. Moreover, we implement an algorithm for command interpretation using both Spanish and English languages, as well as to control the movements of the drone in a simulated domestic environment. The conducted experiments involve participants giving voice commands to the drone in both languages in order to compare the effectiveness of each of them, considering the mother tongue of the participants in the experiment. Additionally, different levels of distortion have been applied to the voice commands in order to test the proposed approach when facing noisy input signals. The obtained results show that the unmanned aerial vehicle is capable of interpreting user voice instructions achieving an improvement in speech-to-action recognition for both languages when using phoneme matching in comparison to only using the cloud-based algorithm without domain-based instructions. Using raw audio inputs, the cloud-based approach achieves 74.81% and 97.04% accuracy for English and Spanish instructions respectively, whereas using our phoneme matching approach the results are improved achieving 93.33% and 100.00% accuracy for English and Spanish languages.
翻訳日:2022-10-20 11:49:07 公開日:2020-09-09
# 公的なチャンス移動を含む2人プレイ型ゲームにおける最適相関平衡の多項式時間計算

Polynomial-Time Computation of Optimal Correlated Equilibria in Two-Player Extensive-Form Games with Public Chance Moves and Beyond ( http://arxiv.org/abs/2009.04336v1 )

ライセンス: Link先を確認
Gabriele Farina and Tuomas Sandholm(参考訳) 相関平衡が45年以上研究されてきた通常のゲームとは異なり、広範囲な相関関係は一般にはよく分かっていない。 このギャップの理由の1つは、広範囲なフォームゲームのシーケンシャルな性質が、通常のフォーム設定では不可能である行動やインセンティブの豊かさを可能にするためである。 この豊かさは、広義の相関平衡を取り巻く非常に異なる複雑さの風景へと変換される。 現在では、2プレイヤーの広角ゲームにおいて、最適な広角相関平衡(EFCE)、広角相関平衡(EFCCE)、正規形式相関平衡(NFCCE)の発見は、ゲームがチャンス移動を含まない場合、計算可能であり、ゲームがチャンス移動を伴わない場合には、抽出可能であることが知られている。 本稿では,2人プレイゲームにおいて,ある条件を満たせば最適な相関平衡を多項式時間で計算できることを示すことにより,この複雑性閾値を大幅に改善する。 条件は、例えば、すべてのチャンスが公にされている場合、つまり、両方のプレイヤーがすべてのチャンスの動きを観察する。 これは、EFCE, EFCCE, NFCCEが公的なチャンス移動を持つ2人のプレイヤーゲームにおいて、ゲームサイズにおいて多項式時間で計算できることを示唆し、10年以上にわたって広範囲な形式相関を取り巻く最大の正の複雑性結果を与える。

Unlike normal-form games, where correlated equilibria have been studied for more than 45 years, extensive-form correlation is still generally not well understood. Part of the reason for this gap is that the sequential nature of extensive-form games allows for a richness of behaviors and incentives that are not possible in normal-form settings. This richness translates to a significantly different complexity landscape surrounding extensive-form correlated equilibria. As of today, it is known that finding an optimal extensive-form correlated equilibrium (EFCE), extensive-form coarse correlated equilibrium (EFCCE), or normal-form coarse correlated equilibrium (NFCCE) in a two-player extensive-form game is computationally tractable when the game does not include chance moves, and intractable when the game involves chance moves. In this paper we significantly refine this complexity threshold by showing that, in two-player games, an optimal correlated equilibrium can be computed in polynomial time, provided that a certain condition is satisfied. We show that the condition holds, for example, when all chance moves are public, that is, both players observe all chance moves. This implies that an optimal EFCE, EFCCE and NFCCE can be computed in polynomial time in the game size in two-player games with public chance moves, providing the biggest positive complexity result surrounding extensive-form correlation in more than a decade.
翻訳日:2022-10-20 11:48:38 公開日:2020-09-09
# 物理材料における人工生命と創発的計算について

On Artificial Life and Emergent Computation in Physical Substrates ( http://arxiv.org/abs/2009.04518v1 )

ライセンス: Link先を確認
Kristine Heiney, Gunnar Tufte, Stefano Nichele(参考訳) 生体システムでは、情報伝達、記憶、修正の能力である計算に必要な材料がしばしば出現し、このような生物学的システムを非慣習的なコンピューティングアプリケーションでどのように活用し、模倣するかという疑問を抱いている。 コンピューティング技術の進歩において人工生命から何が得られますか? 人工生命は、生体系の動的挙動を理解し、この挙動を人工基質で捉える強力なツールを提供する。 このアプローチにより、ムーアの法則の制約に従わない物理基板での創発的計算を活用し、最終的に超並列分散コンピューティング技術を実現する新しいコンピューティングパラダイムへと移行することができる。 本稿では,人工生命のレンズが高性能コンピューティング技術の進歩に価値ある視点をもたらすことを論じる。 まず, 人工生命に関する基礎的背景と, 従来型コンピューティングに適用可能な関連ツールについて述べる。 次に、生物ニューロンとナノマグネットのアンサンブルという2つの特定の基質について詳細に論じる。 これらの基質は、著者の現在進行中の作業の焦点であり、ここで概説したアプローチの2つの側面、すなわち生命系に関する綿密な研究と、生命に似た行動を生み出すための人工システムの構築を図示している。 我々は、人工生命の研究に固有の好奇心を持つ計算に近づくことで何が学べるかという哲学的な議論で結論付けた。 本研究の主な貢献は,非従来型高性能コンピューティングへの応用に向けた物理基板の計算能力を明らかにするために,人工生命法を用いる大きな可能性を示すことである。

In living systems, we often see the emergence of the ingredients necessary for computation -- the capacity for information transmission, storage, and modification -- begging the question of how we may exploit or imitate such biological systems in unconventional computing applications. What can we gain from artificial life in the advancement of computing technology? Artificial life provides us with powerful tools for understanding the dynamic behavior of biological systems and capturing this behavior in manmade substrates. With this approach, we can move towards a new computing paradigm concerned with harnessing emergent computation in physical substrates not governed by the constraints of Moore's law and ultimately realize massively parallel and distributed computing technology. In this paper, we argue that the lens of artificial life offers valuable perspectives for the advancement of high-performance computing technology. We first present a brief foundational background on artificial life and some relevant tools that may be applicable to unconventional computing. Two specific substrates are then discussed in detail: biological neurons and ensembles of nanomagnets. These substrates are the focus of the authors' ongoing work, and they are illustrative of the two sides of the approach outlined here -- the close study of living systems and the construction of artificial systems to produce life-like behaviors. We conclude with a philosophical discussion on what we can learn from approaching computation with the curiosity inherent to the study of artificial life. The main contribution of this paper is to present the great potential of using artificial life methodologies to uncover and harness the inherent computational power of physical substrates toward applications in unconventional high-performance computing.
翻訳日:2022-10-20 11:47:47 公開日:2020-09-09
# 複数のデジタルマーケティングキャンペーンの最適化による小売業者の収益拡大

Boosting Retailer Revenue by Generated Optimized Combined Multiple Digital Marketing Campaigns ( http://arxiv.org/abs/2009.08949v1 )

ライセンス: Link先を確認
Yafei Xu and Tian Xie and Yu Zhang(参考訳) キャンペーンは、伝統的なマーケティングにおいて小売店のGMV(Gross Merchandise Volume)を持ち上げる際に頻繁に使用される道具である。 オンラインの文脈では、デジタルマーケティングキャンプ(dmc)は近年、eコマースの急速な発展でトレンドになっている。 しかし、オンライン小売プラットフォームの大規模販売者に対して、店舗の収益を上げるために複数のデジタルマーケティングキャンペーンを組み合わせて適用する方法は、いまだに新しい話題である。 本研究では、最適化された複数のdmcを生成する包括的解法を提案する。 まず、新しく提案されたDMCNet(Digital-Marketing-Campaign Net)と呼ばれるニューラルネットワークモデルによって、小売店毎にパーソナライズされたDMCプールが生成される。 次に、MDCNetによるサブモジュール最適化理論とDMCプールに基づいて、生成した複数のMDCを収益発生力でランク付けし、上位3位のキャンペーンを売り手のバックエンド管理システムに戻すことにより、小売業者がオンラインショップに複数のDMCをワンショットで組み合わせることができる。 リアルオンラインA/Bテストは、統合されたソリューションにより、オンライン小売プラットフォームの売り手が店のGMVを約6$\%で増やすことを示している。

Campaign is a frequently employed instrument in lifting up the GMV (Gross Merchandise Volume) of retailer in traditional marketing. As its counterpart in online context, digital-marketing-campaign (DMC) has being trending in recent years with the rapid development of the e-commerce. However, how to empower massive sellers on the online retailing platform the capacity of applying combined multiple digital marketing campaigns to boost their shops' revenue, is still a novel topic. In this work, a comprehensive solution of generating optimized combined multiple DMCs is presented. Firstly, a potential personalized DMC pool is generated for every retailer by a newly proposed neural network model, i.e. the DMCNet (Digital-Marketing-Campaign Net). Secondly, based on the sub-modular optimization theory and the DMC pool by DMCNet, the generated combined multiple DMCs are ranked with respect to their revenue generation strength then the top three ranked campaigns are returned to the sellers' back-end management system, so that retailers can set combined multiple DMCs for their online shops just in one-shot. Real online A/B-test shows that with the integrated solution, sellers of the online retailing platform increase their shops' GMVs with approximately 6$\%$.
翻訳日:2022-10-20 11:47:05 公開日:2020-09-09
# 低リソース多合成言語の中央ユプイクと機械翻訳

Central Yup'ik and Machine Translation of Low-Resource Polysynthetic Languages ( http://arxiv.org/abs/2009.04087v1 )

ライセンス: Link先を確認
Christopher Liu, Laura Domin\'e, Kevin Chavez, Richard Socher(参考訳) ユプシク語(Yup'ik language)は、主にアラスカ南西部に住む約8,000人の人々によって話される合成言語である。 yup'ikと英語の並列テキストコーパスをコンパイルし,文法規則に基づいた形式的パーサを開発した。 我々は、yup'ik入力を英語に翻訳するために、seq2seqニューラルネットワーク翻訳モデルを訓練した。 次に,ルールベース,教師なし(バイトペアエンコーディング),教師なし形態素解析(モーフェソル)の異なるトークン化手法が,ユプイク語から英語への翻訳におけるbleuスコア精度に与える影響を比較した。 トークン化入力を用いることで,未解析入力と比較して翻訳精度が向上することがわかった。 全体的なMorfessorの語彙サイズは30kであったが,最初の実験ではBPEの語彙サイズが小さくなった。

Machine translation tools do not yet exist for the Yup'ik language, a polysynthetic language spoken by around 8,000 people who live primarily in Southwest Alaska. We compiled a parallel text corpus for Yup'ik and English and developed a morphological parser for Yup'ik based on grammar rules. We trained a seq2seq neural machine translation model with attention to translate Yup'ik input into English. We then compared the influence of different tokenization methods, namely rule-based, unsupervised (byte pair encoding), and unsupervised morphological (Morfessor) parsing, on BLEU score accuracy for Yup'ik to English translation. We find that using tokenized input increases the translation accuracy compared to that of unparsed input. Although overall Morfessor did best with a vocabulary size of 30k, our first experiments show that BPE performed best with a reduced vocabulary size.
翻訳日:2022-10-20 11:40:27 公開日:2020-09-09
# モデル非依存性を考慮したクロスドメインデータの言語モデルの比較研究

Comparative Study of Language Models on Cross-Domain Data with Model Agnostic Explainability ( http://arxiv.org/abs/2009.04095v1 )

ライセンス: Link先を確認
Mayank Chhipa, Hrushikesh Mahesh Vazurkar, Abhijeet Kumar, Mridul Mishra(参考訳) 最近のNLPにおける双方向文脈変換言語モデルの流入により、これらのモデルを様々なデータセット上で体系的な比較研究を行う必要がある。 また、これらの言語モデルの性能は、GLUE以外のデータセットでは調査されていない。 本稿では,RoBERTa, ALBERT, DistilBERTなど,最先端の言語モデルであるBERT, ELECTRAとその派生品を比較した。 クロスドメインと異種データに対してこれらのモデルを微調整して実験を行い,モデルの性能を詳細に分析した。 さらに、モデル非依存アプローチを通じてこれらのモデルのコンテキストキャプチャ能力を検証するために、事前学習と一貫性のある言語モデルの説明可能性を示す。 実験結果は、Yelp 2013格付けタスクとFinancial Phrasebank格付けタスクの69%の精度と88.2%の精度で、新たな最先端技術を確立した。 最後に、この研究は、パフォーマンスや計算効率の観点から、業界研究者が言語モデルを効果的に選択するのを大いに助けることができる。

With the recent influx of bidirectional contextualized transformer language models in the NLP, it becomes a necessity to have a systematic comparative study of these models on variety of datasets. Also, the performance of these language models has not been explored on non-GLUE datasets. The study presented in paper compares the state-of-the-art language models - BERT, ELECTRA and its derivatives which include RoBERTa, ALBERT and DistilBERT. We conducted experiments by finetuning these models for cross domain and disparate data and penned an in-depth analysis of model's performances. Moreover, an explainability of language models coherent with pretraining is presented which verifies the context capturing capabilities of these models through a model agnostic approach. The experimental results establish new state-of-the-art for Yelp 2013 rating classification task and Financial Phrasebank sentiment detection task with 69% accuracy and 88.2% accuracy respectively. Finally, the study conferred here can greatly assist industry researchers in choosing the language model effectively in terms of performance or compute efficiency.
翻訳日:2022-10-20 11:40:12 公開日:2020-09-09
# 商品市場におけるニュースの影響:データセットと結果

Impact of News on the Commodity Market: Dataset and Results ( http://arxiv.org/abs/2009.04202v1 )

ライセンス: Link先を確認
Ankur Sinha and Tanmay Khandait(参考訳) 近年,金融分野のニュースフローから情報を抽出するために,機械学習に基づく手法が適用されている。 しかし、この情報は主として、主に株価に関するニュース見出しに含まれている金融感情の形式である。 現在の研究では、投資家や政策立案者、その他の実践者にとって関心のあるニュース見出しから、さまざまな情報を取り出すことができると提案している。 そこで本稿では,過去の動きや期待方向など,物価,資産比較,その他ニュースが参照する一般情報から情報を抽出する枠組みを提案する。 このフレームワークをコモディティ"ゴールド"に適用し,2000~2019年に収集した11,412人の注釈付きニュースニュースのデータセットを用いて,機械学習モデルをトレーニングする。 我々は,ニュースフローが金価格に与える影響を検証し,我々の枠組みから得られた情報が将来の金価格に大きく影響することを確認する。

Over the last few years, machine learning based methods have been applied to extract information from news flow in the financial domain. However, this information has mostly been in the form of the financial sentiments contained in the news headlines, primarily for the stock prices. In our current work, we propose that various other dimensions of information can be extracted from news headlines, which will be of interest to investors, policy-makers and other practitioners. We propose a framework that extracts information such as past movements and expected directionality in prices, asset comparison and other general information that the news is referring to. We apply this framework to the commodity "Gold" and train the machine learning models using a dataset of 11,412 human-annotated news headlines (released with this study), collected from the period 2000-2019. We experiment to validate the causal effect of news flow on gold prices and observe that the information produced from our framework significantly impacts the future gold price.
翻訳日:2022-10-20 11:39:54 公開日:2020-09-09
# mangaにおけるunconstrained text detection - 新しいデータセットとベースライン

Unconstrained Text Detection in Manga: a New Dataset and Baseline ( http://arxiv.org/abs/2009.04042v1 )

ライセンス: Link先を確認
Juli\'an Del Gobbo, Rosana Matuk Herrera(参考訳) 制約のないテキストの検出と認識は、研究のオープンな問題である。 コミックブックのテキストには、テキスト検出の多くの課題を提起する珍しいスタイルがある。 本書は、高度に洗練された文体を持つ漫画ジャンルのテキストを二元化することを目的としている:日本漫画。 ピクセルレベルでのテキストアノテーションによるマンガデータセットの欠如を克服するために、私たちは独自のものを作成します。 最適なモデルの評価と探索を改善するため,バイナライゼーションにおける標準指標に加えて,他の特別な指標を実装した。 これらのリソースを用いて, ディープネットワークモデルの設計と評価を行い, マンガにおけるテキストバイナリ化の現在の手法をほとんどの指標で上回った。

The detection and recognition of unconstrained text is an open problem in research. Text in comic books has unusual styles that raise many challenges for text detection. This work aims to binarize text in a comic genre with highly sophisticated text styles: Japanese manga. To overcome the lack of a manga dataset with text annotations at a pixel level, we create our own. To improve the evaluation and search of an optimal model, in addition to standard metrics in binarization, we implement other special metrics. Using these resources, we designed and evaluated a deep network model, outperforming current methods for text binarization in manga in most metrics.
翻訳日:2022-10-20 11:39:25 公開日:2020-09-09
# ビュー一貫性4次元光深度推定

View-consistent 4D Light Field Depth Estimation ( http://arxiv.org/abs/2009.04065v1 )

ライセンス: Link先を確認
Numair Khan, Min H. Kim, James Tompkin(参考訳) 本研究では,光場内の各サブアパーチャ画像の深度マップを一貫したビューで計算する方法を提案する。 従来の光深度推定法では、中央のサブアパーチャビューのみの深度マップを推定し、一貫したビュー推定に苦慮する。 提案手法は, 深度エッジをEPIで正確に定義し, 中央視野内で空間的に拡散する。 これらの深さ推定は、オクルージョン対応の方法で他のすべてのビューに伝達される。 最後に、非閉塞領域は EPI 空間の拡散によって完結する。 提案手法は,他の古典的および深層学習に基づくアプローチに対して効率的に動作し,合成および実世界の光場における競合的定量化および定性的性能を達成する。

We propose a method to compute depth maps for every sub-aperture image in a light field in a view consistent way. Previous light field depth estimation methods typically estimate a depth map only for the central sub-aperture view, and struggle with view consistent estimation. Our method precisely defines depth edges via EPIs, then we diffuse these edges spatially within the central view. These depth estimates are then propagated to all other views in an occlusion-aware way. Finally, disoccluded regions are completed by diffusion in EPI space. Our method runs efficiently with respect to both other classical and deep learning-based approaches, and achieves competitive quantitative metrics and qualitative performance on both synthetic and real-world light fields
翻訳日:2022-10-20 11:39:15 公開日:2020-09-09
# Deep Metric LearningがDeep Clusteringを発表 - 機能埋め込みの新しい教師なしアプローチ

Deep Metric Learning Meets Deep Clustering: An Novel Unsupervised Approach for Feature Embedding ( http://arxiv.org/abs/2009.04091v1 )

ライセンス: Link先を確認
Binh X. Nguyen, Binh D. Nguyen, Gustavo Carneiro, Erman Tjiputra, Quang D. Tran, Thanh-Toan Do(参考訳) unsupervised deep distance metric learning (udml) はラベルなしデータセットから埋め込み空間のサンプル類似性を学ぶことを目的としている。 伝統的なudml法は、通常、正および負のサンプルw.r.t.アンカーデータポイントのマイニングを必要とする三重項損失または対方向損失を使用する。 しかし、ラベル情報が入手できないため、教師なしの設定ではこれは難しい。 本稿では,その課題を克服する新しいUDML手法を提案する。 特に,セマンティッククラスを表すセンタロイド(擬似ラベル)を学習するために,深いクラスタリング損失を用いることを提案する。 学習中、これらのセントロイドは入力サンプルの再構築にも用いられる。 したがって、セントロイドの代表性を保証する - 各セントロイドは視覚的に類似したサンプルを表す。 したがって、セントロイドは正(視覚的に類似)と負(視覚的に異な)サンプルに関する情報を与える。 擬似ラベルに基づいて, 埋込空間における試料の正の濃度と負の分離を強制する非教師付き計量損失を提案する。 ベンチマークデータセットの実験結果は、提案手法が他のUDML手法よりも優れていることを示している。

Unsupervised Deep Distance Metric Learning (UDML) aims to learn sample similarities in the embedding space from an unlabeled dataset. Traditional UDML methods usually use the triplet loss or pairwise loss which requires the mining of positive and negative samples w.r.t. anchor data points. This is, however, challenging in an unsupervised setting as the label information is not available. In this paper, we propose a new UDML method that overcomes that challenge. In particular, we propose to use a deep clustering loss to learn centroids, i.e., pseudo labels, that represent semantic classes. During learning, these centroids are also used to reconstruct the input samples. It hence ensures the representativeness of centroids - each centroid represents visually similar samples. Therefore, the centroids give information about positive (visually similar) and negative (visually dissimilar) samples. Based on pseudo labels, we propose a novel unsupervised metric loss which enforces the positive concentration and negative separation of samples in the embedding space. Experimental results on benchmarking datasets show that the proposed approach outperforms other UDML methods.
翻訳日:2022-10-20 11:39:00 公開日:2020-09-09
# 深層学習のための多様な相互学習

Diversified Mutual Learning for Deep Metric Learning ( http://arxiv.org/abs/2009.04170v1 )

ライセンス: Link先を確認
Wonpyo Park, Wonjae Kim, Kihyun You, Minsu Cho(参考訳) 相互学習は、複数のモデルを同時に訓練しながら、個々の知識を相互に伝達することで一般化を改善するためのアンサンブルトレーニング戦略である。 本研究では,多角的相互学習による組込みモデルを強化した,多角的相互メトリック学習と呼ばれる,深層メトリック学習のための効果的な相互学習手法を提案する。 本研究では, 相互学習における3種類の多様性を活用して, 深層学習のための関係知識を伝達する: 1) モデルの初期化からモデルの多様性, (2) パラメータ更新の周波数からの時間的多様性, (3) 入力の増大からのビュー多様性。 本手法は大規模データがない場合の帰納的伝達学習に特に適しており, 埋め込みモデルを事前学習モデルで初期化し, ターゲットデータセットに微調整する。 広範な実験により,本手法は個々のモデルとアンサンブルを著しく改善することを示した。 最後に,従来の三重項損失を用いた提案手法は,標準データセット上でのRecall@1の最先端性能を実現している。

Mutual learning is an ensemble training strategy to improve generalization by transferring individual knowledge to each other while simultaneously training multiple models. In this work, we propose an effective mutual learning method for deep metric learning, called Diversified Mutual Metric Learning, which enhances embedding models with diversified mutual learning. We transfer relational knowledge for deep metric learning by leveraging three kinds of diversities in mutual learning: (1) model diversity from different initializations of models, (2) temporal diversity from different frequencies of parameter update, and (3) view diversity from different augmentations of inputs. Our method is particularly adequate for inductive transfer learning at the lack of large-scale data, where the embedding model is initialized with a pretrained model and then fine-tuned on a target dataset. Extensive experiments show that our method significantly improves individual models as well as their ensemble. Finally, the proposed method with a conventional triplet loss achieves the state-of-the-art performance of Recall@1 on standard datasets: 69.9 on CUB-200-2011 and 89.1 on CARS-196.
翻訳日:2022-10-20 11:38:45 公開日:2020-09-09
# 映像ベース人物再同定のための時間属性出現学習ネットワーク

Temporal Attribute-Appearance Learning Network for Video-based Person Re-Identification ( http://arxiv.org/abs/2009.04181v1 )

ライセンス: Link先を確認
Jiawei Liu, Xierong Zhu, Zheng-Jun Zha(参考訳) ビデオに基づく人物の身元確認は、特定の歩行者と異なる時間と場所の監視ビデオとを一致させることを目的としている。 人間の属性と外見は互いに相補的であり、どちらも歩行者のマッチングに寄与する。 本研究では,ビデオベース人物再同定のための時間属性出現学習ネットワーク(talnet)を提案する。 TALNetは人間の属性と外観を利用して、ビデオから包括的で効果的な歩行者表現を学習する。 属性に対する難解な視覚的注意と時間的意味的コンテキスト、外見のための身体部分間の空間的時間的依存を探求し、それらを学ぶことを促進する。 具体的には、強固な属性表現を学習するための空間的注意ブロックと時間的意味的文脈ブロックとを備えた属性分岐ネットワークを提案する。 空間的注意ブロックは、各属性に関連するビデオフレーム内の対応する領域にネットワークを集中させ、時間的意味コンテキストブロックは、ビデオフレーム間の各属性の時間的コンテキストと、各ビデオフレーム内の属性間の意味的コンテキストの両方を学習する。 外観分岐ネットワークは、空間的-時間的依存関係を持つ全身および身体部分の両方から効果的な外観表現を学習するように設計されている。 TALNetは属性と外観表現の相補性を活用し、マルチタスク学習方式でそれらを共同で最適化する。 さらに,2つの一般的なビデオデータセットにおいて,歩行者毎にidレベルの属性をアノテートする。 これらのデータセットに関する広範な実験により、talnetが最先端の方法よりも優れていることが確認された。

Video-based person re-identification aims to match a specific pedestrian in surveillance videos across different time and locations. Human attributes and appearance are complementary to each other, both of them contribute to pedestrian matching. In this work, we propose a novel Temporal Attribute-Appearance Learning Network (TALNet) for video-based person re-identification. TALNet simultaneously exploits human attributes and appearance to learn comprehensive and effective pedestrian representations from videos. It explores hard visual attention and temporal-semantic context for attributes, and spatial-temporal dependencies among body parts for appearance, to boost the learning of them. Specifically, an attribute branch network is proposed with a spatial attention block and a temporal-semantic context block for learning robust attribute representation. The spatial attention block focuses the network on corresponding regions within video frames related to each attribute, the temporal-semantic context block learns both the temporal context for each attribute across video frames and the semantic context among attributes in each video frame. The appearance branch network is designed to learn effective appearance representation from both whole body and body parts with spatial-temporal dependencies among them. TALNet leverages the complementation between attribute and appearance representations, and jointly optimizes them by multi-task learning fashion. Moreover, we annotate ID-level attributes for each pedestrian in the two commonly used video datasets. Extensive experiments on these datasets, have verified the superiority of TALNet over state-of-the-art methods.
翻訳日:2022-10-20 11:38:23 公開日:2020-09-09
# DyNODE:連続制御におけるダイナミクスモデリングのためのニューラル正規微分方程式

DyNODE: Neural Ordinary Differential Equations for Dynamics Modeling in Continuous Control ( http://arxiv.org/abs/2009.04278v1 )

ライセンス: Link先を確認
Victor M. Martinez Alvarez and Rare\c{s} Ro\c{s}ca and Cristian G. F\u{a}lcu\c{t}escu(参考訳) 本稿では,ニューラル常微分方程式の枠組みに制御を組み込むことにより,システムの基盤となるダイナミクスを捉える新しいアプローチ(dynode)を提案する。 我々は動的モデリングのための手法と標準ニューラルネットワークアーキテクチャの体系的評価と比較を行う。 結果は,モデル予測を用いて批判者の目標値を改善する,アクター-批判的強化学習(rl)アルゴリズムと組み合わせた単純なdynodeアーキテクチャが,rlアルゴリズムのベンチマークに頻繁に使用されるさまざまな連続タスクにおいて,サンプル効率と予測性能の両方において,正準ニューラルネットワークよりも優れていることを示している。 このアプローチは、特にモデルに基づく強化学習の文脈で有用である、動的システムの進化を学ぶのにより適したモデルの開発のための新しい道を提供する。 関連作業を支援するため、https://github.com/vmartinezalvarez/DyNODE でコードを公開しました。

We present a novel approach (DyNODE) that captures the underlying dynamics of a system by incorporating control in a neural ordinary differential equation framework. We conduct a systematic evaluation and comparison of our method and standard neural network architectures for dynamics modeling. Our results indicate that a simple DyNODE architecture when combined with an actor-critic reinforcement learning (RL) algorithm that uses model predictions to improve the critic's target values, outperforms canonical neural networks, both in sample efficiency and predictive performance across a diverse range of continuous tasks that are frequently used to benchmark RL algorithms. This approach provides a new avenue for the development of models that are more suited to learn the evolution of dynamical systems, particularly useful in the context of model-based reinforcement learning. To assist related work, we have made code available at https://github.com/vmartinezalvarez/DyNODE .
翻訳日:2022-10-20 09:15:16 公開日:2020-09-09
# 医用画像分類におけるニューラルネットワークの訓練可能な校正法の改良

Improved Trainable Calibration Method for Neural Networks on Medical Imaging Classification ( http://arxiv.org/abs/2009.04057v1 )

ライセンス: Link先を確認
Gongbo Liang, Yu Zhang, Xiaoqin Wang, Nathan Jacobs(参考訳) 近年の研究では、深層ニューラルネットワークが医療画像領域の幅広い画像分類タスクにおいて超人的性能を達成できることが示されている。 しかし、これらの研究は主に分類精度に重点を置いており、不確実性定量化の重要な役割を無視している。 経験的に、ニューラルネットワークは、しばしば彼らの予測を誤解し過信される。 この誤校正は自動意思決定システムでは問題となるかも知れないが、ニューラルネットワークの誤校正が重大な治療ミスにつながる可能性がある医療分野に焦点を当てる。 モデルキャリブレーションを大幅に改善しつつ,全体の分類精度を維持する新しいキャリブレーション手法を提案する。 提案手法は,誤校正を定量化するための一般的な指標であるキャリブレーション誤差に基づく。 本手法は,任意の分類タスクに補助損失項として容易に統合できるため,校正のための明示的な訓練ラウンドを必要としない。 提案手法は,様々なアーキテクチャやデータセットのキャリブレーション誤差を大幅に低減することを示す。

Recent works have shown that deep neural networks can achieve super-human performance in a wide range of image classification tasks in the medical imaging domain. However, these works have primarily focused on classification accuracy, ignoring the important role of uncertainty quantification. Empirically, neural networks are often miscalibrated and overconfident in their predictions. This miscalibration could be problematic in any automatic decision-making system, but we focus on the medical field in which neural network miscalibration has the potential to lead to significant treatment errors. We propose a novel calibration approach that maintains the overall classification accuracy while significantly improving model calibration. The proposed approach is based on expected calibration error, which is a common metric for quantifying miscalibration. Our approach can be easily integrated into any classification task as an auxiliary loss term, thus not requiring an explicit training round for calibration. We show that our approach reduces calibration error significantly across various architectures and datasets.
翻訳日:2022-10-20 09:14:12 公開日:2020-09-09
# CTによる肺病変の検索 ボリュームデータを用いたディーリングにおける各種深層学習手法の比較分析

Revealing Lung Affections from CTs. A Comparative Analysis of Various Deep Learning Approaches for Dealing with Volumetric Data ( http://arxiv.org/abs/2009.04160v1 )

ライセンス: Link先を確認
Radu Miron, Cosmin Moisii, Mihaela Breaban(参考訳) 肺CTにおける結核関連病変を自動的に検出するための深層学習手法を,ImageClef 2020 結核タスクの文脈で提示し,比較検討した。 ニューラルネットワークに基づく分類器への入力としてボリュームデータが与えられる方法が異なる3つの手法のクラスを議論し、評価した。 これらすべてには、さまざまなニューラルネットワークアーキテクチャ、さまざまなセグメンテーションアルゴリズム、データ拡張スキームを含む、豊富な実験的分析が含まれている。 報告された研究は、競争で最高の結果を得たSenticLab.UAICチームに属する。

The paper presents and comparatively analyses several deep learning approaches to automatically detect tuberculosis related lesions in lung CTs, in the context of the ImageClef 2020 Tuberculosis task. Three classes of methods, different with respect to the way the volumetric data is given as input to neural network-based classifiers are discussed and evaluated. All these come with a rich experimental analysis comprising a variety of neural network architectures, various segmentation algorithms and data augmentation schemes. The reported work belongs to the SenticLab.UAIC team, which obtained the best results in the competition.
翻訳日:2022-10-20 09:13:30 公開日:2020-09-09
# ODIN:ビデオ分析におけるドリフトの自動検出とリカバリ

ODIN: Automated Drift Detection and Recovery in Video Analytics ( http://arxiv.org/abs/2009.05440v1 )

ライセンス: Link先を確認
Abhijit Suprem, Joy Arulraj, Calton Pu, Joao Ferreira(参考訳) コンピュータビジョンの最近の進歩は、視覚データ分析への関心の復活につながっている。 研究者は、大規模に視覚データを効果的かつ効率的に分析するシステムを開発している。 これらのシステムが直面する大きな課題は、現実世界のビジュアルデータのドリフトにある。 例えば、雪を含む画像で訓練されていない自動運転車のモデルは、実際にそれらに遭遇してもうまく機能しない。 このドリフト現象は、視覚データ分析に使用されるモデルの精度を制限する。 本稿では,ドリフトから自動的に検出・回復するODINと呼ばれる視覚データ分析システムを提案する。 odinはadversarial autoencoderを使って高次元画像の分布を学習する。 本稿では,与えられたデータの分布と既見のデータ分布を比較し,ドリフト検出のための教師なしアルゴリズムを提案する。 ODINがドリフトを検出すると、ドリフトリカバリアルゴリズムを起動し、新しいデータポイントに適した特別なモデルをデプロイする。 これらの特殊なモデルは、精度、性能、メモリフットプリントにおいて、非専門的なモデルよりも優れている。 最後に,入力処理に最適な特殊モデルのアンサンブルを選択するためのモデル選択アルゴリズムを提案する。 我々は,バークレーのdeepdriveデータセットの多様な環境下で撮影された高解像度ダッシュボードカメラビデオにおけるodinの有効性と効率を評価する。 ODINのモデルでは,自動ドリフト検出とリカバリを行わないベースラインシステムに比べて,スループットが6倍,精度が2倍,メモリフットプリントが6倍小さいことが実証された。

Recent advances in computer vision have led to a resurgence of interest in visual data analytics. Researchers are developing systems for effectively and efficiently analyzing visual data at scale. A significant challenge that these systems encounter lies in the drift in real-world visual data. For instance, a model for self-driving vehicles that is not trained on images containing snow does not work well when it encounters them in practice. This drift phenomenon limits the accuracy of models employed for visual data analytics. In this paper, we present a visual data analytics system, called ODIN, that automatically detects and recovers from drift. ODIN uses adversarial autoencoders to learn the distribution of high-dimensional images. We present an unsupervised algorithm for detecting drift by comparing the distributions of the given data against that of previously seen data. When ODIN detects drift, it invokes a drift recovery algorithm to deploy specialized models tailored towards the novel data points. These specialized models outperform their non-specialized counterpart on accuracy, performance, and memory footprint. Lastly, we present a model selection algorithm for picking an ensemble of best-fit specialized models to process a given input. We evaluate the efficacy and efficiency of ODIN on high-resolution dashboard camera videos captured under diverse environments from the Berkeley DeepDrive dataset. We demonstrate that ODIN's models deliver 6x higher throughput, 2x higher accuracy, and 6x smaller memory footprint compared to a baseline system without automated drift detection and recovery.
翻訳日:2022-10-20 09:12:56 公開日:2020-09-09
# ランダムプロジェクションアルゴリズムによる乳房病変分類のための機械学習モデルの最適化

Applying a random projection algorithm to optimize machine learning model for breast lesion classification ( http://arxiv.org/abs/2009.09937v1 )

ライセンス: Link先を確認
Morteza Heidari (1), Sivaramakrishnan Lakshmivarahan (2), Seyedehnafiseh Mirniaharikandehei (1), Gopichandh Danala (1), Sai Kiran R. Maryada (2), Hong Liu (1), Bin Zheng (1), ((1) School of Electrical and Computer Engineering, University of Oklahoma, Norman, OK, USA, (2) School of Computer Sciences, University of Oklahoma, Norman, OK, USA)(参考訳) 機械学習は医療画像のコンピュータ支援診断(CAD)手法の開発に広く用いられている。 しかし、cadは通常、ターゲット領域から多数の画像特徴を計算し、ロバストな機械学習モデルを構築するために、小さく最適な特徴ベクトルをどのように特定するかという課題を引き起こす。 本研究では,まずCAD生成した大規模特徴プールから最適特徴ベクトルを構築するためにランダムなプロジェクションアルゴリズムを適用し,機械学習モデルの性能向上を図る。 悪性腫瘤を644例,良性病変を833例と確認した1,487例のマンモグラフィーを主訴とした振り返りデータセットを作成した。 CADスキームはまずセグメントマス領域に適用され、最初に181の特徴を計算する。 次に,いくつかの特徴次元削減手法を組み込んだ支持ベクトルマシン(SVM)モデルを構築し,病変の悪性度を予測する。 すべてのSVMモデルは、ケースアウトのクロスバリデーションメソッドを使用してトレーニングされ、テストされます。 SVMは、一視点マンモグラフィーに表される各セグメント化された質量領域の確率スコアを生成する。 2次元マンモグラムに表される同じ質量の2つのスコアを融合することにより、ケースベース確率スコアも評価される。 主成分分析,非負行列因子分解,chi-squared法と比較して,ランダム投影アルゴリズムを組み込んだsvmは,0.84+0.01 (p<0.02) のroc曲線下において有意に高いケースベース病変分類性能を示した。 この研究は、ランダムプロジェクトアルゴリズムが最適な特徴ベクトルを生成するための有望な方法であり、医療画像の機械学習モデルの性能向上に役立つことを示した。

Machine learning is widely used in developing computer-aided diagnosis (CAD) schemes of medical images. However, CAD usually computes large number of image features from the targeted regions, which creates a challenge of how to identify a small and optimal feature vector to build robust machine learning models. In this study, we investigate feasibility of applying a random projection algorithm to build an optimal feature vector from the initially CAD-generated large feature pool and improve performance of machine learning model. We assemble a retrospective dataset involving 1,487 cases of mammograms in which 644 cases have confirmed malignant mass lesions and 843 have benign lesions. A CAD scheme is first applied to segment mass regions and initially compute 181 features. Then, support vector machine (SVM) models embedded with several feature dimensionality reduction methods are built to predict likelihood of lesions being malignant. All SVM models are trained and tested using a leave-one-case-out cross-validation method. SVM generates a likelihood score of each segmented mass region depicting on one-view mammogram. By fusion of two scores of the same mass depicting on two-view mammograms, a case-based likelihood score is also evaluated. Comparing with the principle component analyses, nonnegative matrix factorization, and Chi-squared methods, SVM embedded with the random projection algorithm yielded a significantly higher case-based lesion classification performance with the area under ROC curve of 0.84+0.01 (p<0.02). The study demonstrates that the random project algorithm is a promising method to generate optimal feature vectors to help improve performance of machine learning models of medical images.
翻訳日:2022-10-20 09:12:35 公開日:2020-09-09
# VoiceFilter-Lite:オンデバイス音声認識のためのストリーミングターゲット音声分離

VoiceFilter-Lite: Streaming Targeted Voice Separation for On-Device Speech Recognition ( http://arxiv.org/abs/2009.04323v1 )

ライセンス: Link先を確認
Quan Wang, Ignacio Lopez Moreno, Mert Saglam, Kevin Wilson, Alan Chiao, Renjie Liu, Yanzhang He, Wei Li, Jason Pelecanos, Marily Nika, Alexander Gruenstein(参考訳) 本稿では,対象ユーザからの音声信号のみをストリーミング音声認識システムの一部として保存する単一チャネルソース分離モデルであるVoiceFilter-Liteを紹介する。 このようなモデルを提供することは、入力信号が重複した音声からなる場合の性能を向上させること、他の全ての音響条件下で音声認識性能を損なうべきではないこと、多くの課題を呈する。 さらに、このモデルは、CPU、メモリ、バッテリ、レイテンシに最小限の影響を与えるために、小さな、高速で、ストリーミング形式で推論を実行する必要がある。 本稿では,新しい非対称損失の利用,適応型ランタイム抑制強度の導入など,多面的要求を満たす新しい手法を提案する。 また,そのようなモデルが8ビット整数モデルとして量子化され,リアルタイムに動作することを示す。

We introduce VoiceFilter-Lite, a single-channel source separation model that runs on the device to preserve only the speech signals from a target user, as part of a streaming speech recognition system. Delivering such a model presents numerous challenges: It should improve the performance when the input signal consists of overlapped speech, and must not hurt the speech recognition performance under all other acoustic conditions. Besides, this model must be tiny, fast, and perform inference in a streaming fashion, in order to have minimal impact on CPU, memory, battery and latency. We propose novel techniques to meet these multi-faceted requirements, including using a new asymmetric loss, and adopting adaptive runtime suppression strength. We also show that such a model can be quantized as a 8-bit integer model and run in realtime.
翻訳日:2022-10-20 09:12:08 公開日:2020-09-09
# 判例のアスペクト分類

Aspect Classification for Legal Depositions ( http://arxiv.org/abs/2009.04485v1 )

ライセンス: Link先を確認
Saurabh Chakravarty and Satvik Chekuri and Maanav Mehrotra and Edward A. Fox(参考訳) 弁護士等は、適切なサービス(例えば要約、検索、ブラウジングなど)を備えたデジタル図書館を持つことに強い関心を持ち、大量の法的証言を扱っている。 彼らのニーズは、しばしばそのような文書の意味を理解することである。 これは一部は、原告、被告、法執行機関の職員、専門家など、代表者の役割によって異なる。 損害等の財産・損害保険請求に係る不法訴訟においては, 責任だけでなく, 事故, 身体的状況, 治療についても知ることが重要である。 判例の提出は,原告の証言の一部として議論される様々な側面から成り立っていると仮定する。 そこで我々は,事故事例と傷害事例の法的証言における側面のオントロジーを考案した。 そこで我々は,興味のある部分ごとにテキストの一部を識別できる分類器を開発した。 このような行為は、このジャンルの特異性によって複雑であり、例えば、デポジション・トランスクリプトは一般にQA(QA)ペアの形でのデータで構成されている。 従って、私たちの自動化システムは、前処理から始まり、qaペアを宣言文からなる標準形式に変換します。 アスペクトに応じて生成される宣言文の分類は、要約、セグメンテーション、質問応答、情報検索といった下流タスクに役立つ。 提案手法は0.83の分類f1スコアを達成した。 適切な精度で分類された側面を持つことは、候補要約文として使用できるQAペアの選択に役立ち、法律専門家や保険請求者に対して情報的な要約を生成するのに役立つ。 当社の方法論は、他の種類の法的証言や、検索などのサービスにも拡張できるでしょう。

Attorneys and others have a strong interest in having a digital library with suitable services (e.g., summarizing, searching, and browsing) to help them work with large corpora of legal depositions. Their needs often involve understanding the semantics of such documents. That depends in part on the role of the deponent, e.g., plaintiff, defendant, law enforcement personnel, expert, etc. In the case of tort litigation associated with property and casualty insurance claims, such as relating to an injury, it is important to know not only about liability, but also about events, accidents, physical conditions, and treatments. We hypothesize that a legal deposition consists of various aspects that are discussed as part of the deponent testimony. Accordingly, we developed an ontology of aspects in a legal deposition for accident and injury cases. Using that, we have developed a classifier that can identify portions of text for each of the aspects of interest. Doing so was complicated by the peculiarities of this genre, e.g., that deposition transcripts generally consist of data in the form of question-answer (QA) pairs. Accordingly, our automated system starts with pre-processing, and then transforms the QA pairs into a canonical form made up of declarative sentences. Classifying the declarative sentences that are generated, according to the aspect, can then help with downstream tasks such as summarization, segmentation, question-answering, and information retrieval. Our methods have achieved a classification F1 score of 0.83. Having the aspects classified with a good accuracy will help in choosing QA pairs that can be used as candidate summary sentences, and to generate an informative summary for legal professionals or insurance claim agents. Our methodology could be extended to legal depositions of other kinds, and to aid services like searching.
翻訳日:2022-10-20 09:06:11 公開日:2020-09-09
# 教師付き学習を用いた視覚に基づく自律ドローン制御のシミュレーション

Vision-Based Autonomous Drone Control using Supervised Learning in Simulation ( http://arxiv.org/abs/2009.04298v1 )

ライセンス: Link先を確認
Max Christl(参考訳) 限られた電力と計算資源、ハイエンドセンサー機器やGPS搭載環境の欠如は、自律型マイクロアレー車両(MAV)が直面する課題である。 屋内環境におけるmavの自律ナビゲーションと着陸の文脈において,これらの課題に対処し,教師あり学習を用いたビジョンベースの制御手法を提案する。 そこで我々は,経路計画アルゴリズムによって決定された最適制御命令に従ってラベル付けされたシミュレーション環境において,データサンプルを収集した。 これらのデータサンプルに基づいて、低解像度画像とセンサー入力を高レベル制御コマンドにマッピングする畳み込みニューラルネットワーク(CNN)を訓練した。 我々は, 障害物および非障害物シミュレーション環境において, 予測可能な結果を観察し, 着陸プラットフォームへのMAVの航法に成功していることを示す。 我々のアプローチは、同様の強化学習アプローチよりも短いトレーニング時間を必要とし、同様の教師付き学習アプローチが直面する手動データ収集の制限を克服する可能性がある。

Limited power and computational resources, absence of high-end sensor equipment and GPS-denied environments are challenges faced by autonomous micro areal vehicles (MAVs). We address these challenges in the context of autonomous navigation and landing of MAVs in indoor environments and propose a vision-based control approach using Supervised Learning. To achieve this, we collected data samples in a simulation environment which were labelled according to the optimal control command determined by a path planning algorithm. Based on these data samples, we trained a Convolutional Neural Network (CNN) that maps low resolution image and sensor input to high-level control commands. We have observed promising results in both obstructed and non-obstructed simulation environments, showing that our model is capable of successfully navigating a MAV towards a landing platform. Our approach requires shorter training times than similar Reinforcement Learning approaches and can potentially overcome the limitations of manual data collection faced by comparable Supervised Learning approaches.
翻訳日:2022-10-20 09:05:11 公開日:2020-09-09
# モデルCBRシステムへの方法論的アプローチ

A Methodological Approach to Model CBR-based Systems ( http://arxiv.org/abs/2009.04346v1 )

ライセンス: Link先を確認
Eliseu M. Oliveira and Rafael F. Reale and Joberto S. B. Martins(参考訳) 人工知能(AI)は、システムの最適化をサポートし、複雑さがアルゴリズムやヒューリスティックスの使用を困難にしているソリューションを見つけるために、さまざまな分野で使用されている。 ケースベースの推論(CBR)は、管理、医療、デザイン、建設、小売、スマートグリッドといった領域で集中的に利用されるAI技術である。 CBRは、過去の経験を生かして、新しい知識を捉え、獲得するテクニックである。 主なCBRデプロイメントの課題の1つは、ターゲットのシステムモデリングプロセスである。 本稿では,抽象的および具体的モデルの概念を用いて,CBRに基づくアプリケーションをモデル化する手法を提案する。 2つのモデルでモデリングプロセスを分割することで、アプリケーションドメインとCBR技術の間の専門知識の割り当てが容易になります。 方法論的アプローチは、CBRモデリングプロセスの促進と、コンピュータ科学以外の様々な分野におけるCBRの使用促進を目的としている。

Artificial intelligence (AI) has been used in various areas to support system optimization and find solutions where the complexity makes it challenging to use algorithmic and heuristics. Case-based Reasoning (CBR) is an AI technique intensively exploited in domains like management, medicine, design, construction, retail and smart grid. CBR is a technique for problem-solving and captures new knowledge by using past experiences. One of the main CBR deployment challenges is the target system modeling process. This paper presents a straightforward methodological approach to model CBR-based applications using the concepts of abstract and concrete models. Splitting the modeling process with two models facilitates the allocation of expertise between the application domain and the CBR technology. The methodological approach intends to facilitate the CBR modeling process and to foster CBR use in various areas outside computer science.
翻訳日:2022-10-20 09:04:44 公開日:2020-09-09
# 連続学習のための協調学習型ルーティングネットワーク

Routing Networks with Co-training for Continual Learning ( http://arxiv.org/abs/2009.04381v1 )

ライセンス: Link先を確認
Mark Collier, Efi Kokiopoulou, Andrea Gesmundo, Jesse Berent(参考訳) 連続学習の核となる課題は破滅的な忘れ方であり、ニューラルネットワークが一連のタスクで訓練されると、学習したタスクをすぐに忘れてしまう現象である。 タスクが互いに異なる場合、破滅的な忘れ物が最も深刻なことが観察されている。 本稿では,連続学習におけるスパースルーティングネットワークの利用を提案する。 各入力に対して、これらのネットワークアーキテクチャは専門家のネットワークを通して異なる経路を活性化する。 ルーティングネットワークは、類似したタスクを複数の専門家の集合に重複させ、異なるタスクを複数の専門家の集合に分割することを学ぶことが示されている。 連続的な学習の文脈では、この行動は、異なるタスク間の干渉を最小限に抑えつつ、関連するタスク間のポジティブな移動を可能にするため望ましい。 実際には、新しいタスクが提示されたとき、不十分な初期化専門家を避けるコトレーニングと呼ばれる、ルーティングネットワークのための新しいトレーニング方法を開発する必要がある。 MNIST-Permutations と MNIST-Rotations のベンチマークでは、小さなエピソードメモリリプレイバッファと組み合わせることで、互いに学習する疎結合ネットワークが密結合ネットワークよりも優れていた。

The core challenge with continual learning is catastrophic forgetting, the phenomenon that when neural networks are trained on a sequence of tasks they rapidly forget previously learned tasks. It has been observed that catastrophic forgetting is most severe when tasks are dissimilar to each other. We propose the use of sparse routing networks for continual learning. For each input, these network architectures activate a different path through a network of experts. Routing networks have been shown to learn to route similar tasks to overlapping sets of experts and dissimilar tasks to disjoint sets of experts. In the continual learning context this behaviour is desirable as it minimizes interference between dissimilar tasks while allowing positive transfer between related tasks. In practice, we find it is necessary to develop a new training method for routing networks, which we call co-training which avoids poorly initialized experts when new tasks are presented. When combined with a small episodic memory replay buffer, sparse routing networks with co-training outperform densely connected networks on the MNIST-Permutations and MNIST-Rotations benchmarks.
翻訳日:2022-10-20 08:57:53 公開日:2020-09-09
# ファシック政策のグラディエント

Phasic Policy Gradient ( http://arxiv.org/abs/2009.04416v1 )

ライセンス: Link先を確認
Karl Cobbe, Jacob Hilton, Oleg Klimov, John Schulman(参考訳) 本稿では,政策と価値関数のトレーニングを異なる段階に分けて,従来のオンラインアクター-批判的手法を変更する強化学習フレームワークであるPhasic Policy Gradient(PPG)を紹介する。 従来の方法では、共有ネットワークか、ポリシーと値関数を表現するために別々のネットワークを選択する必要がある。 別々のネットワークを使用すると目的間の干渉が回避されるが、共有ネットワークを使用すると有用な機能を共有することができる。 ppgは、最適化を2つのフェーズに分割することで、両方の世界のベストを達成することができる。 PPGはまた、より高いレベルのサンプル再利用で値関数をより積極的に最適化することを可能にする。 PPOと比較すると,PPGはProcgen Benchmarkの課題に対して,サンプル効率を大幅に向上させることがわかった。

We introduce Phasic Policy Gradient (PPG), a reinforcement learning framework which modifies traditional on-policy actor-critic methods by separating policy and value function training into distinct phases. In prior methods, one must choose between using a shared network or separate networks to represent the policy and value function. Using separate networks avoids interference between objectives, while using a shared network allows useful features to be shared. PPG is able to achieve the best of both worlds by splitting optimization into two phases, one that advances training and one that distills features. PPG also enables the value function to be more aggressively optimized with a higher level of sample reuse. Compared to PPO, we find that PPG significantly improves sample efficiency on the challenging Procgen Benchmark.
翻訳日:2022-10-20 08:57:32 公開日:2020-09-09
# 2クラス線形判別分析から解釈可能な多層パーセプトロン設計へ

From Two-Class Linear Discriminant Analysis to Interpretable Multilayer Perceptron Design ( http://arxiv.org/abs/2009.04442v1 )

ライセンス: Link先を確認
Ruiyuan Lin, Zhiruo Zhou, Suya You, Raghuveer Rao and C.-C. Jay Kuo(参考訳) 閉形式解は2クラス線形判別解析(LDA)に存在し、多次元特徴空間における2つのガウス分布類を識別する。 本研究では、多層パーセプトロン(MLP)を2クラスLDAシステムの一般化として解釈し、複数のクラスに属する複数のガウスモジュラリティからなる入力を処理できるようにする。 入力層 $l_{in}$ と出力層 $l_{out}$ に加えて、MLP は2つの中間層 $l_1$ と $l_2$ から構成される。 本稿では,3段階のフィードフォワード設計を提案する。 1$l_{in}$から$l_1$: 複数の並列LDAによって達成されるハーフスペースパーティショニング。 2) $l_1$ から $l_2$: 1 つのガウス様相が 1 つのニューロンで表される部分空間分離。 3) $l_2$ から $l_{out}$: class-wise subspace マージ。 このプロセスを通じて、ネットワークアーキテクチャ(層数と層内のニューロン数)と全てのフィルタ重みをフィードフォワードワンパス方式で指定できる自動MLP設計を提案する。 この設計はガウス混合モデル(GMM)を利用して任意の分布に一般化することができる。 従来のバックプロパゲーションベースMLP(BP-MLP)と新しいフィードフォワードMLP(FF-MLP)の比較実験を行った。

A closed-form solution exists in two-class linear discriminant analysis (LDA), which discriminates two Gaussian-distributed classes in a multi-dimensional feature space. In this work, we interpret the multilayer perceptron (MLP) as a generalization of a two-class LDA system so that it can handle an input composed by multiple Gaussian modalities belonging to multiple classes. Besides input layer $l_{in}$ and output layer $l_{out}$, the MLP of interest consists of two intermediate layers, $l_1$ and $l_2$. We propose a feedforward design that has three stages: 1) from $l_{in}$ to $l_1$: half-space partitionings accomplished by multiple parallel LDAs, 2) from $l_1$ to $l_2$: subspace isolation where one Gaussian modality is represented by one neuron, 3) from $l_2$ to $l_{out}$: class-wise subspace mergence, where each Gaussian modality is connected to its target class. Through this process, we present an automatic MLP design that can specify the network architecture (i.e., the layer number and the neuron number at a layer) and all filter weights in a feedforward one-pass fashion. This design can be generalized to an arbitrary distribution by leveraging the Gaussian mixture model (GMM). Experiments are conducted to compare the performance of the traditional backpropagation-based MLP (BP-MLP) and the new feedforward MLP (FF-MLP).
翻訳日:2022-10-20 08:57:17 公開日:2020-09-09
# 機械学習を用いたリスクモデルの開発と改善

Developing and Improving Risk Models using Machine-learning Based Algorithms ( http://arxiv.org/abs/2009.04559v1 )

ライセンス: Link先を確認
Yan Wang, Xuelei Sherry Ni(参考訳) 本研究の目的は、正規化、ハイパーパラメータ最適化、モデルアンサンブルアルゴリズムを含む機械学習に基づく複数の手法を同時に探索することにより、ビジネスの欠陥を分類するための優れたリスクモデルを開発することである。 この分析の理論的根拠は、まず、正規化とハイパーパラメータの適切な設定により、良質なベースバイナリ分類器(ロジスティック回帰(LR$)、K-Nearest Neighbors(KNN$)、決定木(DT$)、ニューラルネットワーク(ANN$)を取得することである。 そして、良質なベース分類器上で、バッキングとブースティングを含む2つのモデルセンシングアルゴリズムを実行し、さらなるモデル改善を行う。 モデルの精度は、受信者動作特性曲線(AUC of ROC)、リコール、F1スコアを10倍のクロスバリデーションを10回繰り返して評価する。 その結果、最適ベース分類器とハイパーパラメータの設定は、正規化なしの$lr$、最寄りの9つを用いて$knn$、ツリーの最大レベルを7に設定して$dt$、3つの隠れレイヤで$ann$である。 knn$ with $k$ valued 9 のバッキングは、平均精度、auc、recall、f1スコアがそれぞれ 0.90, 0.93, 0.82, 0.89 に達すると、リスク分類のために得られる最適なモデルである。

The objective of this study is to develop a good risk model for classifying business delinquency by simultaneously exploring several machine learning based methods including regularization, hyper-parameter optimization, and model ensembling algorithms. The rationale under the analyses is firstly to obtain good base binary classifiers (include Logistic Regression ($LR$), K-Nearest Neighbors ($KNN$), Decision Tree ($DT$), and Artificial Neural Networks ($ANN$)) via regularization and appropriate settings of hyper-parameters. Then two model ensembling algorithms including bagging and boosting are performed on the good base classifiers for further model improvement. The models are evaluated using accuracy, Area Under the Receiver Operating Characteristic Curve (AUC of ROC), recall, and F1 score via repeating 10-fold cross-validation 10 times. The results show the optimal base classifiers along with the hyper-parameter settings are $LR$ without regularization, $KNN$ by using 9 nearest neighbors, $DT$ by setting the maximum level of the tree to be 7, and $ANN$ with three hidden layers. Bagging on $KNN$ with $K$ valued 9 is the optimal model we can get for risk classification as it reaches the average accuracy, AUC, recall, and F1 score valued 0.90, 0.93, 0.82, and 0.89, respectively.
翻訳日:2022-10-20 08:56:30 公開日:2020-09-09
# 注意と信条伝播による構造情報抽出のためのワンショットテキストフィールドラベリング

One-shot Text Field Labeling using Attention and Belief Propagation for Structure Information Extraction ( http://arxiv.org/abs/2009.04153v1 )

ライセンス: Link先を確認
Mengli Cheng, Minghui Qiu, Xing Shi, Jun Huang, Wei Lin(参考訳) 文書画像からの構造化情報抽出は通常、テキスト検出、テキスト認識、テキストフィールドラベリングの3つのステップで構成される。 テキスト検出とテキスト認識は文学において大きく研究され改善されてきたが、テキストフィールドラベリングは研究が進んでおらず、多くの課題に直面している。 テキストラベリングタスクのための既存の学習ベースのメソッドは通常、文書の種類ごとに特定のモデルをトレーニングするためにラベル付きサンプルを大量に必要とします。 しかし,大量の文書画像の収集とラベル付けは,プライバシー上の問題により困難であり,時には不可能である。 ドキュメントの種類ごとに別々のモデルをデプロイすることは、多くのリソースを消費する。 これらの課題に対して,テキストフィールドラベリングタスクのワンショット学習について検討する。 既存のタスクのワンショット学習方法はルールベースであり、複数のテキスト領域からなるランドマークやフィールドがほとんどない混雑した領域のフィールドのラベル付けが困難である。 これらの問題を緩和するために,文書画像間のレイアウト情報伝達に注意機構を利用するワンショットテキストフィールドラベリングのための,新しいエンドツーエンドトレーニング可能なアプローチを提案する。 さらに, 転送レイアウト情報に条件付き確率場を適用し, フィールドラベリングの改良を行った。 実世界のワンショット・フィールドラベリングデータセットを多種多様な文書タイプで収集・注釈付けし,提案モデルの有効性を検討するために広範な実験を行った。 この方向の研究を促進するために、収集されたデータセットとワンショットモデルがリリースされる。

Structured information extraction from document images usually consists of three steps: text detection, text recognition, and text field labeling. While text detection and text recognition have been heavily studied and improved a lot in literature, text field labeling is less explored and still faces many challenges. Existing learning based methods for text labeling task usually require a large amount of labeled examples to train a specific model for each type of document. However, collecting large amounts of document images and labeling them is difficult and sometimes impossible due to privacy issues. Deploying separate models for each type of document also consumes a lot of resources. Facing these challenges, we explore one-shot learning for the text field labeling task. Existing one-shot learning methods for the task are mostly rule-based and have difficulty in labeling fields in crowded regions with few landmarks and fields consisting of multiple separate text regions. To alleviate these problems, we proposed a novel deep end-to-end trainable approach for one-shot text field labeling, which makes use of attention mechanism to transfer the layout information between document images. We further applied conditional random field on the transferred layout information for the refinement of field labeling. We collected and annotated a real-world one-shot field labeling dataset with a large variety of document types and conducted extensive experiments to examine the effectiveness of the proposed model. To stimulate research in this direction, the collected dataset and the one-shot model will be released1.
翻訳日:2022-10-20 08:54:51 公開日:2020-09-09
# オフライン手書き漢字によるオンライン軌道復元

Online trajectory recovery from offline handwritten Japanese kanji characters ( http://arxiv.org/abs/2009.04284v1 )

ライセンス: Link先を確認
Hung Tuan Nguyen, Tsubasa Nakamura, Cuong Tuan Nguyen and Masaki Nakagawa(参考訳) 一般的に、オフラインの手書き画像をオンラインの手書きパターンから描画するのは簡単である。 しかし、オフラインの手書き画像、特に日本語漢字のような多行字に対して、オンラインの手書きパターンを再構築することは困難である。 多重ストローク文字は点座標だけでなく、ストロークの数によって指数的な成長が難しいストローク順序も要求する。 さらに、いくつかの交差したタッチポイントは、回復したタスクの難易度を高める可能性がある。 本稿では,大規模なオンライン手書きデータベースを用いて,回復作業を解決するディープニューラルネットワーク方式を提案する。 提案モデルは,畳み込みニューラルネットワークに基づくエンコーダと,アテンション層を有する長期短期記憶ネットワークに基づくデコーダの2つの主成分を有する。 エンコーダは特徴抽出に焦点を当て、デコーダは抽出された特徴を参照し、座標の時系列を生成する。 また,リコンストラクション中にデコーダを誘導するアテンション層の効果を示す。 提案手法の性能を視覚的検証と手書き文字認識の両方を用いて評価する。 視覚検証ではいくつかの問題点が明らかになったが,認識実験では,オンライン認識を併用した場合のオフライン手書き文字認識精度向上における軌道回復効果が実証された。

In general, it is straightforward to render an offline handwriting image from an online handwriting pattern. However, it is challenging to reconstruct an online handwriting pattern given an offline handwriting image, especially for multiple-stroke character as Japanese kanji. The multiple-stroke character requires not only point coordinates but also stroke orders whose difficulty is exponential growth by the number of strokes. Besides, several crossed and touch points might increase the difficulty of the recovered task. We propose a deep neural network-based method to solve the recovered task using a large online handwriting database. Our proposed model has two main components: Convolutional Neural Network-based encoder and Long Short-Term Memory Network-based decoder with an attention layer. The encoder focuses on feature extraction while the decoder refers to the extracted features and generates the time-sequences of coordinates. We also demonstrate the effect of the attention layer to guide the decoder during the reconstruction. We evaluate the performance of the proposed method by both visual verification and handwritten character recognition. Although the visual verification reveals some problems, the recognition experiments demonstrate the effect of trajectory recovery in improving the accuracy of offline handwritten character recognition when online recognition for the recovered trajectories are combined.
翻訳日:2022-10-20 08:54:26 公開日:2020-09-09
# unseen属性の組み合わせ生成のためのマルチリニア潜時条件付け

Multilinear Latent Conditioning for Generating Unseen Attribute Combinations ( http://arxiv.org/abs/2009.04075v1 )

ライセンス: Link先を確認
Markos Georgopoulos, Grigorios Chrysos, Maja Pantic, Yannis Panagakis(参考訳) 深部生成モデルは、特に画像のような高次元データを扱う問題に対して、一般化を促進するために誘導バイアスに依存する。 しかし、実証的な研究により、変異自己エンコーダ(VAE)と生成敵対ネットワーク(GAN)は人間の知覚において自然に起こる一般化能力を欠いていることが示されている。 例えば、笑顔の男性を見ただけで笑顔の女性を可視化することができる。 逆に、標準条件vae(cvae)は、見当たらない属性の組み合わせを生成することができない。 この目的のために,属性間の乗法的相互作用をキャプチャする多線形潜在条件付きフレームワークを導入することにより,cVAEを拡張する。 MNIST, Fashion-MNIST, CelebAの2種類のモデルを実装し, 有効性を示す。 また,どのアーキテクチャでも使用可能な新しい条件付けフレームワークを設計し,未知の属性の組み合わせを合成する。

Deep generative models rely on their inductive bias to facilitate generalization, especially for problems with high dimensional data, like images. However, empirical studies have shown that variational autoencoders (VAE) and generative adversarial networks (GAN) lack the generalization ability that occurs naturally in human perception. For example, humans can visualize a woman smiling after only seeing a smiling man. On the contrary, the standard conditional VAE (cVAE) is unable to generate unseen attribute combinations. To this end, we extend cVAE by introducing a multilinear latent conditioning framework that captures the multiplicative interactions between the attributes. We implement two variants of our model and demonstrate their efficacy on MNIST, Fashion-MNIST and CelebA. Altogether, we design a novel conditioning framework that can be used with any architecture to synthesize unseen attribute combinations.
翻訳日:2022-10-20 08:46:56 公開日:2020-09-09
# ショット学習のためのプロキシネットワーク

Proxy Network for Few Shot Learning ( http://arxiv.org/abs/2009.04292v1 )

ライセンス: Link先を確認
Bin Xiao, Chien-Liang Liu, Wen-Hoar Hsaio(参考訳) 新たなクラスに一般化可能な予測モデルをトレーニングするために、各クラスにいくつかの例を使用することは、人工知能における重要な研究の方向性である。 この研究は、メタ学習のアーキテクチャの下でプロキシネットワークと呼ばれる数ショット学習(FSL)アルゴリズムを提案することで、この問題に対処する。 メトリックラーニングベースのアプローチでは、同じクラス内のデータポイントが近いべきであるが、異なるクラスのデータポイントは、埋め込み空間において可能な限り分離されるべきである。 計量学習に基づくアプローチの成功は、データ埋め込み、各クラスの代表、距離メートル法にあると結論付けている。 本研究では,データからクラス代表と距離計量のプロキシを直接学習する,シンプルだが効果的なエンドツーエンドモデルを提案する。 1-shot-5-wayおよび5-shot-5-wayシナリオにおけるcubおよびmini-imagenetデータセットの実験を行い,提案手法が最先端手法よりも優れていることを示す。 また,提案手法の詳細な解析を行う。

The use of a few examples for each class to train a predictive model that can be generalized to novel classes is a crucial and valuable research direction in artificial intelligence. This work addresses this problem by proposing a few-shot learning (FSL) algorithm called proxy network under the architecture of meta-learning. Metric-learning based approaches assume that the data points within the same class should be close, whereas the data points in the different classes should be separated as far as possible in the embedding space. We conclude that the success of metric-learning based approaches lies in the data embedding, the representative of each class, and the distance metric. In this work, we propose a simple but effective end-to-end model that directly learns proxies for class representative and distance metric from data simultaneously. We conduct experiments on CUB and mini-ImageNet datasets in 1-shot-5-way and 5-shot-5-way scenarios, and the experimental results demonstrate the superiority of our proposed method over state-of-the-art methods. Besides, we provide a detailed analysis of our proposed method.
翻訳日:2022-10-20 08:46:06 公開日:2020-09-09
# エキスパートによる翻訳・スケール不変予測のための一般化オンラインアルゴリズム

A Generalized Online Algorithm for Translation and Scale Invariant Prediction with Expert Advice ( http://arxiv.org/abs/2009.04372v1 )

ライセンス: Link先を確認
Kaan Gokcesu, Hakan Gokcesu(参考訳) 本研究は, 専門家の損失に対して, 翻訳不要かつスケールフリーな, 専門家のアドバイスによる予測のための, 完全にオンラインなアルゴリズムフレームワークの構築を目的とする。 私たちの目標は、幅広いアプリケーションでの使用に適した一般化アルゴリズムを作ることです。 そこで本研究では,予測アルゴリズムの損失と競争における「最良の」専門家選択戦略の損失の差を推定する,専門家アドバイス問題による逐次予測における汎用的競争クラスに対するアルゴリズムの期待後悔について検討する。 本アルゴリズムは,必ずしも固定された専門家選択戦略ではない,特定の専門家選択戦略のクラスと競合するために,普遍的な予測視点を用いたアルゴリズムを設計する。 私たちが競争したいエキスパート選択戦略のクラスは、手元の特定のアプリケーションによって純粋に決定され、汎用的であり、このため、我々の一般的なアルゴリズムは、多くの異なる問題での使用に適している。 我々は,損失系列に関する予備的な知識をアルゴリズムに必要とせず,その性能境界は二階数であり,二乗損失の和で表されることを示した。 我々の後悔の限界は任意のスケーリングと損失の翻訳の下で安定している。

In this work, we aim to create a completely online algorithmic framework for prediction with expert advice that is translation-free and scale-free of the expert losses. Our goal is to create a generalized algorithm that is suitable for use in a wide variety of applications. For this purpose, we study the expected regret of our algorithm against a generic competition class in the sequential prediction by expert advice problem, where the expected regret measures the difference between the losses of our prediction algorithm and the losses of the 'best' expert selection strategy in the competition. We design our algorithm using the universal prediction perspective to compete against a specified class of expert selection strategies, which is not necessarily a fixed expert selection. The class of expert selection strategies that we want to compete against is purely determined by the specific application at hand and is left generic, which makes our generalized algorithm suitable for use in many different problems. We show that no preliminary knowledge about the loss sequence is required by our algorithm and its performance bounds, which are second order, expressed in terms of sums of squared losses. Our regret bounds are stable under arbitrary scalings and translations of the losses.
翻訳日:2022-10-20 08:45:37 公開日:2020-09-09
# 正規化テキストロジスティック回帰:オンラインレビューにおけるキーワード検出と感性分類

Regularised Text Logistic Regression: Key Word Detection and Sentiment Classification for Online Reviews ( http://arxiv.org/abs/2009.04591v1 )

ライセンス: Link先を確認
Ying Chen, Peng Liu, Chung Piaw Teo(参考訳) オンラインの顧客レビューは、顧客の要求や期待を包括的に理解したいと考えるホスピタリティ・キャタリング産業の管理者や幹部にとって重要になっている。 本稿では,非構造化テキストデータに対してテキスト分析と感情分類を行うための正規化テキストロジスティック(rtl)回帰モデルを提案する。 RTLモデルをTripAdvisorの2つのオンラインレビューデータセットであるRestaurantとHotelに適用する。 その結果,真正率94.9%の代替分類器と比較して,分類性能が良好であった。 さらにrtlは、レストランの3%、ホテルの20%に相当する小さな単語特徴を識別し、マネージャがより小さな重要な顧客レビューのセットにドリルダウンすることで、作業効率を高める。 また, 推定器の一貫性, 疎性, オラクル特性も発展させる。

Online customer reviews have become important for managers and executives in the hospitality and catering industry who wish to obtain a comprehensive understanding of their customers' demands and expectations. We propose a Regularized Text Logistic (RTL) regression model to perform text analytics and sentiment classification on unstructured text data, which automatically identifies a set of statistically significant and operationally insightful word features, and achieves satisfactory predictive classification accuracy. We apply the RTL model to two online review datasets, Restaurant and Hotel, from TripAdvisor. Our results demonstrate satisfactory classification performance compared with alternative classifiers with a highest true positive rate of 94.9%. Moreover, RTL identifies a small set of word features, corresponding to 3% for Restaurant and 20% for Hotel, which boosts working efficiency by allowing managers to drill down into a much smaller set of important customer reviews. We also develop the consistency, sparsity and oracle property of the estimator.
翻訳日:2022-10-20 08:39:03 公開日:2020-09-09
# 知識グラフにおけるrdf2vecを用いたノード埋め込みのウォーク抽出戦略

Walk Extraction Strategies for Node Embeddings with RDF2Vec in Knowledge Graphs ( http://arxiv.org/abs/2009.04404v1 )

ライセンス: Link先を確認
Gilles Vandewiele, Bram Steenwinckel, Pieter Bonte, Michael Weyns, Heiko Paulheim, Petar Ristoski, Filip De Turck, Femke Ongenae(参考訳) KGはシンボリックな構造であるため、データマイニング技術と互換性を持たせるために特殊な技術を適用する必要がある。 RDF2Vecは、言語モデリング技術の拡張により、KG内のノードのタスクに依存しない数値表現を作成することができる教師なしの手法である。 オリジナルの研究は、表現の質を改善するためにWeisfeiler-Lehman (WL)カーネルを提案した。 しかし,本研究では,WLカーネルが単一KGの文脈における歩行埋め込みを改善するのにはほとんど役に立たないことを示す。 WLカーネルの代替として、基本的なランダムウォークに補完する情報を抽出する5つの異なる戦略を提案する。 いくつかのベンチマークデータセット上でこれらのウォークを比較して,ノード分類タスクの平均値において, \emph{n-gram} 戦略が最善であることを示す。

As KGs are symbolic constructs, specialized techniques have to be applied in order to make them compatible with data mining techniques. RDF2Vec is an unsupervised technique that can create task-agnostic numerical representations of the nodes in a KG by extending successful language modelling techniques. The original work proposed the Weisfeiler-Lehman (WL) kernel to improve the quality of the representations. However, in this work, we show both formally and empirically that the WL kernel does little to improve walk embeddings in the context of a single KG. As an alternative to the WL kernel, we propose five different strategies to extract information complementary to basic random walks. We compare these walks on several benchmark datasets to show that the \emph{n-gram} strategy performs best on average on node classification tasks and that tuning the walk strategy can result in improved predictive performances.
翻訳日:2022-10-20 08:38:47 公開日:2020-09-09
# deep rank svmを用いた相対属性分類

Relative Attribute Classification with Deep Rank SVM ( http://arxiv.org/abs/2009.07717v1 )

ライセンス: Link先を確認
Sara Atito Ali Ahmed, Berrin Yanikoglu(参考訳) 相対属性は、画像ペア間の特定の属性の強さを示す。 本稿では,階層型svm損失関数であるdeep rank svm (drsvm) を用いた深層シャムネットワークを導入し,画像のどちらが特定の属性の存在感が強いかを決定する。 ネットワークはエンドツーエンドでトレーニングされ、視覚的特徴とランキング関数を共同で学習する。 本研究では, LFW-10, PubFig, UTZap50K-lexi, UTZap50K-2の4つの画像ベンチマークデータセットに対する最先端手法に対するアプローチの有効性を示す。 DRSVMは、4つの画像ベンチマークデータセットのうち3つで、属性の平均精度で最先端を上回っている。

Relative attributes indicate the strength of a particular attribute between image pairs. We introduce a deep Siamese network with rank SVM loss function, called Deep Rank SVM (DRSVM), in order to decide which one of a pair of images has a stronger presence of a specific attribute. The network is trained in an end-to-end fashion to jointly learn the visual features and the ranking function. We demonstrate the effectiveness of our approach against the state-of-the-art methods on four image benchmark datasets: LFW-10, PubFig, UTZap50K-lexi and UTZap50K-2 datasets. DRSVM surpasses state-of-art in terms of the average accuracy across attributes, on three of the four image benchmark datasets.
翻訳日:2022-10-20 08:37:59 公開日:2020-09-09
# 新規な非比較フェアネス概念に基づく推薦システム評価のための公正監査者の同定について

On the Identification of Fair Auditors to Evaluate Recommender Systems based on a Novel Non-Comparative Fairness Notion ( http://arxiv.org/abs/2009.04383v1 )

ライセンス: Link先を確認
Mukund Telukunta and Venkata Sriram Siddhardh Nadendla(参考訳) 決定支援システムは、司法、不動産、銀行など様々な分野で人々の決定を支援する情報システムである。 近年、これらの支援システムは多くの実践的な展開の文脈において差別的であることが判明している。 これらのバイアスを評価し緩和しようとする試みにおいて、アルゴリズム的公平性文学は、比較正義の概念を用いて育まれてきた。 しかし、このような公平性の概念は、意思決定支援システム内の潜伏バイアスを評価するために雇われた公正監査者の識別にはあまり役に立たない。 解法として,非比較正義の原理に基づく新しい公正概念を提案することにより,アルゴリズムフェアネスのパラダイムシフトを導入する。 提案した公正性概念は,意思決定支援システムの所望特性に基づいて公正性評価を行うと仮定して,システムの結果と監査者の所望の結果とを比較する。 提案したフェアネス概念は、同じフェアネス概念に関してフェアと見なされた監査者に対して、比較フェアネス(例えば、個人フェアネスと統計的パリティ)の観点から、いかなるシステムでもフェアとみなすことができることを証明し、比較フェアネス概念の観点で保証を提供することを示す。 また、逆は個人的公正の文脈で真であることを示す。 公正さの概念が公正で信頼性の高い監査者を特定するためにどのように使えるのか、意思決定支援システムにおけるバイアスの定量化にどのように使用できるのか、という簡単な議論も行われている。

Decision-support systems are information systems that offer support to people's decisions in various applications such as judiciary, real-estate and banking sectors. Lately, these support systems have been found to be discriminatory in the context of many practical deployments. In an attempt to evaluate and mitigate these biases, algorithmic fairness literature has been nurtured using notions of comparative justice, which relies primarily on comparing two/more individuals or groups within the society that is supported by such systems. However, such a fairness notion is not very useful in the identification of fair auditors who are hired to evaluate latent biases within decision-support systems. As a solution, we introduce a paradigm shift in algorithmic fairness via proposing a new fairness notion based on the principle of non-comparative justice. Assuming that the auditor makes fairness evaluations based on some (potentially unknown) desired properties of the decision-support system, the proposed fairness notion compares the system's outcome with that of the auditor's desired outcome. We show that the proposed fairness notion also provides guarantees in terms of comparative fairness notions by proving that any system can be deemed fair from the perspective of comparative fairness (e.g. individual fairness and statistical parity) if it is non-comparatively fair with respect to an auditor who has been deemed fair with respect to the same fairness notions. We also show that the converse holds true in the context of individual fairness. A brief discussion is also presented regarding how our fairness notion can be used to identify fair and reliable auditors, and how we can use them to quantify biases in decision-support systems.
翻訳日:2022-10-20 08:37:44 公開日:2020-09-09
# ソフトウェアプログラムにおける欠陥検出のためのマルチモーダルディープラーニング

Multimodal Deep Learning for Flaw Detection in Software Programs ( http://arxiv.org/abs/2009.04549v1 )

ライセンス: Link先を確認
Scott Heidbrink, Kathryn N. Rodhouse, Daniel M. Dunlavy(参考訳) ソフトウェアプログラムの欠陥検出に複数のディープラーニングモデルを用いる方法について検討する。 現在、欠陥検出の標準的なアプローチは、ソフトウェアプログラム(例えば、ソースコードやプログラムバイナリ)の単一の表現に依存している。 マルチモーダル深層学習の手法を用いることで,ソフトウェアプログラムの複数の表現を同時に活用し,単一表現解析による欠陥検出を改善することができることを示す。 具体的には,マルチモーダル学習文献から得られた3つのディープラーニングモデルを用いて欠陥検出を行い,これらのモデルが従来のディープラーニングモデルに勝ることを示す。 Juliet Test Suite と Linux Kernel を用いてソフトウェア欠陥の検出結果を示す。

We explore the use of multiple deep learning models for detecting flaws in software programs. Current, standard approaches for flaw detection rely on a single representation of a software program (e.g., source code or a program binary). We illustrate that, by using techniques from multimodal deep learning, we can simultaneously leverage multiple representations of software programs to improve flaw detection over single representation analyses. Specifically, we adapt three deep learning models from the multimodal learning literature for use in flaw detection and demonstrate how these models outperform traditional deep learning models. We present results on detecting software flaws using the Juliet Test Suite and Linux Kernel.
翻訳日:2022-10-20 08:37:15 公開日:2020-09-09
# テキスト構造を発見する:テンプレート木を用いた生成文法誘導

Discovering Textual Structures: Generative Grammar Induction using Template Trees ( http://arxiv.org/abs/2009.04530v1 )

ライセンス: Link先を確認
Thomas Winters, Luc De Raedt(参考訳) 自然言語生成は、要約、チャットボット、ゲームコンテンツなどのテキストを自動的に生成する方法を提供する。 実践的には、テキスト生成器はしばしば学習され、解釈が難しいか、文法やテンプレートのような手作業で作られる。 本稿では,生成目的の解釈可能な文法を学習するための新しい文法誘導アルゴリズムgittaを提案する。 また,これら生成文法を導出するコーパスの潜在テンプレートを発見するために,テンプレートツリーという新しい概念を導入する。 既存の人為文法を用いることで,本アルゴリズムはこれらの文法を合理的に近似できることを示す。 これらの結果から,Gittaは自動で解釈可能で変更が容易な文法を学習し,生成モデルの人間と機械の共創のための足場となることが示唆された。

Natural language generation provides designers with methods for automatically generating text, e.g. for creating summaries, chatbots and game content. In practise, text generators are often either learned and hard to interpret, or created by hand using techniques such as grammars and templates. In this paper, we introduce a novel grammar induction algorithm for learning interpretable grammars for generative purposes, called Gitta. We also introduce the novel notion of template trees to discover latent templates in corpora to derive these generative grammars. By using existing human-created grammars, we found that the algorithm can reasonably approximate these grammars using only a few examples. These results indicate that Gitta could be used to automatically learn interpretable and easily modifiable grammars, and thus provide a stepping stone for human-machine co-creation of generative models.
翻訳日:2022-10-20 08:37:04 公開日:2020-09-09
# ベクトルマップ畳み込みへの複素/超複素畳み込みの一般化

Generalizing Complex/Hyper-complex Convolutions to Vector Map Convolutions ( http://arxiv.org/abs/2009.04083v1 )

ライセンス: Link先を確認
Chase J Gaudet and Anthony S Maida(参考訳) 重みの共有機構と多次元データを単一の実体として扱うことが、複雑で高複素価値のニューラルネットワークが実数値のニューラルネットワークよりも改善する主な理由であることを示す。 それらの代数は次元を線形に結合し、各次元を互いに関連づける。 しかしどちらも、複素数 2 と四元数 4 の 2 つの次元に制限されている。 ここでは、複素/超複素畳み込みによって提供されるこれらの性質の両方を捉えながら、それらが課す非自然次元性制約を下げる新しいベクトル写像畳み込みを導入する。 これは、四元数に対するハミルトン積のような入力次元のユニークな線型結合を模倣するシステムを導入することで達成される。 これらの新しいベクトルマップの畳み込みは、次元制限を回避しつつ、内部の潜伏関係を捕捉する能力など、複雑で複雑なネットワークの利点をすべて捉えているように見えることを示す3つの実験を行った。

We show that the core reasons that complex and hypercomplex valued neural networks offer improvements over their real-valued counterparts is the weight sharing mechanism and treating multidimensional data as a single entity. Their algebra linearly combines the dimensions, making each dimension related to the others. However, both are constrained to a set number of dimensions, two for complex and four for quaternions. Here we introduce novel vector map convolutions which capture both of these properties provided by complex/hypercomplex convolutions, while dropping the unnatural dimensionality constraints they impose. This is achieved by introducing a system that mimics the unique linear combination of input dimensions, such as the Hamilton product for quaternions. We perform three experiments to show that these novel vector map convolutions seem to capture all the benefits of complex and hyper-complex networks, such as their ability to capture internal latent relations, while avoiding the dimensionality restriction.
翻訳日:2022-10-20 08:36:48 公開日:2020-09-09