このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200108となっている論文です。

PDF登録状況(公開日: 20200108)

TitleAuthorsAbstract論文公表日・翻訳日
# $\mathbb{R}^d$における多体フェルミオン系のクラスに対するリーブ・ロビンソン境界と強連続ダイナミクス

Lieb-Robinson bounds and strongly continuous dynamics for a class of many-body fermion systems in $\mathbb{R}^d$ ( http://arxiv.org/abs/1912.12552v2 )

ライセンス: Link先を確認
Martin Gebert, Bruno Nachtergaele, Jake Reschke, Robert Sims(参考訳) 我々は,$\mathbb{r}^d$ におけるフェルミオンに対するuv正規化二体相互作用のクラスを導入し,この多体系のダイナミクスに対するリーブ・ロビンソン推定を証明する。 この結果へのステップとして、schr\"odinger演算子に対するlieb-robinson型の伝播境界も証明する。 伝播束をカー代数上の強連続自己同型群として無限体積力学の存在を証明するために適用する。

We introduce a class of UV-regularized two-body interactions for fermions in $\mathbb{R}^d$ and prove a Lieb-Robinson estimate for the dynamics of this class of many-body systems. As a step toward this result, we also prove a propagation bound of Lieb-Robinson type for Schr\"odinger operators. We apply the propagation bound to prove the existence of infinite-volume dynamics as a strongly continuous group of automorphisms on the CAR algebra.
翻訳日:2023-01-17 08:20:55 公開日:2020-01-08
# 励起格子ボースガス中の次元交差乱流カスケード

Dimension Crossing Turbulent Cascade in an Excited Lattice Bose Gas ( http://arxiv.org/abs/1912.13252v2 )

ライセンス: Link先を確認
Tianwei Zhou, Ruixiao Yao, Kaixiang Yang, Shengjie Jin, Yueyang Zhai, Xuguang Yue, Shifeng Yang, Xiaoji Zhou, Xuzong Chen, Xiaopeng Li(参考訳) 乱流は流体力学を起源とする非平衡状態であり、気候物理学の記述、量子流体力学の特徴づけ、宇宙進化の理解において遠縁な結果をもたらす。 異なる長さスケールでのエネルギー再分配を記述する乱流カスケードの概念は、宇宙定数をバイパスする宇宙の加速膨張の観測エネルギー非保存と基本的な保守力とを両立させる深い経路を与える。 ここでは, 2次元の管列を形成する2次元(2次元)光学格子に閉じ込められた原子ボース・アインシュタイン凝縮体において, 異なる次元にまたがる動的エネルギー分配における普遍的な挙動を示す次元交差乱流エネルギーカスケードを観察する。 光格子高バンドに原子を励起することにより、この量子多体系の過剰エネルギーは、横2次元の格子方向から連続次元へとカスケードされ、1次元の乱流エネルギーカスケードが生じる。 この観測されたエネルギーカスケードの新たな現象は、我々の膨張宇宙の正の宇宙定数をモデル化するための微視的理論を刺激するかもしれない。

Turbulence is an intriguing non-equilibrium state, which originates from fluid mechanics and has far-reaching consequences in the description of climate physics, the characterization of quantum hydrodynamics, and the understanding of cosmic evolution. The concept of turbulent cascade describing the energy redistribution across different length scales offers one profound route to reconcile fundamental conservative forces with observational energy non-conservation of accelerating expansion of the universe bypassing the cosmological constant. Here, we observe a dimension crossing turbulent energy cascade in an atomic Bose-Einstein condensate confined in a two-dimensional (2d) optical lattice forming a 2d array of tubes, which exhibits universal behaviors in the dynamical energy-redistribution across different dimensions. By exciting atoms into the optical-lattice high bands, the excessive energy of this quantum many-body system is found to cascade from the transverse two-dimensional lattice directions to the continuous dimension, giving rise to a one-dimensional turbulent energy cascade, which is in general challenging to reach due to integrability. We expect this observed novel phenomenon of dimension-crossing energy cascade may inspire microscopic theories for modeling positive cosmological constant of our inflationary universe.
翻訳日:2023-01-16 21:37:53 公開日:2020-01-08
# 非有界学習率を許容する逆追跡勾配降下

Backtracking Gradient Descent allowing unbounded learning rates ( http://arxiv.org/abs/2001.02005v2 )

ライセンス: Link先を確認
Tuyen Trung Truong(参考訳) ユークリッド空間上の制約のない最適化では、勾配降下過程 (gd) $x_{n+1}=x_n-\delta _n \nabla f(x_n)$ の収束を証明するには、通常、学習レート$\delta _n$'s が有界である必要がある。 この仮定の下で、列 $x_n$ が臨界点 $z$ に収束すると、$|x_{n+1}-x_n||\lesssim ||\nabla f(x_n)||$ が成り立つので、$n$ の大きな値で更新は小さくなる。 これにより、配列を最低限に収束させることもできる。 少なくとも理論的には、学習率$\delta _n$sが有界でないことを許せるなら、より小さな値に収束する方がよいかもしれない。 著者による以前の共同論文は、コスト関数 $f$ に対する非常に一般的な仮定の下で、通常のバックトラッキング gd の収束を示した。 この論文では、学習率$\delta _n$ を非有界にすることを許し、ある函数 $h:(0,\infty)\rightarrow (0,\infty )$ が存在して、$\lim _{t\rightarrow 0}th(t)=0$ と $\delta _n\lesssim \max \{h(x_n),\delta \}$ がすべての$n$ に対してアルミホの条件を満たし、上記の論文と同じ仮定で収束することを証明する。 シーケンス $\{x_n\}$ の収束を望む場合、この$h$の成長率が最良であることが示される。 離散的な方法で$\delta _n$を選択する特定の方法は、上記の論文で定義されたTwo-way Backtracking GDに接続する。 本論文では, サドル点の回避に関する最近の論文において, 改善あるいは暗黙的に含まれているいくつかの結果について述べる。

In unconstrained optimisation on an Euclidean space, to prove convergence in Gradient Descent processes (GD) $x_{n+1}=x_n-\delta _n \nabla f(x_n)$ it usually is required that the learning rates $\delta _n$'s are bounded: $\delta _n\leq \delta $ for some positive $\delta $. Under this assumption, if the sequence $x_n$ converges to a critical point $z$, then with large values of $n$ the update will be small because $||x_{n+1}-x_n||\lesssim ||\nabla f(x_n)||$. This may also force the sequence to converge to a bad minimum. If we can allow, at least theoretically, that the learning rates $\delta _n$'s are not bounded, then we may have better convergence to better minima. A previous joint paper by the author showed convergence for the usual version of Backtracking GD under very general assumptions on the cost function $f$. In this paper, we allow the learning rates $\delta _n$ to be unbounded, in the sense that there is a function $h:(0,\infty)\rightarrow (0,\infty )$ such that $\lim _{t\rightarrow 0}th(t)=0$ and $\delta _n\lesssim \max \{h(x_n),\delta \}$ satisfies Armijo's condition for all $n$, and prove convergence under the same assumptions as in the mentioned paper. It will be shown that this growth rate of $h$ is best possible if one wants convergence of the sequence $\{x_n\}$. A specific way for choosing $\delta _n$ in a discrete way connects to Two-way Backtracking GD defined in the mentioned paper. We provide some results which either improve or are implicitly contained in those in the mentioned paper and another recent paper on avoidance of saddle points.
翻訳日:2023-01-13 20:36:48 公開日:2020-01-08
# ソーシャルネットワークのためのソフトレコメンダシステム

A Soft Recommender System for Social Networks ( http://arxiv.org/abs/2001.02520v1 )

ライセンス: Link先を確認
Marzieh Pourhojjati-Sabet and Azam Rabiee(参考訳) 近年のソーシャルレコメンデーションシステムは、ソーシャルネットワークの友人が全く同じ関心事や好みを持っていると信じ、正確なレコメンデーションを行うために友情グラフの恩恵を受けている。 いくつかの研究は、ユーザ間の類似性を判断し、結果として友情の程度を定義するために、ハードクラスタリングアルゴリズム(K平均など)の恩恵を受けている。 本稿では,さらに現実的なレコメンデーションを行うために,真の友人を特定するための一歩を踏み出した。 ユーザ間の類似度と,ユーザとアイテム間の依存性を計算しました。 この仮説は,ユーザの好みの不確実性から,従来のハードクラスタリングではなくファジィクラスタリングが正確な推奨に有効である,というものである。 ソフトユーザクラスタの異なるメンバシップ度を得るために,C平均アルゴリズムを組み込んだ。 そして、ソフトクラスタに応じてユーザの類似度メトリックが定義される。 その後,学習手法を用いて,巨大かつ疎度なユーザ・イテムタグ行列から行列係数を用いたユーザ・項目の潜在表現を抽出した。 パラメータチューニングでは,ソフトな社会的正規化とユーザ・イテム依存項の影響に対する最適係数が得られた。 実験結果から,提案するファジィ類似度指標は,ハードクラスタリングを用いたベースラインソーシャルリコメンデータシステムと比較して,実データにおけるレコメンデーションを改善することを確信した。

Recent social recommender systems benefit from friendship graph to make an accurate recommendation, believing that friends in a social network have exactly the same interests and preferences. Some studies have benefited from hard clustering algorithms (such as K-means) to determine the similarity between users and consequently to define degree of friendships. In this paper, we went a step further to identify true friends for making even more realistic recommendations. we calculated the similarity between users, as well as the dependency between a user and an item. Our hypothesis is that due to the uncertainties in user preferences, the fuzzy clustering, instead of the classical hard clustering, is beneficial in accurate recommendations. We incorporated the C-means algorithm to get different membership degrees of soft users' clusters. Then, the users' similarity metric is defined according to the soft clusters. Later, in a training scheme we determined the latent representations of users and items, extracting from the huge and sparse user-item-tag matrix using matrix factorization. In the parameter tuning, we found the optimum coefficients for the influence of our soft social regularization and the user-item dependency terms. Our experimental results convinced that the proposed fuzzy similarity metric improves the recommendations in real data compared to the baseline social recommender system with the hard clustering.
翻訳日:2023-01-13 13:16:09 公開日:2020-01-08
# ジョセフソンパラメトリックアップコンバータを用いた電流検出

Current detection using a Josephson parametric upconverter ( http://arxiv.org/abs/2001.02521v1 )

ライセンス: Link先を確認
Felix E. Schmidt, Daniel Bothner, Ines C. Rodrigues, Mario F. Gely, Mark D. Jenkins, and Gary A. Steele(参考訳) 本稿では, 超伝導マイクロ波共振器におけるジョセフソンパラメトリックアップコンバージョン法に基づく電流センサの設計, 測定および解析について述べる。 ナノブリッジ収縮ジョセフソン接合を用いたコプラナー導波路の導波路を定位し, 極小電流の高感度・周波数多重出力を実現するキャビティから変調側バンドを観察する。 我々は,幅広いバイアス電流,調律,入力パワーで測定値を再現する解析モデルを導出する。 キャビティの周波数を、直流電流で \SI{100}{\mega\hertz} 以上の周波数で調整すると、このデバイスは \SI{8.9}{\pico\ampere\per\sqrt{\hertz}} の最小電流感度を達成する。 解析モデルの結果を外挿し,我々のプラットフォームに基づく改良されたデバイスを予測し,ジョセフソン空洞のパラメトリック増幅を活用できれば,SI{50}{\femto\ampere\per\sqrt{\hertz}}}まで感度を下げることができる。 ジョセフソン・アーキテクチャの利点を生かして、この手法は運動論的インダクタンス設計よりも高い感度を提供し、量子ノイズによる電流検出を可能にする。

We present the design, measurement and analysis of a current sensor based on a process of Josephson parametric upconversion in a superconducting microwave cavity. Terminating a coplanar waveguide with a nanobridge constriction Josephson junction, we observe modulation sidebands from the cavity that enable highly sensitive, frequency-multiplexed output of small currents for applications such as transition-edge sensor array readout. We derive an analytical model to reproduce the measurements over a wide range of bias currents, detunings and input powers. Tuning the frequency of the cavity by more than \SI{100}{\mega\hertz} with DC current, our device achieves a minimum current sensitivity of \SI{8.9}{\pico\ampere\per\sqrt{\hertz}}. Extrapolating the results of our analytical model, we predict an improved device based on our platform, capable of achieving sensitivities down to \SI{50}{\femto\ampere\per\sqrt{\hertz}}}, or even lower if one could take advantage of parametric amplification in the Josephson cavity. Taking advantage of the Josephson architecture, our approach can provide higher sensitivity than kinetic inductance designs, and potentially enables detection of currents ultimately limited by quantum noise.
翻訳日:2023-01-13 13:15:14 公開日:2020-01-08
# ナノスケール温度測定と温度制御による胚発生の探索と操作

Probing and manipulating embryogenesis via nanoscale thermometry and temperature control ( http://arxiv.org/abs/2001.02664v1 )

ライセンス: Link先を確認
Joonhee Choi, Hengyun Zhou, Renate Landig, Hai-Yin Wu, Xiaofei Yu, Stephen Von Stetina, Georg Kucsko, Susan Mango, Daniel Needleman, Aravinthan D. T. Samuel, Peter Maurer, Hongkun Park, Mikhail D. Lukin(参考訳) 細胞分裂のタイミングのコーディネーションを理解することは、発達生物学の分野において際立った問題の一つである。 細胞周期の持続時間のアクティブな制御パラメータは温度であり、生化学反応の速度を加速または減速することができる。 しかし細胞規模での制御実験は、生体適合性温度センサの可用性の限界や、局所温度と細胞動態を体系的に制御する実用的な方法の欠如により困難である。 本稿では,局所レーザー加熱とナノスケール熱測定の組み合わせを用いて,線虫胚の細胞分裂時期を探索し制御する方法を示す。 局所赤外レーザー照明は胚の温度勾配を発生させ、ナノダイアモンドの量子欠陥を用いた生体内ナノスケール温度測定によって正確に測定される。 これらの手法は、細胞分裂を選択的に制御し、2つの細胞段階において分裂順序の反転を可能にする。 線虫c. elegansにおける初期胚発生の細胞周期の相同性は細胞間通信ではなく個々の細胞によって独立に決定されることが示唆された。 この方法は、多細胞生物の発達を制御し、局所摂動の結果として細胞分裂のタイミングを調節するための洞察を与えるのに使用できる。

Understanding the coordination of cell division timing is one of the outstanding questions in the field of developmental biology. One active control parameter of the cell cycle duration is temperature, as it can accelerate or decelerate the rate of biochemical reactions. However, controlled experiments at the cellular-scale are challenging due to the limited availability of biocompatible temperature sensors as well as the lack of practical methods to systematically control local temperatures and cellular dynamics. Here, we demonstrate a method to probe and control the cell division timing in Caenorhabditis elegans embryos using a combination of local laser heating and nanoscale thermometry. Local infrared laser illumination produces a temperature gradient across the embryo, which is precisely measured by in-vivo nanoscale thermometry using quantum defects in nanodiamonds. These techniques enable selective, controlled acceleration of the cell divisions, even enabling an inversion of division order at the two cell stage. Our data suggest that the cell cycle timing asynchrony of the early embryonic development in C. elegans is determined independently by individual cells rather than via cell-to-cell communication. Our method can be used to control the development of multicellular organisms and to provide insights into the regulation of cell division timings as a consequence of local perturbations.
翻訳日:2023-01-13 13:14:40 公開日:2020-01-08
# コヒーレント量子チャネルの識別

Coherent Quantum Channel Discrimination ( http://arxiv.org/abs/2001.02668v1 )

ライセンス: Link先を確認
Mark M. Wilde(参考訳) 本稿では,従来の量子チャネル識別のコヒーレント版として,コヒーレント量子チャネル識別を提案する。 コヒーレントチャネル識別(coherent channel discrimination)とは、検証者と証明者の間の量子インタラクティブな証明システムであり、証明者の目標は、最後にベル状態を蒸留するために重ね合わせで呼ばれる2つのチャネルを区別することである。 ここで考慮すべき重要な尺度はベル状態の蒸留の成功確率であり、この成功確率が量子超チャネルの作用により増大しないことを証明し、チャネルの識別可能性の基本的な尺度として確立する。 また、従来のチャネル識別の成功確率の観点から、この成功確率にいくつかの限界を確立する。 最後に、成功確率を計算できる明示的な半定義プログラムを提供する。

This paper introduces coherent quantum channel discrimination as a coherent version of conventional quantum channel discrimination. Coherent channel discrimination is phrased here as a quantum interactive proof system between a verifier and a prover, wherein the goal of the prover is to distinguish two channels called in superposition in order to distill a Bell state at the end. The key measure considered here is the success probability of distilling a Bell state, and I prove that this success probability does not increase under the action of a quantum superchannel, thus establishing this measure as a fundamental measure of channel distinguishability. Also, I establish some bounds on this success probability in terms of the success probability of conventional channel discrimination. Finally, I provide an explicit semi-definite program that can compute the success probability.
翻訳日:2023-01-13 13:14:18 公開日:2020-01-08
# テスト実行のエンコードと分類を学ぶ

Learning to Encode and Classify Test Executions ( http://arxiv.org/abs/2001.02444v1 )

ライセンス: Link先を確認
Foivos Tsimpourlas, Ajitha Rajan, Miltiadis Allamanis(参考訳) テスト実行の正確性を自動的に判断する課題は、テストオラクル問題と呼ばれ、自動テストにおける重要な課題の1つである。 この論文の目標は、一般的に、スケーラブルで正確である方法で、テストオラクルの問題を解決することである。 これを達成するために、私たちはテスト実行トレースよりも教師あり学習を使います。 実行トレースのごく一部をパスまたはフェールの判定でラベル付けします。 ラベル付きトレースを使用して、ニューラルネットワーク(NN)モデルをトレーニングし、プログラムの実行をパスする実行パターンとフェールする実行パターンを区別する。 このNNモデルを構築するための私たちのアプローチには、以下のステップがあります。 1.実行トレースをメソッド呼び出しとグローバル状態のシーケンスとして記録するプログラムを実行する。 2. 実行トレースのごく一部を評決でラベル付けする。 3. 実行トレースに情報を埋め込んだNNコンポーネントを固定長ベクトルに設計する。 4. 分類にトレース情報を利用するnnモデルの設計 5.プログラムから見つからない実行トレースの推論分類モデルを評価する。 異なるアプリケーションドメインのケーススタディを用いて、我々のアプローチを評価する。 1.Ethereumブロックチェーンからのモジュール 2. PyTorchディープラーニングフレームワークからのモジュール 3. Microsoft SEAL暗号化ライブラリコンポーネント 4. sedストリームエディタ、 5.値ポインタライブラリと 6. Linux パケット識別子 L7-Filter からの9つのネットワークプロトコル。 その結果,全対象プログラムの分類モデルでは95%以上の精度,リコール,特異性が得られた。 実験の結果,提案したニューラルネットワークモデルはテストオラクルとして非常に効果的であり,異なるアプリケーションドメインからのシステムやテストのパスとフェールを区別する実行パターンを学習できることがわかった。

The challenge of automatically determining the correctness of test executions is referred to as the test oracle problem and is one of the key remaining issues for automated testing. The goal in this paper is to solve the test oracle problem in a way that is general, scalable and accurate. To achieve this, we use supervised learning over test execution traces. We label a small fraction of the execution traces with their verdict of pass or fail. We use the labelled traces to train a neural network (NN) model to learn to distinguish runtime patterns for passing versus failing executions for a given program. Our approach for building this NN model involves the following steps, 1. Instrument the program to record execution traces as sequences of method invocations and global state, 2. Label a small fraction of the execution traces with their verdicts, 3. Designing a NN component that embeds information in execution traces to fixed length vectors, 4. Design a NN model that uses the trace information for classification, 5. Evaluate the inferred classification model on unseen execution traces from the program. We evaluate our approach using case studies from different application domains: 1. Module from Ethereum Blockchain, 2. Module from PyTorch deep learning framework, 3. Microsoft SEAL encryption library components, 4. Sed stream editor, 5. Value pointer library and 6. Nine network protocols from Linux packet identifier, L7-Filter. We found the classification models for all subject programs resulted in high precision, recall and specificity, over 95%, while only training with an average 9% of the total traces. Our experiments show that the proposed neural network model is highly effective as a test oracle and is able to learn runtime patterns to distinguish passing and failing test executions for systems and tests from different application domains.
翻訳日:2023-01-13 13:08:18 公開日:2020-01-08
# ブロックチェーンベースのスマートIoTトラストゾーン計測アーキテクチャ

Blockchain-based Smart-IoT Trust Zone Measurement Architecture ( http://arxiv.org/abs/2001.03002v1 )

ライセンス: Link先を確認
Jawad Ali, Toqeer Ali, Yazed Alsaawy, Ahmad Shahrafidz Khalid, Shahrulniza Musa(参考訳) IT産業の急速な成長に伴い、IoT(Internet of Things)は大きな注目を集め、私たちの環境の中心的な側面になっています。 IoTでは、モノ(デバイス)が人間の介入なしにデータを通信し、交換します。 このような自律性とIoTエコシステムの拡散は、デバイスを攻撃に対してより脆弱にする。 本稿では,外部ネットワークに信頼性を提供するIoT-Blockchainセットアップの動作モニタを提案する。 behavior monitorは各デバイスのアクティビティを抽出し、ディープオートエンコーダを使用して振る舞いを分析する。 さらに、ブロックチェーン上のアプリケーションやデータに対してセキュアな実行環境を提供するために、Trusted Execution Technology(Intel SGX)も組み込んでいます。 最後に、ミライアタックに感染した3つのIoTデバイスデータを分析する。 評価結果は,検出に必要な精度と時間の観点から,提案手法の有効性を示す。

With a rapid growth in the IT industry, Internet of Things (IoT) has gained a tremendous attention and become a central aspect of our environment. In IoT the things (devices) communicate and exchange the data without the act of human intervention. Such autonomy and proliferation of IoT ecosystem make the devices more vulnerable to attacks. In this paper, we propose a behavior monitor in IoT-Blockchain setup which can provide trust-confidence to outside networks. Behavior monitor extracts the activity of each device and analyzes the behavior using deep auto-encoders. In addition, we also incorporate Trusted Execution Technology (Intel SGX) in order to provide a secure execution environment for applications and data on blockchain. Finally, in evaluation we analyze three IoT devices data that is infected by mirai attack. The evaluation results demonstrate the ability of our proposed method in terms of accuracy and time required for detection.
翻訳日:2023-01-13 13:07:39 公開日:2020-01-08
# ボース・アインシュタイン凝縮体からの量子関連原子対の駆動

Driving Quantum Correlated Atom-Pairs from a Bose-Einstein Condensate ( http://arxiv.org/abs/2001.02315v1 )

ライセンス: Link先を確認
Liang-Ying Chih and Murray Holland(参考訳) 量子縮退領域に量子ガスを冷却する能力は、極端な量子状態制御の可能性を開いた。 本稿では,2体S波散乱長の周期変調により,ボース・アインシュタイン凝縮体からの準音素対の共振増幅を示す制御プロトコルについて検討する。 これは、運動量値が分光学的に調整できる所定の運動量で量子揺らぎを選択的に増幅する能力を示す。 粒子対を同じエネルギーで励起するが反対のモーメントを励起する古典的な外部場は、非線形光学におけるパラメトリック増幅器結晶のコヒーレント駆動の非線形性を想起させる。 このため、変調周波数と共振して準粒子モードにおいて、進化が圧縮された物質波状態を生成することが期待できる。 我々のモデルと分析は、爆発する花火に似た飛行時間パターンを観測したClarkらによる最近の実験によって動機づけられた。 ドライブは高いコヒーレントなプロセスであるため、観測された火工パターンは2体相関振幅の単調な成長に起因すると解釈し、ジェットは、ほぼ等しいモーメントと反対のモーメントを持つ相関原子対を含むべきである。 本稿では,ラムゼイ干渉法を用いてこれらの相関関係を実験的に探究する潜在的将来の実験を提案する。

The ability to cool quantum gases into the quantum degenerate realm has opened up possibilities for an extreme level of quantum-state control. In this paper, we investigate one such control protocol that demonstrates the resonant amplification of quasimomentum pairs from a Bose-Einstein condensate by the periodic modulation of the two-body s-wave scattering length. This shows a capability to selectively amplify quantum fluctuations with a predetermined momentum, where the momentum value can be spectroscopically tuned. A classical external field that excites pairs of particles with the same energy but opposite momenta is reminiscent of the coherently-driven nonlinearity in a parametric amplifier crystal in nonlinear optics. For this reason, it may be anticipated that the evolution will generate a squeezed matter-wave state in the quasiparticle mode on resonance with the modulation frequency. Our model and analysis is motivated by a recent experiment by Clark et al. that observed a time-of-flight pattern similar to an exploding firework. Since the drive is a highly coherent process, we interpret the observed firework patterns as arising from a monotonic growth in the two-body correlation amplitude, so that the jets should contain correlated atom pairs with nearly equal and opposite momenta. We propose a potential future experiment based on applying Ramsey interferometry to experimentally probe these pair correlations.
翻訳日:2023-01-13 13:07:27 公開日:2020-01-08
# ダイヤモンド量子磁気メトリーを用いた交流磁気信号の位相とマグニチュードの同時広視野イメージング

Simultaneous Wide-field Imaging of Phase and Magnitude of AC Magnetic Signal Using Diamond Quantum Magnetometry ( http://arxiv.org/abs/2001.02374v1 )

ライセンス: Link先を確認
Kosuke Mizuno, Hitoshi Ishiwata, Yuta Masuyama, Takayuki Iwasaki, Mutsuko Hatano(参考訳) ダイヤモンド量子磁気測定による交流磁気信号の分光分析は誘導型イメージングに有望な技術である。 xy8のような従来の動的デカップリングは、マグニチュードや位相に依存する複雑な振動磁気信号の高感度を提供し、各パラメータの高スループット検出を複雑にする。 本研究では,逐次計測プロトコルを用いて,大きさと位相の独立かつ同時検出のための簡易な計測手法を示す。 広視野イメージング実験は, 約100$m2乗の観測領域を有する振動磁場に対して行った。 単画素位相精度は2.1^\circ$で0.76$\mu$Tの交流磁気信号であった。 本手法はインダクティブインスペクションやインピーダンスイメージングなどの潜在的な応用を可能にする。

Spectroscopic analysis of AC magnetic signal using diamond quantum magnetometry is a promising technique for inductive imaging. Conventional dynamic decoupling like XY8 provides a high sensitivity of an oscillating magnetic signal with intricate dependence on magnitude and phase, complicating high throughput detection of each parameter. In this study, a simple measurement scheme for independent and simultaneous detection of magnitude and phase is demonstrated by a sequential measurement protocol. Wide-field imaging experiment was performed for an oscillating magnetic field with approximately 100$\mu$m-squared observation area. Single pixel phase precision was $2.1^\circ$ for 0.76$\mu$T AC magnetic signal. Our method enables potential applications including inductive inspection and impedance imaging.
翻訳日:2023-01-13 13:07:02 公開日:2020-01-08
# 相互作用フェルミオンの近似熱電場ダイナミクス

Approximate thermofield dynamics of interacting fermions ( http://arxiv.org/abs/2001.02713v1 )

ライセンス: Link先を確認
Edward B. Baker III(参考訳) 熱場力学の文脈で定義される指数演算子展開を導入することで、熱アンサンブルにおけるフェルミオンの多粒子シュロディンガー方程式を解析する。 この拡張は励起に基づく変化を通じて各時点において変動的に最適化され、時間依存問題を解くための近似微分方程式を生成する方法が導かれる。 この方法は基底変換と切断スキームの特定の集合に適用され、低温限界においてハーツリーフォック解に還元される微分方程式の明示的な集合に繋がる。 この手順は、将来の出版で追求される量子相関を含むように一般化することもできる。

We analyze the many-particle Schrodinger equation for fermions in a thermal ensemble by introducing an exponential operator expansion, defined in the context of thermofield dynamics. The expansion is optimized variationally at each time step through changes in the basis of excitations, which leads to a method of generating approximate differential equations to solve the time dependent problem, and can also be used to cool the system in imaginary time. The method is applied for a specific set of basis transformations and truncation scheme, leading to an explicit set of differential equations that reduce to the Hartree Fock solution in the low temperature limit. This procedure can also be generalized to include quantum correlation, which will be pursued in a future publication.
翻訳日:2023-01-13 13:05:33 公開日:2020-01-08
# 双方向Gated Recurrent Unit Networkによるテーブル構造抽出

Table Structure Extraction with Bi-directional Gated Recurrent Unit Networks ( http://arxiv.org/abs/2001.02501v1 )

ライセンス: Link先を確認
Saqib Ali Khan, Syed Muhammad Daniyal Khalid, Muhammad Ali Shahzad and Faisal Shafait(参考訳) テーブルは要約され構造化された情報を読者に提示するので、表構造抽出は文書理解アプリケーションの重要な部分となる。 しかし,表の構造の同定は,表のレイアウトやスタイルに大きな変化があるだけでなく,ページのレイアウトや騒音汚染レベルの変化によっても困難である。 表の構造を特定するために多くの研究が行われており、その大部分は、表のレイアウトを手作業で選択するための光学文字認識(OCR)によるヒューリスティックスの適用に基づいている。 これらの手法は、表レイアウトのばらつきとOCRが生成したエラーのために、うまく一般化できない。 本稿では,文書画像中の検出されたテーブルから列や列を高精度に抽出する,頑健なディープラーニング手法を提案する。 提案手法では、まずテーブルイメージを前処理し、次にGRU(Gated Recurrent Units)を備えた双方向のリカレントニューラルネットワークに供給し、続いてソフトマックスアクティベーションを備えた全接続層に供給する。 ネットワークは、トップからボトムまでの画像を左から右にスキャンし、各入力を行分離子またはカラム分離子として分類する。 我々は、現在利用可能なUNLVとICDAR 2013データセットのベンチマークを行い、最先端のテーブル構造抽出システムよりも大幅に性能を向上した。

Tables present summarized and structured information to the reader, which makes table structure extraction an important part of document understanding applications. However, table structure identification is a hard problem not only because of the large variation in the table layouts and styles, but also owing to the variations in the page layouts and the noise contamination levels. A lot of research has been done to identify table structure, most of which is based on applying heuristics with the aid of optical character recognition (OCR) to hand pick layout features of the tables. These methods fail to generalize well because of the variations in the table layouts and the errors generated by OCR. In this paper, we have proposed a robust deep learning based approach to extract rows and columns from a detected table in document images with a high precision. In the proposed solution, the table images are first pre-processed and then fed to a bi-directional Recurrent Neural Network with Gated Recurrent Units (GRU) followed by a fully-connected layer with soft max activation. The network scans the images from top-to-bottom as well as left-to-right and classifies each input as either a row-separator or a column-separator. We have benchmarked our system on publicly available UNLV as well as ICDAR 2013 datasets on which it outperformed the state-of-the-art table structure extraction systems by a significant margin.
翻訳日:2023-01-13 13:05:15 公開日:2020-01-08
# 非バランス医用画像分割のためのコンテキストベース深層学習手法

A context based deep learning approach for unbalanced medical image segmentation ( http://arxiv.org/abs/2001.02387v1 )

ライセンス: Link先を確認
Balamurali Murugesan, Kaushik Sarveswaran, Vijaya Raghavan S, Sharath M Shankaranarayana, Keerthi Ram and Mohanasankar Sivaprakasam(参考訳) 医用画像の自動分割は多くの医療処置において重要なステップである。 近年,U-NetやGAN(Generative Adversarial Nets)など,様々な医療画像セグメンテーションタスクにディープラーニングネットワークが広く利用されている。 前景背景階級の不均衡は医用画像でよく見られる現象であり、U-Netは、そのクロスエントロピー(CE)目的関数のためにクラス不均衡を扱うのに困難である。 同様に、GANは画像全体を実物または偽物として分類するため、クラス不均衡に悩まされる。 判別器は本質的に深層学習分類器であるため、小さな構造の小さな変化を正しく識別することはできない。 これらの課題に対処するため、U-Netのための新しいコンテキストベースのCE損失関数と、新しいアーキテクチャSeg-GLGANを提案する。 文脈ベースCEは、画像全体とその関心領域(ROI)で得られたCEの線形結合である。 Seg-GLGANでは、画像全体とそのROIが入力として供給される新しい文脈識別器を導入し、局所的なコンテキストを強制する。 ProMISE12とACDCの2つの挑戦的アンバランスデータセットを用いて広範な実験を行った。 提案手法から得られたセグメンテーション結果は,様々なベースライン手法と比較して,より優れたセグメンテーション指標を与える。

Automated medical image segmentation is an important step in many medical procedures. Recently, deep learning networks have been widely used for various medical image segmentation tasks, with U-Net and generative adversarial nets (GANs) being some of the commonly used ones. Foreground-background class imbalance is a common occurrence in medical images, and U-Net has difficulty in handling class imbalance because of its cross entropy (CE) objective function. Similarly, GAN also suffers from class imbalance because the discriminator looks at the entire image to classify it as real or fake. Since the discriminator is essentially a deep learning classifier, it is incapable of correctly identifying minor changes in small structures. To address these issues, we propose a novel context based CE loss function for U-Net, and a novel architecture Seg-GLGAN. The context based CE is a linear combination of CE obtained over the entire image and its region of interest (ROI). In Seg-GLGAN, we introduce a novel context discriminator to which the entire image and its ROI are fed as input, thus enforcing local context. We conduct extensive experiments using two challenging unbalanced datasets: PROMISE12 and ACDC. We observe that segmentation results obtained from our methods give better segmentation metrics as compared to various baseline methods.
翻訳日:2023-01-13 12:58:13 公開日:2020-01-08
# DC-WCNN:MR画像再構成のためのウェーブレットに基づく畳み込みニューラルネットワークのディープカスケード

DC-WCNN: A deep cascade of wavelet based convolutional neural networks for MR Image Reconstruction ( http://arxiv.org/abs/2001.02397v1 )

ライセンス: Link先を確認
Sriprabha Ramanarayanan, Balamurali Murugesan, Keerthi Ram and Mohanasankar Sivaprakasam(参考訳) 磁気共鳴(MR)画像再構成のために,いくつかの畳み込みニューラルネットワーク(CNN)が開発された。 U-NetはMR画像再構成のベースラインアーキテクチャであることが示されている。 しかし、サブサンプリングはプール層によって行われるため、情報損失が発生し、その結果、再構成された画像の細部がぼやけてしまう。 微細構造を復元するU-Netアーキテクチャの修正を提案する。 提案するネットワークは、ウェーブレットパケット変換に基づくエンコーダデコーダCNNであり、残差学習はCNNと呼ばれる。 提案するWCNNは、非プーリング層や残差接続の代わりに、プールや逆ウェーブレット変換の代わりに離散ウェーブレット変換を持つ。 また,高品質MR再構成を実現するため,WCNNとk空間データ忠実度ユニットのカスケードで構成されるディープカスケードフレームワーク(DC-WCNN)を提案する。 実験の結果, wcnn と dc-wcnn は, 他の手法と比較して, 評価指標と細部回復率の面で有望な結果をもたらすことがわかった。

Several variants of Convolutional Neural Networks (CNN) have been developed for Magnetic Resonance (MR) image reconstruction. Among them, U-Net has shown to be the baseline architecture for MR image reconstruction. However, sub-sampling is performed by its pooling layers, causing information loss which in turn leads to blur and missing fine details in the reconstructed image. We propose a modification to the U-Net architecture to recover fine structures. The proposed network is a wavelet packet transform based encoder-decoder CNN with residual learning called CNN. The proposed WCNN has discrete wavelet transform instead of pooling and inverse wavelet transform instead of unpooling layers and residual connections. We also propose a deep cascaded framework (DC-WCNN) which consists of cascades of WCNN and k-space data fidelity units to achieve high quality MR reconstruction. Experimental results show that WCNN and DC-WCNN give promising results in terms of evaluation metrics and better recovery of fine details as compared to other methods.
翻訳日:2023-01-13 12:57:52 公開日:2020-01-08
# モーションアーティファクト抑制のための深部oct血管造影画像生成

Deep OCT Angiography Image Generation for Motion Artifact Suppression ( http://arxiv.org/abs/2001.02512v1 )

ライセンス: Link先を確認
Julian Hossbach, Lennart Husvogt, Martin F. Kraus, James G. Fujimoto, Andreas K. Maier(参考訳) 光コヒーレンストモグラフィ(OCT)取得時の眼球運動、点眼、その他の動きは、OCTA(OCT angiography)画像に処理されると、人工物につながる可能性がある。 影響を受けるスキャンは、高強度(白)または欠落(黒)の領域として出現し、結果として情報が失われる。 本研究の目的は,OCTからOCTAへの画像変換の深部生成モデルを用いて,このギャップを埋めることである。 したがって、U-Netは、OCTパッチから血管造影情報を抽出するように訓練される。 推定時に、検出アルゴリズムは、その環境に基づいて外部のOCTAスキャンを見つけ、それをトレーニングされたネットワークに置き換える。 生成モデルが欠落したスキャンを強化できることを示します。 拡張ボリュームは、3次元セグメンテーションや診断値の増加に使用できる。

Eye movements, blinking and other motion during the acquisition of optical coherence tomography (OCT) can lead to artifacts, when processed to OCT angiography (OCTA) images. Affected scans emerge as high intensity (white) or missing (black) regions, resulting in lost information. The aim of this research is to fill these gaps using a deep generative model for OCT to OCTA image translation relying on a single intact OCT scan. Therefore, a U-Net is trained to extract the angiographic information from OCT patches. At inference, a detection algorithm finds outlier OCTA scans based on their surroundings, which are then replaced by the trained network. We show that generative models can augment the missing scans. The augmented volumes could then be used for 3-D segmentation or increase the diagnostic value.
翻訳日:2023-01-13 12:57:35 公開日:2020-01-08
# 音声信号からのストレス知覚のためのEmo-CNN:脳化学のアプローチ

Emo-CNN for Perceiving Stress from Audio Signals: A Brain Chemistry Approach ( http://arxiv.org/abs/2001.02329v1 )

ライセンス: Link先を確認
Anup Anand Deshmukh, Catherine Soladie, Renaud Seguier(参考訳) 感情は、患者の感情的な行動を集めるために、医療などの多くのアプリケーションにおいて重要な役割を果たす。 人間の感情を理解する上で、その効果により、より重要視される感情がある。 本稿では,音声信号から人間のストレスをモデル化する手法を提案する。 音声感情検出における研究課題は、ストレスの意味を正確に定義し、正確な方法で分類できることである。 最先端のディープラーニング分類手法を含む教師付き機械学習モデルは、クリーンでラベル付きデータの可用性に依存している。 感情計算と感情検出における問題の1つは、応力の注釈付きデータの限られた量である。 既存のラベル付きストレス感情データセットは、アノテーションの知覚に非常に主観的です。 本稿では、畳み込みニューラルネットワークにおける従来のMFCC機能の利用を利用して、特徴選択の最初の問題に対処する。 実験の結果,Emo-CNNは複数のデータセットにまたがる既存の手法よりも一貫して,はるかに優れていることがわかった。 Emo-DBデータセットの分類精度は90.2%に達する。 ストレスラベルにおける主観性の第二およびより重要な問題に取り組むために、我々は感情の3次元射影であるロヴハイムの立方体を用いる。 立方体は、これらの神経伝達物質と3次元空間における感情の位置との関係を説明することを目的としている。 Emo-CNNから学習した感情表現を3つのPCA(主成分分析)を用いて立方体にマッピングし、人間のストレスをモデル化する。 このアプローチは、ラベル付きストレスデータの必要性を回避するだけでなく、ロヴハイムの立方体から与えられる感情の心理学的理論にも適合する。 この研究は、人工知能と人間の感情の化学とを結びつけるための第一歩だと考えています。

Emotion plays a key role in many applications like healthcare, to gather patients emotional behavior. There are certain emotions which are given more importance due to their effectiveness in understanding human feelings. In this paper, we propose an approach that models human stress from audio signals. The research challenge in speech emotion detection is defining the very meaning of stress and being able to categorize it in a precise manner. Supervised Machine Learning models, including state of the art Deep Learning classification methods, rely on the availability of clean and labelled data. One of the problems in affective computation and emotion detection is the limited amount of annotated data of stress. The existing labelled stress emotion datasets are highly subjective to the perception of the annotator. We address the first issue of feature selection by exploiting the use of traditional MFCC features in Convolutional Neural Network. Our experiments show that Emo-CNN consistently and significantly outperforms the popular existing methods over multiple datasets. It achieves 90.2% categorical accuracy on the Emo-DB dataset. To tackle the second and the more significant problem of subjectivity in stress labels, we use Lovheim's cube, which is a 3-dimensional projection of emotions. The cube aims at explaining the relationship between these neurotransmitters and the positions of emotions in 3D space. The learnt emotion representations from the Emo-CNN are mapped to the cube using three component PCA (Principal Component Analysis) which is then used to model human stress. This proposed approach not only circumvents the need for labelled stress data but also complies with the psychological theory of emotions given by Lovheim's cube. We believe that this work is the first step towards creating a connection between Artificial Intelligence and the chemistry of human emotions.
翻訳日:2023-01-13 12:57:19 公開日:2020-01-08
# 自律型リファクタリングボットの認識と受容

Perception and Acceptance of an Autonomous Refactoring Bot ( http://arxiv.org/abs/2001.02553v1 )

ライセンス: Link先を確認
Marvin Wyrich, Regina Hebig, Stefan Wagner, Riccardo Scandariato(参考訳) ソフトウェア開発タスクにおける自動サポートのための自律ボットの使用が増えている。 しかし、過去には必ずしも肯定的ではなく、時には人間に比べて否定的な偏見を経験していた。 我々は、学生ソフトウェア開発プロジェクトに41日間、自律的なリファクタリングボットを配置する質的研究を行った。 最後に,ボットのコントリビューションを人間のコントリビューションと比較してレビューする場合,開発者がボットをどのように感じているか,あるいは批判的であるかを確認するため,半構造化インタビューを行った。 私たちの調査結果は、ボットは有益で邪魔にならない貢献者だと考えられており、開発者は人間の同僚ほど批判的ではなかったが、ボットに責任を感じたチームメンバーはごくわずかだったことを示している。

The use of autonomous bots for automatic support in software development tasks is increasing. In the past, however, they were not always perceived positively and sometimes experienced a negative bias compared to their human counterparts. We conducted a qualitative study in which we deployed an autonomous refactoring bot for 41 days in a student software development project. In between and at the end, we conducted semi-structured interviews to find out how developers perceive the bot and whether they are more or less critical when reviewing the contributions of a bot compared to human contributions. Our findings show that the bot was perceived as a useful and unobtrusive contributor, and developers were no more critical of it than they were about their human colleagues, but only a few team members felt responsible for the bot.
翻訳日:2023-01-13 12:56:52 公開日:2020-01-08
# 連続離散ガウスフィルタと平滑化のためのテイラーモーメント展開

Taylor Moment Expansion for Continuous-Discrete Gaussian Filtering and Smoothing ( http://arxiv.org/abs/2001.02466v1 )

ライセンス: Link先を確認
Zheng Zhao, Toni Karvonen, Roland Hostettler, Simo S\"arkk\"a(参考訳) 本論文は, 連続離散状態空間モデルにおける非線形ガウスフィルタと平滑化に関心を持ち, 動的モデルをIt\^{o}確率微分方程式(SDE)として定式化し, 離散時間で測定値を得る。 本稿では,SDEのモーメントを時間的テイラー展開で近似する新しいテイラーモーメント展開(TME)ガウスフィルタとスムーズなフィルタを提案する。 古典線型化や it\^{o}-テイラーのアプローチとは異なり、テイラー展開はモデル内の非線形関数のテイラー展開を用いるのではなく、モーメント関数を直接および時間変数で生成する。 共分散推定の正の定性やTMEガウスフィルタの安定性などの理論的性質を解析し、より滑らかにする。 数値実験により,提案したTMEガウスフィルタは,推定精度および数値安定性の観点から,最先端手法よりもスムーズな性能を示した。

The paper is concerned with non-linear Gaussian filtering and smoothing in continuous-discrete state-space models, where the dynamic model is formulated as an It\^{o} stochastic differential equation (SDE), and the measurements are obtained at discrete time instants. We propose novel Taylor moment expansion (TME) Gaussian filter and smoother which approximate the moments of the SDE with a temporal Taylor expansion. Differently from classical linearisation or It\^{o}--Taylor approaches, the Taylor expansion is formed for the moment functions directly and in time variable, not by using a Taylor expansion on the non-linear functions in the model. We analyse the theoretical properties, including the positive definiteness of the covariance estimate and stability of the TME Gaussian filter and smoother. By numerical experiments, we demonstrate that the proposed TME Gaussian filter and smoother significantly outperform the state-of-the-art methods in terms of estimation accuracy and numerical stability.
翻訳日:2023-01-13 12:56:40 公開日:2020-01-08
# $\mu$VulDeePecker: マルチクラス脆弱性検出のためのディープラーニングベースシステム

$\mu$VulDeePecker: A Deep Learning-Based System for Multiclass Vulnerability Detection ( http://arxiv.org/abs/2001.02334v1 )

ライセンス: Link先を確認
Deqing Zou, Sujuan Wang, Shouhuai Xu, Zhen Li, Hai Jin(参考訳) きめ細かいソフトウェア脆弱性の検出は重要で難しい問題です。 理想的には、検出システム(または検出装置)は、プログラムに脆弱性が含まれているかどうかを検出できるだけでなく、問題の脆弱性の種類を特定できるべきである。 ディープラーニングに基づく既存の脆弱性検出手法は、脆弱性の存在(バイナリ分類や検出問題に対処する)を検出することができるが、脆弱性のタイプを特定できない(マルチクラス分類に対処できない)。 本稿では,マルチクラス脆弱性検出のための最初のディープラーニングベースシステムである$\mu$VulDeePeckerを提案する。 コードアテンション(code attention)という概念は、サンプルが小さい場合でも、脆弱性の種類を特定するのに役立つ情報をキャプチャするものだ。 この目的で、スクラッチからデータセットを作成し、$\mu$vuldeepeckerの有効性を評価するために使用します。 実験の結果、$\mu$VulDeePeckerはマルチクラスの脆弱性検出に有効であり、(データ依存以外の)制御依存性の調整がより高い検出能力をもたらすことが示された。

Fine-grained software vulnerability detection is an important and challenging problem. Ideally, a detection system (or detector) not only should be able to detect whether or not a program contains vulnerabilities, but also should be able to pinpoint the type of a vulnerability in question. Existing vulnerability detection methods based on deep learning can detect the presence of vulnerabilities (i.e., addressing the binary classification or detection problem), but cannot pinpoint types of vulnerabilities (i.e., incapable of addressing multiclass classification). In this paper, we propose the first deep learning-based system for multiclass vulnerability detection, dubbed $\mu$VulDeePecker. The key insight underlying $\mu$VulDeePecker is the concept of code attention, which can capture information that can help pinpoint types of vulnerabilities, even when the samples are small. For this purpose, we create a dataset from scratch and use it to evaluate the effectiveness of $\mu$VulDeePecker. Experimental results show that $\mu$VulDeePecker is effective for multiclass vulnerability detection and that accommodating control-dependence (other than data-dependence) can lead to higher detection capabilities.
翻訳日:2023-01-13 12:56:20 公開日:2020-01-08
# 協調連結車両のマルチエージェント深部強化学習

Multi-Agent Deep Reinforcement Learning for Cooperative Connected Vehicles ( http://arxiv.org/abs/2001.02337v1 )

ライセンス: Link先を確認
Dohyun Kwon and Joongheon Kim(参考訳) ミリ波(mmWave)基地局は、接続車両に対して豊富な高容量チャネル資源を提供することができ、ダウンリンクスループットの点でQoSの品質を向上させることができる。 mmWave基地局は、既設の基地局(例えばマクロセル基地局)間で運用でき、車両はどの基地局を関連づけるか、どのチャンネルを異種ネットワークで利用するかを決定することができる。 さらに、mm波通信の非omni特性により、車両はmm波基地局へのビーム方向の調整方法を決定する。 しかし、このような結合問題は計算コストが高く、NPハードであり、組合せ的特徴を持つ。 本稿では,車両の総報酬(ダウンリンクスループット)を最大化するために,多エージェント深部強化学習(DRL)を用いた3層不均一車両ネットワーク(HetVNet)の課題を解決する。 マルチエージェント・ディープ決定性ポリシー勾配 (MADDPG) アプローチを導入し, 連続動作領域における最適ポリシーを実現する。

Millimeter-wave (mmWave) base station can offer abundant high capacity channel resources toward connected vehicles so that quality-of-service (QoS) of them in terms of downlink throughput can be highly improved. The mmWave base station can operate among existing base stations (e.g., macro-cell base station) on non-overlapped channels among them and the vehicles can make decision what base station to associate, and what channel to utilize on heterogeneous networks. Furthermore, because of the non-omni property of mmWave communication, the vehicles decide how to align the beam direction toward mmWave base station to associate with it. However, such joint problem requires high computational cost, which is NP-hard and has combinatorial features. In this paper, we solve the problem in 3-tier heterogeneous vehicular network (HetVNet) with multi-agent deep reinforcement learning (DRL) in a way that maximizes expected total reward (i.e., downlink throughput) of vehicles. The multi-agent deep deterministic policy gradient (MADDPG) approach is introduced to achieve optimal policy in continuous action domain.
翻訳日:2023-01-13 12:55:59 公開日:2020-01-08
# hypersched: 期限付きモデル開発のための動的リソース再配置

HyperSched: Dynamic Resource Reallocation for Model Development on a Deadline ( http://arxiv.org/abs/2001.02338v1 )

ライセンス: Link先を確認
Richard Liaw, Romil Bhardwaj, Lisa Dunlap, Yitian Zou, Joseph Gonzalez, Ion Stoica, Alexey Tumanov(参考訳) 機械学習トレーニングワークロードのリソーススケジューリングに関する以前の研究は、仕事の完了時間の最小化に重点を置いていた。 一般的に、これらのモデルトレーニングワークロードは、ハイパーパラメータサーチにおける学習プロセスを制御する多数のパラメータ値をまとめて検索する。 最良性能のハイパーパラメータ構成(トライアル)を特定し、最大に設定し、可能な限り高い精度で達成することが好ましい。 複数の構成を評価し、最も有望なものを一定の期限までにトレーニングするために、動的アプリケーションレベルのリソーススケジューラであるHyperSchedを設計し、構築します。 HyperSchedは、以前の作業で見過ごされたハイパーパラメータ検索ワークロードの3つの特性 – 試行錯誤性、さまざまな構成の段階的に識別可能なランク付け、時空制約 – を活用して、さまざまなベンチマークで標準的なハイパーパラメータ検索アルゴリズムを上回ります。

Prior research in resource scheduling for machine learning training workloads has largely focused on minimizing job completion times. Commonly, these model training workloads collectively search over a large number of parameter values that control the learning process in a hyperparameter search. It is preferable to identify and maximally provision the best-performing hyperparameter configuration (trial) to achieve the highest accuracy result as soon as possible. To optimally trade-off evaluating multiple configurations and training the most promising ones by a fixed deadline, we design and build HyperSched -- a dynamic application-level resource scheduler to track, identify, and preferentially allocate resources to the best performing trials to maximize accuracy by the deadline. HyperSched leverages three properties of a hyperparameter search workload over-looked in prior work - trial disposability, progressively identifiable rankings among different configurations, and space-time constraints - to outperform standard hyperparameter search algorithms across a variety of benchmarks.
翻訳日:2023-01-13 12:55:38 公開日:2020-01-08
# 半系列確率モデルによる屋内局在化の促進

Semi-Sequential Probabilistic Model For Indoor Localization Enhancement ( http://arxiv.org/abs/2001.02400v1 )

ライセンス: Link先を確認
Minh Tu Hoang, Brosnan Yuen, Xiaodai Dong, Tao Lu, Robert Westendorp, and Kishore Reddy(参考訳) 本稿では,短期記憶を付加した半系列確率モデル(ssp)を提案する。 従来の確率的手法は通常、データベース内の位置を無差別に扱う。 対照的に、SSPは、屋内環境におけるユーザの速度が制限されており、前の位置に近い位置が他の位置よりも高い確率を持つため、以前の位置の情報を活用して、予測可能な位置を決定する。 SSPは、以前の位置情報を利用するが、ユーザの正確な移動速度と方向を必要としない。 受信信号強度インジケータ(RSSI)とチャネル状態情報(CSI)指紋を用いた現場実験により、SSPは最大誤差を低減し、既存の確率的アプローチの性能を25%から30%向上させることを示した。

This paper proposes a semi-sequential probabilistic model (SSP) that applies an additional short term memory to enhance the performance of the probabilistic indoor localization. The conventional probabilistic methods normally treat the locations in the database indiscriminately. In contrast, SSP leverages the information of the previous position to determine the probable location since the user's speed in an indoor environment is bounded and locations near the previous one have higher probability than the other locations. Although the SSP utilizes the previous location information, it does not require the exact moving speed and direction of the user. On-site experiments using the received signal strength indicator (RSSI) and channel state information (CSI) fingerprints for localization demonstrate that SSP reduces the maximum error and boosts the performance of existing probabilistic approaches by 25% - 30%.
翻訳日:2023-01-13 12:55:21 公開日:2020-01-08
# フォノン遮断による光学系における量子ゲートの実装の提案

A proposal for the implementation of quantum gates in an optomechanical system via phonon blockade ( http://arxiv.org/abs/2001.03003v1 )

ライセンス: Link先を確認
Nilakantha Meher(参考訳) 本稿では,フォノン遮断に基づく光機械システムにおいて,量子制御notゲートと量子位相ゲートを実装する方式を提案する。 システムパラメータの適切な選択のために、両方の量子ゲート演算のフィデリティは散逸がなければユニティに非常に近い。 マイクロ波共振器に結合したメカニカル共振器における最近得られた実験値を用いて、量子ゲートを非常に高い忠実度で実験的に実現できることを示す。

We propose a scheme to implement quantum controlled NOT gate and quantum phase gate in an optomechanical system based on phonon blockade. For appropriate choices of system parameters, fidelities of both the quantum gate operations are very close to unity in the absence of dissipation. Using recently achieved experimental values in a mechanical resonator coupled to a microwave cavity, we show that the quantum gate can be realized experimentally with very high fidelity.
翻訳日:2023-01-13 12:48:42 公開日:2020-01-08
# 量子力学の理解:精密言語におけるレビューと合成

Understanding quantum mechanics: a review and synthesis in precise language ( http://arxiv.org/abs/2001.03306v1 )

ライセンス: Link先を確認
Brian Drummond(参考訳) このレビューは、量子力学の理解において、範囲が広く、主題の現在の状態を表す文献を十分に反映することを目的としている。 明瞭度を高めるために, レビューソースのコヒーレントな合成という形で, 主な知見を提示する。 このレビューは量子力学のコア特性を強調している。 1つは、異なる測定タイプに対して同じ準備されたシステムのアンサンブルの集合反応における統計的バランスである。 もう一つは、状態は未来の事象の確率的側面を規定する数学的用語であり、様々な状況におけるシステムの集合に関するものである。 これらの特徴は、絡み合い、測定、広く議論された実験と分析に関する有益な洞察を与える。 このレビューは、量子力学を理解するための特定のアプローチによって、これらの洞察がどのようにサポートされ、説明され、開発されるかを考えることで締めくくられる。 レビューでは、数学的でない言語(用語の定義)と厳密に(一貫性のある意味)を使用し、そのような言語のみを使用する。 量子力学よりも独立した現実を記述した理論は、まだ可能であるかもしれない。 そのような理論の追求の1つのステップは、量子力学の理解方法に関するより深いコンセンサスに達することである。 このレビューは、そのより大きなコンセンサスを達成するために貢献することを目的としています。

This review, of the understanding of quantum mechanics, is broad in scope, and aims to reflect enough of the literature to be representative of the current state of the subject. To enhance clarity, the main findings are presented in the form of a coherent synthesis of the reviewed sources. The review highlights core characteristics of quantum mechanics. One is statistical balance in the collective response of an ensemble of identically prepared systems, to differing measurement types. Another is that states are mathematical terms prescribing probability aspects of future events, relating to an ensemble of systems, in various situations. These characteristics then yield helpful insights on entanglement, measurement, and widely-discussed experiments and analyses. The review concludes by considering how these insights are supported, illustrated and developed by some specific approaches to understanding quantum mechanics. The review uses non-mathematical language precisely (terms defined) and rigorously (consistent meanings), and uses only such language. A theory more descriptive of independent reality than is quantum mechanics may yet be possible. One step in the pursuit of such a theory is to reach greater consensus on how to understand quantum mechanics. This review aims to contribute to achieving that greater consensus, and so to that pursuit.
翻訳日:2023-01-13 12:48:34 公開日:2020-01-08
# 低CPランクランダム圧縮テンソルの回収性について

On Recoverability of Randomly Compressed Tensors with Low CP Rank ( http://arxiv.org/abs/2001.02370v1 )

ライセンス: Link先を確認
Shahana Ibrahim, Xiao Fu, Xingguo Li(参考訳) 我々の関心は、圧縮テンソルの可逆性に関係しており、 \textit{canonical polyadic decomposition} (CPD) モデルに基づく。 考慮された問題は、ハイパースペクトル画像やビデオ圧縮など、多くのアプリケーションでうまく動機付けられている。 我々は、テンソルがsubgaussian linear mappingによって圧縮された場合、測定の数がモデルパラメータと同じ大きさであればテンソルは回復可能であることを示します。 我々の証明は, 集合被覆技術を用いて CPD モデルの下で \textit{restricted isometry property} (R.I.P.) を導出することに基づいており, 古典的な圧縮センシングのフレーバーを示す。 新しい回復可能性の結果、圧縮cpテンソル回復問題への理解が深まり、要素が必ずしも連続あるいはスパースではないテンソルを回復するための理論的保証を提供する。

Our interest lies in the recoverability properties of compressed tensors under the \textit{canonical polyadic decomposition} (CPD) model. The considered problem is well-motivated in many applications, e.g., hyperspectral image and video compression. Prior work studied this problem under somewhat special assumptions---e.g., the latent factors of the tensor are sparse or drawn from absolutely continuous distributions. We offer an alternative result: We show that if the tensor is compressed by a subgaussian linear mapping, then the tensor is recoverable if the number of measurements is on the same order of magnitude as that of the model parameters---without strong assumptions on the latent factors. Our proof is based on deriving a \textit{restricted isometry property} (R.I.P.) under the CPD model via set covering techniques, and thus exhibits a flavor of classic compressive sensing. The new recoverability result enriches the understanding to the compressed CP tensor recovery problem; it offers theoretical guarantees for recovering tensors whose elements are not necessarily continuous or sparse.
翻訳日:2023-01-13 12:48:13 公開日:2020-01-08
# 平均距離分類器の一般化について

On a Generalization of the Average Distance Classifier ( http://arxiv.org/abs/2001.02430v1 )

ライセンス: Link先を確認
Sarbojit Roy, Soham Sarkar and Subhajit Dutta(参考訳) 高次元、低サンプルサイズ(hdlss)設定では、ユークリッド距離に基づく単純な平均距離分類器は、位置差がスケール差によって隠されている場合、性能が劣る。 この問題を正すため、chan and hall (2009) によって平均距離分類器の変更が提案された。 しかし、人口が場所や規模と他の面で異なる場合、既存の分類器は識別できない。 本稿では,この問題に取り組むために,平均距離分類器の簡単な変換を提案する。 結果として生じる分類器は、下位の人口が同じ位置と規模を持つ場合でも、非常によく機能する。 提案する分類器の高次元挙動を理論的に検討した。 シミュレーションおよび実データを用いた数値実験により,提案手法の有用性が示された。

In high dimension, low sample size (HDLSS)settings, the simple average distance classifier based on the Euclidean distance performs poorly if differences between the locations get masked by the scale differences. To rectify this issue, modifications to the average distance classifier was proposed by Chan and Hall (2009). However, the existing classifiers cannot discriminate when the populations differ in other aspects than locations and scales. In this article, we propose some simple transformations of the average distance classifier to tackle this issue. The resulting classifiers perform quite well even when the underlying populations have the same location and scale. The high-dimensional behaviour of the proposed classifiers is studied theoretically. Numerical experiments with a variety of simulated as well as real data sets exhibit the usefulness of the proposed methodology.
翻訳日:2023-01-13 12:47:54 公開日:2020-01-08
# ズームアウト学習によるズームインへの学習:分解生成と適応による実世界超解像

Learning to Zoom-in via Learning to Zoom-out: Real-world Super-resolution by Generating and Adapting Degradation ( http://arxiv.org/abs/2001.02381v1 )

ライセンス: Link先を確認
Dong Gong, Wei Sun, Qinfeng Shi, Anton van den Hengel, Yanning Zhang(参考訳) ほとんどの学習ベース超解像(SR)法は、LR-HR画像対の学習を通して与えられた低分解能(LR)画像から高分解能(HR)画像を復元することを目的としている。 合成データで学習したsr法は,人工合成画像と実lr画像との領域ギャップのため実世界ではうまく機能しない。 そのため、現実のイメージペアをキャプチャするためにいくつかの努力がなされている。 しかし、キャプチャーされたLR-HRイメージペアは通常、避けられないミスアライメントに悩まされ、エンド・ツー・エンド・ラーニングのパフォーマンスを損なう。 ここでは、現実のSRに着目して、異なる疑問を呈する:誤調整は避けられないので、LR-HR画像のペアリングとアライメントを全く必要とせず、実際の画像をそのまま活用できる方法を提案することができるか? そこで我々は,lrとhr画像の任意のセットからsrを学習し,そのような現実的で「教師なし」な設定でステップがどこまで進むかを確認するためのフレームワークを提案する。 そのために,まず劣化生成ネットワークを訓練し,現実的なlr画像を生成し,さらに重要なこととして,その分布(つまりズームアウトの学習)をキャプチャする。 ドメインギャップが排除されたと仮定する代わりに、劣化適応SRネットワーク(すなわちズームインの学習)を学習しながら、生成されたデータと実際のデータとの差を最小限にする。 提案手法は,ペア学習を好むデータセットにおいても,実世界の画像に対して最先端のsr結果が得られる。

Most learning-based super-resolution (SR) methods aim to recover high-resolution (HR) image from a given low-resolution (LR) image via learning on LR-HR image pairs. The SR methods learned on synthetic data do not perform well in real-world, due to the domain gap between the artificially synthesized and real LR images. Some efforts are thus taken to capture real-world image pairs. The captured LR-HR image pairs usually suffer from unavoidable misalignment, which hampers the performance of end-to-end learning, however. Here, focusing on the real-world SR, we ask a different question: since misalignment is unavoidable, can we propose a method that does not need LR-HR image pairing and alignment at all and utilize real images as they are? Hence we propose a framework to learn SR from an arbitrary set of unpaired LR and HR images and see how far a step can go in such a realistic and "unsupervised" setting. To do so, we firstly train a degradation generation network to generate realistic LR images and, more importantly, to capture their distribution (i.e., learning to zoom out). Instead of assuming the domain gap has been eliminated, we minimize the discrepancy between the generated data and real data while learning a degradation adaptive SR network (i.e., learning to zoom in). The proposed unpaired method achieves state-of-the-art SR results on real-world images, even in the datasets that favor the paired-learning methods more.
翻訳日:2023-01-13 12:47:01 公開日:2020-01-08
# 3次元点雲におけるハイパーグラフ分析と処理

Hypergraph Spectral Analysis and Processing in 3D Point Cloud ( http://arxiv.org/abs/2001.02384v1 )

ライセンス: Link先を確認
Songyang Zhang, Shuguang Cui, and Zhi Ding(参考訳) 人気が高まっているバーチャルリアリティーアプリケーションとともに、三次元(3D)ポイントクラウドは3Dオブジェクトや周囲を特徴付ける基本的なデータ構造になっている。 3次元点雲を効率的に処理するには、基礎構造や異常音に適したモデルが常に不可欠である。 本研究では,効率的な解析と処理が可能なハイパーグラフベースの新しいポイントクラウドモデルを提案する。 本稿では,高信号スペクトル成分と点雲の周波数係数を理想的・雑音的に推定するテンソル法を提案する。 ハイパーグラフの周波数と構造的特徴を解析的に関連付ける。 さらに,ハイパーグラフフィルタの設計とスペクトル特性を詳述した2つのコモン・ポイント・クラウド・アプリケーションにおけるハイパーグラフスペクトル推定の有効性について検討した。 実験的な性能は3次元点雲のツールとしてのハイパーグラフ信号処理の強みと基礎特性を示している。

Along with increasingly popular virtual reality applications, the three-dimensional (3D) point cloud has become a fundamental data structure to characterize 3D objects and surroundings. To process 3D point clouds efficiently, a suitable model for the underlying structure and outlier noises is always critical. In this work, we propose a hypergraph-based new point cloud model that is amenable to efficient analysis and processing. We introduce tensor-based methods to estimate hypergraph spectrum components and frequency coefficients of point clouds in both ideal and noisy settings. We establish an analytical connection between hypergraph frequencies and structural features. We further evaluate the efficacy of hypergraph spectrum estimation in two common point cloud applications of sampling and denoising for which also we elaborate specific hypergraph filter design and spectral properties. The empirical performance demonstrates the strength of hypergraph signal processing as a tool in 3D point clouds and the underlying properties.
翻訳日:2023-01-13 12:46:33 公開日:2020-01-08
# ディープビジュアルトラッカーにおける物体表現の分析

An Analysis of Object Representations in Deep Visual Trackers ( http://arxiv.org/abs/2001.02593v1 )

ライセンス: Link先を確認
Ross Goroshin, Jonathan Tompson, Debidatta Dwibedi(参考訳) 完全畳み込み型ディープ相関ネットワークは、単一のオブジェクトのビジュアルトラッキングに対する最先端のアプローチの不可欠なコンポーネントである。 これらのネットワークは、オブジェクトインスタンスの特徴とフレーム全体の特徴とを一致させて、検出によって追跡を行う。 オブジェクト表現に対する強いアーキテクチャの事前と条件付けは、この追跡戦略を奨励すると考えられている。 このような強い先行例にもかかわらず、ディープトラッカは、しばしば、オブジェクトインスタンスの表現に頼ることなく、サリエンシ検出によるトラッキングをデフォルトにしている。 分析結果から,深層ネットワークにおけるより堅牢な追跡戦略の出現を回避できる可能性が示唆された。 これにより、より識別的なオブジェクト表現を奨励し、追跡性能を向上させる補助検出タスクが導入された。

Fully convolutional deep correlation networks are integral components of state-of the-art approaches to single object visual tracking. It is commonly assumed that these networks perform tracking by detection by matching features of the object instance with features of the entire frame. Strong architectural priors and conditioning on the object representation is thought to encourage this tracking strategy. Despite these strong priors, we show that deep trackers often default to tracking by saliency detection - without relying on the object instance representation. Our analysis shows that despite being a useful prior, salience detection can prevent the emergence of more robust tracking strategies in deep networks. This leads us to introduce an auxiliary detection task that encourages more discriminative object representations that improve tracking performance.
翻訳日:2023-01-13 12:40:55 公開日:2020-01-08
# SirenLess氏、ニュースの背景にある意図を明かす

SirenLess: reveal the intention behind news ( http://arxiv.org/abs/2001.02731v1 )

ライセンス: Link先を確認
Xumeng Chen, Leo Yu-Ho Lo, Huamin Qu(参考訳) 最近のニュース記事は誤解を招く傾向にあり、読者が特定の出来事に対して主観的な判断を下すのを防ぐ。 いくつかの機械学習アプローチは、誤解を招くニュースを検出するために提案されているが、そのほとんどは、意思決定において人間に限られた助けを提供するブラックボックスである。 本稿では,言語特徴による誤ニュース検出のための視覚解析システムであるSirenLessを提案する。 このシステムは、ニュースメタデータと言語機能を統合し、ニュース記事の意味構造を明らかにし、テキスト分析を容易にする新しいインタラクティブツールである記事エクスプローラーを特徴とする。 sirenlessを使って異なるソースからの18のニュース記事を分析し、誤解を招くニュース検出に有用なパターンをいくつか要約した。 本システムの有効性と有効性を確認するために,ジャーナリズム専門家と大学生によるユーザ調査を行った。

News articles tend to be increasingly misleading nowadays, preventing readers from making subjective judgments towards certain events. While some machine learning approaches have been proposed to detect misleading news, most of them are black boxes that provide limited help for humans in decision making. In this paper, we present SirenLess, a visual analytical system for misleading news detection by linguistic features. The system features article explorer, a novel interactive tool that integrates news metadata and linguistic features to reveal semantic structures of news articles and facilitate textual analysis. We use SirenLess to analyze 18 news articles from different sources and summarize some helpful patterns for misleading news detection. A user study with journalism professionals and university students is conducted to confirm the usefulness and effectiveness of our system.
翻訳日:2023-01-13 12:39:37 公開日:2020-01-08
# 計算力学のための幾何学的深層学習 その1:異方性超弾性

Geometric deep learning for computational mechanics Part I: Anisotropic Hyperelasticity ( http://arxiv.org/abs/2001.04292v1 )

ライセンス: Link先を確認
Nikolaos Vlassis, Ran Ma, WaiChing Sun(参考訳) 本稿では,幾何学的深層学習とソボレフ学習を用いて非ユークリッド的構造データを取り込んで,非等方性超弾性材料機械学習モデルを有限変形範囲で訓練する最初の試みである。 伝統的な超弾性モデルは、しばしば構造的特性の均質化測度(例えば、構成構成のポロシティ平均化配向など)を取り入れるが、これらの測度は属性の位相構造を反映しない。 この知識ギャップを埋めるために,重み付きグラフという概念を,アセンブル内の異方性粒子の接続など,位相情報を保存する新しい手段として導入する。 次に、スペクトル領域におけるグラフ畳み込み深層ニューラルネットワークアーキテクチャを活用し、これらの非ユークリッド重み付きグラフデータをトレーニング用入力として直接組み込んで、複雑なミクロ構造を持つ材料の弾性応答を予測する機構を導入する。 トレーニングされたエネルギー関数の非凸性を確保するために、トレーニングされたエネルギー関数の方向微分を暗黙的に得られるような、ニューラルネットワークのためのソボレフトレーニング手法を導入する。 ニューラルネットワークを最適化してエネルギー汎関数出力と応力測定の両方を近似することにより、異なるミクロ構造に対して学習エネルギー汎関数を最適化する訓練手順を導入する。 次に、トレーニングされたハイブリッドニューラルネットワークモデルを用いて、未確認のミクロ構造に機能する新しい貯蔵エネルギーをパラメトリックで生成し、脆性状態における破壊の核形成と伝播に対する弾性異方性の影響を予測する。

This paper is the first attempt to use geometric deep learning and Sobolev training to incorporate non-Euclidean microstructural data such that anisotropic hyperelastic material machine learning models can be trained in the finite deformation range. While traditional hyperelasticity models often incorporate homogenized measures of microstructural attributes, such as porosity averaged orientation of constitutes, these measures cannot reflect the topological structures of the attributes. We fill this knowledge gap by introducing the concept of weighted graph as a new mean to store topological information, such as the connectivity of anisotropic grains in assembles. Then, by leveraging a graph convolutional deep neural network architecture in the spectral domain, we introduce a mechanism to incorporate these non-Euclidean weighted graph data directly as input for training and for predicting the elastic responses of materials with complex microstructures. To ensure smoothness and prevent non-convexity of the trained stored energy functional, we introduce a Sobolev training technique for neural networks such that stress measure is obtained implicitly from taking directional derivatives of the trained energy functional. By optimizing the neural network to approximate both the energy functional output and the stress measure, we introduce a training procedure the improves efficiency and generalize the learned energy functional for different microstructures. The trained hybrid neural network model is then used to generate new stored energy functional for unseen microstructures in a parametric study to predict the influence of elastic anisotropy on the nucleation and propagation of fracture in the brittle regime.
翻訳日:2023-01-13 12:39:25 公開日:2020-01-08
# 量子光学応用のための集積マイクロコンブ源

Integrated micro-comb sources for quantum optical applications ( http://arxiv.org/abs/2001.02356v1 )

ライセンス: Link先を確認
Michael Kues, Christian Reimer, Joseph M. Lukens, William J. Munro, Andrew M. Weiner, David J. Moss and Roberto Morandotti(参考訳) 量子科学と技術の鍵となる課題は、非古典的なセキュアな通信、気象学、そして究極的には有意義な量子シミュレーションと計算のための大規模で正確に制御可能な実用的なシステムを実現することである。 光周波数コムは、非常に多くの時間モードと周波数モードを提供し、大規模量子システムをもたらすため、これに対する強力なアプローチである。 量子光周波数コムの生成と制御により、量子信号と情報処理のためのユニークで実用的でスケーラブルなフレームワークが実現される。 本稿では、エネルギー時間絡み合った光周波数コムの実現に関する最近の進歩を概観し、光子統合と光ファイバー通信コンポーネントの利用により、新しい機能を持つ量子状態制御が可能となり、前例のない能力が得られるかについて議論する。

A key challenge for quantum science and technology is to realise large-scale, precisely controllable, practical systems for non-classical secured communications, metrology and ultimately meaningful quantum simulation and computation. Optical frequency combs represent a powerful approach towards this, since they provide a very high number of temporal and frequency modes which can result in large-scale quantum systems. The generation and control of quantum optical frequency combs will enable a unique, practical and scalable framework for quantum signal and information processing. Here, we review recent progress on the realization of energy-time entangled optical frequency combs and discuss how photonic integration and the use of fiber-optic telecommunications components can enable quantum state control with new functionalities, yielding unprecedented capability.
翻訳日:2023-01-13 12:38:57 公開日:2020-01-08
# ハミルトン系の代数的非対称性の定量化

Quantifying Algebraic Asymmetry of Hamiltonian Systems ( http://arxiv.org/abs/2001.02410v1 )

ライセンス: Link先を確認
Hui-Hui Qin, Shao-Ming Fei, Chang-Pu Sun(参考訳) 対称性は物理システムにおいて重要な役割を果たす。 ある種の代数に関してハミルトニアンの非対称性を調べることにより、ハミルトニアンの対称性を研究する。 作用素の非対称性を、その可換子の観点から代数基底に関して定義する。 詳細解析はリー代数 $\mathfrak{su}(2)$ とその $q$-deformation に対して与えられる。 q$変形可能な可積分スピンチェーンモデルの非対称性が計算される。 このような非対称性に関する対応する幾何学的画像を示す。

The symmetries play important roles in physical systems. We study the symmetries of a Hamiltonian system by investigating the asymmetry of the Hamiltonian with respect to certain algebras. We define the asymmetry of an operator with respect to an algebraic basis in terms of their commutators. Detailed analysis is given to the Lie algebra $\mathfrak{su}(2)$ and its $q$-deformation. The asymmetry of the $q$-deformed integrable spin chain models is calculated. The corresponding geometrical pictures with respect to such asymmetry is presented.
翻訳日:2023-01-13 12:38:44 公開日:2020-01-08
# 並列スキームによるマルチパラメータ量子磁気メトリーの究極精度

Ultimate precision of multi-parameter quantum magnetometry under the parallel scheme ( http://arxiv.org/abs/2001.02416v1 )

ライセンス: Link先を確認
Zhibo Hou, Hongzhen Chen, Liqiang Liu, Zhao Zhang, Guo-Yong Xiang, Chuan-Feng Li, Guang-Can Guo, Haidong Yuan(参考訳) 磁場の精密な測定は、量子論における最も基本的かつ重要な課題の1つである。 過去数十年にわたって量子磁気学の研究が盛んに行われてきたが、並列スキームの下での絡み合ったプローブ状態を持つ磁場の3つの成分全てを推定できる最終的な精度は分かっていない。 ここでは、並列スキームの下での磁場の3成分全てを推定する際の任意の重み付き分散の和に対する究極の下界を示し、この下界が十分に大きなNに対して達成可能であることを示す。 得られた精度は、並列スキームの下でのマルチパラメータ量子磁気測定の最終的な限界を設定する。 提案手法は,プローブ状態の制約から生じる複数のパラメータの精度のトレードオフを特徴付ける方法でもある。

The precise measurement of a magnetic field is one of the most fundamental and important tasks in quantum metrology. Although extensive studies on quantum magnetometry have been carried out over past decades, the ultimate precision that can be achieved for the estimation of all three components of a magnetic field with entangled probe states under the parallel scheme remains unknown. Here we present the ultimate lower bound for the sum of arbitrarily weighted variances in the estimation of all three components of a magnetic field under the parallel scheme and show that this lower bound can be achieved for sufficiently large N. The optimal entangled probe state that achieves the ultimate precision is also explicitly constructed. The obtained precision sets the ultimate limit for the multi-parameter quantum magnetometry under the parallel scheme, which is of fundamental interest and importance in quantum metrology. Our approach also provides a way to characterize the tradeoff among the precisions of multiple parameters that arise from the constraints on the probe states.
翻訳日:2023-01-13 12:38:37 公開日:2020-01-08
# 多種イオントラップ量子コンピュータにおける量子ビットのコヒーレント回転

Coherent rotations of qubits within a multi-species ion-trap quantum computer ( http://arxiv.org/abs/2001.02440v1 )

ライセンス: Link先を確認
Martin W. van Mourik, Esteban A. Martinez, Lukas Gerster, Pavel Hrmo, Thomas Monz, Philipp Schindler, Rainer Blatt(参考訳) 本研究では, セグメント状表面のポールトラップに閉じ込められたイオン鎖の物理的回転を大規模量子量子列構築ブロックとして記述し, 実現し, 実験的に検討する。 トラップ電位の制御は、球面調和電位の観点から電極電圧をパラメトリゼーションすることで達成される。 セットアップにおける電気フィルタの影響を考慮し、時間依存イオン位置と運動周波数を最適化することにより結晶回転を可能にする電圧列を数値的に得る。 回転誘導加熱を最小化し,フーリエ成分に展開し,得られたパラメータを機械学習手法で最適化する。 最適化されたシーケンスは、$^{40}$Ca$^+$$^{40}$Ca$^+$クリスタルを回転させ、その軸加熱速度は$\Delta\bar{n}_{com}=0.6^{(+3)}_{(-2)}$と$\Delta\bar{n}_{str}=3.9(5)$フォノンを1回転当たり1.24MHzと2.15MHzのモード周波数で回転させる。 qubitコヒーレンス損失は1回転あたり0.2(2)$\%$である。 また,混合種の結晶の回転(^{40}$Ca$^+$ - $^{88}$Sr$^+$)についても検討し,統一成功率を得た。

We describe, realize, and experimentally investigate a method to perform physical rotations of ion chains, trapped in a segmented surface Paul trap, as a building block for large scale quantum computational sequences. Control of trapping potentials is achieved by parametrizing electrode voltages in terms of spherical harmonic potentials. Voltage sequences that enable crystal rotations are numerically obtained by optimizing time-dependent ion positions and motional frequencies, taking into account the effect of electrical filters in our set-up. We minimize rotation-induced heating by expanding the sequences into Fourier components, and optimizing the resulting parameters with a machine-learning approach. Optimized sequences rotate $^{40}$Ca$^+$ - $^{40}$Ca$^+$ crystals with axial heating rates of $\Delta\bar{n}_{com}=0.6^{(+3)}_{(-2)}$ and $\Delta\bar{n}_{str}=3.9(5)$ phonons per rotation for the common and stretch modes, at mode frequencies of 1.24 and 2.15 MHz. Qubit coherence loss is 0.2(2)$\%$ per rotation. We also investigate rotations of mixed species crystals ($^{40}$Ca$^+$ - $^{88}$Sr$^+$) and achieve unity success rate.
翻訳日:2023-01-13 12:38:20 公開日:2020-01-08
# 光子数測定のための任意の順序の量子断熱除去

Quantum adiabatic elimination at arbitrary order for photon number measurement ( http://arxiv.org/abs/2001.02550v1 )

ライセンス: Link先を確認
Alain Sarlette, Pierre Rouchon, Antoine Essig, Quentin Ficheux and Benjamin Huard(参考訳) 断熱除去は時間スケール分離に基づく摂動モデル縮小手法であり、複合量子系の記述を単純化するためにしばしば用いられる。 ここでは、摂動拡大を任意の順序にすることができる量子実験を解析する。 i) 量子形式で正確に還元されたモデルを最後に定式化することができる。 (ii) 系列がより大きいパラメータ値の精度を提供するため、時間スケール分離の条件を破棄することができ、実際の実験が最善である中間状態を分析することができる。 (iii)このモデル還元手法におけるゲージ自由度の役割を明らかにすることができる。

Adiabatic elimination is a perturbative model reduction technique based on timescale separation and often used to simplify the description of composite quantum systems. We here analyze a quantum experiment where the perturbative expansion can be carried out to arbitrary order, such that: (i) we can formulate in the end an exact reduced model in quantum form; (ii) as the series provides accuracy for ever larger parameter values, we can discard any condition on the timescale separation, thereby analyzing the intermediate regime where the actual experiment is performing best; (iii) we can clarify the role of some gauge degrees of freedom in this model reduction technique.
翻訳日:2023-01-13 12:37:28 公開日:2020-01-08
# FPGAを用いた深層ネットワークの学習

Training Progressively Binarizing Deep Networks Using FPGAs ( http://arxiv.org/abs/2001.02390v1 )

ライセンス: Link先を確認
Corey Lammie, Wei Xiang, Mostafa Rahimi Azghadi(参考訳) バイナリニューラルネットワーク(BNN)の推論ルーチンのハードウェア実装は豊富だが、IoT(Internet of Things)エッジデバイスに適した効率的なBNNハードウェアトレーニングアクセラレータの現在の実現は、多くを望んでいない。 従来のBNNハードウェアトレーニングアクセラレータは、バイナリ表現を採用するパラメータと、浮動小数点実数値表現を採用するパラメータを用いた最適化により、前方と後方の伝搬を行う。 本稿では,従来手法とは対照的に,固定点ネットワークパラメータの特異集合を段階的に二元化することにより,電力と資源利用の大幅な削減を実現するハードウェアフレンドリなトレーニング手法を提案する。 我々は、Intel FPGA SDK for OpenCL開発環境を使用して、OpenVINO FPGA上で段階的に二項化DNNをトレーニングする。 我々は、CIFAR-10を用いたGPUとFPGAのトレーニングアプローチをベンチマークし、従来のBNNと比較した。

While hardware implementations of inference routines for Binarized Neural Networks (BNNs) are plentiful, current realizations of efficient BNN hardware training accelerators, suitable for Internet of Things (IoT) edge devices, leave much to be desired. Conventional BNN hardware training accelerators perform forward and backward propagations with parameters adopting binary representations, and optimization using parameters adopting floating or fixed-point real-valued representations--requiring two distinct sets of network parameters. In this paper, we propose a hardware-friendly training method that, contrary to conventional methods, progressively binarizes a singular set of fixed-point network parameters, yielding notable reductions in power and resource utilizations. We use the Intel FPGA SDK for OpenCL development environment to train our progressively binarizing DNNs on an OpenVINO FPGA. We benchmark our training approach on both GPUs and FPGAs using CIFAR-10 and compare it to conventional BNNs.
翻訳日:2023-01-13 10:10:57 公開日:2020-01-08
# 機械学習は、人間の専門家よりも早く量子デバイスを完全に自動チューニングできる

Machine learning enables completely automatic tuning of a quantum device faster than human experts ( http://arxiv.org/abs/2001.02589v1 )

ライセンス: Link先を確認
H. Moon, D.T. Lennon, J. Kirkpatrick, N.M. van Esbroeck, L.C. Camenzind, Liuqi Yu, F. Vigneau, D.M. Zumb\"uhl, G.A.D. Briggs, M.A Osborne, D. Sejdinovic, E.A. Laird, and N. Ares(参考訳) デバイス変動は、半導体量子デバイスのスケーラビリティのボトルネックである。 デバイス制御の増大は、最適な動作条件を見つけるために探索しなければならない大きなパラメータ空間のコストが伴う。 電子輸送特性の探索において,このパラメータ空間全体を,わずかにモデル化された仮定を用いて移動させる統計的チューニングアルゴリズムを実証する。 ゲート定義された量子ドットデバイスに注目し,8次元ゲート電圧空間における2つの量子ドットレジームの完全自動調整を実証した。 これらの装置では,各ゲート電圧の最大範囲で定義されたパラメータ空間を考慮し,70分以内のチューニングを期待できることを示した。 この性能は人間のベンチマークを超えましたが、人間と機械の両方のパフォーマンスを改善する余地があることを認識します。 本手法は,パラメータ空間のランダムな探索よりも約180倍高速であり,様々な材料システムやデバイスアーキテクチャに適用可能である。 ゲート電圧空間の効率的なナビゲーションにより、デバイスの温度サイクルの後に、あるデバイスから別のデバイスへのデバイス変動を定量的に測定することができる。 これは、量子デバイスのパラメータ空間を探索し最適化し、デバイス変動の課題を克服するために機械学習技術を使用する重要な例である。

Device variability is a bottleneck for the scalability of semiconductor quantum devices. Increasing device control comes at the cost of a large parameter space that has to be explored in order to find the optimal operating conditions. We demonstrate a statistical tuning algorithm that navigates this entire parameter space, using just a few modelling assumptions, in the search for specific electron transport features. We focused on gate-defined quantum dot devices, demonstrating fully automated tuning of two different devices to double quantum dot regimes in an up to eight-dimensional gate voltage space. We considered a parameter space defined by the maximum range of each gate voltage in these devices, demonstrating expected tuning in under 70 minutes. This performance exceeded a human benchmark, although we recognise that there is room for improvement in the performance of both humans and machines. Our approach is approximately 180 times faster than a pure random search of the parameter space, and it is readily applicable to different material systems and device architectures. With an efficient navigation of the gate voltage space we are able to give a quantitative measurement of device variability, from one device to another and after a thermal cycle of a device. This is a key demonstration of the use of machine learning techniques to explore and optimise the parameter space of quantum devices and overcome the challenge of device variability.
翻訳日:2023-01-13 10:09:14 公開日:2020-01-08
# 知識グラフのための生成的逆ゼロショット関係学習

Generative Adversarial Zero-Shot Relational Learning for Knowledge Graphs ( http://arxiv.org/abs/2001.02332v1 )

ライセンス: Link先を確認
Pengda Qin, Xin Wang, Wenhu Chen, Chunyun Zhang, Weiran Xu, William Yang Wang(参考訳) 大規模知識グラフ(KG)は、現在の情報システムにおいてより重要になる。 KGのカバー範囲を広げるためには、知識グラフの補完に関するこれまでの研究は、新たに追加された関係のための適切なトレーニングインスタンスを収集する必要がある。 本稿では,この厄介なキュレーションを解き放つために,新しい定式化であるゼロショット学習を考える。 新たに加えた関係について,テキスト記述から意味的特徴を学習し,見つからない関係の事実を実例なく認識しようとする。 この目的のために、gans(generative adversarial network)を利用して、テキストと知識グラフドメイン間の接続を確立する。 この設定下では、ゼロショット学習は自然に従来の教師付き分類タスクに変換される。 実験的に,本手法はモデルに依存しないため,任意のバージョンのKG埋め込みに適用可能であり,NELLおよびWikiデータセットの性能改善を一貫して達成できる。

Large-scale knowledge graphs (KGs) are shown to become more important in current information systems. To expand the coverage of KGs, previous studies on knowledge graph completion need to collect adequate training instances for newly-added relations. In this paper, we consider a novel formulation, zero-shot learning, to free this cumbersome curation. For newly-added relations, we attempt to learn their semantic features from their text descriptions and hence recognize the facts of unseen relations with no examples being seen. For this purpose, we leverage Generative Adversarial Networks (GANs) to establish the connection between text and knowledge graph domain: The generator learns to generate the reasonable relation embeddings merely with noisy text descriptions. Under this setting, zero-shot learning is naturally converted to a traditional supervised classification task. Empirically, our method is model-agnostic that could be potentially applied to any version of KG embeddings, and consistently yields performance improvements on NELL and Wiki dataset.
翻訳日:2023-01-13 10:08:54 公開日:2020-01-08
# 経カテーテル的大動脈弁移植術における予後予測のための決定木上の勾配増強

Gradient Boosting on Decision Trees for Mortality Prediction in Transcatheter Aortic Valve Implantation ( http://arxiv.org/abs/2001.02431v1 )

ライセンス: Link先を確認
Marco Mamprin, Jo M. Zelis, Pim A.L. Tonino, Svitlana Zinger, Peter H.N. de With(参考訳) 心臓手術における現在の予後リスクスコアは統計に基づいており、まだ機械学習の恩恵を受けていない。 統計予測器は、TAVI(Transcatheter Aortic Valve implantation)の恩恵を受ける患者を正しく識別するほど堅牢ではない。 本研究は,TAVI後の患者の1年間の死亡率を予測する機械学習モデルの構築を目的とする。 我々は,カテゴリー的特徴に特化して設計された決定木アルゴリズムを現代的勾配強調に適用する。 モデル解釈の最近の手法と組み合わせて特徴分析と選択の段階を構築し,予測の最も重要な特徴を同定した。 我々は, 臨床専門家と特徴分析の結果を解釈し, 議論した後, 予測モデルを最も適切な特徴に基づける。 TAVIは270例, AUCは0.83例であった。 本手法は,ロジスティックなEuroSCORE II,STSリスクスコア,TAVI2スコアなど,世界中の心臓科医に広く採用されている多くの予後リスクスコアより優れている。

Current prognostic risk scores in cardiac surgery are based on statistics and do not yet benefit from machine learning. Statistical predictors are not robust enough to correctly identify patients who would benefit from Transcatheter Aortic Valve Implantation (TAVI). This research aims to create a machine learning model to predict one-year mortality of a patient after TAVI. We adopt a modern gradient boosting on decision trees algorithm, specifically designed for categorical features. In combination with a recent technique for model interpretations, we developed a feature analysis and selection stage, enabling to identify the most important features for the prediction. We base our prediction model on the most relevant features, after interpreting and discussing the feature analysis results with clinical experts. We validated our model on 270 TAVI cases, reaching an AUC of 0.83. Our approach outperforms several widespread prognostic risk scores, such as logistic EuroSCORE II, the STS risk score and the TAVI2-score, which are broadly adopted by cardiologists worldwide.
翻訳日:2023-01-13 10:01:21 公開日:2020-01-08
# 転送または転送しない:転送学習テキスト分類器に対する誤分類攻撃

To Transfer or Not to Transfer: Misclassification Attacks Against Transfer Learned Text Classifiers ( http://arxiv.org/abs/2001.02438v1 )

ライセンス: Link先を確認
Bijeeta Pal and Shruti Tople(参考訳) トランスファーラーニング -- 学習知識の伝達 -- は、モデルのトレーニング方法にパラダイムシフトをもたらした。 精度の向上とトレーニング時間の短縮による利益は、制約のある計算リソースと少ないトレーニングサンプルを持つトレーニングモデルに有望であることが示されている。 具体的には、大きなデータセットのコーパスでトレーニングされたgraveやbertといった、広く入手可能なテキストベースのモデルが、実際に広く採用されている。 本稿では,「テキスト予測モデルにおける転送学習は,誤分類攻撃を行うために活用できるか? 本研究は,教師(公開)モデルで学習した意図しない機能を用いて,学生(ダウンストリーム)モデルの敵対的例を生成する新しい攻撃手法を提案する。 私たちの知る限りでは、最先端の単語ベースと文ベースの教師モデルからの転校学習が、学生モデルの誤分類攻撃に対する感受性を高めることを示す最初の研究です。 まず,文脈自由な単語レベルの埋め込みモデルを用いて学習した学生モデルに対して,新たな単語スコアベースの攻撃アルゴリズムを提案する。 また,GloVe 教師モデルを用いて訓練した二分分類タスクにおいて,IMDB 映画レビューでは97%,フェイクニュース検出では80%の攻撃精度が得られた。 マルチクラスタスクでは、Newsgroupデータセットを6クラスと20クラスに分割し、それぞれ75%と41%の平均攻撃精度を達成する。 次に,文脈対応BERTモデルを用いて学習したFake News Detectionタスクに対して,長さベースおよび文ベース誤分類攻撃を行い,それぞれ78%,39%の攻撃精度を達成した。 したがって,本研究の結果は意図しない特徴学習,特に伝達学習モデルに頑健なトレーニング技術を設計する必要性を動機付けている。

Transfer learning --- transferring learned knowledge --- has brought a paradigm shift in the way models are trained. The lucrative benefits of improved accuracy and reduced training time have shown promise in training models with constrained computational resources and fewer training samples. Specifically, publicly available text-based models such as GloVe and BERT that are trained on large corpus of datasets have seen ubiquitous adoption in practice. In this paper, we ask, "can transfer learning in text prediction models be exploited to perform misclassification attacks?" As our main contribution, we present novel attack techniques that utilize unintended features learnt in the teacher (public) model to generate adversarial examples for student (downstream) models. To the best of our knowledge, ours is the first work to show that transfer learning from state-of-the-art word-based and sentence-based teacher models increase the susceptibility of student models to misclassification attacks. First, we propose a novel word-score based attack algorithm for generating adversarial examples against student models trained using context-free word-level embedding model. On binary classification tasks trained using the GloVe teacher model, we achieve an average attack accuracy of 97% for the IMDB Movie Reviews and 80% for the Fake News Detection. For multi-class tasks, we divide the Newsgroup dataset into 6 and 20 classes and achieve an average attack accuracy of 75% and 41% respectively. Next, we present length-based and sentence-based misclassification attacks for the Fake News Detection task trained using a context-aware BERT model and achieve 78% and 39% attack accuracy respectively. Thus, our results motivate the need for designing training techniques that are robust to unintended feature learning, specifically for transfer learned models.
翻訳日:2023-01-13 10:01:04 公開日:2020-01-08
# 深層学習を用いた透過X線顕微鏡のための狭角トモグラフィ

Limited Angle Tomography for Transmission X-Ray Microscopy Using Deep Learning ( http://arxiv.org/abs/2001.02469v1 )

ライセンス: Link先を確認
Yixing Huang, Shengxiang Wang, Yong Guan, Andreas Maier(参考訳) 透過X線顕微鏡(TXM)システムでは、走査された試料の回転は、他のシステム部品との衝突を避けるために限られた角度範囲に制限される。 このような限られた角度データからの画像再構成は、欠落したデータによるアーティファクトに悩まされる。 本研究では,TXMの限られた角度再構成に対して,初めてディープラーニングを適用した。 訓練のための十分な実データを得るためには、合成データからディープニューラルネットワークを訓練することが必要となる。 特に、バイオメディカルイメージングにおける最先端のニューラルネットワークであるU-Netは、合成楕円体データと多カテゴリデータからトレーニングされ、フィルタバックプロジェクション(FBP)再構成画像のアーティファクトを減らす。 本手法は,100^\circ$リミテッドアングルトモグラフィで合成データと実走査クロレラデータを用いて評価した。 合成テストデータでは、u-netはルート平均二乗誤差(rmse)を2.55 \times 10^{-3}$ {\mu}m$^{-1}$ から1.21 \times 10^{-3}$ {\mu}m$^{-1}$ u-netの再構成において大幅に削減し、構造類似度(ssim)指数を0.625から0.920 に改善した。 測定された射影の最小2乗のペナル化により、RMSEとSSIMはそれぞれ1.16 \times 10^{-3}$ {\mu}m$^{-1}$と0.932に改善される。 実際の試験データでは, クロレラ細胞の細胞構造を3次元的に可視化し, 生体, ナノサイエンス, 材料科学におけるナノスケールイメージングの意義を示す。

In transmission X-ray microscopy (TXM) systems, the rotation of a scanned sample might be restricted to a limited angular range to avoid collision to other system parts or high attenuation at certain tilting angles. Image reconstruction from such limited angle data suffers from artifacts due to missing data. In this work, deep learning is applied to limited angle reconstruction in TXMs for the first time. With the challenge to obtain sufficient real data for training, training a deep neural network from synthetic data is investigated. Particularly, the U-Net, the state-of-the-art neural network in biomedical imaging, is trained from synthetic ellipsoid data and multi-category data to reduce artifacts in filtered back-projection (FBP) reconstruction images. The proposed method is evaluated on synthetic data and real scanned chlorella data in $100^\circ$ limited angle tomography. For synthetic test data, the U-Net significantly reduces root-mean-square error (RMSE) from $2.55 \times 10^{-3}$ {\mu}m$^{-1}$ in the FBP reconstruction to $1.21 \times 10^{-3}$ {\mu}m$^{-1}$ in the U-Net reconstruction, and also improves structural similarity (SSIM) index from 0.625 to 0.920. With penalized weighted least square denoising of measured projections, the RMSE and SSIM are further improved to $1.16 \times 10^{-3}$ {\mu}m$^{-1}$ and 0.932, respectively. For real test data, the proposed method remarkably improves the 3-D visualization of the subcellular structures in the chlorella cell, which indicates its important value for nano-scale imaging in biology, nanoscience and materials science.
翻訳日:2023-01-13 10:00:35 公開日:2020-01-08
# アンサンブル特徴選択法によるヒト腸内細菌の炎症性腸疾患バイオマーカー

Inflammatory Bowel Disease Biomarkers of Human Gut Microbiota Selected via Ensemble Feature Selection Methods ( http://arxiv.org/abs/2001.03019v1 )

ライセンス: Link先を確認
Hilal Hacilar, O.Ufuk Nalbantoglu, Oya Aran, Burcu Bakir-Gungor(参考訳) 次世代のシークエンシングとオミクス技術の飛躍的な向上により、ヒトの腸内微生物(消化管に存在する微生物群集のゲノム)を特徴付けることができるようになった。 これらの微生物のいくつかは免疫系の必須の調節因子と考えられているが、炎症性腸疾患(ibd)、糖尿病、がんなどのいくつかの疾患を引き起こすものもある。 IBDは腸関連疾患であり、腸内細菌叢からの逸脱はIBDと関連していると考えられている。 既存の研究は腸内細菌叢の腸内細菌叢をIBD疾患と関連づけようと試みているが、包括的な画像は完成には程遠い。 メダゲノミクス研究の複雑さから、機械学習技術の応用は、メダゲノミクスデータ分析の分野における幅広い問題に対処するために普及した。 そこで本研究では,ibd関連メタゲノミクスデータセットを用いて,教師付きと教師なしの両方の機械学習アルゴリズムを用いた。 一 IBD 診断を支援する分類モデルを作成すること。 二 IBD関連バイオマーカーを発見すること。 iii) k と階層的クラスタリングを用いて IBD 患者のサブグループを見つけること。 特徴の高次元性に対処するため,条件付き相互情報最大化(CMIM),高速相関型フィルタ(FCBF),最小冗長度最大相関(mRMR),極勾配ブースティング(XGBoost)などの頑健な特徴選択アルゴリズムを適用した。 10フォールドクロス検証を用いた実験では,ibdの診断に使用される微生物を最小化し,コストと時間を削減できる点において,xgboostは有意な効果を示した。 単一分類器と比較して,kNN や logitboost のようなアンサンブル法により,IBD の分類性能が向上することが確認された。

The tremendous boost in the next generation sequencing and in the omics technologies makes it possible to characterize human gut microbiome (the collective genomes of the microbial community that reside in our gastrointestinal tract). While some of these microorganisms are considered as essential regulators of our immune system, some others can cause several diseases such as Inflammatory Bowel Diseases (IBD), diabetes, and cancer. IBD, is a gut related disorder where the deviations from the healthy gut microbiome are considered to be associated with IBD. Although existing studies attempt to unveal the composition of the gut microbiome in relation to IBD diseases, a comprehensive picture is far from being complete. Due to the complexity of metagenomic studies, the applications of the state of the art machine learning techniques became popular to address a wide range of questions in the field of metagenomic data analysis. In this regard, using IBD associated metagenomics dataset, this study utilizes both supervised and unsupervised machine learning algorithms, i) to generate a classification model that aids IBD diagnosis, ii) to discover IBD associated biomarkers, iii) to find subgroups of IBD patients using k means and hierarchical clustering. To deal with the high dimensionality of features, we applied robust feature selection algorithms such as Conditional Mutual Information Maximization (CMIM), Fast Correlation Based Filter (FCBF), min redundancy max relevance (mRMR) and Extreme Gradient Boosting (XGBoost). In our experiments with 10 fold cross validation, XGBoost had a considerable effect in terms of minimizing the microbiota used for the diagnosis of IBD and thus reducing the cost and time. We observed that compared to the single classifiers, ensemble methods such as kNN and logitboost resulted in better performance measures for the classification of IBD.
翻訳日:2023-01-13 09:59:31 公開日:2020-01-08
# 心不整脈検出のための低消費電力ウェアラブルプラットフォーム上の畳み込みリカレントニューラルネットワーク

Convolutional-Recurrent Neural Networks on Low-Power Wearable Platforms for Cardiac Arrhythmia Detection ( http://arxiv.org/abs/2001.03538v1 )

ライセンス: Link先を確認
Antonino Faraone, Ricard Delgado-Gonzalo(参考訳) ウェアラブルなどの低消費電力センシング技術は、生理的シグナルの連続的かつ非侵襲的な監視を可能にするため、医療領域に現れている。 このような装置に臨床的な価値を与えるため、古典的な信号処理は様々な課題に直面している。 しかし、機械学習のようなデータ駆動の手法は、リソースとメモリ需要を犠牲にして魅力的な精度を提供する。 本稿では,ウェアラブルセンサやデバイスが一般的に備えているマイクロコントローラや低消費電力プロセッサで動作するニューラルネットワークの推論に注目する。 特に,心不整脈を単一誘導心電図から,armのcortex-m4処理コアを用いたノルディック半導体の低出力埋め込みシステムon-chip nrf52に分類する既存の畳み込みリカレントニューラルネットワークを適用した。 CMSIS-NNライブラリを用いた固定点精度実装では,メモリフットプリント195.6KB,スループット33.98MOps/sからF_1$スコア0.8から0.784に低下する。

Low-power sensing technologies, such as wearables, have emerged in the healthcare domain since they enable continuous and non-invasive monitoring of physiological signals. In order to endow such devices with clinical value, classical signal processing has encountered numerous challenges. However, data-driven methods, such as machine learning, offer attractive accuracies at the expense of being resource and memory demanding. In this paper, we focus on the inference of neural networks running in microcontrollers and low-power processors which wearable sensors and devices are generally equipped with. In particular, we adapted an existing convolutional-recurrent neural network, designed to detect and classify cardiac arrhythmias from a single-lead electrocardiogram, to the low-power embedded System-on-Chip nRF52 from Nordic Semiconductor with an ARM's Cortex-M4 processing core. We show our implementation in fixed-point precision, using the CMSIS-NN libraries, yields a drop of $F_1$ score from 0.8 to 0.784, from the original implementation, with a memory footprint of 195.6KB, and a throughput of 33.98MOps/s.
翻訳日:2023-01-13 09:59:00 公開日:2020-01-08
# 追跡可能な弱みモデルの解析特性

Analytic Properties of Trackable Weak Models ( http://arxiv.org/abs/2001.07608v1 )

ライセンス: Link先を確認
Mark Chilenski, George Cybenko, Isaac Dekine, Piyush Kumar, Gil Raz(参考訳) 強連結トラックブル弱モデルにおける隠れ状態の推測の可能性に関する新しい結果を示す。 ここで弱いモデルは、各ノードにそのノードが訪れたときに出力される可能性のある色のセットが割り当てられる有向グラフである。 仮説は、与えられた色シーケンスと整合したノードシーケンスである。 弱モデルは、そのような仮説の最悪のケース数がシーケンス長の多項式として成長すると追跡可能であると言われる。 強連結な追跡可能モデルにおける仮説の数は定数で有界であることを示し、この定数に対する表現を与える。 また,同一色以外のノードでどのブランチが選択されたかを再構築する問題についても検討し,モデルが強く接続され追跡可能であれば,いずれどのブランチが選択されたかを特定することが可能であることを示す。 遷移確率を割り当て、マルコフ連鎖を解析するための標準ツールを用いてこれらの特性を説明する。 さらに,追跡可能か否かに応じて,弱モデルのエントロピー率について新たな結果を示す。 これらの定理は、追跡可能性と強い接続性の組み合わせが、どのノードが訪れたかを劇的に単純化することを示している。 この研究は、隠れマルコフモデル(hmm)における隠れた状態の再構築のような、有色グラフを横断するエージェントの観点で記述できるあらゆる問題に意味を持つ。

We present several new results on the feasibility of inferring the hidden states in strongly-connected trackable weak models. Here, a weak model is a directed graph in which each node is assigned a set of colors which may be emitted when that node is visited. A hypothesis is a node sequence which is consistent with a given color sequence. A weak model is said to be trackable if the worst case number of such hypotheses grows as a polynomial in the sequence length. We show that the number of hypotheses in strongly-connected trackable models is bounded by a constant and give an expression for this constant. We also consider the problem of reconstructing which branch was taken at a node with same-colored out-neighbors, and show that it is always eventually possible to identify which branch was taken if the model is strongly connected and trackable. We illustrate these properties by assigning transition probabilities and employing standard tools for analyzing Markov chains. In addition, we present new results for the entropy rates of weak models according to whether they are trackable or not. These theorems indicate that the combination of trackability and strong connectivity dramatically simplifies the task of reconstructing which nodes were visited. This work has implications for any problem which can be described in terms of an agent traversing a colored graph, such as the reconstruction of hidden states in a hidden Markov model (HMM).
翻訳日:2023-01-13 09:58:41 公開日:2020-01-08
# VisionNet: 自律走行のためのドライビングスペースに基づく対話型モーション予測ネットワーク

VisionNet: A Drivable-space-based Interactive Motion Prediction Network for Autonomous Driving ( http://arxiv.org/abs/2001.02354v1 )

ライセンス: Link先を確認
Yanliang Zhu, Deheng Qian, Dongchun Ren, Huaxia Xia(参考訳) 環境交通状況の理解は、自動運転車の運転安全を確実にする。 近年, 複雑なシナリオにおける集団的影響の制限により, 対処が困難であるにもかかわらず, 研究が盛んに行われている。 これらのアプローチは、対象障害物とその近傍の空間的関係を通して相互作用をモデル化する。 しかし、インタラクションのトレーニング段階には効果的な監督が欠けているため、課題を単純化している。 結果として、これらのモデルは有望とは程遠い。 より直感的に、我々はこの問題を対話対応ドライビング空間の計算に変換し、軌道予測のためのCNNベースのVisionNetを提案する。 VisionNetは将来の乾燥可能な空間を推定するために、位置、速度、加速度といった一連の運動状態を受け入れる。 改良された相互作用はVisionNetの解釈能力を著しく向上させ、予測を洗練させる。 この性能をさらに高めるために,自由空間の生成を導くための対話的損失を提案する。 複数の公開データセットの実験では、提案されたVisionNetの有効性が示されている。

The comprehension of environmental traffic situation largely ensures the driving safety of autonomous vehicles. Recently, the mission has been investigated by plenty of researches, while it is hard to be well addressed due to the limitation of collective influence in complex scenarios. These approaches model the interactions through the spatial relations between the target obstacle and its neighbors. However, they oversimplify the challenge since the training stage of the interactions lacks effective supervision. As a result, these models are far from promising. More intuitively, we transform the problem into calculating the interaction-aware drivable spaces and propose the CNN-based VisionNet for trajectory prediction. The VisionNet accepts a sequence of motion states, i.e., location, velocity, and acceleration, to estimate the future drivable spaces. The reified interactions significantly increase the interpretation ability of the VisionNet and refine the prediction. To further advance the performance, we propose an interactive loss to guide the generation of the drivable spaces. Experiments on multiple public datasets demonstrate the effectiveness of the proposed VisionNet.
翻訳日:2023-01-13 09:58:17 公開日:2020-01-08
# サンプルベース分布政策勾配

Sample-based Distributional Policy Gradient ( http://arxiv.org/abs/2001.02652v1 )

ライセンス: Link先を確認
Rahul Singh, Keuntaek Lee, Yongxin Chen(参考訳) 分散強化学習 (DRL) は近年, 様々な実証研究に支持されている強化学習フレームワークである。 これは、期待されるリターンを返却分布に置き換えるという重要なアイデアに依存しており、長期的な報酬の本質的なランダムさを捉えている。 DRLに関する既存の文献の多くは、離散的な行動空間と値に基づく手法に関する問題に焦点を当てている。 本研究では,連続的な行動空間制御を行うロボット工学の応用に動機づけられ,サンプルベース分布ポリシー勾配(sdpg)アルゴリズムを提案する。 生成モデリングや推論に広く用いられる再パラメータ化手法を用いてサンプルを用いた回帰分布をモデル化する。 sdpgをdrlにおける最先端ポリシー勾配法と比較し,分散分布決定論的ポリシー勾配 (d4pg) について検討した。 SDPGとD4PGを複数のOpenAI Gym環境に適用し、我々のアルゴリズムが多くのタスクに対してより優れたサンプル効率と高い報酬を示すことを観察する。

Distributional reinforcement learning (DRL) is a recent reinforcement learning framework whose success has been supported by various empirical studies. It relies on the key idea of replacing the expected return with the return distribution, which captures the intrinsic randomness of the long term rewards. Most of the existing literature on DRL focuses on problems with discrete action space and value based methods. In this work, motivated by applications in robotics with continuous action space control settings, we propose sample-based distributional policy gradient (SDPG) algorithm. It models the return distribution using samples via a reparameterization technique widely used in generative modeling and inference. We compare SDPG with the state-of-art policy gradient method in DRL, distributed distributional deterministic policy gradients (D4PG), which has demonstrated state-of-art performance. We apply SDPG and D4PG to multiple OpenAI Gym environments and observe that our algorithm shows better sample efficiency as well as higher reward for most tasks.
翻訳日:2023-01-13 09:52:31 公開日:2020-01-08
# 興味の追跡によるクリックスルー率予測のためのディープタイムストリームフレームワーク

Deep Time-Stream Framework for Click-Through Rate Prediction by Tracking Interest Evolution ( http://arxiv.org/abs/2001.03025v1 )

ライセンス: Link先を確認
Shu-Ting Shi, Wenhao Zheng, Jun Tang, Qing-Guo Chen, Yao Hu, Jianke Zhu, Ming Li(参考訳) クリックスルー率(CTR)予測は,ビデオレコメンデーションなどの産業アプリケーションにおいて重要な課題である。 近年、興味が時間とともに動的に変化するという事実を無視しながら、ユーザの興味全体の表現を学ぶためにディープラーニングモデルが提案されている。 我々は,CTRモデルにおけるユーザ関心傾向を,豊富な歴史的行動から追跡するために,継続時間情報を検討する必要があると論じている。 本稿では,通常の微分方程式(ODE)による時間情報の導入を目的とした,新しいDeep Time-Streamフレームワークを提案する。 DTSは、ニューラルネットワークを用いて関心の進化を継続的にモデル化し、歴史的行動に基づいてユーザの興味を動的に表現するという課題に取り組むことができる。 さらに,従来のCTRモデルに変更はないが,追加のTime-Stream Moduleを活用することで,既存のディープCTRモデルに対してシームレスにフレームワークを適用することができる。 数十億のサンプルによる公開データセットと実業界データセットの実験は、提案手法の有効性を示し、既存の手法と比較して優れたパフォーマンスを実現する。

Click-through rate (CTR) prediction is an essential task in industrial applications such as video recommendation. Recently, deep learning models have been proposed to learn the representation of users' overall interests, while ignoring the fact that interests may dynamically change over time. We argue that it is necessary to consider the continuous-time information in CTR models to track user interest trend from rich historical behaviors. In this paper, we propose a novel Deep Time-Stream framework (DTS) which introduces the time information by an ordinary differential equations (ODE). DTS continuously models the evolution of interests using a neural network, and thus is able to tackle the challenge of dynamically representing users' interests based on their historical behaviors. In addition, our framework can be seamlessly applied to any existing deep CTR models by leveraging the additional Time-Stream Module, while no changes are made to the original CTR models. Experiments on public dataset as well as real industry dataset with billions of samples demonstrate the effectiveness of proposed approaches, which achieve superior performance compared with existing methods.
翻訳日:2023-01-13 09:52:00 公開日:2020-01-08
# 検閲された四面体回帰森林

Censored Quantile Regression Forest ( http://arxiv.org/abs/2001.03458v1 )

ライセンス: Link先を確認
Alexander Hanbo Li and Jelena Bradic(参考訳) ランダムフォレストは強力な非パラメトリック回帰法であるが、ランダムに検閲された観測の存在下での使用には極めて制限があり、自然に適用されると予測性能が低下する。 ランダム林の局所適応表現に基づいて,ランダムに検閲された回帰分位モデルに対する回帰調整を開発する。 回帰調整は、検閲に適応する新しい推定方程式に基づいており、データが検閲を示さないときに量子スコアが導かれる。 提案手法である {\it censored quantile regression forest} は,パラメトリックモデリングを前提とせずに,時刻からイベントまでの分位数を推定できる。 穏やかなモデル仕様の下で一貫性を確立します。 数値的な研究は提案手法の明確な利点を示している。

Random forests are powerful non-parametric regression method but are severely limited in their usage in the presence of randomly censored observations, and naively applied can exhibit poor predictive performance due to the incurred biases. Based on a local adaptive representation of random forests, we develop its regression adjustment for randomly censored regression quantile models. Regression adjustment is based on a new estimating equation that adapts to censoring and leads to quantile score whenever the data do not exhibit censoring. The proposed procedure named {\it censored quantile regression forest}, allows us to estimate quantiles of time-to-event without any parametric modeling assumption. We establish its consistency under mild model specifications. Numerical studies showcase a clear advantage of the proposed procedure.
翻訳日:2023-01-13 09:51:27 公開日:2020-01-08
# 生成モデルのベイズインバージョンによる二酸化炭素の地質保存

Bayesian Inversion Of Generative Models For Geologic Storage Of Carbon Dioxide ( http://arxiv.org/abs/2001.04829v1 )

ライセンス: Link先を確認
Gavin H. Graham and Yan Chen(参考訳) 炭素捕獲貯蔵(CCS)は、大気の脱炭素化を助長し、さらなる地球温度上昇を抑える。 教師なし学習を利用したフレームワークは、二酸化炭素の長期保存のための潜在的な場所を調べるために、様々な地下地質ボリュームを生成するために使用される。 生成的逆境ネットワークは、地質ボリュームの作成に使われ、さらにニューラルネットワークは、訓練された生成器の後方分布をサンプリングして、まばらにサンプリングされた物理的測定値を生成するのに用いられる。 これらの生成モデルは、注入された二酸化炭素の貯蔵容量の予測の精度を向上させるため、ベイジアン反転による歴史的な流体流動データにさらに条件付けされる。

Carbon capture and storage (CCS) can aid decarbonization of the atmosphere to limit further global temperature increases. A framework utilizing unsupervised learning is used to generate a range of subsurface geologic volumes to investigate potential sites for long-term storage of carbon dioxide. Generative adversarial networks are used to create geologic volumes, with a further neural network used to sample the posterior distribution of a trained Generator conditional to sparsely sampled physical measurements. These generative models are further conditioned to historic dynamic fluid flow data through Bayesian inversion to improve the resolution of the forecast of the storage capacity of injected carbon dioxide.
翻訳日:2023-01-13 09:51:07 公開日:2020-01-08
# 画像分類におけるデータ順序付けの効果

The Effect of Data Ordering in Image Classification ( http://arxiv.org/abs/2001.05857v1 )

ライセンス: Link先を確認
Ethem F. Can, Aysu Ezen-Can(参考訳) ディープラーニングモデルの成功ストーリーは、画像分類から自然言語理解まで、さまざまなタスクにまたがる毎日増加します。 これらのモデルの人気が高まる中、科学者はタスクに最適なパラメータや最良のモデルアーキテクチャを見つけるのにますます時間を費やしている。 本稿では,これらの機械に供給する成分であるデータに焦点をあてる。 データの順序付けがモデルの性能に与える影響を仮定する。 この目的のために,imagenetデータセットを用いた画像分類タスクの実験を行い,高い分類精度を得るために,データ順序付けが他よりも優れていることを示す。 実験の結果,モデルアーキテクチャや学習率,バッチサイズによらず,データの順序付けが結果に大きく影響することがわかった。 ndcg、精度@1、精度@5と異なる指標を用いて、これらの結果を示す。 ここでの目標は、パラメータやモデルアーキテクチャだけでなく、データ順序付けによってよりよい結果が得られることを示すことです。

The success stories from deep learning models increase every day spanning different tasks from image classification to natural language understanding. With the increasing popularity of these models, scientists spend more and more time finding the optimal parameters and best model architectures for their tasks. In this paper, we focus on the ingredient that feeds these machines: the data. We hypothesize that the data ordering affects how well a model performs. To that end, we conduct experiments on an image classification task using ImageNet dataset and show that some data orderings are better than others in terms of obtaining higher classification accuracies. Experimental results show that independent of model architecture, learning rate and batch size, ordering of the data significantly affects the outcome. We show these findings using different metrics: NDCG, accuracy @ 1 and accuracy @ 5. Our goal here is to show that not only parameters and model architectures but also the data ordering has a say in obtaining better results.
翻訳日:2023-01-13 09:50:21 公開日:2020-01-08
# 自然言語命令から複雑なプロセスへ:トリガーアクションルールの連鎖に関する問題

From Natural Language Instructions to Complex Processes: Issues in Chaining Trigger Action Rules ( http://arxiv.org/abs/2001.02462v1 )

ライセンス: Link先を確認
Nobuhiro Ito, Yuya Suzuki and Akiko Aizawa(参考訳) 複雑なビジネスプロセスのための自動化サービスは、通常高いレベルの情報技術リテラシーを必要とする。 スマートに支援されたプロセス自動化(ipa:intelligent process automation)サービスには強い需要があり、一般ユーザでも高度な自動化を簡単に利用できる。 このような自動化のための自然言語インターフェースは、ipa実現のための要素技術として期待されている。 IPAがターゲットとするワークフローは、一般的に複数のタスクの組み合わせで構成されています。 しかし、このような複雑なワークフローのための自然言語処理手法の一つであるセマンティック解析は、まだ完全には研究されていない。 その結果,(1)意味分析に必要なワークフローの形式表現と文法は十分に検討されておらず,(2)ワークフロー意味論の学習に必要な自然言語記述を伴うワークフロー形式表現のデータセットは存在しなかった。 本稿では,機械実行可能意味表現を用いた複雑なワークフローのための新しい文法を定義した。 表現は高い抽象レベルにあります。 さらに、この文法に基づいてデータセットを作成するアプローチを提案する。

Automation services for complex business processes usually require a high level of information technology literacy. There is a strong demand for a smartly assisted process automation (IPA: intelligent process automation) service that enables even general users to easily use advanced automation. A natural language interface for such automation is expected as an elemental technology for the IPA realization. The workflow targeted by IPA is generally composed of a combination of multiple tasks. However, semantic parsing, one of the natural language processing methods, for such complex workflows has not yet been fully studied. The reasons are that (1) the formal expression and grammar of the workflow required for semantic analysis have not been sufficiently examined and (2) the dataset of the workflow formal expression with its corresponding natural language description required for learning workflow semantics did not exist. This paper defines a new grammar for complex workflows with chaining machine-executable meaning representations for semantic parsing. The representations are at a high abstraction level. Additionally, an approach to creating datasets is proposed based on this grammar.
翻訳日:2023-01-13 09:42:20 公開日:2020-01-08
# 模倣学習の過去と現在 : 引用連鎖研究

The Past and Present of Imitation Learning: A Citation Chain Study ( http://arxiv.org/abs/2001.02328v1 )

ライセンス: Link先を確認
Nishanth Kumar(参考訳) 模倣学習は活発な研究の有望な領域である。 過去30年間、Imitation Learningは大幅に進歩し、自律運転からアタリゲームまで、困難なタスクの解決に利用されてきた。 この発展の過程で、模倣学習を行うための様々な方法が好まれてきた。 本稿では,これらの異なる手法の開発について検討し,この分野の進展について考察する。 私は、印象的なImitation Learning手法を開発するために、連続して構築される4つのランドマーク論文の調査に焦点を合わせます。

Imitation Learning is a promising area of active research. Over the last 30 years, Imitation Learning has advanced significantly and been used to solve difficult tasks ranging from Autonomous Driving to playing Atari games. In the course of this development, different methods for performing Imitation Learning have fallen into and out of favor. In this paper, I explore the development of these different methods and attempt to examine how the field has progressed. I focus my analysis on surveying 4 landmark papers that sequentially build upon each other to develop increasingly impressive Imitation Learning methods.
翻訳日:2023-01-13 09:42:04 公開日:2020-01-08
# 自然言語方向とR-NETを用いた行動ロボットナビゲーションの高レベル計画

High-Level Plan for Behavioral Robot Navigation with Natural Language Directions and R-NET ( http://arxiv.org/abs/2001.02330v1 )

ライセンス: Link先を確認
Amar Shrestha, Krittaphat Pugdeethosapol, Haowen Fang, Qinru Qiu(参考訳) ナビゲーション環境が分かっている場合、ランドマークがノードであるグラフとして表現することができ、ノードからノードに移動するロボットの動作はエッジであり、経路は行動指示のセットである。 ソースから目的地までの経路経路は、経路が離散アイテムの集合からの逐次サブセットであるような組合せ最適化問題のクラスと見なすことができる。 ポインタネットワークは、そのようなタスクに適した注意に基づくリカレントネットワークである。 本稿では,行動ナビゲーショングラフの理解を深め,ポインタネットワークが経路を表す行動のシーケンスを生成するようにすることで,自然言語指示を高レベルな行動ロボットナビゲーション計画に翻訳する,ゲート付き注意と自己整合注意を備えた修正型r-netを利用する。 ナビゲーショングラフデータセットのテストでは、我々のモデルは既知の環境と未知の環境の両方において最先端のアプローチよりも優れています。

When the navigational environment is known, it can be represented as a graph where landmarks are nodes, the robot behaviors that move from node to node are edges, and the route is a set of behavioral instructions. The route path from source to destination can be viewed as a class of combinatorial optimization problems where the path is a sequential subset from a set of discrete items. The pointer network is an attention-based recurrent network that is suitable for such a task. In this paper, we utilize a modified R-NET with gated attention and self-matching attention translating natural language instructions to a high-level plan for behavioral robot navigation by developing an understanding of the behavioral navigational graph to enable the pointer network to produce a sequence of behaviors representing the path. Tests on the navigation graph dataset show that our model outperforms the state-of-the-art approach for both known and unknown environments.
翻訳日:2023-01-13 09:41:54 公開日:2020-01-08
# 一般ファジィmin-maxニューラルネットワークのためのオンライン学習アルゴリズムの改良

An improved online learning algorithm for general fuzzy min-max neural network ( http://arxiv.org/abs/2001.02391v1 )

ライセンス: Link先を確認
Thanh Tung Khuat, Fang Chen, Bogdan Gabrys(参考訳) 本稿では,既存の拡張・縮小ステップ問題に対処する汎用ファジィmin-maxニューラルネット(GFMM)に対する現在のオンライン学習アルゴリズムの改良と,決定境界上の未確認データを扱う方法を提案する。 これらの欠点は分類性能を低下させるため、上記の制限に対処するために改良アルゴリズムが提案されている。 提案手法では, 重なり合うハイパーボックスの収縮過程は使用せず, 文献に示すようにエラー率を増大させる傾向にある。 実験の結果,提案手法の分類精度と安定性は,原版や他のファジィmin-max分類器と比較して向上した。 このオンライン学習アルゴリズムの学習サンプルの提示順序に対する感度を低減するために,簡易なアンサンブル法も提案されている。

This paper proposes an improved version of the current online learning algorithm for a general fuzzy min-max neural network (GFMM) to tackle existing issues concerning expansion and contraction steps as well as the way of dealing with unseen data located on decision boundaries. These drawbacks lower its classification performance, so an improved algorithm is proposed in this study to address the above limitations. The proposed approach does not use the contraction process for overlapping hyperboxes, which is more likely to increase the error rate as shown in the literature. The empirical results indicated the improvement in the classification accuracy and stability of the proposed method compared to the original version and other fuzzy min-max classifiers. In order to reduce the sensitivity to the training samples presentation order of this new on-line learning algorithm, a simple ensemble method is also proposed.
翻訳日:2023-01-13 09:41:22 公開日:2020-01-08
# iDLG: グラディエンスからのディープリークの改善

iDLG: Improved Deep Leakage from Gradients ( http://arxiv.org/abs/2001.02610v1 )

ライセンス: Link先を確認
Bo Zhao, Konda Reddy Mopuri, Hakan Bilen(参考訳) コラボレーション学習やフェデレート学習などの分散学習システムでは,共有勾配がプライベートトレーニングデータを漏らさないことが広く信じられている。 最近、Zhuらは、公に共有される勾配からプライベートトレーニングデータを取得する可能性を示すアプローチを提示した。 dlg法(deep leak from gradient)では、ダミーデータと対応するラベルを共有勾配の監督の下で合成する。 しかし、DLGはコンバージェンスに難色を呈し、ゼロトラストラベルを一貫して発見する。 本稿では,グラデーションの共有が明らかに接地ラベルを漏らすことを見出した。 勾配から正確なデータを抽出するための簡易かつ信頼性の高い手法を提案する。 特に,本手法はDLGとは対照的に,基盤構造ラベルを抽出できるので,改良DLG (iDLG) と命名する。 我々のアプローチは、1つのホットラベルでクロスエントロピー損失を訓練された任意の微分可能なモデルに対して有効である。 本手法は,勾配から地下構造ラベルを抽出する方法を数学的に説明し,DLGの利点を実証的に示す。

It is widely believed that sharing gradients will not leak private training data in distributed learning systems such as Collaborative Learning and Federated Learning, etc. Recently, Zhu et al. presented an approach which shows the possibility to obtain private training data from the publicly shared gradients. In their Deep Leakage from Gradient (DLG) method, they synthesize the dummy data and corresponding labels with the supervision of shared gradients. However, DLG has difficulty in convergence and discovering the ground-truth labels consistently. In this paper, we find that sharing gradients definitely leaks the ground-truth labels. We propose a simple but reliable approach to extract accurate data from the gradients. Particularly, our approach can certainly extract the ground-truth labels as opposed to DLG, hence we name it Improved DLG (iDLG). Our approach is valid for any differentiable model trained with cross-entropy loss over one-hot labels. We mathematically illustrate how our method can extract ground-truth labels from the gradients and empirically demonstrate the advantages over DLG.
翻訳日:2023-01-13 09:39:56 公開日:2020-01-08
# エネルギー効率の高いvlsiプロセッサ設計に向けた時間符号化に基づく多層スパイクニューラルネットワークの教師あり学習アルゴリズム

A Supervised Learning Algorithm for Multilayer Spiking Neural Networks Based on Temporal Coding Toward Energy-Efficient VLSI Processor Design ( http://arxiv.org/abs/2001.05348v1 )

ライセンス: Link先を確認
Yusuke Sakemi, Kai Morino, Takashi Morie, Kazuyuki Aihara(参考訳) スパイキングニューラルネットワーク(スパイキングニューラルネット、英: Spiking Neural Network、SNN)は、スパイクの形で情報を処理できる脳モデルである。 SNNは、新しい機械学習アルゴリズムだけでなく、VLSI回路で実装されたエネルギー効率の高い計算モデルも提供する予定である。 本稿では,時間符号化に基づくSNNのための新しい教師付き学習アルゴリズムを提案する。 このアルゴリズムのスパイクニューロンは、アナログ抵抗性メモリを用いたアナログVLSI実装を容易にし、超高エネルギー効率を実現するように設計されている。 また、認識タスクの性能向上のためのいくつかの手法を提案し、提案アルゴリズムの分類精度は、MNISTデータセット上の最先端の時間符号化SNNアルゴリズムと同程度であることを示す。 最後に、デバイス製造プロセスから生じる変化に対して提案するSNNの堅牢性について論じ、アナログVLSI実装では避けられない。 また, 製造工程の変化が認識性能に及ぼす影響を抑制する手法を提案する。

Spiking neural networks (SNNs) are brain-inspired mathematical models with the ability to process information in the form of spikes. SNNs are expected to provide not only new machine-learning algorithms, but also energy-efficient computational models when implemented in VLSI circuits. In this paper, we propose a novel supervised learning algorithm for SNNs based on temporal coding. A spiking neuron in this algorithm is designed to facilitate analog VLSI implementations with analog resistive memory, by which ultra-high energy efficiency can be achieved. We also propose several techniques to improve the performance on a recognition task, and show that the classification accuracy of the proposed algorithm is as high as that of the state-of-the-art temporal coding SNN algorithms on the MNIST dataset. Finally, we discuss the robustness of the proposed SNNs against variations that arise from the device manufacturing process and are unavoidable in analog VLSI implementation. We also propose a technique to suppress the effects of variations in the manufacturing process on the recognition performance.
翻訳日:2023-01-13 09:33:59 公開日:2020-01-08
# 非理想的視点からのアルゴリズム的公正性

Algorithmic Fairness from a Non-ideal Perspective ( http://arxiv.org/abs/2001.09773v1 )

ライセンス: Link先を確認
Sina Fazelpour, Zachary C. Lipton(参考訳) 予測モデリングの最近のブレークスルーにインスパイアされた業界と政府の実践者は、自動決定を駆動する予測の運用を期待して、機械学習に移行した。 不幸なことに、正義や公正といった一連の決定に関する多くの社会的デシデラタは、純粋に予測的な枠組みの中で自然に定式化されていない。 これらの問題を緩和するために、研究者は様々な統計パリティから逸脱を定量化するための様々な指標を提案し、これらのパリティのサブセットを満たすために様々なアルゴリズムを提供し、あるいは有用性に対して満足できる程度をトレードオフさせようとした。 本稿では,このアプローチを政治哲学における理想的・非理想的方法論的アプローチに関する文献と結びつける。 理想的なアプローチは、正しい世界が機能する原則を提示することである。 理想論の最も素直な応用では、それが現実と完全に正しい世界との相違を閉じると主張することによって提案された政策を支持する。 しかし, 理想的でない世界が生じたメカニズム, 様々な意思決定者の責任, 提案された政策の影響を考慮できないことにより, 理想的思考の素早い適用は, 誤った介入につながる可能性がある。 本稿では、公正な機械学習文学と政治哲学における理想的アプローチとの関係を実証し、提案する公正な機械学習アルゴリズムの欠点が、理想的アプローチが直面する幅広い問題を反映していると論じる。 結論として,誤った解の有害性,不可能性の再解釈,今後の研究の方向性について批判的な議論を行った。

Inspired by recent breakthroughs in predictive modeling, practitioners in both industry and government have turned to machine learning with hopes of operationalizing predictions to drive automated decisions. Unfortunately, many social desiderata concerning consequential decisions, such as justice or fairness, have no natural formulation within a purely predictive framework. In efforts to mitigate these problems, researchers have proposed a variety of metrics for quantifying deviations from various statistical parities that we might expect to observe in a fair world and offered a variety of algorithms in attempts to satisfy subsets of these parities or to trade off the degree to which they are satisfied against utility. In this paper, we connect this approach to \emph{fair machine learning} to the literature on ideal and non-ideal methodological approaches in political philosophy. The ideal approach requires positing the principles according to which a just world would operate. In the most straightforward application of ideal theory, one supports a proposed policy by arguing that it closes a discrepancy between the real and the perfectly just world. However, by failing to account for the mechanisms by which our non-ideal world arose, the responsibilities of various decision-makers, and the impacts of proposed policies, naive applications of ideal thinking can lead to misguided interventions. In this paper, we demonstrate a connection between the fair machine learning literature and the ideal approach in political philosophy, and argue that the increasingly apparent shortcomings of proposed fair machine learning algorithms reflect broader troubles faced by the ideal approach. We conclude with a critical discussion of the harms of misguided solutions, a reinterpretation of impossibility results, and directions for future research.
翻訳日:2023-01-13 09:33:24 公開日:2020-01-08
# 密度接続性を有する畳み込みネットワーク

Convolutional Networks with Dense Connectivity ( http://arxiv.org/abs/2001.02394v1 )

ライセンス: Link先を確認
Gao Huang and Zhuang Liu and Geoff Pleiss and Laurens van der Maaten and Kilian Q. Weinberger(参考訳) 近年の研究では、畳み込みネットワークは、入力に近い層と出力に近い層との間の短い接続がある場合、より深く、より正確で、効率的にトレーニングできることが示されている。 本稿では,各層をフィードフォワード方式で接続するDense Convolutional Network(DenseNet)を紹介する。従来の畳み込みネットワークでは,L層とL層との間にL接続があり,L(L+1)/2直結している。 各レイヤについて、前のすべてのレイヤの機能マップを入力として、それ自身の機能マップをすべてのレイヤへの入力として使用する。 消滅段階の問題を緩和し、機能の再利用を奨励し、パラメータ効率を大幅に改善する。 提案したアーキテクチャを,CIFAR-10, CIFAR-100, SVHN, ImageNetの4つの高度に競合するオブジェクト認識ベンチマークタスクで評価した。 DenseNetは、高いパフォーマンスを達成するためにパラメータや計算を少なくしながら、最先端よりも大幅に改善されている。

Recent work has shown that convolutional networks can be substantially deeper, more accurate, and efficient to train if they contain shorter connections between layers close to the input and those close to the output. In this paper, we embrace this observation and introduce the Dense Convolutional Network (DenseNet), which connects each layer to every other layer in a feed-forward fashion.Whereas traditional convolutional networks with L layers have L connections - one between each layer and its subsequent layer - our network has L(L+1)/2 direct connections. For each layer, the feature-maps of all preceding layers are used as inputs, and its own feature-maps are used as inputs into all subsequent layers. DenseNets have several compelling advantages: they alleviate the vanishing-gradient problem, encourage feature reuse and substantially improve parameter efficiency. We evaluate our proposed architecture on four highly competitive object recognition benchmark tasks (CIFAR-10, CIFAR-100, SVHN, and ImageNet). DenseNets obtain significant improvements over the state-of-the-art on most of them, whilst requiring less parameters and computation to achieve high performance.
翻訳日:2023-01-13 09:32:54 公開日:2020-01-08
# 著者会議推薦のための対応分析フレームワーク

A Correspondence Analysis Framework for Author-Conference Recommendations ( http://arxiv.org/abs/2001.02669v1 )

ライセンス: Link先を確認
Rahul Radhakrishnan Iyer, Manish Sharma, Vijaya Saradhi(参考訳) 長年にわたり、科学者による成果や発見は、適切な雑誌や会議に掲載された研究論文を通じて認識されている。 多くの場合、確立された科学者や特に新入生は、仕事を終えるために適切な会議を選ぶというジレンマに巻き込まれる。 すべての科学会議や雑誌は特定の分野の研究に傾いているが、特定の分野には膨大な数の論文がある。 適切な会場を選ぶことは、適切なオーディエンスにリーチし、論文を公開する機会を増やすのに役立つため不可欠である。 本稿では,著者に対して適切な会議を推薦し,受理機会を増やすことを課題とする。 本稿では,著者のソーシャル・ネットワークの利用と,次元の縮小とトピック・モデリングの設定における論文の内容に関する3つのアプローチについて述べる。 これらすべてのアプローチにおいて、会議や論文など、問題のエンティティ間の適切な関係を導出するために、対応分析(CA)を適用する。 本モデルは,コンテンツベースフィルタリング,協調フィルタリング,ハイブリッドフィルタリングなどの既存手法と比較して有望な結果を示す。

For many years, achievements and discoveries made by scientists are made aware through research papers published in appropriate journals or conferences. Often, established scientists and especially newbies are caught up in the dilemma of choosing an appropriate conference to get their work through. Every scientific conference and journal is inclined towards a particular field of research and there is a vast multitude of them for any particular field. Choosing an appropriate venue is vital as it helps in reaching out to the right audience and also to further one's chance of getting their paper published. In this work, we address the problem of recommending appropriate conferences to the authors to increase their chances of acceptance. We present three different approaches for the same involving the use of social network of the authors and the content of the paper in the settings of dimensionality reduction and topic modeling. In all these approaches, we apply Correspondence Analysis (CA) to derive appropriate relationships between the entities in question, such as conferences and papers. Our models show promising results when compared with existing methods such as content-based filtering, collaborative filtering and hybrid filtering.
翻訳日:2023-01-13 09:31:27 公開日:2020-01-08