このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200105となっている論文です。

PDF登録状況(公開日: 20200105)

TitleAuthorsAbstract論文公表日・翻訳日
# 空洞における入出力問題に対するループ理論

A loop theory for the input-output problems in cavities ( http://arxiv.org/abs/2001.01242v1 )

ライセンス: Link先を確認
H. Y. Yuan, Weichao Yu, and Jiang Xiao(参考訳) 入力出力形式は、外部刺激に対する光学キャビティの応答を研究するための基礎となる。 既存の理論は通常、内部モードが1つしかない空洞系を扱う。 しかし、より複雑なシステム、特に光空洞と物質から少なくとも2つの内部モードを含むハイブリッドキャビティ・マターシステムへの関心が高まっている。 ここでは、場の量子論におけるファインマン図の役割に似た、そのような多モード空洞の反射スペクトルと透過スペクトルを計算し視覚化するグラフィカルループ理論を提案する。 このループ理論は、ハイブリッド・マグネット・ライト・システムにおける実験的な観測を統一的に解釈し、計算なしで任意の複雑な問題に適用するのは非常に容易である。

The input-output formalism is the basis to study the response of an optical cavity to the external stimulations. The existing theories usually handle cavity systems with only one internal mode. However, there is growing interest in more complex systems, especially the hybrid cavity-matter systems, which contains at least two internal modes, one or more from the optical cavity and the matter, respectively. Here we propose a graphical loop theory to calculate and visualize the reflection and transmission spectrum of such multi-mode cavity, resembling the role of Feynman diagrams in the quantum field theory. This loop theory gives a unified picture to interpret the experimental observations on a hybrid magnet-light system, and is extremely easy to apply to arbitrary complicated problems without any calculations.
翻訳日:2023-01-14 08:15:41 公開日:2020-01-05
# Pythagorean Triples Couplingによる2.2N}$レベル系における最大絡み合い状態の完全集団移動

Complete Population Transfer of Maximally Entangled States in $2^{2N}$-level Systems via Pythagorean Triples Coupling ( http://arxiv.org/abs/2001.01274v1 )

ライセンス: Link先を確認
Muhammad Erew, Moshe Goldstein, Haim Suchowski(参考訳) 最大絡み合った状態は量子情報処理において中心的な役割を果たす。 長年にわたる多くの進歩にもかかわらず、多レベルシステムにおけるそのような状態を操作するための堅牢なプロトコルはまだ少ない。 ここでは、2つの最大絡み合った状態間の完全人口移動の効率的な操作を可能にする制御方式を提案する。 この研究において、$\mathrm{SU}\left(2\right)$の自己双対をエクスプロイトする:${\mathrm{2}}^{\mathrm{2}N}$レベルのシステムであり、ピタゴラス三重項に関連するカップリングを持つ。 本手法は,最近開発された逆行性カノンスキームと関連付け,より汎用的な完全移行レシピを導出する。 また、$\left(2n+1\right)^2$-level system, $\left(2n+1\right)^2$-level systems や他のユニタリ群についても論じる。

Maximally entangled states play a central role in quantum information processing. Despite much progress throughout the years, robust protocols for manipulations of such states in many-level systems are still scarce. Here we present a control scheme that allow efficient manipulation of complete population transfer between two maximally entangled states. Exploiting the self-duality of $\mathrm{SU}\left(2\right)$, we present in this work a family of ${\mathrm{2}}^{\mathrm{2}N}$-level systems with couplings related to Pythagorean triples that make a complete population transfer from one state to another (orthogonal) state, using very few couplings and generators. We relate our method to the recently-developed retrograde-canon scheme and derive a more general complete transfer recipe. We also discuss the cases of $\left(2n\right)^2$-level systems, $\left(2n+1\right)^2$-level systems and other unitary groups.
翻訳日:2023-01-14 08:15:27 公開日:2020-01-05
# 臨界結合と暗い絡み合い状態による地中冷却

Ground-state cooling enabled by critical coupling and dark entangled states ( http://arxiv.org/abs/2001.01318v1 )

ライセンス: Link先を確認
Cristian L. Cortes, Matthew Otten, Stephen K. Gray(参考訳) オープン量子システムアプローチにより、相互作用する2レベル系のアンサンブルに結合したメカニカル共振器の冷却解析を行う。 正確な解析結果を用いて、フォノンモードが2レベルのシステムアンサンブルに(\gamma \sim g$)臨界結合されたときに最適な冷却が起こる。 典型的なシステムは、散逸崩壊率$\gamma$とカップリング係数$g$の間の固有パラメータミスマッチ(\gamma \gg g$)のために、準最適冷却状態で動作する。 この障害を克服するため, 機械共振器のひずみプロファイルを通した結合パラメータを慎重に設計することで, フォノン冷却が \emph{interacting} アンサンブルの暗(サブラディアント)絡み合った状態を通過し, 最適なフォノン冷却をもたらすことを示す。 その結果, 地上冷却のための新しい方法が得られ, 実験実験に利用できるようになる。

We analyze the cooling of a mechanical resonator coupled to an ensemble of interacting two-level systems via an open quantum systems approach. Using an exact analytical result, we find optimal cooling occurs when the phonon mode is critically coupled ($\gamma \sim g$) to the two-level system ensemble. Typical systems operate in sub-optimal cooling regimes due to the intrinsic parameter mismatch ($\gamma \gg g$) between the dissipative decay rate $\gamma$ and the coupling factor $g$. To overcome this obstacle, we show that carefully engineering the coupling parameters through the strain profile of the mechanical resonator allows phonon cooling to proceed through the dark (subradiant) entangled states of an \emph{interacting} ensemble, thereby resulting in optimal phonon cooling. Our results provide a new avenue for ground-state cooling and should be accessible for experimental demonstrations.
翻訳日:2023-01-14 08:14:28 公開日:2020-01-05
# スキュー情報による量子コヒーレンスに基づく量子非マルコフ性の量子化

Quantifying quantum non-Markovianity based on quantum coherence via skew information ( http://arxiv.org/abs/2001.01261v1 )

ライセンス: Link先を確認
Lian-He Shao, Yu-Ran Zhang, Yu Luo, Zhengjun Xi, and Shao-Ming Fei(参考訳) 完全正およびトレース保存写像の下でのスキュー情報による量子コヒーレンスの非増加特性に基づいて、オープン量子プロセスに対する非マルコビアン性尺度を提案する。 応用として、提案した測度をいくつかの典型的なノイズチャネルに適用することにより、位相減衰および振幅減衰チャネルの非マルコビアン性に関する以前の3つの測度、すなわち、量子トレース距離、動的可視性および量子相互情報に基づく測度と等価であることが分かる。 ランダムなユニタリチャネルの場合、これは出力状態のクラスに対するコヒーレンスの$l_1$ノルムに基づく非マルコビアン測度と等価であり、動的可視性に基づく測度と不完全同値である。 また、量子開系の非マルコビアン性を検出するために、修正されたTsallis relative $\alpha$ entropy of coherenceを用いて、修正されたTsallis relative $\alpha$ entropy of coherenceは、小さな$\alpha$に対する元のTsallis relative $\alpha$ entropyよりも快適であることを示す。

Based on the nonincreasing property of quantum coherence via skew information under incoherent completely positive and trace-preserving maps, we propose a non-Markovianity measure for open quantum processes. As applications, by applying the proposed measure to some typical noisy channels, we find that it is equivalent to the three previous measures of non-Markovianity for phase damping and amplitude damping channels, i.e., the measures based on the quantum trace distance, dynamical divisibility, and quantum mutual information. For the random unitary channel, it is equivalent to the non-Markovianity measure based on $l_1$ norm of coherence for a class of output states and it is incompletely equivalent to the measure based on dynamical divisibility. We also use the modified Tsallis relative $\alpha$ entropy of coherence to detect the non-Markovianity of dynamics of quantum open systems, the results show that the modified Tsallis relative $\alpha$ entropy of coherence are more comfortable than the original Tsallis relative $\alpha$ entropy of coherence for small $\alpha$.
翻訳日:2023-01-14 08:10:48 公開日:2020-01-05
# 深層学習による胸部x線画像上の椎骨の自動分割

Automated Segmentation of Vertebrae on Lateral Chest Radiography Using Deep Learning ( http://arxiv.org/abs/2001.01277v1 )

ライセンス: Link先を確認
Sanket Badhe, Varun Singh, Joy Li and Paras Lakhani(参考訳) 本研究の目的は,胸部X線撮影における深層学習を用いた胸椎分割自動アルゴリズムの開発である。 124例の胸部X線写真が得られた。 可視性椎骨の分画は医学生が手動で行い,放射線技師が確認した。 トレーニングには74イメージ,検証には10イメージ,テストには40イメージが使用された。 U-Netディープ畳み込みニューラルネットワークをセグメント化に利用し、損失関数としてダイス係数とバイナリクロスエントロピーの和を用いた。 テストセットでは、平均サイコロ係数は90.5であり、平均交点オーバー結合(iou)は81.75である。 深層学習は、外側胸部X線撮影における椎骨分割の可能性を証明している。

The purpose of this study is to develop an automated algorithm for thoracic vertebral segmentation on chest radiography using deep learning. 124 de-identified lateral chest radiographs on unique patients were obtained. Segmentations of visible vertebrae were manually performed by a medical student and verified by a board-certified radiologist. 74 images were used for training, 10 for validation, and 40 were held out for testing. A U-Net deep convolutional neural network was employed for segmentation, using the sum of dice coefficient and binary cross-entropy as the loss function. On the test set, the algorithm demonstrated an average dice coefficient value of 90.5 and an average intersection-over-union (IoU) of 81.75. Deep learning demonstrates promise in the segmentation of vertebrae on lateral chest radiography.
翻訳日:2023-01-14 08:10:19 公開日:2020-01-05
# 組合せ最適化のための細粒度探索空間プルーニングとヒューリスティックス学習

Learning fine-grained search space pruning and heuristics for combinatorial optimization ( http://arxiv.org/abs/2001.01230v1 )

ライセンス: Link先を確認
Juho Lauri, Sourav Dutta, Marco Grassia, Deepak Ajwani(参考訳) 組合せ最適化問題は、様々な領域から幅広いアプリケーションに発生する。 これらの問題の多くはnpハードであり、効率的なヒューリスティックの設計にはかなりの時間と実験が必要である。 一方、業界における最適化問題の数は増え続けている。 近年,このギャップに対処するために機械学習技術が研究されている。 本稿では,機械学習技術を利用して正確な組合せ最適化アルゴリズムをスケールアップするフレームワークを提案する。 ディープラーニングや強化学習,制限されたボルツマンマシンといった,入力から最適化問題の出力を直接学習しようとする既存手法とは対照的に,我々のフレームワークは,問題インスタンスのサイズを減らすために,要素を切断する比較的単純なタスクを学習する。 さらに、このフレームワークは直感的な特徴に基づく解釈可能な学習モデルのみを使用し、学習プロセスはより優れたヒューリスティックの設計に使用できる最適化問題とインスタンスクラスに関する深い洞察を提供する。 古典的な最大傾き列挙問題に対して、我々のフレームワークは入力グラフのかなりの部分(スパースグラフの場合のノードの約99%)を抽出でき、なおも最大傾きのほとんどを検出できることを示す。 これにより、最先端のアルゴリズムを数倍高速化する。 さらに, 近辺次数のchi-squared値は, 最大クランクにおけるノードの存在と統計的に有意な相関関係があること, 特に, 現代の解法にとって大きな課題となる, 高密度グラフにおいて顕著であることを示した。 我々はこの洞察を利用して、最先端技術を上回る新しいヒューリスティックを設計する。 我々のヒューリスティックは、最大傾きの検出と列挙にも独立した関心を持っている。

Combinatorial optimization problems arise in a wide range of applications from diverse domains. Many of these problems are NP-hard and designing efficient heuristics for them requires considerable time and experimentation. On the other hand, the number of optimization problems in the industry continues to grow. In recent years, machine learning techniques have been explored to address this gap. We propose a framework for leveraging machine learning techniques to scale-up exact combinatorial optimization algorithms. In contrast to the existing approaches based on deep-learning, reinforcement learning and restricted Boltzmann machines that attempt to directly learn the output of the optimization problem from its input (with limited success), our framework learns the relatively simpler task of pruning the elements in order to reduce the size of the problem instances. In addition, our framework uses only interpretable learning models based on intuitive features and thus the learning process provides deeper insights into the optimization problem and the instance class, that can be used for designing better heuristics. For the classical maximum clique enumeration problem, we show that our framework can prune a large fraction of the input graph (around 99 % of nodes in case of sparse graphs) and still detect almost all of the maximum cliques. This results in several fold speedups of state-of-the-art algorithms. Furthermore, the model used in our framework highlights that the chi-squared value of neighborhood degree has a statistically significant correlation with the presence of a node in a maximum clique, particularly in dense graphs which constitute a significant challenge for modern solvers. We leverage this insight to design a novel heuristic for this problem outperforming the state-of-the-art. Our heuristic is also of independent interest for maximum clique detection and enumeration.
翻訳日:2023-01-14 08:10:05 公開日:2020-01-05
# 完全正でない正の写像の実践的構成

Practical construction of positive maps which are not completely positive ( http://arxiv.org/abs/2001.01181v1 )

ライセンス: Link先を確認
Abhishek Bhardwaj(参考訳) 本稿では,完全正ではない正の写像を構成するためのMATLABツールボックスであるPnCPを紹介する。 そこで,本手法の最適解法と2乗緩和法の和について検討し,最も数値効率の良い手法を求める。 また、このパッケージが量子状態の絡み合いを分類する問題にどのように適用できるかを示す。

This article introduces PnCP, a MATLAB toolbox for constructing positive maps which are not completely positive. We survey optimization and sum of squares relaxation techniques to find the most numerically efficient methods for this construction. We also show how this package can be applied to the problem of classifying entanglement in quantum states.
翻訳日:2023-01-14 08:09:15 公開日:2020-01-05
# 総境界と自由絡み合いの列島

Archipelagos of Total Bound and Free Entanglement ( http://arxiv.org/abs/2001.01232v1 )

ライセンス: Link先を確認
Paul B. Slater(参考訳) まず、当初非常に複雑な式、つまり双対関係をかなり単純化する。 これは、li と qiao によって最近解析された3パラメータモデル(2 \times 4$)に対して、合計バウンドエンタングルメント確率(約0.0865542$)を与える。 パラメーターの空間には、"archipelago" という不一致のバウンドエンタングル領域が現れるが、これは前報の"jagged islands of bound entanglement and witness-parameterized probabilities"(バウンドエンタングルメントと目撃者パラメータ付き確率のジャグリング島)と似ている。 There, two-qutrit and two-ququart Hiesmayr-L{\"o}ffler "magic simplices" and generalized Horodecki states had been examined. However, contrastingly, in the present study, the entirety of bound entanglement--given by the formula obtained--is clearly captured in the archipelago found. Further, we "upgrade" the qubit-ququart model to a two-ququart one, for which we again find a bound-entangled archipelago, with its total probability simply being now $\frac{1}{729} \left(473-512 \log \left(\frac{27}{16}\right) \left(1+\log \left(\frac{27}{16}\right)\right)\right) \approx 0.0890496$. 次に、qubit-ququartモデルを2量子ビットモデルに"ダウングレード"すると、全非バウンド/フリーエンタングルメント確率$\frac{1}{2}$の諸島が見つかる。

First, we considerably simplify an initially quite complicated formula -- involving dilogarithms. It yields the total bound entanglement probability ($\approx 0.0865542$) for a qubit-ququart ($2 \times 4$) three-parameter model, recently analyzed for its separability properties by Li and Qiao. An "archipelago" of disjoint bound-entangled regions appears in the space of parameters, somewhat similarly to those recently found in our preprint, "Jagged Islands of Bound Entanglement and Witness-Parameterized Probabilities". There, two-qutrit and two-ququart Hiesmayr-L{\"o}ffler "magic simplices" and generalized Horodecki states had been examined. However, contrastingly, in the present study, the entirety of bound entanglement--given by the formula obtained--is clearly captured in the archipelago found. Further, we "upgrade" the qubit-ququart model to a two-ququart one, for which we again find a bound-entangled archipelago, with its total probability simply being now $\frac{1}{729} \left(473-512 \log \left(\frac{27}{16}\right) \left(1+\log \left(\frac{27}{16}\right)\right)\right) \approx 0.0890496$. Then, "downgrading" the qubit-ququart model to a two-qubit one, we find an archipelago of total non-bound/free entanglement probability $\frac{1}{2}$.
翻訳日:2023-01-14 08:09:09 公開日:2020-01-05
# ナノ構造膜電子相板

Nanostructured-membrane electron phase plates ( http://arxiv.org/abs/2001.01144v1 )

ライセンス: Link先を確認
Yujia Yang, Chung-Soo Kim, Richard G. Hobbs, Phillip D. Keathley, Karl K. Berggren(参考訳) 電子ビームはナノ構造材料相板を通過して設計した位相変調を得ることができる。 これらの位相変調は電子波面形成を可能にし、電子顕微鏡、分光、リソグラフィー、干渉計の恩恵を受ける。 しかし、電子相板の製造においては、通常、集束イオンビームミリング法が製造スループットを制限し、したがって相板の活性面積を制限している。 そこで我々は電子ビームリソグラフィーと反応性イオンエッチングによる大面積電子相板を作製した。 位相板は、様々な電子エネルギーを持つ透過電子顕微鏡における電子回折と走査電子顕微鏡における回折イメージングによって特徴づけられる。 位相板は、回折ビームのコヒーレント干渉に基づいて、明るさ場の中央にヌルを生成できることがわかった。 我々の研究は電子相板の製造に能力を加えている。 ここで示される直接ビームの無効化と波長可変回折効率は、新しい暗視野電子マイクロスコープ技術と波長可変電子位相プレートへの道を開く。

Electron beams can acquire designed phase modulations by passing through nanostructured material phase plates. These phase modulations enable electron wavefront shaping and benefit electron microscopy, spectroscopy, lithography, and interferometry. However, in the fabrication of electron phase plates, the typically used focused-ion-beam-milling method limits the fabrication throughput and hence the active area of the phase plates. Here, we fabricated large-area electron phase plates with electron-beam lithography and reactive-ion-etching. The phase plates are characterized by electron diffraction in transmission electron microscopes with various electron energies, as well as diffractive imaging in a scanning electron microscope. We found the phase plates could produce a null in the center of the bright-field based on coherent interference of diffractive beams. Our work adds capabilities to the fabrication of electron phase plates. The nullification of the direct beam and the tunable diffraction efficiency demonstrated here also paves the way towards novel dark-field electron-microscopy techniques and tunable electron phase plates.
翻訳日:2023-01-14 08:08:36 公開日:2020-01-05
# 密度行列による演算子について

On Operators Generated by Density Matrix ( http://arxiv.org/abs/2001.01180v1 )

ライセンス: Link先を確認
V. I. Gerasimenko(参考訳) 本研究では, 量子多粒子系の状態の進化を, 密度行列と呼ばれるカーネルが持つ密度演算子の修正の可能性によって記述することのできるアプローチについて考察する。 さらに、多くの粒子の量子系の典型粒子の状態による状態の進化の記述へのアプローチや、言い換えれば、運動方程式による状態の進化を記述する基礎について考察する。

In this survey the possible approaches to the description of the evolution of states of quantum many-particle systems by means of the possible modifications of the density operator which kernel known as density matrix are considered. In addition, an approach to the description of the evolution of states by means of the state of a typical particle of a quantum system of many particles is discussed or in other words, the foundations of describing the evolution of states by kinetic equations are considered.
翻訳日:2023-01-14 08:08:21 公開日:2020-01-05
# 入射運動推定と補償の新しいメカニズムに基づく訓練用超解像のエンド・ツー・エンド化

End-To-End Trainable Video Super-Resolution Based on a New Mechanism for Implicit Motion Estimation and Compensation ( http://arxiv.org/abs/2001.01162v1 )

ライセンス: Link先を確認
Xiaohong Liu, Lingshi Kong, Yang Zhou, Jiying Zhao, Jun Chen(参考訳) video super- resolutionは、低解像度ビデオから高解像度ビデオを生成することを目指している。 ディープラーニングの急速な普及に伴い、最近提案された多くのビデオスーパーレゾリューション手法では、畳み込みニューラルネットワークと明示的な動き補償を併用して、低解像度フレーム内およびフレーム間の統計的依存関係を活用している。 このような方法の一般的な問題は2つある。 第一に、再構成されたHRビデオの品質は、しばしば運動推定の精度に非常に敏感である。 第2に、水平方向と垂直方向の画素変位を線分する2つのフローマップによって規定される動き補償に必要なワープグリッドは、追加エラーを導入し、ビデオフレーム間の時間的一貫性を損なう傾向にある。 そこで本研究では,局所結合層,試料特異的および位置特異的な動的局所フィルタを用いて,対象画素に合わせた暗黙的動き推定と補償を行う新しい動的局所フィルタネットワークを提案する。 また,ResBlockとオートエンコーダ構造に基づくグローバルリファインメントネットワークを提案し,非局所的相関を利用して超解像フレームの空間的整合性を高める。 実験結果から,提案手法は局部変換処理,時間的整合性,エッジシャープネスの両面において,最先端技術よりも優れた性能を示し,その強度を検証した。

Video super-resolution aims at generating a high-resolution video from its low-resolution counterpart. With the rapid rise of deep learning, many recently proposed video super-resolution methods use convolutional neural networks in conjunction with explicit motion compensation to capitalize on statistical dependencies within and across low-resolution frames. Two common issues of such methods are noteworthy. Firstly, the quality of the final reconstructed HR video is often very sensitive to the accuracy of motion estimation. Secondly, the warp grid needed for motion compensation, which is specified by the two flow maps delineating pixel displacements in horizontal and vertical directions, tends to introduce additional errors and jeopardize the temporal consistency across video frames. To address these issues, we propose a novel dynamic local filter network to perform implicit motion estimation and compensation by employing, via locally connected layers, sample-specific and position-specific dynamic local filters that are tailored to the target pixels. We also propose a global refinement network based on ResBlock and autoencoder structures to exploit non-local correlations and enhance the spatial consistency of super-resolved frames. The experimental results demonstrate that the proposed method outperforms the state-of-the-art, and validate its strength in terms of local transformation handling, temporal consistency as well as edge sharpness.
翻訳日:2023-01-14 08:03:19 公開日:2020-01-05
# 顔行動単位検出のための時空間関係と注意学習

Spatio-Temporal Relation and Attention Learning for Facial Action Unit Detection ( http://arxiv.org/abs/2001.01168v1 )

ライセンス: Link先を確認
Zhiwen Shao, Lixin Zou, Jianfei Cai, Yunsheng Wu, Lizhuang Ma(参考訳) 顔行動単位(AU)間の時空間関係は、AU検出のための重要な情報を十分に活用していない。 主な理由は、空間的および時間的関係を同時に学習する現在のAU検出作業の限られた能力と、AU特徴学習のための正確な位置情報の欠如である。 そこで本研究では,au検出のための時空間関係と注意学習の枠組みを提案する。 具体的には,au関係を時空間グラフとして定式化し,事前定義されたエッジ重みではなく適応的に学習する動的オースから空間的・時間的関係を捉える時空間グラフ畳み込みネットワークを提案する。 さらに、AU間の時空間関係の学習には個々のAUの特徴が必要である。 本研究では,AUのダイナミズムと形状の不規則性を考慮したアテンション正規化手法を提案する。 BP4Dおよび特にdisFAベンチマークにおける最先端のAU検出法に対して,本手法が大幅に改善されていることを示す。

Spatio-temporal relations among facial action units (AUs) convey significant information for AU detection yet have not been thoroughly exploited. The main reasons are the limited capability of current AU detection works in simultaneously learning spatial and temporal relations, and the lack of precise localization information for AU feature learning. To tackle these limitations, we propose a novel spatio-temporal relation and attention learning framework for AU detection. Specifically, we introduce a spatio-temporal graph convolutional network to capture both spatial and temporal relations from dynamic AUs, in which the AU relations are formulated as a spatio-temporal graph with adaptively learned instead of predefined edge weights. Moreover, the learning of spatio-temporal relations among AUs requires individual AU features. Considering the dynamism and shape irregularity of AUs, we propose an attention regularization method to adaptively learn regional attentions that capture highly relevant regions and suppress irrelevant regions so as to extract a complete feature for each AU. Extensive experiments show that our approach achieves substantial improvements over the state-of-the-art AU detection methods on BP4D and especially DISFA benchmarks.
翻訳日:2023-01-14 08:02:55 公開日:2020-01-05
# 細粒度認識のための空間規模アライメントネットワーク

Spatial-Scale Aligned Network for Fine-Grained Recognition ( http://arxiv.org/abs/2001.01211v1 )

ライセンス: Link先を確認
Lizhao Gao, Haihua Xu, Chong Sun, Junling Liu, Yu-Wing Tai(参考訳) 視覚の微粒化のための既存のアプローチは、空間的・スケール的なミスアライメントを無視しながら、限界領域に基づく表現を学習することに焦点を当て、性能が劣る。 本稿では,空間スケールアライメントネットワーク(SSANET)を提案する。 特にSSANETは 1) 形態的アライメント制約のある自己監督型提案鉱業公式 2)DSMモジュールは,循環行列を介して特徴ピラミッドを利用して,高速なスケールアライメントのためのフーリエソルバを提供する。 3) いくつかの事前定義された方向でプール操作を実行する指向型プール(op)モジュール。 各方向は1種類の空間的アライメントを定義し、ネットワークは学習を通じて最適なアライメントを自動決定する。 提案する2つのモジュールにより,提案アルゴリズムは精度の高い局所的提案領域を自動的に決定し,より堅牢なターゲット表現を生成することができる。 大規模な実験により、SSANETはより優れた空間スケールの不変なターゲット表現を学習する能力があり、いくつかのベンチマークでよりきめ細かな認識タスクにおいて優れた性能が得られることが検証された。

Existing approaches for fine-grained visual recognition focus on learning marginal region-based representations while neglecting the spatial and scale misalignments, leading to inferior performance. In this paper, we propose the spatial-scale aligned network (SSANET) and implicitly address misalignments during the recognition process. Especially, SSANET consists of 1) a self-supervised proposal mining formula with Morphological Alignment Constraints; 2) a discriminative scale mining (DSM) module, which exploits the feature pyramid via a circulant matrix, and provides the Fourier solver for fast scale alignments; 3) an oriented pooling (OP) module, that performs the pooling operation in several pre-defined orientations. Each orientation defines one kind of spatial alignment, and the network automatically determines which is the optimal alignments through learning. With the proposed two modules, our algorithm can automatically determine the accurate local proposal regions and generate more robust target representations being invariant to various appearance variances. Extensive experiments verify that SSANET is competent at learning better spatial-scale invariant target representations, yielding superior performance on the fine-grained recognition task on several benchmarks.
翻訳日:2023-01-14 08:02:23 公開日:2020-01-05
# 人物画像合成のためのロバストな姿勢変換型GAN

A Robust Pose Transformational GAN for Pose Guided Person Image Synthesis ( http://arxiv.org/abs/2001.01259v1 )

ライセンス: Link先を確認
Arnab Karmakar, Deepak Mishra(参考訳) 被写体の写実的画像を生成することは、被写体の完全な外観モデルを生成する上で重要な応用である。 しかし,コンピュータビジョンの観点からは,ポーズ条件に基づくデータ分布をモデル化できないため,この課題は非常に困難である。 既存の作業では、フォアグラウンドセグメンテーションや人体解析などの様々な追加機能を備えた複雑なポーズ変換モデルを使用して、計算オーバーヘッドにつながる堅牢性を実現している。 本研究では,任意のポーズで与えられた人物画像を生成するために,付加的な特徴学習を伴わずに残像学習法を用いて,簡単なポーズ変換GANを提案する。 効果的なデータ拡張技術とモデルを巧みに調整することにより,照明,咬合,歪み,スケールの面でロバスト性を実現する。 本研究では,2つの大規模データセット上の既存手法よりも,モデルが優れていることを示すために,質的かつ定量的に詳細な研究を行った。

Generating photorealistic images of human subjects in any unseen pose have crucial applications in generating a complete appearance model of the subject. However, from a computer vision perspective, this task becomes significantly challenging due to the inability of modelling the data distribution conditioned on pose. Existing works use a complicated pose transformation model with various additional features such as foreground segmentation, human body parsing etc. to achieve robustness that leads to computational overhead. In this work, we propose a simple yet effective pose transformation GAN by utilizing the Residual Learning method without any additional feature learning to generate a given human image in any arbitrary pose. Using effective data augmentation techniques and cleverly tuning the model, we achieve robustness in terms of illumination, occlusion, distortion and scale. We present a detailed study, both qualitative and quantitative, to demonstrate the superiority of our model over the existing methods on two large datasets.
翻訳日:2023-01-14 07:52:58 公開日:2020-01-05
# 物流における実世界の車両経路問題に対する適応型データ駆動アプローチ

An adaptive data-driven approach to solve real-world vehicle routing problems in logistics ( http://arxiv.org/abs/2001.02094v1 )

ライセンス: Link先を確認
Emir Zunic, Dzenana Donko, Emir Buza(参考訳) 輸送は物流費の3分の1を占めており、輸送システムは物流システムの性能に大きな影響を与えている。 本研究は、ロジスティクス分野における現実の車両ルーティング問題(VRP)を解決するための適応型データ駆動型革新的なモジュラーアプローチを提案する。 本作は2つの基本ユニットで構成されている。 (i)ロジスティクスにおけるVRP問題の成功と完全に実現可能な解決のための革新的な多段階アルゴリズム。 (ii)提案アルゴリズムのパラメータと定数の調整と設定のための適応的アプローチ。 提案アルゴリズムは,複数のデータ変換手法,ヒューリスティックス,タブサーチを組み合わせる。 さらに,アルゴリズムの性能は制御パラメータと定数の集合に依存するため,これらのパラメータと定数を履歴データに従って適応的に調整する予測モデルを提案する。 一般線形モデル(GLM)とサポートベクトルマシン(SVM)の予測モデルを用いた決定支援システムを用いて,得られた結果の比較を行った。 予測手法を用いた制御パラメータの取得とともに,このアルゴリズムは,ボスニア・ヘルツェゴビナの大手流通企業で使用されているWebベースのエンタープライズシステムに組み込まれた。 提案アルゴリズムの結果をベンチマークインスタンスのセットと比較し,実際のベンチマークインスタンスについても検証した。 実環境において与えられた経路の実現可能性も提示する。

Transportation occupies one-third of the amount in the logistics costs, and accordingly transportation systems largely influence the performance of the logistics system. This work presents an adaptive data-driven innovative modular approach for solving the real-world Vehicle Routing Problems (VRP) in the field of logistics. The work consists of two basic units: (i) an innovative multi-step algorithm for successful and entirely feasible solving of the VRP problems in logistics, (ii) an adaptive approach for adjusting and setting up parameters and constants of the proposed algorithm. The proposed algorithm combines several data transformation approaches, heuristics and Tabu search. Moreover, as the performance of the algorithm depends on the set of control parameters and constants, a predictive model that adaptively adjusts these parameters and constants according to historical data is proposed. A comparison of the acquired results has been made using the Decision Support System with predictive models: Generalized Linear Models (GLM) and Support Vector Machine (SVM). The algorithm, along with the control parameters, which using the prediction method were acquired, was incorporated into a web-based enterprise system, which is in use in several big distribution companies in Bosnia and Herzegovina. The results of the proposed algorithm were compared with a set of benchmark instances and validated over real benchmark instances as well. The successful feasibility of the given routes, in a real environment, is also presented.
翻訳日:2023-01-14 07:50:25 公開日:2020-01-05
# 共通パターン検出を用いたデータ曲線クラスタリング

Data Curves Clustering Using Common Patterns Detection ( http://arxiv.org/abs/2001.02095v1 )

ライセンス: Link先を確認
Konstantinos F. Xylogiannopoulos(参考訳) 過去数十年間、人類が生み出す累積データの膨大な拡大を経験してきた。 毎日、インターネット上で相互接続される多数のスマートデバイスが、膨大な実価値データセットを生成します。 金融、天気、医療応用、交通管理など全く関係のない分野のデータセットを表す時系列は、人間の日常生活においてますます重要になっている。 これらの時系列、あるいはあらゆる種類の曲線の分析とクラスタリングは、いくつかの人間の活動に不可欠である。 本稿では,コモンパターン(3cp)手法を用いた新しい曲線クラスタリングを導入し,その形状や,時系列,データ曲線,最終的には任意の離散シーケンス間の共通パターンの類似性に応じて,繰り返しパターン検出アルゴリズムを適用した。 この目的のために、最も長く期待される繰り返しパターン削減サフィックスアレイ(lerp-rsa)データ構造と全繰り返しパターン検出(arpad)アルゴリズムを組み合わせることで、クラスタリング目的に使用できるデータ曲線間の類似性を高精度かつ効率的に検出し、さらに柔軟性と機能を提供する。

For the past decades we have experienced an enormous expansion of the accumulated data that humanity produces. Daily a numerous number of smart devices, usually interconnected over internet, produce vast, real-values datasets. Time series representing datasets from completely irrelevant domains such as finance, weather, medical applications, traffic control etc. become more and more crucial in human day life. Analyzing and clustering these time series, or in general any kind of curves, could be critical for several human activities. In the current paper, the new Curves Clustering Using Common Patterns (3CP) methodology is introduced, which applies a repeated pattern detection algorithm in order to cluster sequences according to their shape and the similarities of common patterns between time series, data curves and eventually any kind of discrete sequences. For this purpose, the Longest Expected Repeated Pattern Reduced Suffix Array (LERP-RSA) data structure has been used in combination with the All Repeated Patterns Detection (ARPaD) algorithm in order to perform highly accurate and efficient detection of similarities among data curves that can be used for clustering purposes and which also provides additional flexibility and features.
翻訳日:2023-01-14 07:50:05 公開日:2020-01-05
# ニュースを(ai)スタイルでカバーする

Covering the News with (AI) Style ( http://arxiv.org/abs/2002.02369v1 )

ライセンス: Link先を確認
Michele Merler, Cicero Nogueira dos Santos, Mauro Martino, Alfio M. Gliozzo, John R. Smith(参考訳) 本稿では,複数の文書(テキスト,ビジュアル,あるいはその両方)の収集から,与えられたテーマに再結合された視覚コンテンツの制作を支援するマルチモーダル判別・生成フレームワークを提案する。 このフレームワークは、書籍や音楽アルバムのカバーだけでなく、記事の編集や画像の生成にも利用できる。 The New York Times(NYT)からの依頼で、AIを使って人工知能の特別セクションのアートを作るための支援を求めた結果、私たちはそのような画像の作成に私たちのシステムが応用されていることを実証した。

We introduce a multi-modal discriminative and generative frame-work capable of assisting humans in producing visual content re-lated to a given theme, starting from a collection of documents(textual, visual, or both). This framework can be used by edit or to generate images for articles, as well as books or music album covers. Motivated by a request from the The New York Times (NYT) seeking help to use AI to create art for their special section on Artificial Intelligence, we demonstrated the application of our system in producing such image.
翻訳日:2023-01-14 07:43:30 公開日:2020-01-05
# ヒンジロスマルコフ確率場を用いたユーザプロファイリング

User Profiling Using Hinge-loss Markov Random Fields ( http://arxiv.org/abs/2001.01177v1 )

ライセンス: Link先を確認
Golnoosh Farnadi, Lise Getoor, Marie-Francine Moens, Martine De Cock(参考訳) ソーシャルメディアにおけるデジタルフットプリントからユーザのプロフィールを自動的に推測する様々なアプローチが提案されている。 提案するアプローチのほとんどは、利用可能なユーザ生成コンテンツ(UGC)の他のソースを無視しながら、単一のタイプの情報マイニングに重点を置いている。 本稿では, 年齢, 性別, 性格特性などのユーザ特性を推定し, それらの特徴をユーザプロファイルにまとめる機構を提案する。 この目的のために,我々はソーシャルメディアユーザを,uccの複数のソースと社会関係を統合・推論することによってモデル化する。 本モデルは,一階述語論理則を用いて定義可能な確率的グラフィカルモデルのクラスであるHingg-loss Markov Random Fields (HL-MRFs) を用いた統計的関係学習フレームワークに基づいている。 5万以上のユーザーと725万近い関係を持つFacebookのデータに対する我々のアプローチを検証する。 hl-mrfsは,ステータス更新,プロフィール写真,facebookページ風の形式でテキスト,ビジュアル,リレーショナルコンテンツを活用して,汎用的で拡張可能なユーザプロファイリングフレームワークの開発に利用可能であることを示す。 実験の結果,提案手法は複数の情報ソースをうまく組み込むことで,ソーシャルメディア上のユーザをモデル化するために,複数の情報ソースやアンサンブル手法のみを使用する競合手法よりも優れていることがわかった。

A variety of approaches have been proposed to automatically infer the profiles of users from their digital footprint in social media. Most of the proposed approaches focus on mining a single type of information, while ignoring other sources of available user-generated content (UGC). In this paper, we propose a mechanism to infer a variety of user characteristics, such as, age, gender and personality traits, which can then be compiled into a user profile. To this end, we model social media users by incorporating and reasoning over multiple sources of UGC as well as social relations. Our model is based on a statistical relational learning framework using Hinge-loss Markov Random Fields (HL-MRFs), a class of probabilistic graphical models that can be defined using a set of first-order logical rules. We validate our approach on data from Facebook with more than 5k users and almost 725k relations. We show how HL-MRFs can be used to develop a generic and extensible user profiling framework by leveraging textual, visual, and relational content in the form of status updates, profile pictures and Facebook page likes. Our experimental results demonstrate that our proposed model successfully incorporates multiple sources of information and outperforms competing methods that use only one source of information or an ensemble method across the different sources for modeling of users in social media.
翻訳日:2023-01-14 07:43:21 公開日:2020-01-05
# アンサンブル学習を用いた画像特徴に基づくMRIハードウェア故障の予測

Prediction of MRI Hardware Failures based on Image Features using Ensemble Learning ( http://arxiv.org/abs/2001.01213v1 )

ライセンス: Link先を確認
Nadine Kuhnert, Lea Pfl\"uger, Andreas Maier(参考訳) トラブルのない運用を実現するためには,ハードウェア障害の予測が不可欠である。 これは特に医療システムに当てはまる。 私たちの目標は、失敗する前に交換する必要があるハードウェアを決定することです。 本研究では,20チャンネルのヘッド・ネックコイルの故障を画像による計測により予測する。 そこで本研究では,通常のコイルと破損コイルの2種類の分類問題を解くことを目的とする。 この問題を解決するために、2つの異なるレベルのデータを使用します。 1つのレベルは、1つのコイルチャネルごとに1次元の特徴を指しており、最もよく機能する完全に接続されたニューラルネットワークを見出した。 他のデータレベルは、全体のコイル状態を表す行列を使用し、異なるニューラルネットワークを供給します。 これら2つのネットワークの予測を積み重ね、ランダムフォレスト分類器をアンサンブル学習器として訓練する。 したがって、両モデルの洞察を組み合わせることで予測結果が向上し、fスコア94.14%、精度99.09%でコイルの状態を決定することができる。

In order to ensure trouble-free operation, prediction of hardware failures is essential. This applies especially to medical systems. Our goal is to determine hardware which needs to be exchanged before failing. In this work, we focus on predicting failures of 20-channel Head/Neck coils using image-related measurements. Thus, we aim to solve a classification problem with two classes, normal and broken coil. To solve this problem, we use data of two different levels. One level refers to one-dimensional features per individual coil channel on which we found a fully connected neural network to perform best. The other data level uses matrices which represent the overall coil condition and feeds a different neural network. We stack the predictions of those two networks and train a Random Forest classifier as the ensemble learner. Thus, combining insights of both trained models improves the prediction results and allows us to determine the coil's condition with an F-score of 94.14% and an accuracy of 99.09%.
翻訳日:2023-01-14 07:42:38 公開日:2020-01-05
# 学習からメタラーニングへ:コミュニケーションシステムの訓練オーバーヘッドと複雑さを減らす

From Learning to Meta-Learning: Reduced Training Overhead and Complexity for Communication Systems ( http://arxiv.org/abs/2001.01227v1 )

ライセンス: Link先を確認
Osvaldo Simeone, Sangwoo Park, Joonhyuk Kang(参考訳) 機械学習手法は、データやアクティブな観察に基づく固定学習手順を用いて、与えられたモデルクラス内に存在するように制約されたモデルのパラメータを適応させる。 適応はタスク単位で行われ、システム構成の変更時に再トレーニングが必要になる。 データとトレーニング時間の要件に関する結果として生じる非効率性は、適切なモデルクラスと学習手順を選択することで、ドメイン知識が利用可能であれば軽減することができる。 しかし、特にニューラルネットワークのようなブラックボックスモデルクラスでは、事前知識を誘導バイアスに符号化することは一般的に困難である。 メタ学習は、帰納バイアスの選択を自動化する手段を提供する。 メタラーニングは、将来に関連すると思われるタスクや、興味のないタスクからのデータやアクティブな観察を活用する。 メタトレーニングされたインダクティブバイアスにより、トレーニングデータおよび/または時間の複雑さを低減して、マシンラーニングモデルのトレーニングを行うことができる。 本稿では,メタラーニングの高レベル導入と通信システムへの応用について述べる。

Machine learning methods adapt the parameters of a model, constrained to lie in a given model class, by using a fixed learning procedure based on data or active observations. Adaptation is done on a per-task basis, and retraining is needed when the system configuration changes. The resulting inefficiency in terms of data and training time requirements can be mitigated, if domain knowledge is available, by selecting a suitable model class and learning procedure, collectively known as inductive bias. However, it is generally difficult to encode prior knowledge into an inductive bias, particularly with black-box model classes such as neural networks. Meta-learning provides a way to automatize the selection of an inductive bias. Meta-learning leverages data or active observations from tasks that are expected to be related to future, and a priori unknown, tasks of interest. With a meta-trained inductive bias, training of a machine learning model can be potentially carried out with reduced training data and/or time complexity. This paper provides a high-level introduction to meta-learning with applications to communication systems.
翻訳日:2023-01-14 07:42:05 公開日:2020-01-05
# 時系列分類による画像特徴に基づくMRIハードウェア故障の予測

Prediction of MRI Hardware Failures based on Image Features using Time Series Classification ( http://arxiv.org/abs/2001.02127v1 )

ライセンス: Link先を確認
Nadine Kuhnert, Lea Pfl\"uger, Andreas Maier(参考訳) システムが機能不全になる前には、ハードウェアコンポーネントが近い将来失敗するかどうかを知らなければならない。 したがって、計画外のダウンタイムは避けるべきである。 医療画像では、システムのアップタイムを最大化することが患者の健康と医療提供者の日常業務に不可欠である。 磁気共鳴イメージング(MRI)で使用されるヘッド/ネックコイルの故障を,時間とともに収集された逐次データに基づく統計モデルを用いて予測することを目的とする。 画像の特徴はコイルの状態に依存するため、通常範囲からのずれは将来の故障を示唆している。 そこで,コイル損傷の予測には画像の特徴と時間的変化を用いた。 異なる時系列分類法を比較した結果、Long Short Term Memorys (LSTM) は86.43%の最高スコアを獲得し、ハードウェアを置き換えるべきかどうかを98.33%の精度で判断できることがわかった。

Already before systems malfunction one has to know if hardware components will fail in near future in order to counteract in time. Thus, unplanned downtime is ought to be avoided. In medical imaging, maximizing the system's uptime is crucial for patients' health and healthcare provider's daily business. We aim to predict failures of Head/Neck coils used in Magnetic Resonance Imaging (MRI) by training a statistical model on sequential data collected over time. As image features depend on the coil's condition, their deviations from the normal range already hint to future failure. Thus, we used image features and their variation over time to predict coil damage. After comparison of different time series classification methods we found Long Short Term Memorys (LSTMs) to achieve the highest F-score of 86.43% and to tell with 98.33% accuracy if hardware should be replaced.
翻訳日:2023-01-14 07:41:39 公開日:2020-01-05
# 伝達強化学習のためのユニバーサル継承機能

Universal Successor Features for Transfer Reinforcement Learning ( http://arxiv.org/abs/2001.04025v1 )

ライセンス: Link先を確認
Chen Ma, Dylan R. Ashley, Junfeng Wen, Yoshua Bengio(参考訳) RL(Transfer in Reinforcement Learning)は、従来のタスクから得られた知識を関連するタスクに応用する考え方である。 目標や状態を一般化する普遍値関数(Schaul et al., 2015)の学習は、これまでは移動に有用であることが示されている。 しかし、後継特徴は転送の値よりも適していると考えられている(Dayan, 1993; Barreto et al., 2017)。 本稿では,(1)環境の基盤となるダイナミクスを把握し,目的の一般化を可能にするユニバーサル継承機能 (USF) と,(2)環境とのインタラクションによってトレーニング可能なUSFのフレキシブルなエンドツーエンドモデルを提案する。 時間差分法を用いて状態を学習する任意のRLアルゴリズムとUSFsの学習が相容れないことを示す。 単純なグリッドワールドと2つのMuJoCo環境による実験により、USFは複数のタスクを学習する際のトレーニングを劇的に加速し、知識を新しいタスクに効果的に伝達できることがわかった。

Transfer in Reinforcement Learning (RL) refers to the idea of applying knowledge gained from previous tasks to solving related tasks. Learning a universal value function (Schaul et al., 2015), which generalizes over goals and states, has previously been shown to be useful for transfer. However, successor features are believed to be more suitable than values for transfer (Dayan, 1993; Barreto et al.,2017), even though they cannot directly generalize to new goals. In this paper, we propose (1) Universal Successor Features (USFs) to capture the underlying dynamics of the environment while allowing generalization to unseen goals and (2) a flexible end-to-end model of USFs that can be trained by interacting with the environment. We show that learning USFs is compatible with any RL algorithm that learns state values using a temporal difference method. Our experiments in a simple gridworld and with two MuJoCo environments show that USFs can greatly accelerate training when learning multiple tasks and can effectively transfer knowledge to new tasks.
翻訳日:2023-01-14 07:34:50 公開日:2020-01-05
# 多様体学習のための多目的遺伝的プログラミング:品質と次元のバランス

Multi-Objective Genetic Programming for Manifold Learning: Balancing Quality and Dimensionality ( http://arxiv.org/abs/2001.01331v1 )

ライセンス: Link先を確認
Andrew Lensen, Mengjie Zhang, Bing Xue(参考訳) データの規模が大きくなるにつれて、マニフォールド学習技術はますます価値を増している。 データセットの構造の低次元表現(埋め込み)を発見することで、多様体学習アルゴリズムは可能な限り多くの情報を保持しながらデータセットの次元性を著しく低減することができる。 しかし、最先端の多様体学習アルゴリズムはこの変換の実行方法において不透明である。 埋め込みが元の高次元空間とどのように関係しているかを理解することは、探索データ解析において重要である。 これまで我々は,透明かつ解釈可能なマッピングを進化させることで多様体学習を行う遺伝的プログラミング手法を提案してきた。 この方法では、埋め込みの次元を事前に知っておく必要があり、データセットについてほとんど知られていない場合には使用しにくい。 本稿では,多様体品質と次元の競合する目的を自動的にバランスさせる多目的アプローチを導入することにより,これまでの研究を大きく拡張する。 提案手法は, 基礎的および最先端の多様体学習手法と競合すると同時に, 品質と次元性の間に異なるトレードオフを与える解の範囲(前方)を提供する。 さらに、学習したモデルはしばしば単純かつ効率的であることが示され、解釈可能な方法で少数の特徴のみを利用する。

Manifold learning techniques have become increasingly valuable as data continues to grow in size. By discovering a lower-dimensional representation (embedding) of the structure of a dataset, manifold learning algorithms can substantially reduce the dimensionality of a dataset while preserving as much information as possible. However, state-of-the-art manifold learning algorithms are opaque in how they perform this transformation. Understanding the way in which the embedding relates to the original high-dimensional space is critical in exploratory data analysis. We previously proposed a Genetic Programming method that performed manifold learning by evolving mappings that are transparent and interpretable. This method required the dimensionality of the embedding to be known a priori, which makes it hard to use when little is known about a dataset. In this paper, we substantially extend our previous work, by introducing a multi-objective approach that automatically balances the competing objectives of manifold quality and dimensionality. Our proposed approach is competitive with a range of baseline and state-of-the-art manifold learning methods, while also providing a range (front) of solutions that give different trade-offs between quality and dimensionality. Furthermore, the learned models are shown to often be simple and efficient, utilising only a small number of features in an interpretable manner.
翻訳日:2023-01-14 07:34:30 公開日:2020-01-05
# 順序づけられたニューロンLSTMによるビジネスプロセス構造の自動発見 : 予備的検討

Automatic Business Process Structure Discovery using Ordered Neurons LSTM: A Preliminary Study ( http://arxiv.org/abs/2001.01243v1 )

ライセンス: Link先を確認
Xue Han, Lianxue Hu, Yabin Dang, Shivali Agarwal, Lijun Mei, Shaochun Li, Xin Zhou(参考訳) 組織におけるビジネスプロセス管理(BPM)実装の時間とコストを削減するために、テキストプロセスドキュメンテーションから自動的にプロセスを見つけることが非常に望ましい。 しかし、既存の自動プロセス発見アプローチは主にドキュメントからアクティビティを識別することに焦点を当てている。 プロセス発見のスコープ全体において重要なアクティビティ間の構造的関係を導出することは依然として課題です。 実際、ビジネスプロセスは、複雑なビジネスロジックを反映して異なる詳細レベルを定義する潜在意味的階層構造を持っています。 ニューラル機械学習領域における最近の知見は、意味のある言語構造は、関節言語モデリングと構造学習によって引き起こされることを示している。 これらの知見に触発されて,新しい再帰的アーキテクチャである順序付きニューロンlstm(on-lstm)をプロセスレベルの言語モデル目的に活用したニューラルネットワークを構築することにより,テキスト的ビジネスプロセス文書に存在する潜在階層構造を検索する。 提案手法は,実用的なロボットプロセス自動化(rpa)プロジェクトから,プロセス記述文書(pdd)のデータセット上でテストを行った。 予備実験は有望な結果を示した。

Automatic process discovery from textual process documentations is highly desirable to reduce time and cost of Business Process Management (BPM) implementation in organizations. However, existing automatic process discovery approaches mainly focus on identifying activities out of the documentations. Deriving the structural relationships between activities, which is important in the whole process discovery scope, is still a challenge. In fact, a business process has latent semantic hierarchical structure which defines different levels of detail to reflect the complex business logic. Recent findings in neural machine learning area show that the meaningful linguistic structure can be induced by joint language modeling and structure learning. Inspired by these findings, we propose to retrieve the latent hierarchical structure present in the textual business process documents by building a neural network that leverages a novel recurrent architecture, Ordered Neurons LSTM (ON-LSTM), with process-level language model objective. We tested the proposed approach on data set of Process Description Documents (PDD) from our practical Robotic Process Automation (RPA) projects. Preliminary experiments showed promising results.
翻訳日:2023-01-14 07:34:11 公開日:2020-01-05
# CNNTOP:CNNに基づく軌道オーナ予測手法

CNNTOP: a CNN-based Trajectory Owner Prediction Method ( http://arxiv.org/abs/2001.01185v1 )

ライセンス: Link先を確認
Xucheng Luo, Shengyang Li, Yuxiang Peng(参考訳) 軌道所有者予測は、パーソナライズドレコメンデーションや都市計画など、多くのアプリケーションの基礎となる。 このトピックに多くの努力が払われているが、アーカイブされた結果はまだ不十分である。 既存の手法は主にRNNを用いてトラジェクトリを意味的にモデル化する。 しかし、これらの手法は、POI(Point of Interest)表現学習と軌跡特徴検出において弱い。 したがって、既存のソリューションのパフォーマンスは、実用的なアプリケーションの要件とは程遠い。 本稿では,新しいcnn-based track owner prediction (cnntop)法を提案する。 まず、すべてのpoiを全ユーザの軌道に従って接続します。 その結果は連結グラフであり、他のアプローチよりも情報的なPOI配列を生成するのに利用できる。 次に、ノード2Vecアルゴリズムを用いて各POIを低次元の実値ベクトルに符号化する。 次に、各軌道を画像に類似した固定次元行列に変換する。 最後に、CNNは、特徴を検出し、与えられた軌跡の所有者を予測するように設計されている。 CNNは、畳み込み演算、バッチ正規化、および$K$-maxプール演算によって、軌道の行列表現から情報的特徴を抽出することができる。 実データセットに対する大規模な実験により、CNNTOPはマクロ精度、マクロリコール、マクロF1、精度で既存のソリューションを大幅に上回ることを示した。

Trajectory owner prediction is the basis for many applications such as personalized recommendation, urban planning. Although much effort has been put on this topic, the results archived are still not good enough. Existing methods mainly employ RNNs to model trajectories semantically due to the inherent sequential attribute of trajectories. However, these approaches are weak at Point of Interest (POI) representation learning and trajectory feature detection. Thus, the performance of existing solutions is far from the requirements of practical applications. In this paper, we propose a novel CNN-based Trajectory Owner Prediction (CNNTOP) method. Firstly, we connect all POI according to trajectories from all users. The result is a connected graph that can be used to generate more informative POI sequences than other approaches. Secondly, we employ the Node2Vec algorithm to encode each POI into a low-dimensional real value vector. Then, we transform each trajectory into a fixed-dimensional matrix, which is similar to an image. Finally, a CNN is designed to detect features and predict the owner of a given trajectory. The CNN can extract informative features from the matrix representations of trajectories by convolutional operations, Batch normalization, and $K$-max pooling operations. Extensive experiments on real datasets demonstrate that CNNTOP substantially outperforms existing solutions in terms of macro-Precision, macro-Recall, macro-F1, and accuracy.
翻訳日:2023-01-14 07:33:52 公開日:2020-01-05
# 隠れマルコフモデルを用いたフレキシブルログファイル解析

Flexible Log File Parsing using Hidden Markov Models ( http://arxiv.org/abs/2001.01216v1 )

ライセンス: Link先を確認
Nadine Kuhnert, Andreas Maier(参考訳) 未知のファイル処理をモデル化することを目指している。 ログファイルの内容は時間とともに進化することが多いため、動的統計モデルを構築し、処理と解析の規則を学習し、適応する。 まず、vaarandi [10]に似た望ましい出力テーブルにつながる頻繁なパターンのみに注目して、構造化されていないテキストの量を制限する。 第二に、得られた頻繁なパターンと解析テーブルを記述した出力を隠れマルコフモデル(HMM)に変換する。 しかし我々はこのHMMを,ログファイル処理のパターンのフレキシブルな表現として用いている。 学習したパターンを歪ませる生のログファイルの変更により、高品質な出力を維持するためにモデルが自動的に適応することを目指している。 1つのシステムタイプでモデルをトレーニングした後、モデルと結果のパースルールをわずかに異なるログファイルパターンで異なるシステムに適用すると、精度は99%以上になる。

We aim to model unknown file processing. As the content of log files often evolves over time, we established a dynamic statistical model which learns and adapts processing and parsing rules. First, we limit the amount of unstructured text by focusing only on those frequent patterns which lead to the desired output table similar to Vaarandi [10]. Second, we transform the found frequent patterns and the output stating the parsed table into a Hidden Markov Model (HMM). We use this HMM as a specific, however, flexible representation of a pattern for log file processing. With changes in the raw log file distorting learned patterns, we aim the model to adapt automatically in order to maintain high quality output. After training our model on one system type, applying the model and the resulting parsing rule to a different system with slightly different log file patterns, we achieve an accuracy over 99%.
翻訳日:2023-01-14 07:33:30 公開日:2020-01-05
# リカレントニューラルネットワークを用いたキャパシティアタッチング低密度パリティチェック符号の設計

Design of Capacity-Approaching Low-Density Parity-Check Codes using Recurrent Neural Networks ( http://arxiv.org/abs/2001.01249v1 )

ライセンス: Link先を確認
Eleni Nisioti and Nikolaos Thomos(参考訳) 本稿では、リカレントニューラルネットワーク(RNN)を用いた密度進化(DE)をモデル化し、二元消去チャネルのためのキャパシティ適応不規則な低密度パリティ・チェック(LDPC)符号を設計する。 特に、LDPC符号の構造を特徴付けることにより、次数分布の係数を決定する方法を提案する。 我々は、我々のRNNアーキテクチャをニューラル密度進化(NDE)と呼び、漸近的最適設計の特性を強制する損失関数を最小化し、最適な設計に対応するRNNの重みを決定する。 これにより、LDPC設計プロセスは、損失関数を変更することで、アプリケーションの要求を満たすために制約を加えることができるため、高度に設定可能になります。 RNNを訓練するために、予測チャネルノイズに対応するデータを生成する。 我々はNDEの複雑さと最適性を理論的に分析し、微分進化を利用する従来の設計手法と比較する。 シミュレーションでは、NDEは漸近的性能と複雑性の両方の観点から差分進化を改善する。 我々は、漸近的な設定に重点を置いているが、NDEが有限長のコードワードで発見した設計を評価し、様々なチャネルで性能が良好であることを観察する。

In this paper, we model Density Evolution (DE) using Recurrent Neural Networks (RNNs) with the aim of designing capacity-approaching Irregular Low-Density Parity-Check (LDPC) codes for binary erasure channels. In particular, we present a method for determining the coefficients of the degree distributions, characterizing the structure of an LDPC code. We refer to our RNN architecture as Neural Density Evolution (NDE) and determine the weights of the RNN that correspond to optimal designs by minimizing a loss function that enforces the properties of asymptotically optimal design, as well as the desired structural characteristics of the code. This renders the LDPC design process highly configurable, as constraints can be added to meet applications' requirements by means of modifying the loss function. In order to train the RNN, we generate data corresponding to the expected channel noise. We analyze the complexity and optimality of NDE theoretically, and compare it with traditional design methods that employ differential evolution. Simulations illustrate that NDE improves upon differential evolution both in terms of asymptotic performance and complexity. Although we focus on asymptotic settings, we evaluate designs found by NDE for finite codeword lengths and observe that performance remains satisfactory across a variety of channels.
翻訳日:2023-01-14 07:33:15 公開日:2020-01-05
# 協調初期化に基づくディープニューラルネットワークトレーニング

Cooperative Initialization based Deep Neural Network Training ( http://arxiv.org/abs/2001.01240v1 )

ライセンス: Link先を確認
Pravendra Singh, Munender Varshney, Vinay P. Namboodiri(参考訳) 研究者は様々な活性化機能を提案した。 これらの活性化関数は、ディープネットワークがトレーニングダイナミクスとタスクパフォーマンスに大きな影響を与える非線形動作を学ぶのに役立つ。 これらのアクティベーションのパフォーマンスは、ウェイトパラメータの初期状態、すなわち、異なる初期状態がネットワークのパフォーマンスに違いをもたらすことにも依存する。 本稿では,ReLUアクティベーション機能を用いてネットワーク性能を向上させるディープネットワークをトレーニングするための協調初期化を提案する。 本手法では,ネットワークのトレーニング中に,全ての重みパラメータの更新に複数のアクティベーション関数を用いる。 これらの活性化関数は、重みパラメータの更新における欠点を克服するために協力し、事実上より優れた「特徴表現」を学び、後にネットワーク性能を向上させる。 協調初期化に基づくトレーニングは、オーバーフィッティング問題を軽減し、最終モデルにおけるパラメータの数、推論(テスト)時間を増やすことなく、性能を改善します。 実験の結果,本手法は様々なベースラインよりも優れており,同時に分類や検出といった様々なタスクにも優れていた。 CIFAR-100データセットでは,VGG-16では2.8%,ResNet-56では2.1%向上した。

Researchers have proposed various activation functions. These activation functions help the deep network to learn non-linear behavior with a significant effect on training dynamics and task performance. The performance of these activations also depends on the initial state of the weight parameters, i.e., different initial state leads to a difference in the performance of a network. In this paper, we have proposed a cooperative initialization for training the deep network using ReLU activation function to improve the network performance. Our approach uses multiple activation functions in the initial few epochs for the update of all sets of weight parameters while training the network. These activation functions cooperate to overcome their drawbacks in the update of weight parameters, which in effect learn better "feature representation" and boost the network performance later. Cooperative initialization based training also helps in reducing the overfitting problem and does not increase the number of parameters, inference (test) time in the final model while improving the performance. Experiments show that our approach outperforms various baselines and, at the same time, performs well over various tasks such as classification and detection. The Top-1 classification accuracy of the model trained using our approach improves by 2.8% for VGG-16 and 2.1% for ResNet-56 on CIFAR-100 dataset.
翻訳日:2023-01-14 07:32:54 公開日:2020-01-05
# 災害twitterデータにおけるハッシュタグの識別について

On Identifying Hashtags in Disaster Twitter Data ( http://arxiv.org/abs/2001.01323v1 )

ライセンス: Link先を確認
Jishnu Ray Chowdhury, Cornelia Caragea, Doina Caragea(参考訳) ツイートのハッシュタグは災害時の情報検索を改善する可能性がある。 しかし、ユーザが提供するハッシュタグを持たない災害関連ツイートが多数存在する。 さらに、行動可能なハッシュタグを含む少数のツイートだけが災害対応に有用である。 災害関連ハッシュタグの自動識別(あるいは抽出)の進歩を容易にするために,災害関連ツイートにハッシュタグを付記したユニークなデータセットを構築し,対応可能な情報をフィルタリングする。 このデータセットを用いて,マルチタスク学習フレームワークにおける長期記憶モデルをさらに検討する。 最高のパフォーマンスモデルはF1スコアで92.22%に達する。 データセット、コード、その他のリソースはgithubから入手できる。

Tweet hashtags have the potential to improve the search for information during disaster events. However, there is a large number of disaster-related tweets that do not have any user-provided hashtags. Moreover, only a small number of tweets that contain actionable hashtags are useful for disaster response. To facilitate progress on automatic identification (or extraction) of disaster hashtags for Twitter data, we construct a unique dataset of disaster-related tweets annotated with hashtags useful for filtering actionable information. Using this dataset, we further investigate Long Short Term Memory-based models within a Multi-Task Learning framework. The best performing model achieves an F1-score as high as 92.22%. The dataset, code, and other resources are available on Github.
翻訳日:2023-01-14 07:32:03 公開日:2020-01-05