このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20191231となっている論文です。

PDF登録状況(公開日: 20191231)

TitleAuthorsAbstract論文公表日・翻訳日
# 格子ゲージ理論の信頼性

Reliability of lattice gauge theories ( http://arxiv.org/abs/2001.00024v1 )

ライセンス: Link先を確認
Jad C. Halimeh and Philipp Hauke(参考訳) 現在,量子シミュレータにおける格子ゲージ理論の実現に向けた実験が盛んに行われている。 しかし、特定のモデルを除いて、実用的な量子シミュレータは完全な局所ゲージ不変性に微調整することはできない。 したがって、ゲージ不変違反の厳密な理解と、それに対して確実に保護する方法が強く求められている。 解析的および数値的証拠を通して示すように、ゲージ不変性破壊項の存在下では、ゲージ違反は短時間にのみ摂動的に蓄積され、非常に長い時間しか増殖しない。 この増殖は、初期のゲージ不変セクターからダイナミクスを遠ざけるエネルギー的にペナル化するプロセスによって、無限倍まで抑制することができる。 この結果はゲージ理論量子シミュレータの驚くべき強固さを浮き彫りにする理論的基礎を提供する。

Currently, there are intense experimental efforts to realize lattice gauge theories in quantum simulators. Except for specific models, however, practical quantum simulators can never be fine-tuned to perfect local gauge invariance. There is thus a strong need for a rigorous understanding of gauge-invariance violation and how to reliably protect against it. As we show through analytic and numerical evidence, in the presence of a gauge invariance-breaking term the gauge violation accumulates only perturbatively at short times before proliferating only at very long times. This proliferation can be suppressed up to infinite times by energetically penalizing processes that drive the dynamics away from the initial gauge-invariant sector. Our results provide a theoretical basis that highlights a surprising robustness of gauge-theory quantum simulators.
翻訳日:2023-01-16 21:41:01 公開日:2019-12-31
# ニューラルネットワーク量子状態による絡み合い分類

Entanglement Classification via Neural Network Quantum States ( http://arxiv.org/abs/1912.13207v1 )

ライセンス: Link先を確認
Cillian Harney, Stefano Pirandola, Alessandro Ferraro, Mauro Paternostro(参考訳) 多部量子状態の絡み合い特性を分類する作業は、量子システムが量子相関を共有できる方法が指数関数的に増えているために、顕著な課題となっている。 このような課題に取り組むには、洗練された理論と計算技術の組み合わせが必要である。 本稿では,機械学習ツールと量子エンタングルメント理論を組み合わせて,純粋状態における多成分量子ビット系のエンタングルメント分類を行う。 ニューラルネットワーク量子状態(nns)と呼ばれる制限付きボルツマンマシン(rbm)アーキテクチャにおいて、ニューラルネットワークを用いた量子システムのパラメータ化を行い、その絡み合い特性を制約付き強化学習手順によって推定する。 このようにして、分離可能なニューラルネットワーク状態(SNNS)を使用して、任意のターゲット状態に対する絡み合いの証人を構築することができる。

The task of classifying the entanglement properties of a multipartite quantum state poses a remarkable challenge due to the exponentially increasing number of ways in which quantum systems can share quantum correlations. Tackling such challenge requires a combination of sophisticated theoretical and computational techniques. In this paper we combine machine-learning tools and the theory of quantum entanglement to perform entanglement classification for multipartite qubit systems in pure states. We use a parameterisation of quantum systems using artificial neural networks in a restricted Boltzmann machine (RBM) architecture, known as Neural Network Quantum States (NNS), whose entanglement properties can be deduced via a constrained, reinforcement learning procedure. In this way, Separable Neural Network States (SNNS) can be used to build entanglement witnesses for any target state.
翻訳日:2023-01-16 21:38:20 公開日:2019-12-31
# 長寿命シングルト状態を用いた核スピンペアのアルゴリズム冷却

Algorithmic Cooling of Nuclear Spin Pairs using a Long-Lived Singlet State ( http://arxiv.org/abs/1912.13246v1 )

ライセンス: Link先を確認
Bogdan A. Rodin, Christian Bengs, Lynda J. Brown, Kirill F. Sheberstov, Alexey S. Kiryutin, Richard C. D. Brown, Alexandra V. Yurkovskaya, Konstantin L. Ivanov, Malcolm H. Levitt(参考訳) アルゴリズムによる冷却法は、環境の温度を下げるためにオープン量子系を操作する。 量子ビット状態の反対称量子重ね合わせである長寿命核単重項状態を利用することにより,スピンペア系のアンサンブル上で有意な冷却が達成されることを示す。 この効果は核磁気共鳴(nmr)実験によって、ほぼ等価な13c原子核の結合対を含む分子系で実証される。 系の個体群は、緩和間隔によって分離された周期的な置換の繰り返し配列を受ける。 長寿命の核一重項秩序はユニタリ限界を超えて大きく励起され、核磁化はその熱平衡値に対して21%増大する。 我々の知る限りでは、これは量子重ね合わせ状態を用いたアルゴリズム冷却の最初のデモンストレーションであり、迅速かつゆっくりと緩和された量子ビットを区別することはない。

Algorithmic cooling methods manipulate an open quantum system in order to lower its temperature below that of the environment. We show that significant cooling is achieved on an ensemble of spin-pair systems by exploiting the long-lived nuclear singlet state, which is an antisymmetric quantum superposition of the "up" and "down" qubit states. The effect is demonstrated by nuclear magnetic resonance (NMR) experiments on a molecular system containing a coupled pair of near-equivalent 13C nuclei. The populations of the system are subjected to a repeating sequence of cyclic permutations separated by relaxation intervals. The long-lived nuclear singlet order is pumped well beyond the unitary limit, and the nuclear magnetization is enhanced by 21% relative to its thermal equilibrium value. To our knowledge this is the first demonstration of algorithmic cooling using a quantum superposition state and without making a distinction between rapidly and slowly relaxing qubits.
翻訳日:2023-01-16 21:38:08 公開日:2019-12-31
# ディラック系における非エルミート不純物

Non-Hermitian impurities in Dirac systems ( http://arxiv.org/abs/2001.00044v1 )

ライセンス: Link先を確認
P. O. Sukhachov, A. V. Balatsky(参考訳) 複素不純物ポテンシャルを持つディラック系の準粒子状態について検討した。 損失のある不純物サイトは、状態の局所密度(LDOS)の非自明な分布をもたらすことが示されている。 欠陥ポテンシャルの真の部分は状態密度(DOS)の顕著なピークを誘導するが、DOSは小さな周波数で弱められるか、非エルミート不純物の場合の格子のゼロ周波数でピークを形成する。 LDOSの空間分布については、不純物近傍で強化されるが、電位が十分に強いとき、欠陥自体に減少を示す。 2次元六角形格子の結果は、ldosの特徴的な三角形状を示す。 後者は、隣接する2つの欠陥がある場合に、二重三角パターンを取得する。 非エルミート不純物の効果は、フォトニック格子と特定の凝縮物質配置の両方で検証できる。

Quasiparticle states in Dirac systems with complex impurity potentials are investigated. It is shown that an impurity site with loss leads to a nontrivial distribution of the local density of states (LDOS). While the real part of defect potential induces a well-pronounced peak in the density of states (DOS), the DOS is either weakly enhanced at small frequencies or even forms a peak at the zero frequency for a lattice in the case of non-Hermitian impurity. As for the spatial distribution of the LDOS, it is enhanced in the vicinity of impurity but shows a dip at a defect itself when the potential is sufficiently strong. The results for a two-dimensional hexagonal lattice demonstrate the characteristic trigonal-shaped profile for the LDOS. The latter acquires a double-trigonal pattern in the case of two defects placed at neighboring sites. The effects of non-Hermitian impurities could be tested both in photonic lattices and certain condensed matter setups.
翻訳日:2023-01-16 21:36:27 公開日:2019-12-31
# PT-Symmetric 2D-Weyl Semimetal を用いた広帯域・広角視認性

Broadband and Wide-Angle Invisibility with PT-Symmetric 2D-Weyl Semimetal ( http://arxiv.org/abs/2001.00067v1 )

ライセンス: Link先を確認
Mustafa Sarisaman, Murat Tas(参考訳) 近年の材料科学研究で注目されている2次元材料(2D)の壮大な特徴に触発され, PT対称2次元ワイル半金属(WSM)を研究して, PT対称光学スラブシステムにおける広帯域・広角可視構造を明らかにする。 システムパラメータの最適制御により、希望する一方向反射性および可視性現象が得られる。 有限屈折率を持つ正則スラブ材料におけるブロードバンドと広角視認性の謎を本表現を用いて解明する。 屈折率の指標が比較的小さい材料(通常$\eta = 1$)は、非常に多くのブロードバンドと広角(ほとんどすべての入射角)が見えない構成をもたらすことを示す。 これは2D WSM以外の2D材料では観測されない。 以上の結果から,実験的実現への具体的な取り組みが示唆された。

Inspired by the magnificent features of two-dimensional (2D) materials which aroused much of the interest in recent materials science research, we study PT-symmetric 2D Weyl semimetal (WSM) to reveal the broadband and wide-angle invisible configurations in a PT-symmetric optical slab system. Desired unidirectional reflectionlessness and invisibility phenomena is obtained by the optimal control of system parameters. We unravel the mystery of broadband and wide-angle invisibility in regular slab materials with finite refractive indices by means of the plenary expressions. We show that materials whose refractive indices relatively small (usually around $\eta =1$) give rise to quite a lot broadband and wide-angle (almost all incidence angles) invisible configurations. This is not observed with any 2D material other than 2D WSMs. Our findings suggest a concrete expedience to experimental realizations in this direction.
翻訳日:2023-01-16 21:36:12 公開日:2019-12-31
# privacy for rescue: ディープモデルでプライバシが脆弱な理由

Privacy for Rescue: A New Testimony Why Privacy is Vulnerable In Deep Models ( http://arxiv.org/abs/2001.00493v1 )

ライセンス: Link先を確認
Ruiyuan Gao, Ming Dun, Hailong Yang, Zhongzhi Luan, Depei Qian(参考訳) エッジデバイス上でのディープラーニングモデルと限られた計算リソースの巨大な計算要求は、エッジデバイスとクラウドサービスの連携を、深層モデルを2つに分割することで要求する。 しかし、エッジデバイスとクラウドサービスの間の部分モデルからの中間結果の転送は、攻撃者が中間結果を傍受し、それらからプライバシー情報を抽出できるため、ユーザのプライバシを脆弱にする。 既存の研究は、上記のシナリオにおけるプライバシー保護手法の有効性を測定するために、非実用的または不十分なメトリクスに依存しています。 本稿では,DNNモデルを実行するエッジクラウドシステムにおいて,プライバシ保護問題の形式的定義を示す。 そこで,我々は最先端の手法を分析し,それらの手法の欠点,特に相互情報(MI)などの評価指標を指摘する。 さらに,既存の手法はMI下では良好に動作するが,単一ユーザのプライバシを保護するには十分ではないことを示すために,いくつかの実験を行った。 評価指標の欠点に対処するため,プライバシー保護手法の有効性をより正確に測定する2つの新しい指標を提案する。 最後に,プライバシ保護問題に対する今後の取り組みを促すために,いくつかの研究の方向性を強調する。

The huge computation demand of deep learning models and limited computation resources on the edge devices calls for the cooperation between edge device and cloud service by splitting the deep models into two halves. However, transferring the intermediates results from the partial models between edge device and cloud service makes the user privacy vulnerable since the attacker can intercept the intermediate results and extract privacy information from them. Existing research works rely on metrics that are either impractical or insufficient to measure the effectiveness of privacy protection methods in the above scenario, especially from the aspect of a single user. In this paper, we first present a formal definition of the privacy protection problem in the edge-cloud system running DNN models. Then, we analyze the-state-of-the-art methods and point out the drawbacks of their methods, especially the evaluation metrics such as the Mutual Information (MI). In addition, we perform several experiments to demonstrate that although existing methods perform well under MI, they are not effective enough to protect the privacy of a single user. To address the drawbacks of the evaluation metrics, we propose two new metrics that are more accurate to measure the effectiveness of privacy protection methods. Finally, we highlight several potential research directions to encourage future efforts addressing the privacy protection problem.
翻訳日:2023-01-16 21:29:35 公開日:2019-12-31
# GraphACT: CPU-FPGA異種プラットフォーム上でのGCNトレーニングの高速化

GraphACT: Accelerating GCN Training on CPU-FPGA Heterogeneous Platforms ( http://arxiv.org/abs/2001.02498v1 )

ライセンス: Link先を確認
Hanqing Zeng, Viktor Prasanna(参考訳) グラフ畳み込みネットワーク(GCN)は、グラフ上の表現学習のための最先端のディープラーニングモデルとして登場した。 グラフ内の情報を伝達するために,(1)実質的で不規則なデータ通信,(2)ニューラルネットワーク層に沿って情報を伝達するための集中的な計算により,GCNの訓練を加速することは困難である。 これらの課題に対処するために,複数のアルゴリズム-アーキテクチャ共最適化を組み込んで,cpu-fpgaヘテロジニアスシステム上でgcnをトレーニングする新しいアクセラレータを設計した。 まず,各種GCN学習アルゴリズムの計算と通信特性を分析し,ハードウェア実行に適したサブグラフベースのアルゴリズムを選択する。 サブグラフ内の特徴伝達を最適化するために,グラフ理論に基づく軽量な前処理ステップを提案する。 CPU上で実行される前処理は、FPGA上で実行されるメモリアクセス要求と計算を著しく削減する。 gcn層の重み付け更新を高速化するために,並列化を効率的に行うためのシストリックアレイに基づく設計を提案する。 上記の最適化を完全なハードウェアパイプラインに統合し、その負荷バランスとリソース利用を正確な性能モデリングにより分析する。 我々は40コアのxeonサーバがホストするxilinx alveo u200ボード上で設計を評価する。 3つの大きなグラフにおいて,マルチコアプラットフォームにおける最先端の実装と比較して,精度の低下を無視できるような,桁違いなトレーニングスピードアップを実現する。

Graph Convolutional Networks (GCNs) have emerged as the state-of-the-art deep learning model for representation learning on graphs. It is challenging to accelerate training of GCNs, due to (1) substantial and irregular data communication to propagate information within the graph, and (2) intensive computation to propagate information along the neural network layers. To address these challenges, we design a novel accelerator for training GCNs on CPU-FPGA heterogeneous systems, by incorporating multiple algorithm-architecture co-optimizations. We first analyze the computation and communication characteristics of various GCN training algorithms, and select a subgraph-based algorithm that is well suited for hardware execution. To optimize the feature propagation within subgraphs, we propose a lightweight pre-processing step based on a graph theoretic approach. Such pre-processing performed on the CPU significantly reduces the memory access requirements and the computation to be performed on the FPGA. To accelerate the weight update in GCN layers, we propose a systolic array based design for efficient parallelization. We integrate the above optimizations into a complete hardware pipeline, and analyze its load-balance and resource utilization by accurate performance modeling. We evaluate our design on a Xilinx Alveo U200 board hosted by a 40-core Xeon server. On three large graphs, we achieve an order of magnitude training speedup with negligible accuracy loss, compared with state-of-the-art implementation on a multi-core platform.
翻訳日:2023-01-16 21:29:16 公開日:2019-12-31
# 量子ビット支援結合電位による位相的および非位相的エッジ状態

Topological and nontopological edge states induced by qubit-assisted coupling potentials ( http://arxiv.org/abs/1912.13217v1 )

ライセンス: Link先を確認
Lu Qi, Yan Xing, Guo-Li Wang, Shou Zhang, Hong-Fu Wang(参考訳) 通常のSu-Schrieffer-Heeger(SSH)連鎖では、エネルギースペクトルの位相は異なるパラメータ領域の2つのカテゴリに分けられる。 本稿では,回路量子電磁力学(qed)格子系における量子ビット共役結合ポテンシャルによって引き起こされる位相的および非位相的エッジ状態について検討する。 系の一方の端に付加された結合電位がある程度上昇すると、強い結合電位はパラメータ領域全体の非位相エッジ状態の出現に伴う新しいトポロジカル非自明な位相を誘導し、新しい位相遷移は系内での奇異性効果の逆転をもたらす。 さらに,回路qed格子系の両端に2つの不平衡結合電位が注入された場合の位相的性質や相転移についても検討し,エネルギーバンドの多重反転過程において3つの位相相を示すことを見出した。 これらの相は、強いカップリングポテンシャル状態の下で一対の非トポロジカルエッジ状態の存在によって反映される一方的なカップリングポテンシャルによって誘導される前の相とは大きく異なる。 実験と理論の両方において、回路QED格子系におけるキュービットアシスト結合電位を制御することにより、様々な位相的および非位相的エッジ状態を誘導する実現可能かつ可視的な手法を提供する。

In the usual Su-Schrieffer-Heeger (SSH) chain, the topology of the energy spectrum is divided into two categories in different parameter regions. Here we study the topological and nontopological edge states induced by qubit-assisted coupling potentials in circuit quantum electrodynamics (QED) lattice system modelled as a SSH chain. We find that, when the coupling potential added on only one end of the system raises to a certain extent, the strong coupling potential will induce a new topologically nontrivial phase accompanied with the appearance of a nontopological edge state in the whole parameter region, and the novel phase transition leads to the inversion of odd-even effect in the system directly. Furthermore, we also study the topological properties as well as phase transitions when two unbalanced coupling potentials are injected into both the ends of the circuit QED lattice system, and find that the system exhibits three distinguishing phases in the process of multiple flips of energy bands. These phases are significantly different from the previous phase induced via unilateral coupling potential, which is reflected by the existence of a pair of nontopological edge states under strong coupling potential regime. Our scheme provides a feasible and visible method to induce a variety of different kinds of topological and nontopological edge states through controlling the qubit-assisted coupling potentials in circuit QED lattice system both in experiment and theory.
翻訳日:2023-01-16 21:28:30 公開日:2019-12-31
# 大規模CTデータベースにおける肝臓のセグメンテーションと放射線密度の決定

Automatic segmentation and determining radiodensity of the liver in a large-scale CT database ( http://arxiv.org/abs/1912.13290v1 )

ライセンス: Link先を確認
N. S. Kulberg (1 and 3), A. B. Elizarov (1), V. P. Novik (1), V. A. Gombolevsky (1), A. P. Gonchar (1), A. L. Alliua (2), V. Yu. Bosin (1), A. V. Vladzymyrsky (1), S. P. Morozov (1) ((1) State Budget-Funded Health Care Institution of the City of Moscow Research and Practical Clinical Center for Diagnostics and Telemedicine Technologies of the Moscow Health Care Department, (2) Federal State Budgetary Scientific Institution Russian Scientific Center of Surgery named after Academician B.V. Petrovsky, (3) Federal Research Center Computer Science and Control of Russian Academy of Sciences)(参考訳) 本研究はCT画像における肝セグメンテーションの自動化手法を提案する。 肝臓体積の局在は、著者らが開発した最適化された肝臓テンプレートのセットとの相関に基づいており、明瞭な幾何学的解釈を可能にする。 放射線密度値は、肝臓の異常を識別できるセグメンテーションされた肝臓の境界に基づいて算出される。 モスクワの統一放射線情報システム(URIS)のデータセットから,700枚のCT画像を用いて評価を行った。 精度の低下にもかかわらず、この手法は肝臓の部分的な可視領域を有するCTボリュームに適用できる。 この技術は、様々な患者位置で得られたCT画像を幅広い露光パラメーターで処理するために使用することができる。 100万以上の研究がある実大規模医療データベースにおいて、低線量ctスキャンを扱うことができる。

This study proposes an automatic technique for liver segmentation in computed tomography (CT) images. Localization of the liver volume is based on the correlation with an optimized set of liver templates developed by the authors that allows clear geometric interpretation. Radiodensity values are calculated based on the boundaries of the segmented liver, which allows identifying liver abnormalities. The performance of the technique was evaluated on 700 CT images from dataset of the Unified Radiological Information System (URIS) of Moscow. Despite the decrease in accuracy, the technique is applicable to CT volumes with a partially visible region of the liver. The technique can be used to process CT images obtained in various patient positions in a wide range of exposition parameters. It is capable in dealing with low dose CT scans in real large-scale medical database with over 1 million of studies.
翻訳日:2023-01-16 21:27:26 公開日:2019-12-31
# マイクロレンズアレイグリッド推定、光フィールド復号および校正

Microlens array grid estimation, light field decoding, and calibration ( http://arxiv.org/abs/1912.13298v1 )

ライセンス: Link先を確認
Maximilian Schambach and Fernando Puente Le\'on(参考訳) マイクロレンズアレイ型光フィールドカメラにおけるマイクロレンズアレイグリッド推定のための複数のアルゴリズムを定量的に検討する。 そこで本研究では,自然および機械的な移動効果を考慮したマイクロレンズアレイグリッド推定法を提案する。 アルゴリズムの性能を定量化するために,マイクロレンズ位置が既知のアプリケーション固有の光線追跡白色画像を用いた評価パイプラインを提案する。 合成された白画像の大規模なデータセットを用いて、異なる推定アルゴリズムの性能を徹底的に比較する。 例として,Lytro Illumカメラを用いた光フィールドの復号化と校正について検討した。 我々は,特に光場の周辺部分において,より高精度なヴィネッティング・アウェア・グリッド推定によるデコードとキャリブレーションの利点を観察する。

We quantitatively investigate multiple algorithms for microlens array grid estimation for microlens array-based light field cameras. Explicitly taking into account natural and mechanical vignetting effects, we propose a new method for microlens array grid estimation that outperforms the ones previously discussed in the literature. To quantify the performance of the algorithms, we propose an evaluation pipeline utilizing application-specific ray-traced white images with known microlens positions. Using a large dataset of synthesized white images, we thoroughly compare the performance of the different estimation algorithms. As an example, we apply our results to the decoding and calibration of light fields taken with a Lytro Illum camera. We observe that decoding as well as calibration benefit from a more accurate, vignetting-aware grid estimation, especially in peripheral subapertures of the light field.
翻訳日:2023-01-16 21:20:22 公開日:2019-12-31
# 形態非依存型視覚ロボット制御

Morphology-Agnostic Visual Robotic Control ( http://arxiv.org/abs/1912.13360v1 )

ライセンス: Link先を確認
Brian Yang, Dinesh Jayaraman, Glen Berseth, Alexei Efros, and Sergey Levine(参考訳) 既存のロボット制御のアプローチでは、カメラの校正やシステム識別を行うことによって、ロボットを事前に特徴付ける必要がある。 我々は,ロボットの形態に関する最小限の事前知識で機能するアプローチであるMAVRICを提案し,ロボットとその環境を含むカメラビューと未知の制御インタフェースを必要とする。 MAVRICは、相互情報に基づく自己認識法を中心に展開し、探索的な相互作用から数秒以内にロボット本体の視覚的な「制御点」を発見し、これらの制御点を視覚サーボに使用する。 MAVRICはロボットを不正確な動作で制御でき、プロプリセプティブなフィードバック、新しいツールを含む未知の形態、未知のカメラポーズ、さらには不安定なハンドヘルドカメラまでコントロールできる。 本稿では,視覚誘導3次元点到達,軌道追従,ロボット対ロボット模倣の方法を示す。

Existing approaches for visuomotor robotic control typically require characterizing the robot in advance by calibrating the camera or performing system identification. We propose MAVRIC, an approach that works with minimal prior knowledge of the robot's morphology, and requires only a camera view containing the robot and its environment and an unknown control interface. MAVRIC revolves around a mutual information-based method for self-recognition, which discovers visual "control points" on the robot body within a few seconds of exploratory interaction, and these control points in turn are then used for visual servoing. MAVRIC can control robots with imprecise actuation, no proprioceptive feedback, unknown morphologies including novel tools, unknown camera poses, and even unsteady handheld cameras. We demonstrate our method on visually-guided 3D point reaching, trajectory following, and robot-to-robot imitation.
翻訳日:2023-01-16 21:20:09 公開日:2019-12-31
# デーモンモデルに基づく3次元ct肝データと2次元超音波画像の非剛性登録法

Non-rigid Registration Method between 3D CT Liver Data and 2D Ultrasonic Images based on Demons Model ( http://arxiv.org/abs/2001.00035v1 )

ライセンス: Link先を確認
Shuo Huang, Ke wu, Xiaolin Meng and Cheng Li(参考訳) 肝のCTデータと超音波画像の非厳密な登録は診断と治療を容易にし,近年広く研究されている。 3次元ct肝データと2次元超音波画像との非剛性登録に関するデーモンズモデルの登録精度を向上させるため、極座標におけるラジアル方向局所直観的ファジィエントロピーに基づく新しい境界抽出・拡張法が提案され、新たな登録ワークフローが提供された。 実験により,本手法は高精度な登録結果を得ることができることを示した。 また, 本手法の精度は, フィールドiiによる模擬超音波画像を用いた元のデーモン法, デーモン法よりも高いことがわかった。 登録ワークフローの操作時間は30秒程度で,手術に使用することができる。

The non-rigid registration between CT data and ultrasonic images of liver can facilitate the diagnosis and treatment, which has been widely studied in recent years. To improve the registration accuracy of the Demons model on the non-rigid registration between 3D CT liver data and 2D ultrasonic images, a novel boundary extraction and enhancement method based on radial directional local intuitionistic fuzzy entropy in the polar coordinates has been put forward, and a new registration workflow has been provided. Experiments show that our method can acquire high-accuracy registration results. Experiments also show that the accuracy of the results of our method is higher than that of the original Demons method and the Demons method using simulated ultrasonic image by Field II. The operation time of our registration workflow is about 30 seconds, and it can be used in the surgery.
翻訳日:2023-01-16 21:19:43 公開日:2019-12-31
# セグメント認識と適応虹彩認識

Segmentation-Aware and Adaptive Iris Recognition ( http://arxiv.org/abs/2001.00989v1 )

ライセンス: Link先を確認
Kuo Wang, Ajay Kumar(参考訳) iris認識は、人間の識別に最も正確で便利な生体認証の1つとして登場し、様々な電子セキュリティアプリケーションで採用されている。 遠距離または制限の少ない撮像環境下で取得した虹彩画像の品質は、虹彩マッチング精度を低下させることが知られている。 眼周囲情報は本質的にそのような虹彩画像に埋め込まれており、そのような非理想的なシナリオ下で虹彩認識を支援するために利用することができる。 このようなアイリステンプレートの解析は、文献におけるハミング距離を直接使用するのではなく、異なるバイナリビットの重要性を考慮できる類似性距離から、アイリス認識の利点を享受できる関心領域の顕著な劣化と減少を示唆している。 より正確な虹彩認識のために、利用可能な虹彩領域の有効領域の差を組み込むことにより、眼科情報を動的に強化することができる。 本稿では,より精度の低いアイリス認識のためのセグメンテーション支援適応フレームワークを提案する。 in-dataset と cross-dataset performance evaluation を用いた3つの iris データベース上での有効性を評価し,提案する iris 認識フレームワークのメリットを検証する。

Iris recognition has emerged as one of the most accurate and convenient biometric for the human identification and has been increasingly employed in a wide range of e-security applications. The quality of iris images acquired at-a-distance or under less constrained imaging environments is known to degrade the iris matching accuracy. The periocular information is inherently embedded in such iris images and can be exploited to assist in the iris recognition under such non-ideal scenarios. Our analysis of such iris templates also indicates significant degradation and reduction in the region of interest, where the iris recognition can benefit from a similarity distance that can consider importance of different binary bits, instead of the direct use of Hamming distance in the literature. Periocular information can be dynamically reinforced, by incorporating the differences in the effective area of available iris regions, for more accurate iris recognition. This paper presents such a segmentation-assisted adaptive framework for more accurate less-constrained iris recognition. The effectiveness of this framework is evaluated on three publicly available iris databases using within-dataset and cross-dataset performance evaluation and validates the merit of the proposed iris recognition framework.
翻訳日:2023-01-16 21:19:29 公開日:2019-12-31
# 動的ハンドジェスチャ認識のための短時間時間畳み込みネットワーク

Short-Term Temporal Convolutional Networks for Dynamic Hand Gesture Recognition ( http://arxiv.org/abs/2001.05833v1 )

ライセンス: Link先を確認
Yi Zhang, Chong Wang, Ye Zheng, Jieyu Zhao, Yuqi Li and Xijiong Xie(参考訳) ジェスチャー認識の目的は人体の意味ある動きを認識することであり、ジェスチャー認識はコンピュータビジョンにおいて重要な問題である。 本稿では,3次元高密度畳み込みネットワーク(3D-DenseNets)に基づくマルチモーダルなジェスチャー認識手法を提案し,時間的畳み込みネットワーク(TCNs)を改善した。 提案手法の鍵となる考え方は,空間的特徴と時間的特徴をコンパクトかつ効果的に表現し,ジェスチャー映像解析のタスクを空間的分析と時間的分析の2つの部分に順に分割することである。 空間分析では3D-DenseNetを用いて短時間の時空間的特徴を効果的に学習する。 その後,時間解析において,tcnを用いて時間的特徴を抽出し,各tns層からの時間的特徴の表現力を強化するために改良されたsuse-and-excitation network (senets) を用いる。 この手法は、VIVAとNVIDIA Gesture Dynamic Hand Gesture Datasetsで評価されている。 提案手法は,VIVAベンチマークの分類精度91.54%で非常に競争力のある性能を得るとともに,NVIDIAベンチマークの86.37%の精度で最先端のパフォーマンスを実現する。

The purpose of gesture recognition is to recognize meaningful movements of human bodies, and gesture recognition is an important issue in computer vision. In this paper, we present a multimodal gesture recognition method based on 3D densely convolutional networks (3D-DenseNets) and improved temporal convolutional networks (TCNs). The key idea of our approach is to find a compact and effective representation of spatial and temporal features, which orderly and separately divide task of gesture video analysis into two parts: spatial analysis and temporal analysis. In spatial analysis, we adopt 3D-DenseNets to learn short-term spatio-temporal features effectively. Subsequently, in temporal analysis, we use TCNs to extract temporal features and employ improved Squeeze-and-Excitation Networks (SENets) to strengthen the representational power of temporal features from each TCNs' layers. The method has been evaluated on the VIVA and the NVIDIA Gesture Dynamic Hand Gesture Datasets. Our approach obtains very competitive performance on VIVA benchmarks with the classification accuracies of 91.54%, and achieve state-of-the art performance with 86.37% accuracy on NVIDIA benchmark.
翻訳日:2023-01-16 21:19:10 公開日:2019-12-31
# 最適ロバストな線形二次双対制御

Optimistic robust linear quadratic dual control ( http://arxiv.org/abs/1912.13143v1 )

ライセンス: Link先を確認
Jack Umenberger and Thomas B. Schon(参考訳) Maniaらによる最近の研究は、2次コストの線形系に対して、確実な等価制御がほぼ最適に後悔することを示した。 しかし、パラメータの不確実性が大きい場合、真で未知のシステムを安定化するために確実性等価性は信頼できない。 本稿では、確実性等価性の性能とロバスト性の実用性を組み合わせた二重制御戦略を提案する。 この定式化はパラメトリック不確実性の表現において構造を保ち、制御タスクの'matter most'パラメータの不確かさの低減をコントローラがターゲットとし、不確実性システムを堅牢に安定化する。 制御合成は凸最適化によって進行し、数値的な例で示す。

Recent work by Mania et al. has proved that certainty equivalent control achieves nearly optimal regret for linear systems with quadratic costs. However, when parameter uncertainty is large, certainty equivalence cannot be relied upon to stabilize the true, unknown system. In this paper, we present a dual control strategy that attempts to combine the performance of certainty equivalence, with the practical utility of robustness. The formulation preserves structure in the representation of parametric uncertainty, which allows the controller to target reduction of uncertainty in the parameters that `matter most' for the control task, while robustly stabilizing the uncertain system. Control synthesis proceeds via convex optimization, and the method is illustrated on a numerical example.
翻訳日:2023-01-16 21:18:49 公開日:2019-12-31
# DNAメチル化データセットに基づくヒト細胞のトランスフォームドメイン分類

Transform-Domain Classification of Human Cells based on DNA Methylation Datasets ( http://arxiv.org/abs/1912.13167v1 )

ライセンス: Link先を確認
Xueyuan Zhao and Dario Pompili(参考訳) 本研究は,DNAメチル化データに基づくトランスドメイン法に基づいて,ヒト細胞を新規に分類する手法を提案する。 DNAメチル化プロファイルの変異は、疾患の進行に伴ってヒト細胞で観察され、このDNAメチル化変異に基づいて、がん細胞を含む正常および疾患細胞を分類する。 本研究で調べたがん細胞型は、肝細胞(サンプルサイズn = 40)、大腸癌(n = 44)、肺(n = 70)、子宮内膜(n = 87)をカバーしている。 ワルシュ・ハダマード変換(wht)の変換により、cpg諸島の全てのdnaメチル化強度の測定を統合する新しいパイプラインが提案されている。 この研究は、DNAメチル化変換ドメインデータの3段階特性と、細胞の状態と関連するステップ値を明らかにする。 正常および癌組織細胞の分類を行うため,提案した機械学習パイプラインについてさらなる評価を行った。 一般のwgbs(whole-genome bisulfite sequencing)dnaメチル化データセットに基づいて、一連の機械学習分類器とwwtシーケンス分類を比較する。 whtベースの手法は、選択された機械学習分類器による比較分類精度を維持しつつ、元のシーケンス分類全体と比較して計算時間を1桁以上高速化することができる。 提案手法はエピジェネノームとゲノムデータセットによる迅速疾患と正常ヒト細胞分類に広く応用されている。

A novel method to classify human cells is presented in this work based on the transform-domain method on DNA methylation data. DNA methylation profile variations are observed in human cells with the progression of disease stages, and the proposal is based on this DNA methylation variation to classify normal and disease cells including cancer cells. The cancer cell types investigated in this work cover hepatocellular (sample size n = 40), colorectal (n = 44), lung (n = 70) and endometrial (n = 87) cancer cells. A new pipeline is proposed integrating the DNA methylation intensity measurements on all the CpG islands by the transformation of Walsh-Hadamard Transform (WHT). The study reveals the three-step properties of the DNA methylation transform-domain data and the step values of association with the cell status. Further assessments have been carried out on the proposed machine learning pipeline to perform classification of the normal and cancer tissue cells. A number of machine learning classifiers are compared for whole sequence and WHT sequence classification based on public Whole-Genome Bisulfite Sequencing (WGBS) DNA methylation datasets. The WHT-based method can speed up the computation time by more than one order of magnitude compared with whole original sequence classification, while maintaining comparable classification accuracy by the selected machine learning classifiers. The proposed method has broad applications in expedited disease and normal human cell classifications by the epigenome and genome datasets.
翻訳日:2023-01-16 21:18:08 公開日:2019-12-31
# 多重貯水池による非マルコフ進化

Exact non-Markovian evolution with multiple reservoirs ( http://arxiv.org/abs/1912.13272v1 )

ライセンス: Link先を確認
A.E. Teretenkov(参考訳) 複数の貯水池と相互作用する多レベルシステムのモデルを考える。 このモデルではマルコフ近似なしで正確な密度行列の進化が得られる。 すなわち、この進化は線型微分方程式の有限集合によって完全に定義される。 この研究では、スペクトル密度の1つのローレンツピークに対して以前に得られた結果は、そのようなピークの任意の数の場合に一般化される。 スペクトル密度におけるオオミックの寄与については、ここでも考慮する。

The model of a multi-level system interacting with several reservoirs is considered. The exact reduced density matrix evolution could be obtained for this model without Markov approximation. Namely, this evolution is fully defined by the finite set of linear differential equations. In this work the results which were obtained previously for only one Lorentz peak in the spectral density are generalized to the case of an arbitrary number of such peaks. The case of the Ohmic contribution in the spectral density is also taken here into account.
翻訳日:2023-01-16 21:11:16 公開日:2019-12-31
# 強大化の不確実性関係:理論と実験

Strong Majorization Uncertainty Relations: Theory and Experiment ( http://arxiv.org/abs/1912.13383v1 )

ライセンス: Link先を確認
Yuan Yuan, Yunlong Xiao, Zhibo Hou, Shao-Ming Fei, Gilad Gour, Guo-Yong Xiang, Chuan-Feng Li, and Guang-Can Guo(参考訳) 量子不確実性関係における理論的および実験的進歩にもかかわらず、不確実性関係のほとんどと普遍的形式、すなわちメジャー化不確実性関係(murs)の実験的な研究はまだ実施されていない。 重要な問題は、MURの分類に関する以前の研究が数学的表現のみにのみ焦点をあてていたが、様々な形態の物理的差異は未だ不明であることである。 まず、推理ゲームフォーマリズムを用いて、MURの研究を行い、それらの物理的性質を開示し、多様なMURの物理的特徴の本質的な違いを区別する。 第二に、murs の境界を平坦性過程の観点で、あるいは同値に、メジャー化格子の観点で厳しくする。 第3に、理論結果のベンチマークを行うため、フォトニック系のMURを実験的に検証する。

In spite of enormous theoretical and experimental progresses in quantum uncertainty relations, the experimental investigation of most current, and universal formalism of uncertainty relations, namely majorization uncertainty relations (MURs), has not been implemented yet. A significant problem is that previous studies on the classification of MURs only focus on their mathematical expressions, while the physical difference between various forms remains unknown. First, we use a guessing game formalism to study the MURs, which helps us disclosing their physical nature, and distinguishing the essential differences of physical features between diverse forms of MURs. Second, we tighter the bounds of MURs in terms of flatness processes, or equivalently, in terms of majorization lattice. Third, to benchmark our theoretical results, we experimentally verify MURs in the photonic systems.
翻訳日:2023-01-16 21:11:10 公開日:2019-12-31
# goldreich-levin学習問題の量子アルゴリズム

Quantum algorithms for the Goldreich-Levin learning problem ( http://arxiv.org/abs/2001.00014v1 )

ライセンス: Link先を確認
Hongwei Li(参考訳) goldreich-levinアルゴリズムはもともと暗号目的で提案され、その後学習に応用された。 アルゴリズムは、$n$可変ブール関数のより大きなウォルシュ係数を見つけることである。 大まかに言えば、$poly(n,\frac{1}{\epsilon}\log\frac{1}{\delta})$ ベクターをウォルシュ係数$s(w)\geq\epsilon$ で出力するには、少なくとも 1-\delta$ で$s(w)\geq\epsilon$ がかかる。 しかし、本論文では、この問題に対する量子アルゴリズムは、クエリ複雑性 $o(\frac{\log\frac{1}{\delta}}{\epsilon^4})$ で与えられる。 さらに、量子アルゴリズムは、クエリ複雑性$o(2^m\frac{\log\frac{1}{\delta}}{\epsilon^4})$を持つ$n$変数$m$出力ブール関数$f$に適用するように一般化される。

The Goldreich-Levin algorithm was originally proposed for a cryptographic purpose and then applied to learning. The algorithm is to find some larger Walsh coefficients of an $n$ variable Boolean function. Roughly speaking, it takes a $poly(n,\frac{1}{\epsilon}\log\frac{1}{\delta})$ time to output the vectors $w$ with Walsh coefficients $S(w)\geq\epsilon$ with probability at least $1-\delta$. However, in this paper, a quantum algorithm for this problem is given with query complexity $O(\frac{\log\frac{1}{\delta}}{\epsilon^4})$, which is independent of $n$. Furthermore, the quantum algorithm is generalized to apply for an $n$ variable $m$ output Boolean function $F$ with query complexity $O(2^m\frac{\log\frac{1}{\delta}}{\epsilon^4})$.
翻訳日:2023-01-16 21:10:55 公開日:2019-12-31
# ダイヤモンド中の窒素空洞アンサンブルにおけるロバスト光読み出しと核スピン遷移のキャラクタリゼーション

Robust optical readout and characterization of nuclear spin transitions in nitrogen-vacancy ensembles in diamond ( http://arxiv.org/abs/2001.00109v1 )

ライセンス: Link先を確認
A. Jarmola, I. Fescenko, V. M. Acosta, M. W. Doherty, F. K. Fatemi, T. Ivanov, D. Budker, V. S. Malinovsky(参考訳) ダイヤモンドの核スピンアンサンブルは、回転センシングを含む量子センシング応用の候補として有望である。 ここでは、ダイヤモンド窒素空孔(NV)中心における14N核スピンに関連する光学的検出された核スピン遷移のキャラクタリゼーションを行う。 我々は、nv電子スピンに匹敵する14n核ラビ振動の対照的に、核スピン依存蛍光を観察した。 ラムゼー分光法を用いて, 77.5-420 k および 350-675 g の範囲における核スピン転移の温度および磁場依存性について検討した。 核四極子結合定数Qは、T=297 Kで温度Tが d|Q|/dT=-35.0(2) Hz/K になるにつれて変化することがわかった。

Nuclear spin ensembles in diamond are promising candidates for quantum sensing applications, including rotation sensing. Here we perform a characterization of the optically detected nuclear-spin transitions associated with the 14N nuclear spin within diamond nitrogen vacancy (NV) centers. We observe nuclear-spin-dependent fluorescence with the contrast of optically detected 14N nuclear Rabi oscillations comparable to that of the NV electron spin. Using Ramsey spectroscopy, we investigate the temperature and magnetic-field dependence of the nuclear spin transitions in the 77.5-420 K and 350-675 G range, respectively. The nuclear quadrupole coupling constant Q was found to vary with temperature T yielding d|Q|/dT=-35.0(2) Hz/K at T=297 K. The temperature and magnetic field dependencies reported here are important for quantum sensing applications such as rotation sensing and potentially for applications in quantum information processing.
翻訳日:2023-01-16 21:10:29 公開日:2019-12-31
# C.H.ロビンソン、リッチカーのルート問題の解決にヒューリスティックスを活用

C. H. Robinson Uses Heuristics to Solve Rich Vehicle Routing Problems ( http://arxiv.org/abs/1912.13157v1 )

ライセンス: Link先を確認
Ehsan Khodabandeh, Lawrence V. Snyder, John Dennis, Joshua Hammond, Cody Wanless(参考訳) 我々は、C.H. Robinson (CHR) が日々直面しているリッチカールーティング問題(リッチカールーティング問題)として知られる、多くの複雑で実用的な制約を持つ幅広い車両ルーティング問題について考察する。 CHRには多くの顧客がいて、それぞれ異なる要件を持つため、異なる目的と制約を持ったさまざまなルーティング問題を解決する必要がある。 本稿では,様々な問題を解くのに有効であることを示す,経路生成アルゴリズムを多数備えた集合分割フレームワークを提案する。 提案したアルゴリズムは、CHRの既存の技術を10のベンチマークインスタンスで上回り、その後同社の交通計画および実行技術プラットフォームに組み込まれている。

We consider a wide family of vehicle routing problem variants with many complex and practical constraints, known as rich vehicle routing problems, which are faced on a daily basis by C.H. Robinson (CHR). Since CHR has many customers, each with distinct requirements, various routing problems with different objectives and constraints should be solved. We propose a set partitioning framework with a number of route generation algorithms, which have shown to be effective in solving a variety of different problems. The proposed algorithms have outperformed the existing technologies at CHR on 10 benchmark instances and since, have been embedded into the company's transportation planning and execution technology platform.
翻訳日:2023-01-16 21:10:12 公開日:2019-12-31
# Schr\\odinger Bridge サンプリング

Schr\"odinger Bridge Samplers ( http://arxiv.org/abs/1912.13170v1 )

ライセンス: Link先を確認
Espen Bernton, Jeremy Heng, Arnaud Doucet, Pierre E. Jacob(参考訳) 初期分布 $\pi_{0}$ と遷移カーネル $\{M_{t}\}_{t\in[1:T]}$, for some $T\in\mathbb{N}$ の参照マルコフ過程を考える。 分布 $\pi_{T}$ が与えられると仮定すると、これは時の参照プロセスの限界分布に等しいものではない。 このシナリオでは、schr\"odinger は初期分布 $\pi_{0}$ と端末分布が $\pi_{t}$ に等しいマルコフ過程を特定する問題に対処した。 いわゆるSchr\"odinger bridge problemのこの特殊なケースは、反復比例フィッティング(シンクホーンアルゴリズム)を用いて解決することができる。 これらのアイデアを活用して、新しいモンテカルロスキーム(Schr\"odinger bridge samplers)を開発し、ターゲット分布 $\pi$ on $\mathbb{R}^{d}$ を近似し、正規化定数を推定する。 これは、参照マルコフ連鎖の遷移核を反復的に修正して、対応する反復比例フィッティング再帰の回帰に基づく近似により、T$の限界分布が$\pi_T = \pi$に近づく過程を得る。 予備実験を報告し, 最適輸送, 最適制御, 物理文献に生じる他の問題と接続する。

Consider a reference Markov process with initial distribution $\pi_{0}$ and transition kernels $\{M_{t}\}_{t\in[1:T]}$, for some $T\in\mathbb{N}$. Assume that you are given distribution $\pi_{T}$, which is not equal to the marginal distribution of the reference process at time $T$. In this scenario, Schr\"odinger addressed the problem of identifying the Markov process with initial distribution $\pi_{0}$ and terminal distribution equal to $\pi_{T}$ which is the closest to the reference process in terms of Kullback--Leibler divergence. This special case of the so-called Schr\"odinger bridge problem can be solved using iterative proportional fitting, also known as the Sinkhorn algorithm. We leverage these ideas to develop novel Monte Carlo schemes, termed Schr\"odinger bridge samplers, to approximate a target distribution $\pi$ on $\mathbb{R}^{d}$ and to estimate its normalizing constant. This is achieved by iteratively modifying the transition kernels of the reference Markov chain to obtain a process whose marginal distribution at time $T$ becomes closer to $\pi_T = \pi$, via regression-based approximations of the corresponding iterative proportional fitting recursion. We report preliminary experiments and make connections with other problems arising in the optimal transport, optimal control and physics literatures.
翻訳日:2023-01-16 21:09:59 公開日:2019-12-31
# スタックオーバーフロー回答をナビゲートするための基本文

Essential Sentences for Navigating Stack Overflow Answers ( http://arxiv.org/abs/1912.13455v1 )

ライセンス: Link先を確認
Sarah Nadi, Christoph Treude(参考訳) Stack Overflow (SO) はソフトウェア開発に不可欠なリソースとなっている。 その成功と普及にもかかわらず、ナビゲートは依然として課題である。 理想的には、SOユーザは、タスクやコンテキストに関連する答えを判断するのに役立つ、強調されたナビゲーションキューの恩恵を受けることができる。 このようなナビゲーションの手がかりは、検索者が答えを読みたいかスキップしたいかを判断するのに役立つ必須文の形式であるかもしれない。 本稿では,本文を識別するための4つの潜在的アプローチを比較する。 我々は既存の2つのアプローチを採用し、文中の文脈情報(例えば「窓を使う」)が本質的な文を特定するのに役立つという考えに基づいて2つの新しいアプローチを開発する。 4つの手法を43人の被験者を対象に比較した。 参加者は、選択肢を考えると、特定の問題に最適な解決策が何かを知ることは必ずしも容易ではないことを示し、検索を絞り込む可能性のあるコンテキスト情報を簡単に見つけ出すことを望んでいる。 この手法を定量的に比較した結果,ナビゲーションの手がかりとなる本質的な文を識別できる技術は存在せず,質的分析の結果,参加者は説明や特定の条件を重要視し,補足文や推測を重要視しなかった。 我々の研究は、航法的手がかりの重要性に光を当てており、我々の発見は将来の研究をガイドして、そのような手がかりを特定するための最良の組み合わせを見つけるために利用できる。

Stack Overflow (SO) has become an essential resource for software development. Despite its success and prevalence, navigating SO remains a challenge. Ideally, SO users could benefit from highlighted navigational cues that help them decide if an answer is relevant to their task and context. Such navigational cues could be in the form of essential sentences that help the searcher decide whether they want to read the answer or skip over it. In this paper, we compare four potential approaches for identifying essential sentences. We adopt two existing approaches and develop two new approaches based on the idea that contextual information in a sentence (e.g., "if using windows") could help identify essential sentences. We compare the four techniques using a survey of 43 participants. Our participants indicate that it is not always easy to figure out what the best solution for their specific problem is, given the options, and that they would indeed like to easily spot contextual information that may narrow down the search. Our quantitative comparison of the techniques shows that there is no single technique sufficient for identifying essential sentences that can serve as navigational cues, while our qualitative analysis shows that participants valued explanations and specific conditions, and did not value filler sentences or speculations. Our work sheds light on the importance of navigational cues, and our findings can be used to guide future research to find the best combination of techniques to identify such cues.
翻訳日:2023-01-16 21:08:55 公開日:2019-12-31
# シームの位置分布制御によるイメージシーム彫刻

Image Seam-Carving by Controlling Positional Distribution of Seams ( http://arxiv.org/abs/1912.13214v1 )

ライセンス: Link先を確認
Mahdi Ahmadi, Nader Karimi, Shadrokh Samavi(参考訳) 画像再ターゲティングは、画像のアスペクト比の変化を描画する新しい画像処理タスクである。 最も有名なイメージリターゲティングアルゴリズムの1つは、シーム彫刻である。 seam-carvingは高速で単純であるが、通常は画像を歪ませる。 本稿では,元のシーム彫刻の単純さだけでなく,本来の方法では不要な歪みがほとんどない新しいシーム彫刻アルゴリズムを提案する。 シームの位置分布が紹介される。 提案手法は, 画像品質評価とシーム凝集対策において, 従来のseam-carvingよりも優れていた。

Image retargeting is a new image processing task that renders the change of aspect ratio in images. One of the most famous image-retargeting algorithms is seam-carving. Although seam-carving is fast and straightforward, it usually distorts the images. In this paper, we introduce a new seam-carving algorithm that not only has the simplicity of the original seam-carving but also lacks the usual unwanted distortion existed in the original method. The positional distribution of seams is introduced. We show that the proposed method outperforms the original seam-carving in terms of retargeted image quality assessment and seam coagulation measures.
翻訳日:2023-01-16 21:08:12 公開日:2019-12-31
# L1ストレートラインデータの計算(その1)

Computing L1 Straight-Line Fits to Data (Part 1) ( http://arxiv.org/abs/2001.00813v1 )

ライセンス: Link先を確認
Ian Barrodale(参考訳) このテクニカルレポートの最初のコメントは、主にl1近似の性質に精通していない人々のためのものであるが、レポートの残りは、既にl1アルゴリズムの内部動作に精通している読者にも関心を寄せるべきである。

The initial remarks in this technical report are primarily for those not familiar with the properties of L1 approximation, but the remainder of the report should also interest readers who are already acquainted with the inner workings of L1 algorithms.
翻訳日:2023-01-16 21:01:18 公開日:2019-12-31
# 極端学習マシンによる電解質溶液中の炭化水素ガスの溶解度推定モデル

Extreme learning machine-based model for Solubility estimation of hydrocarbon gases in electrolyte solutions ( http://arxiv.org/abs/2009.03983v1 )

ライセンス: Link先を確認
Narjes Nabipour, Amir Mosavi, Alireza Baghban, Shahaboddin Shamshirband, Imre Felde(参考訳) 天然ガスの炭化水素成分の溶解度を計算することは、石油と化学工学の運用において重要な問題の一つである。 本研究では, メタン, エタン, プロパン, ブタンなどの炭化水素ガスに対して, 極端学習機械(ELM)アルゴリズムに基づく電解質水溶液中での新しい溶解度推定法を提案する。 ELM出力と1175の可溶性点を有する総合実データバンクを比較して、それぞれ訓練相と試験相のR二乗値0.985と0.987とを結論付ける。 さらに, 推定および実際の炭化水素溶解度を視覚的に比較した結果, 提案した溶解度モデルの有効性が確認された。 さらに, モデル入力変数に感度解析を適用し, 炭化水素溶解度への影響を同定した。 このような包括的で信頼性の高い研究は、製油所や石油化学プラントなどの異なる産業単位を最適化し設計する上で重要な要素である重要な熱力学特性をエンジニアや科学者が決定するのに役立つ。

Calculating hydrocarbon components solubility of natural gases is known as one of the important issues for operational works in petroleum and chemical engineering. In this work, a novel solubility estimation tool has been proposed for hydrocarbon gases including methane, ethane, propane, and butane in aqueous electrolyte solutions based on extreme learning machine (ELM) algorithm. Comparing the ELM outputs with a comprehensive real databank which has 1175 solubility points concluded to R-squared values of 0.985 and 0.987 for training and testing phases respectively. Furthermore, the visual comparison of estimated and actual hydrocarbon solubility led to confirm the ability of the proposed solubility model. Additionally, sensitivity analysis has been employed on the input variables of the model to identify their impacts on hydrocarbon solubility. Such a comprehensive and reliable study can help engineers and scientists to successfully determine the important thermodynamic properties which are key factors in optimizing and designing different industrial units such as refineries and petrochemical plants.
翻訳日:2023-01-16 21:01:12 公開日:2019-12-31
# マルチメカニカル共振器を用いたキャビティオメカニカルシステムにおけるパラメータの区別による位相位相

Topological phase induced by distinguishing parameter regimes in cavity optomechanical system with multiple mechanical resonators ( http://arxiv.org/abs/1912.13231v1 )

ライセンス: Link先を確認
Lu Qi, Yan Xing, Shutian Liu, Shou Zhang, Hong-Fu Wang(参考訳) 本研究では,位相的Su-Schrieffer-Heeger(SSH)位相を1次元(1次元)多共振器共振器共振器共振器共振器共振器の周波数変調により誘導する2種類のパラメータ機構を提案する。 周波数変調を導入することにより、従来のトポロジカル強結合モデルのマッピングとは全く異なる通常の回転波近似を伴わずに、強結合ハミルトン写像のストークス加熱過程を排除できる。 共振器と共振器の周波数変調からベッセル関数を変調することにより、強結合ハミルトニアンを位相SSH位相にマッピングすることができ、誘導SSH位相は有効オメカニカルカップリング強度に依存しない。 一方, 有効オプトメカニカルカップリングに対するシステムの過敏性は, 現在の1次元キャビティ・オトメカニカル・システムに基づくトポロジカルSSH位相を誘導する新たな経路を提供する。 また, 実効的な光機械的結合強度を変化させることで, トポロジカルなssh相を発現できることを示し, 実験によりより容易に達成できることを示した。 さらに,ストークス加熱過程を保ちながら,自明なトポロジーを持つ類似のボソニック・キタエフモデルを構築した。 提案手法は, システムのトポロジーに対するnext-nearest-neighboring相互作用の影響を調べるための, ステアブルなプラットフォームを提供する。

We propose two kinds of distinguishing parameter regimes to induce topological Su-Schrieffer-Heeger (SSH) phase in a one dimensional (1D) multi-resonator cavity optomechanical system via modulating the frequencies of both cavity fields and resonators. The introduction of the frequency modulations allows us to eliminate the Stokes heating process for the mapping of the tight-binding Hamiltonian without usual rotating wave approximation, which is totally different from the traditional mapping of the topological tight-binding model. We find that the tight-binding Hamiltonian can be mapped into a topological SSH phase via modifying the Bessel function originating from the frequency modulations of cavity fields and resonators, and the induced SSH phase is independent on the effective optomechanical coupling strength. On the other hand, the insensitivity of the system to the effective optomechanical coupling provides us another new path to induce the topological SSH phase based on the present 1D cavity optomechanical system. And we show that the system can exhibit a topological SSH phase via varying the effective optomechanical coupling strength in an alternative way, which is much more easier to be achieved in experiment. Furthermore, we also construct an analogous bosonic Kitaev model with the trivial topology by keeping the Stokes heating processes. Our scheme provides a steerable platform to investigate the effects of next-nearest-neighboring interactions on the topology of the system.
翻訳日:2023-01-16 21:00:05 公開日:2019-12-31
# 周波数変調光力学アレイにおける1つのトポロジカルチャネルによる制御可能な二重量子状態伝達

Controllable double quantum state transfers by one topological channel in a frequency-modulated optomechanical array ( http://arxiv.org/abs/1912.13233v1 )

ライセンス: Link先を確認
Lu Qi, Shutian Liu, Shou Zhang, Hong-Fu Wang(参考訳) 本稿では,一次元周波数変調光力学アレイに基づく位相保護エッジチャネルによる量子状態伝達を実現する手法を提案する。 周波数変調による対向回転波項の除去により,光力学アレイをsu-schrieffer-heegerモデルにマッピングできることがわかった。 Su-Schrieffer-Heegerモデルのエッジチャネルを縮小することにより、フォトニック左端状態とフォトニック右端状態の間の量子状態移動が高忠実度で達成可能であることを示す。 特に、従来の1種類の量子状態転移のみを達成するようなキャビティフィールド間の次のネアレスト-neighboring相互作用を制御することにより、同じチャネルに基づく別のフォノニック量子状態転移を実現できる。 この方式は、2種類の異なる量子状態遷移を制御可能な方法で切り替える新しい経路を提供する。

We propose a scheme to achieve the quantum state transfer via the topological protected edge channel based on a one dimensional frequency-modulated optomechanical array. We find that the optomechanical array can be mapped into a Su-Schrieffer-Heeger model after eliminating the counter rotating wave terms via frequency modulations. By dint of the edge channel of the Su-Schrieffer-Heeger model, we show that the quantum state transfer between the photonic left edge state and the photonic right edge state can be achieved with a high fidelity. Specially, our scheme can also achieve another phononic quantum state transfer based on the same channel via controlling the next-nearest-neighboring interactions between the cavity fields, which is different from the previous investigations only achieving one kind of quantum state transfer. Our scheme provides a novel path to switch two different kinds of quantum state transfers in a controllable way.
翻訳日:2023-01-16 20:59:34 公開日:2019-12-31
# 大規模ドメイン固有の知識ベースからチャットボットを構築する:課題と機会

Building chatbots from large scale domain-specific knowledge bases: challenges and opportunities ( http://arxiv.org/abs/2001.00100v1 )

ライセンス: Link先を確認
Walid Shalaby, Adriano Arantes, Teresa GonzalezDiaz, Chetan Gupta(参考訳) Alexa Skills Kit(ASK)やGoogle Actions(gActions)といった一般的な会話エージェントフレームワークは、さまざまな分野における音声対応AIソリューションの開発と展開を促進する前例のない機会を提供する。 それでも、高い精度でユーザの発話を理解することは、これらのフレームワークでは難しい課題である。 特に、多数のドメイン固有エンティティを持つチャットボットを構築する場合。 本稿では,機器関連苦情の理解と対応を目的とした大規模仮想アシスタントの構築から得られた課題と教訓について述べる。 このプロセスでは、次の別のスケーラブルなフレームワークを説明します。 1)短文から機器部品とその関連問題実体に関する知識を抽出すること、及び 2)そのようなエンティティをユーザ発話で識別する学習。 提案するフレームワークは,既成の一般的なものと比較して,実際のデータセットで評価することで,最大30%の精度で大量のエンティティをスケールし,ドメイン固有のエンティティによるユーザ発話の理解に有効であることを示す。

Popular conversational agents frameworks such as Alexa Skills Kit (ASK) and Google Actions (gActions) offer unprecedented opportunities for facilitating the development and deployment of voice-enabled AI solutions in various verticals. Nevertheless, understanding user utterances with high accuracy remains a challenging task with these frameworks. Particularly, when building chatbots with large volume of domain-specific entities. In this paper, we describe the challenges and lessons learned from building a large scale virtual assistant for understanding and responding to equipment-related complaints. In the process, we describe an alternative scalable framework for: 1) extracting the knowledge about equipment components and their associated problem entities from short texts, and 2) learning to identify such entities in user utterances. We show through evaluation on a real dataset that the proposed framework, compared to off-the-shelf popular ones, scales better with large volume of entities being up to 30% more accurate, and is more effective in understanding user utterances with domain-specific entities.
翻訳日:2023-01-16 20:52:28 公開日:2019-12-31
# オブジェクト指向分析とモデリングに基づく定義と意味論的シミュレーション

Definitions and Semantic Simulations Based on Object-Oriented Analysis and Modeling ( http://arxiv.org/abs/1912.13186v1 )

ライセンス: Link先を確認
Robert B. Allen(参考訳) 従来のオントロジーを超えて、モデリングのためにプログラミング言語に実装されたリッチセマンティクスを使うことを提案しました。 本稿では, 滝の構造化定義と心肺循環系の2つの例について, 実行可能意味モデルの応用について述べる。 これらのモデルのコンポーネントとそれらのコンポーネントの相互作用について検討する。 最終的に、そのようなモデルは直接表現の基盤を提供するべきである。

We have proposed going beyond traditional ontologies to use rich semantics implemented in programming languages for modeling. In this paper, we discuss the application of executable semantic models to two examples, first a structured definition of a waterfall and second the cardiopulmonary system. We examine the components of these models and the way those components interact. Ultimately, such models should provide the basis for direct representation.
翻訳日:2023-01-16 20:52:12 公開日:2019-12-31
# ファウショット学習のための多様性伝達ネットワーク

Diversity Transfer Network for Few-Shot Learning ( http://arxiv.org/abs/1912.13182v1 )

ライセンス: Link先を確認
Mengting Chen, Yuxin Fang, Xinggang Wang, Heng Luo, Yifeng Geng, Xinyu Zhang, Chang Huang, Wenyu Liu, Bo Wang(参考訳) 少数ショット学習は、少数のトレーニング例しか持たない未熟なクラスの分類器をトレーニングすることを目的とした、挑戦的なタスクである。 少数ショット学習の主な難点は、トレーニングサンプルの不足によるクラス内多様性の欠如である。 この問題を軽減するため,我々は,既知のカテゴリから潜在多様性を転送し,特徴空間における新しいカテゴリの多様なサンプルを生成するためのサポート機能と組み合わせることを学ぶ,新しい生成フレームワークであるdiversity transfer network (dtn)を提案する。 サンプル生成(すなわち多様性伝達)の学習問題は、前回の作業における生成的損失ではなく、単段ネットワークにおける効果的なメタ分類損失を最小化することで解決される。 さらに,DTNのメタトレーニングプロセスの安定化を図るために,既知のカテゴリに対する協調学習の組織化を提案する。 我々は,3つのデータセット,すなわち \emph{mini} ImageNet, CIFAR100, CUBに関する広範な実験およびアブレーション研究を行った。 その結果,DTNは単段階学習とより速い収束速度で,特徴生成に基づく数ショット学習手法の最先端結果が得られることがわかった。 コードと補足資料は \texttt{https://github.com/yuxin-cv/dtn} で入手できる。

Few-shot learning is a challenging task that aims at training a classifier for unseen classes with only a few training examples. The main difficulty of few-shot learning lies in the lack of intra-class diversity within insufficient training samples. To alleviate this problem, we propose a novel generative framework, Diversity Transfer Network (DTN), that learns to transfer latent diversities from known categories and composite them with support features to generate diverse samples for novel categories in feature space. The learning problem of the sample generation (i.e., diversity transfer) is solved via minimizing an effective meta-classification loss in a single-stage network, instead of the generative loss in previous works. Besides, an organized auxiliary task co-training over known categories is proposed to stabilize the meta-training process of DTN. We perform extensive experiments and ablation studies on three datasets, i.e., \emph{mini}ImageNet, CIFAR100 and CUB. The results show that DTN, with single-stage training and faster convergence speed, obtains the state-of-the-art results among the feature generation based few-shot learning methods. Code and supplementary material are available at: \texttt{https://github.com/Yuxin-CV/DTN}
翻訳日:2023-01-16 20:51:45 公開日:2019-12-31
# ディープネットワークのためのニューラルネットワーク探索手法のモデル化

Modeling Neural Architecture Search Methods for Deep Networks ( http://arxiv.org/abs/1912.13183v1 )

ライセンス: Link先を確認
Emad Malekhosseini, Mohsen Hajabdollahi, Nader Karimi, Shadrokh Samavi(参考訳) ニューラル・アーキテクチャ・サーチ(nas)法(neural architecture search)と呼ばれるディープ・ニューラル・ネットワーク(dnn)のアーキテクチャ設計に関する多くの研究がある。 NAS問題には多数の自動手動技術があるが、これらのNAS手法を探索・比較できる統一モデルはない。 本論文では,NAS手法の一般化モデルを提案する。 提案フレームワークを用いることで、DNNアーキテクチャの設計において重要な領域を分類し、特定するための異なる設計アプローチを比較することができる。 また、この枠組みの下では、NAS領域の異なる手法を要約し、それらの利点と欠点のより良い見方が可能である。

There are many research works on the designing of architectures for the deep neural networks (DNN), which are named neural architecture search (NAS) methods. Although there are many automatic and manual techniques for NAS problems, there is no unifying model in which these NAS methods can be explored and compared. In this paper, we propose a general abstraction model for NAS methods. By using the proposed framework, it is possible to compare different design approaches for categorizing and identifying critical areas of interest in designing DNN architectures. Also, under this framework, different methods in the NAS area are summarized; hence a better view of their advantages and disadvantages is possible.
翻訳日:2023-01-16 20:51:26 公開日:2019-12-31
# クラス特異的スパース1クラス多重核融合回帰を用いた顔提示攻撃検出

Unseen Face Presentation Attack Detection Using Class-Specific Sparse One-Class Multiple Kernel Fusion Regression ( http://arxiv.org/abs/1912.13276v1 )

ライセンス: Link先を確認
Shervin Rahimzadeh Arashloo(参考訳) 本稿は,学習段階に存在しない新たな提示攻撃にシステムが曝露する未発見攻撃シナリオの課題条件において,顔提示攻撃の検出について述べる。 この目的のために,カーネルレグレッションに基づく純粋に1クラス顔提示攻撃検出手法を開発し,トレーニングにボナfide (genuine) サンプルのみを使用する。 提案手法では, マルチカーネル融合, クライアント固有のモデリング, スパース正規化, スコア分布の確率的モデリングなど, 多数のイノベーションを導入して, 提案手法の有効性を向上させる。 OULU-NPU, Replay-Mobile, Replay-Attack, MSU-MFSDデータセットを用いて行った実験結果から,本手法はトレーニング用ボナファイドサンプルのみを使用しながら,マルチクラス手法(トレーニング用プレゼンテーションアタックデータに適合する)と非常に競合する性能を保ちながら, 目に見えない攻撃検出シナリオで動作する他の手法と非常に好適に比較した。

The paper addresses face presentation attack detection in the challenging conditions of an unseen attack scenario where the system is exposed to novel presentation attacks that were not present in the training step. For this purpose, a pure one-class face presentation attack detection approach based on kernel regression is developed which only utilises bona fide (genuine) samples for training. In the context of the proposed approach, a number of innovations, including multiple kernel fusion, client-specific modelling, sparse regularisation and probabilistic modelling of score distributions are introduced to improve the efficacy of the method. The results of experimental evaluations conducted on the OULU-NPU, Replay-Mobile, Replay-Attack and MSU-MFSD datasets illustrate that the proposed method compares very favourably with other methods operating in an unseen attack detection scenario while achieving very competitive performance to multi-class methods (benefiting from presentation attack data for training) despite using only bona fide samples for training.
翻訳日:2023-01-16 20:50:57 公開日:2019-12-31
# 量子敵対機械学習

Quantum Adversarial Machine Learning ( http://arxiv.org/abs/2001.00030v1 )

ライセンス: Link先を確認
Sirui Lu, Lu-Ming Duan, Dong-Ling Deng(参考訳) 敵対的機械学習は、敵対的設定における機械学習アプローチの脆弱性の研究と、敵的操作に対して学習を堅牢にする技術開発に焦点を当てた新興分野である。 さまざまな機械学習アプリケーションにおいて重要な役割を担い、最近ではさまざまなコミュニティで大きな注目を集めている。 本稿では,量子機械学習の文脈において,異なる逆のシナリオを探索する。 古典的ニューラルネットワークに基づく従来の分類器と同様に、量子学習システムは、入力データが古典的か量子的かに関わらず、製造された逆数例に対して同様に脆弱である。 特に、ほぼ最先端の精度を達成する量子分類器は、元の正統なサンプルに知覚不能な摂動を加えることによって得られる逆例によって決定的に欺くことができる。 これは、現実のイメージ(データセットMNISTで手書きの桁画像など)の分類、物質の学習フェーズ(強磁性/常磁性秩序や対称性で保護された位相位相など)、量子データの分類など、様々なシナリオでの量子対向学習で明確に示されている。 さらに,本手法は,敵の事例の情報に基づいて,様々な攻撃に対して実用的な防御戦略を設計できることを示す。 本研究は, 理論的に機械学習と量子物理学を橋渡しする新たな視点を明らかにするだけでなく, 近い将来の量子技術と将来の量子技術の両方に基づく量子分類器の実用的応用に有用なガイダンスを提供するものである。

Adversarial machine learning is an emerging field that focuses on studying vulnerabilities of machine learning approaches in adversarial settings and developing techniques accordingly to make learning robust to adversarial manipulations. It plays a vital role in various machine learning applications and has attracted tremendous attention across different communities recently. In this paper, we explore different adversarial scenarios in the context of quantum machine learning. We find that, similar to traditional classifiers based on classical neural networks, quantum learning systems are likewise vulnerable to crafted adversarial examples, independent of whether the input data is classical or quantum. In particular, we find that a quantum classifier that achieves nearly the state-of-the-art accuracy can be conclusively deceived by adversarial examples obtained via adding imperceptible perturbations to the original legitimate samples. This is explicitly demonstrated with quantum adversarial learning in different scenarios, including classifying real-life images (e.g., handwritten digit images in the dataset MNIST), learning phases of matter (such as, ferromagnetic/paramagnetic orders and symmetry protected topological phases), and classifying quantum data. Furthermore, we show that based on the information of the adversarial examples at hand, practical defense strategies can be designed to fight against a number of different attacks. Our results uncover the notable vulnerability of quantum machine learning systems to adversarial perturbations, which not only reveals a novel perspective in bridging machine learning and quantum physics in theory but also provides valuable guidance for practical applications of quantum classifiers based on both near-term and future quantum technologies.
翻訳日:2023-01-16 20:43:02 公開日:2019-12-31
# 症例:文脈対応セマンティック展開

CASE: Context-Aware Semantic Expansion ( http://arxiv.org/abs/1912.13194v1 )

ライセンス: Link先を確認
Jialong Han, Aixin Sun, Haisong Zhang, Chenliang Li, Shuming Shi(参考訳) 本稿では,CASE(Context-Aware Semantic Expansion)と呼ばれる新しいタスクを定義し,検討する。 セマンティックな文脈でシード項が与えられた場合、その文脈に適した他の用語をシードとして提案することを目指している。 Caseには、クエリ提案、コンピュータ支援書き込み、単語感覚の曖昧さなど、多くの興味深い応用がある。 これまでの調査では、同じようなタスクしか行わず、評価には人間のアノテーションが必要でした。 本研究では,この課題に対するアノテーションを,既存のコーパスから完全に自動で大規模に抽出できることを実証する。 そこで,180万文のデータセットに対して,文脈とシード用語を別々に符号化し,代替用語を提案するネットワークアーキテクチャを提案する。 このアーキテクチャのコンテキストエンコーダは、シードアウェアの注意を組み込むことで容易に拡張できる。 実験の結果,コンテクストエンコーダとアテンションスコアリング関数の適切な選択により,競争結果が得られた。

In this paper, we define and study a new task called Context-Aware Semantic Expansion (CASE). Given a seed term in a sentential context, we aim to suggest other terms that well fit the context as the seed. CASE has many interesting applications such as query suggestion, computer-assisted writing, and word sense disambiguation, to name a few. Previous explorations, if any, only involve some similar tasks, and all require human annotations for evaluation. In this study, we demonstrate that annotations for this task can be harvested at scale from existing corpora, in a fully automatic manner. On a dataset of 1.8 million sentences thus derived, we propose a network architecture that encodes the context and seed term separately before suggesting alternative terms. The context encoder in this architecture can be easily extended by incorporating seed-aware attention. Our experiments demonstrate that competitive results are achieved with appropriate choices of context encoder and attention scoring function.
翻訳日:2023-01-16 20:41:50 公開日:2019-12-31
# 情報ボトルネックと深部情報ボトルネックの差異について

On the Difference Between the Information Bottleneck and the Deep Information Bottleneck ( http://arxiv.org/abs/1912.13480v1 )

ライセンス: Link先を確認
Aleksander Wieczorek and Volker Roth(参考訳) 相互情報項をディープニューラルネットに置き換えることで、インフォメーション・ボトルネックモデルとディープラーニングを組み合わせることで、生成モデルからディープニューラルネットの解釈まで幅広い分野で成功している。 本稿では,Deep Variational Information Bottleneckとその導出に必要な仮定について再検討する。 2つのデータの性質を$X$、$Y$、およびその潜在表現$T$は、2つのマルコフ連鎖である$T-X-Y$と$X-T-Y$の形式を取る。 最適化過程中に両方を保持する必要があることは、潜在的な合同分布の集合に対して$P(X,Y,T)$を制限できる。 したがって、後者のマルコフ鎖のみを満たさなければならない$i(t;y)$の下限を最適化することで、この制限を回避する方法を示す。 実際の相互情報は、実際に DVIB とコグネートモデルで最適化される下限と、以前の要件である$T-X-Y$がどの程度違反されたかを測定する2つの用語からなる。 最後に,情報ボトルネックモデルのファミリを指向的グラフィカルモデルとして解釈し,本フレームワークにおいて,情報ボトルネックの原点と深部を基本ISBモデルの特殊な場合とすることを示す。

Combining the Information Bottleneck model with deep learning by replacing mutual information terms with deep neural nets has proved successful in areas ranging from generative modelling to interpreting deep neural networks. In this paper, we revisit the Deep Variational Information Bottleneck and the assumptions needed for its derivation. The two assumed properties of the data $X$, $Y$ and their latent representation $T$ take the form of two Markov chains $T-X-Y$ and $X-T-Y$. Requiring both to hold during the optimisation process can be limiting for the set of potential joint distributions $P(X,Y,T)$. We therefore show how to circumvent this limitation by optimising a lower bound for $I(T;Y)$ for which only the latter Markov chain has to be satisfied. The actual mutual information consists of the lower bound which is optimised in DVIB and cognate models in practice and of two terms measuring how much the former requirement $T-X-Y$ is violated. Finally, we propose to interpret the family of information bottleneck models as directed graphical models and show that in this framework the original and deep information bottlenecks are special cases of a fundamental IB model.
翻訳日:2023-01-16 20:33:41 公開日:2019-12-31
# tree graftingによるスケーラブルなクラスタリング

Scalable Hierarchical Clustering with Tree Grafting ( http://arxiv.org/abs/2001.00076v1 )

ライセンス: Link先を確認
Nicholas Monath, Ari Kobren, Akshay Krishnamurthy, Michael Glass, Andrew McCallum(参考訳) 本稿では2つの点集合間の任意の類似性を計算する一般リンク関数を持つ大規模で非階層的階層クラスタリングのための新しいアルゴリズムであるGrinchを紹介する。 grinchの重要なコンポーネントは回転とグラフトサブルーチンであり、新しいポイントが到着すると階層を効率的に再構成し、複雑な構造を持つクラスタの発見をサポートする。 私たちは、モデルが接地型クラスタリングと一致している場合、glinnchは、データ到着順序によらず、接地型を含むクラスタツリーを作成することが保証されていることを証明します。 ベンチマークおよび著者共参照データセット(標準および学習済みリンク関数)における実験結果から,glinnchは他のスケーラブルな手法よりも精度が高く,階層型凝集型クラスタリングよりも桁違いに高速であることが分かる。

We introduce Grinch, a new algorithm for large-scale, non-greedy hierarchical clustering with general linkage functions that compute arbitrary similarity between two point sets. The key components of Grinch are its rotate and graft subroutines that efficiently reconfigure the hierarchy as new points arrive, supporting discovery of clusters with complex structure. Grinch is motivated by a new notion of separability for clustering with linkage functions: we prove that when the model is consistent with a ground-truth clustering, Grinch is guaranteed to produce a cluster tree containing the ground-truth, independent of data arrival order. Our empirical results on benchmark and author coreference datasets (with standard and learned linkage functions) show that Grinch is more accurate than other scalable methods, and orders of magnitude faster than hierarchical agglomerative clustering.
翻訳日:2023-01-16 20:32:56 公開日:2019-12-31
# 高度計測インフラのための深層学習に基づく侵入検知システム

Deep Learning-Based Intrusion Detection System for Advanced Metering Infrastructure ( http://arxiv.org/abs/2001.00916v1 )

ライセンス: Link先を確認
Zakaria El Mrabet, Mehdi Ezzari, Hassan Elghazi, Badr Abou El Majd(参考訳) スマートグリッドは、エネルギーを節約し、今日の環境要求を満たすために情報技術のパワーを利用する従来の電力グリッドの代替ソリューションである。 情報技術に固有の脆弱性があるため、スマートグリッドはさまざまな脅威にさらされ、サイバー攻撃に変換される可能性がある。 本稿では,高度な計測基盤ネットワークにおけるサイバー攻撃を防ぐために,深層学習に基づく侵入検知システムを開発した。 提案された機械学習アプローチは、スキャニング、バッファオーバーフロー、サービス拒否攻撃など、いくつかの攻撃カテゴリからなる経験的産業データセットでトレーニングされ、広くテストされる。 次に,提案手法の性能を評価するために,検出精度の観点からの実験的比較を行い,ナイーブベイズ,サポートベクターマシン,ランダムフォレストの性能評価を行った。 その結果,提案手法は他のアルゴリズムと比較して最適結果が得られることがわかった。 最後に,提案する異常に基づく侵入検知システムを,Advanced Metering Infrastructureネットワークに展開するネットワークアーキテクチャを提案する。 さらに,高度な計測インフラストラクチャネットワークに展開し,トラフィックを検査し,すべてのレベルにおいて悪意のある検出を行う2種類の侵入検知システム,ホストとネットワークベースのネットワークセキュリティアーキテクチャを提案する。

Smart grid is an alternative solution of the conventional power grid which harnesses the power of the information technology to save the energy and meet today's environment requirements. Due to the inherent vulnerabilities in the information technology, the smart grid is exposed to a wide variety of threats that could be translated into cyber-attacks. In this paper, we develop a deep learning-based intrusion detection system to defend against cyber-attacks in the advanced metering infrastructure network. The proposed machine learning approach is trained and tested extensively on an empirical industrial dataset which is composed of several attack categories including the scanning, buffer overflow, and denial of service attacks. Then, an experimental comparison in terms of detection accuracy is conducted to evaluate the performance of the proposed approach with Naive Bayes, Support Vector Machine, and Random Forest. The obtained results suggest that the proposed approaches produce optimal results comparing to the other algorithms. Finally, we propose a network architecture to deploy the proposed anomaly-based intrusion detection system across the Advanced Metering Infrastructure network. In addition, we propose a network security architecture composed of two types of Intrusion detection system types, Host and Network-based, deployed across the Advanced Metering Infrastructure network to inspect the traffic and detect the malicious one at all the levels.
翻訳日:2023-01-16 20:32:16 公開日:2019-12-31
# スマートグリッドにおけるデータマイニングアルゴリズムによる侵入検知システムの性能比較

A Performance Comparison of Data Mining Algorithms Based Intrusion Detection System for Smart Grid ( http://arxiv.org/abs/2001.00917v1 )

ライセンス: Link先を確認
Zakaria El Mrabet, Hassan El Ghazi, Naima Kaabouch(参考訳) smart gridは、新興で有望な技術だ。 情報技術の力を利用して、顧客へのインテリジェントな電力供給を行い、環境要求を満たすためのグリーンテクノロジーの統合を可能にします。 残念ながら、情報技術には固有の脆弱性と弱点があり、スマートグリッドをさまざまなセキュリティリスクに晒している。 侵入検知システム(IDS)は、スマートグリッドネットワークの確保と悪意のある活動の検出において重要な役割を果たすが、いくつかの制限がある。 多くの研究論文が、これらの問題にいくつかのアルゴリズムと手法を用いて対処するために出版された。 したがって、これらのアルゴリズムの詳細な比較が必要である。 本稿では,スマートグリッドにおけるidsで使用される4つのデータマイニングアルゴリズムの概要を示す。 これらのアルゴリズムの性能評価は、検出の確率、誤報の確率、ミス検出の確率、効率、処理時間など、いくつかの指標に基づいて行われる。 その結果、ランダムフォレストは他の3つのアルゴリズムよりも高い検出確率、誤報の確率、誤検知の確率、高い精度で攻撃を検出できることがわかった。

Smart grid is an emerging and promising technology. It uses the power of information technologies to deliver intelligently the electrical power to customers, and it allows the integration of the green technology to meet the environmental requirements. Unfortunately, information technologies have its inherent vulnerabilities and weaknesses that expose the smart grid to a wide variety of security risks. The Intrusion detection system (IDS) plays an important role in securing smart grid networks and detecting malicious activity, yet it suffers from several limitations. Many research papers have been published to address these issues using several algorithms and techniques. Therefore, a detailed comparison between these algorithms is needed. This paper presents an overview of four data mining algorithms used by IDS in Smart Grid. An evaluation of performance of these algorithms is conducted based on several metrics including the probability of detection, probability of false alarm, probability of miss detection, efficiency, and processing time. Results show that Random Forest outperforms the other three algorithms in detecting attacks with higher probability of detection, lower probability of false alarm, lower probability of miss detection, and higher accuracy.
翻訳日:2023-01-16 20:31:56 公開日:2019-12-31
# モデルベース最適化のためのモデル反転ネットワーク

Model Inversion Networks for Model-Based Optimization ( http://arxiv.org/abs/1912.13464v1 )

ライセンス: Link先を確認
Aviral Kumar, Sergey Levine(参考訳) 本研究では,データ駆動最適化の課題を解決することを目的としており,その目的は,未知のスコア関数が対応するスコアを持つ入力のデータセットにアクセスすることを最大化する入力を見つけることである。 入力が高次元であり、有効な入力がこの空間の小さな部分集合を構成する場合(例えば、有効なタンパク質配列や有効な自然画像)、モデルに基づく最適化の問題は非常に困難になる。 本稿では,スコアから入力への逆マッピングを学習するモデル・インバージョン・ネットワーク(mins)を提案する。 MINは高次元の入力空間にスケールでき、コンテキスト最適化と非コンテキスト最適化の両方にオフラインログデータを利用する。 MINは、純粋なオフラインデータソースとアクティブデータコレクションの両方を処理できる。 ベイズ最適化文献,画像やタンパク質設計に対する高次元モデルに基づく最適化問題,ログデータからの文脈的バンディット最適化からタスクのminを評価する。

In this work, we aim to solve data-driven optimization problems, where the goal is to find an input that maximizes an unknown score function given access to a dataset of inputs with corresponding scores. When the inputs are high-dimensional and valid inputs constitute a small subset of this space (e.g., valid protein sequences or valid natural images), such model-based optimization problems become exceptionally difficult, since the optimizer must avoid out-of-distribution and invalid inputs. We propose to address such problem with model inversion networks (MINs), which learn an inverse mapping from scores to inputs. MINs can scale to high-dimensional input spaces and leverage offline logged data for both contextual and non-contextual optimization problems. MINs can also handle both purely offline data sources and active data collection. We evaluate MINs on tasks from the Bayesian optimization literature, high-dimensional model-based optimization problems over images and protein designs, and contextual bandit optimization from logged data.
翻訳日:2023-01-16 20:24:52 公開日:2019-12-31
# 報酬条件付政策

Reward-Conditioned Policies ( http://arxiv.org/abs/1912.13465v1 )

ライセンス: Link先を確認
Aviral Kumar, Xue Bin Peng, Sergey Levine(参考訳) 強化学習は複雑な行動スキルの獲得を自動化することを約束する。 しかし、一般的によく知られた教師付き学習方法に比べ、強化学習アルゴリズムは不安定であり、使用とチューニングが難しく、一見無害な実装決定に敏感である。 対照的に、模倣学習は標準的かつ十分に理解された教師付き学習手法を用いるが、ほぼ最適のエキスパートデータを必要とする。 実演なしで指導的学習を通じて効果的な政策を学べるか? この研究で検討する主な考え方は、最適でない政策から集めた非専門的な軌道は、報酬の最大化ではなく、与えられた軌道の報酬の一致のために最適な監督と見なせることである。 すると、報酬の数値にポリシーを条件付けすることで、より大きなリターンに一般化するポリシーを得ることができる。 このような手法を政策探索の原則的手法として導出し、いくつかの変種を議論し、その手法を標準ベンチマーク上の様々な強化学習手法と実験的に比較する方法を示す。

Reinforcement learning offers the promise of automating the acquisition of complex behavioral skills. However, compared to commonly used and well-understood supervised learning methods, reinforcement learning algorithms can be brittle, difficult to use and tune, and sensitive to seemingly innocuous implementation decisions. In contrast, imitation learning utilizes standard and well-understood supervised learning methods, but requires near-optimal expert data. Can we learn effective policies via supervised learning without demonstrations? The main idea that we explore in this work is that non-expert trajectories collected from sub-optimal policies can be viewed as optimal supervision, not for maximizing the reward, but for matching the reward of the given trajectory. By then conditioning the policy on the numerical value of the reward, we can obtain a policy that generalizes to larger returns. We show how such an approach can be derived as a principled method for policy search, discuss several variants, and compare the method experimentally to a variety of current reinforcement learning methods on standard benchmarks.
翻訳日:2023-01-16 20:24:35 公開日:2019-12-31
# 深層ニューラルネットワークにおける景観解析の再検討:無限小への減少経路の排除

Revisiting Landscape Analysis in Deep Neural Networks: Eliminating Decreasing Paths to Infinity ( http://arxiv.org/abs/1912.13472v1 )

ライセンス: Link先を確認
Shiyu Liang, Ruoyu Sun and R. Srikant(参考訳) ディープニューラルネットワークの伝統的なランドスケープ分析は、特定の意味で最適な局所最小値が存在しないことを示すことを目的としている。 このことから、サドル点から逃れる降下アルゴリズムが良い局所最小値に達すると結論付ける誘惑があるかもしれない。 しかし、基本最適化理論は、損失関数が減少する無限小への経路が存在する場合、降下アルゴリズムが無限小に分岐することも可能であることを示唆している。 非線形ニューラルネットワークには、悪い局所ミンと無限への縮小経路を同時に達成できない1つの設定が存在するかどうかは不明である。 本稿では,この問題に対する最初の肯定的な回答を示す。 より具体的には、適切な正規化子を持つ大規模な超パラメータ深層ニューラルネットワークでは、損失関数は悪質な局所的ミニマではなく、無限大への縮小パスも持たない。 鍵となる数学的トリックは、望ましくないであろう正規化子の集合が、低次元ユークリッド空間から高次元ユークリッド空間へのリプシッツ連続写像の像と見なすことができ、従って測度がゼロであることを示すことである。

Traditional landscape analysis of deep neural networks aims to show that no sub-optimal local minima exist in some appropriate sense. From this, one may be tempted to conclude that descent algorithms which escape saddle points will reach a good local minimum. However, basic optimization theory tell us that it is also possible for a descent algorithm to diverge to infinity if there are paths leading to infinity, along which the loss function decreases. It is not clear whether for non-linear neural networks there exists one setting that no bad local-min and no decreasing paths to infinity can be simultaneously achieved. In this paper, we give the first positive answer to this question. More specifically, for a large class of over-parameterized deep neural networks with appropriate regularizers, the loss function has no bad local minima and no decreasing paths to infinity. The key mathematical trick is to show that the set of regularizers which may be undesirable can be viewed as the image of a Lipschitz continuous mapping from a lower-dimensional Euclidean space to a higher-dimensional Euclidean space, and thus has zero measure.
翻訳日:2023-01-16 20:24:17 公開日:2019-12-31
# 深層ニューラルネットワークの知識蒸留における教師・生徒のモデリング

Modeling Teacher-Student Techniques in Deep Neural Networks for Knowledge Distillation ( http://arxiv.org/abs/1912.13179v1 )

ライセンス: Link先を確認
Sajjad Abbasi, Mohsen Hajabdollahi, Nader Karimi, Shadrokh Samavi(参考訳) 知識蒸留(KD)は、学習中の構造物の知識を別のものに移す新しい方法である。 KDの典型的な応用は、複雑なモデル(教師と呼ばれる)によって生成されるソフトラベルによって小さなモデル(学生と呼ばれる)を学習する形式である。 kdで導入された斬新なアイデアのため、近年では圧縮やモデルの精度を高めるプロセスといった様々な手法でその概念が使われている。 kdの領域では異なる手法が提案されているが、kd技術を一般化するモデルがない。 本稿では,KDの一般モデルを構築するために,KDの範囲に関する様々な研究を調査し,分析する。 kdのすべてのメソッドとテクニックは、提案モデルを通じて要約することができる。 提案モデルを用いて,KDの異なる手法をよりよく検討し,検討した。 KDにおける異なるアプローチの利点とデメリットをよりよく理解し、KDの新しい戦略を開発することが可能である。 提案したモデルを用いて、異なるKDメソッドを抽象ビューで表現する。

Knowledge distillation (KD) is a new method for transferring knowledge of a structure under training to another one. The typical application of KD is in the form of learning a small model (named as a student) by soft labels produced by a complex model (named as a teacher). Due to the novel idea introduced in KD, recently, its notion is used in different methods such as compression and processes that are going to enhance the model accuracy. Although different techniques are proposed in the area of KD, there is a lack of a model to generalize KD techniques. In this paper, various studies in the scope of KD are investigated and analyzed to build a general model for KD. All the methods and techniques in KD can be summarized through the proposed model. By utilizing the proposed model, different methods in KD are better investigated and explored. The advantages and disadvantages of different approaches in KD can be better understood and develop a new strategy for KD can be possible. Using the proposed model, different KD methods are represented in an abstract view.
翻訳日:2023-01-16 20:23:47 公開日:2019-12-31
# 帯域制限付きビデオ検索のためのHMM誘導型フレームクエリ

HMM-guided frame querying for bandwidth-constrained video search ( http://arxiv.org/abs/2001.00057v1 )

ライセンス: Link先を確認
Bhairav Chidambaram, Mason McGill, Pietro Perona(参考訳) 遠隔サーバに格納されたビデオのフレームを,帯域幅制約下で検索するエージェントを設計する。 畳み込みニューラルネットワークを用いて、個々のフレームと隠れマルコフモデルを用いて、フレーム間の予測を伝達し、スパースで戦略的にサンプリングされたフレームに基づいて時間的関心領域を正確に同定する。 ImageNet-VIDデータセットのサブセットでは、フレームスコア間の補間に隠れマルコフモデルを用いることで、フレームの98%の要求を、フレーム・オブ・関心分類の精度を損なうことなく省略できることを示した。

We design an agent to search for frames of interest in video stored on a remote server, under bandwidth constraints. Using a convolutional neural network to score individual frames and a hidden Markov model to propagate predictions across frames, our agent accurately identifies temporal regions of interest based on sparse, strategically sampled frames. On a subset of the ImageNet-VID dataset, we demonstrate that using a hidden Markov model to interpolate between frame scores allows requests of 98% of frames to be omitted, without compromising frame-of-interest classification accuracy.
翻訳日:2023-01-16 20:23:33 公開日:2019-12-31
# Laughter Occurrences を用いたトピック構造用ハイブリッドフレームワーク

A Hybrid Framework for Topic Structure using Laughter Occurrences ( http://arxiv.org/abs/2001.00573v1 )

ライセンス: Link先を確認
Sucheta Ghosh(参考訳) 会話談話の一貫性は言語現象とパラ言語現象の両方に依存する。 この作業では、パラ言語的知識と言語的知識を多段階階層を通してハイブリッドフレームワークに組み合わせます。 これにより、談話レベルのトピック構造が出力される。 笑いはICSIデータベースの多人数会議記録からパラ言語情報として使用される。 階層的集約クラスタリングと$K$-medoidsという2つの独立した最適化クラスタから、最高のトピックセグメンテーションクラスタを選択するクラスタリングベースのアルゴリズムを提案する。 その後、既存の語彙結合ベースのベイズトピックセグメンテーションフレームワークと反復的にハイブリダイゼーションされる。 ハイブリッドアプローチは、両方のスタンドアローンアプローチのパフォーマンスを改善する。 これにより、話題構造と談話関係構造との相互作用に関する簡単な研究が導かれる。 このトレーニングフリーなトピック構造化アプローチは、音声対話のオンライン理解に適用できる。

Conversational discourse coherence depends on both linguistic and paralinguistic phenomena. In this work we combine both paralinguistic and linguistic knowledge into a hybrid framework through a multi-level hierarchy. Thus it outputs the discourse-level topic structures. The laughter occurrences are used as paralinguistic information from the multiparty meeting transcripts of ICSI database. A clustering-based algorithm is proposed that chose the best topic-segment cluster from two independent, optimized clusters, namely, hierarchical agglomerative clustering and $K$-medoids. Then it is iteratively hybridized with an existing lexical cohesion based Bayesian topic segmentation framework. The hybrid approach improves the performance of both of the stand-alone approaches. This leads to the brief study of interactions between topic structures with discourse relational structure. This training-free topic structuring approach can be applicable to online understanding of spoken dialogs.
翻訳日:2023-01-16 20:23:20 公開日:2019-12-31
# 各種機械学習アルゴリズムによるKDDCup99とNSL-KDD IoTネットワーク侵入検出データセットのロバスト比較

A Robust Comparison of the KDDCup99 and NSL-KDD IoT Network Intrusion Detection Datasets Through Various Machine Learning Algorithms ( http://arxiv.org/abs/1912.13204v1 )

ライセンス: Link先を確認
Suchet Sapre, Pouyan Ahmadi and Khondkar Islam(参考訳) 近年、IoTネットワークへの侵入攻撃が指数関数的に増加しているため、高度な侵入検知システム(IDS)がすぐに必要である。 現在のIDSの大部分はデータ駆動であり、この領域で最も重要な側面の1つは、IoTネットワークトラフィックから取得したデータの品質である。 最も引用されている侵入検知データセットはKDDCup99とNSL-KDDである。 このプロジェクトの主な目的は、機械学習(ML)分類器のパフォーマンスを、以前の研究者よりも大きな分類基準で評価することで、両方のデータセットを堅牢に比較することであった。 我々の研究から、NSL-KDDデータセットは、トレーニングされた分類器が平均20.18%精度が低いため、KDDCup99データセットよりも高品質であると結論付けることができた。 これは、KDDCup99データセットでトレーニングされた分類器が内部の冗長性に偏りを示し、より高い精度を達成できたためである。

In recent years, as intrusion attacks on IoT networks have grown exponentially, there is an immediate need for sophisticated intrusion detection systems (IDSs). A vast majority of current IDSs are data-driven, which means that one of the most important aspects of this area of research is the quality of the data acquired from IoT network traffic. Two of the most cited intrusion detection datasets are the KDDCup99 and the NSL-KDD. The main goal of our project was to conduct a robust comparison of both datasets by evaluating the performance of various Machine Learning (ML) classifiers trained on them with a larger set of classification metrics than previous researchers. From our research, we were able to conclude that the NSL-KDD dataset is of a higher quality than the KDDCup99 dataset as the classifiers trained on it were on average 20.18% less accurate. This is because the classifiers trained on the KDDCup99 dataset exhibited a bias towards the redundancies within it, allowing them to achieve higher accuracies.
翻訳日:2023-01-16 20:23:10 公開日:2019-12-31
# 線形時間論理仕様のためのニューラルガイドプログラム合成に向けて

Towards Neural-Guided Program Synthesis for Linear Temporal Logic Specifications ( http://arxiv.org/abs/1912.13430v1 )

ライセンス: Link先を確認
Alberto Camacho, Sheila A. McIlraith(参考訳) 論理仕様を実現するプログラムの合成は、コンピュータ科学における古典的な問題である。 そこで本研究では,すべての実行が線形時相論理(ltl)仕様を満たすことを保証しつつ,潜在的に敵対的な環境に反応する戦略を合成することを目的としている。 残念ながら、論理推論によるいわゆるLTL合成の正確な解法はスケールしない。 本研究では,LTL合成を最適化問題として用いた。 ニューラルネットワークを用いてQ-関数を学習し、探索を誘導し、その後正当性を検証したプログラムを構築する。 提案手法は,LTL合成を実現するために,検索とディープラーニングを組み合わせることに特有である。 我々の実験では、学習されたQ-関数は比較的小さな仕様で合成問題の効果的なガイダンスを提供する。

Synthesizing a program that realizes a logical specification is a classical problem in computer science. We examine a particular type of program synthesis, where the objective is to synthesize a strategy that reacts to a potentially adversarial environment while ensuring that all executions satisfy a Linear Temporal Logic (LTL) specification. Unfortunately, exact methods to solve so-called LTL synthesis via logical inference do not scale. In this work, we cast LTL synthesis as an optimization problem. We employ a neural network to learn a Q-function that is then used to guide search, and to construct programs that are subsequently verified for correctness. Our method is unique in combining search with deep learning to realize LTL synthesis. In our experiments the learned Q-function provides effective guidance for synthesis problems with relatively small specifications.
翻訳日:2023-01-16 20:15:47 公開日:2019-12-31
# フォークソノミー駆動相互作用からの創発的行動

Emergent Behaviors from Folksonomy Driven Interactions ( http://arxiv.org/abs/2001.00569v1 )

ライセンス: Link先を確認
Massimiliano Dal Mas(参考訳) ウェブ上での知識の進化を反映するために,本論文では,人相を表現するための「Folksodriven」と呼ばれる新しい概念構造に基づき,人相に基づくオントロジーを考察する。 本稿では,集団行動に繋がる人為的タグインタラクションを研究するための研究プログラムについて述べる。 本研究の目的は,Folksodriven tag 上での群挙動を複雑かつ純粋に生成する,単純な局所的相互作用のタイプを理解することである。 様々な社会的相互作用や文化シナリオをFolksodriven Tatsを用いて設計・テストし,グループ行動を研究するための総合的ボトムアップアプローチについて述べる。 本稿では,創発的グループ行動の設計と解析の両方のプロセスの構築と簡略化に使用できる基本的な相互作用のセットを提案する。 提示した行動レパートリーを民謡環境で開発・テストした。

To reflect the evolving knowledge on the Web this paper considers ontologies based on folksonomies according to a new concept structure called "Folksodriven" to represent folksonomies. This paper describes a research program for studying Folksodriven tags interactions leading to Folksodriven cluster behavior. The goal of the research is to understand the type of simple local interactions which produce complex and purposive group behaviors on Folksodriven tags. We describe a synthetic, bottom-up approach to studying group behavior, consisting of designing and testing a variety of social interactions and cultural scenarios with Folksodriven tags. We propose a set of basic interactions which can be used to structure and simplify the process of both designing and analyzing emergent group behaviors. The presented behavior repertories was developed and tested on a folksonomy environment.
翻訳日:2023-01-16 20:15:17 公開日:2019-12-31
# 広範学習システムのための効率的な分数学習アルゴリズム

Efficient Decremental Learning Algorithms for Broad Learning System ( http://arxiv.org/abs/1912.13169v1 )

ライセンス: Link先を確認
Hufei Zhu(参考訳) 不要な学習アルゴリズムは、冗長なノードを敬遠し、廃れたインライントレーニングサンプルを削除するために、機械学習で必要となる。 本稿では、追加ノードの[9]に提案された増分学習アルゴリズム1から冗長ノードをプルーする効率的な復分学習アルゴリズムを導出し、[10]に提案した2つの増分学習アルゴリズムからトレーニングサンプルを除去する2つの復分学習アルゴリズムを導出する。 削減ノードに対する復調学習アルゴリズムは、尾根内のHerminia行列の逆コレステロール因子を用いて、[9]に加算ノードに対する増分学習アルゴリズム1として出力重みを再帰的に更新し、逆コレステロール因子をユニタリ変換で更新する。 入力を減少させる除算学習アルゴリズム1は、尾根逆数におけるHerminia行列の逆数と再帰的に出力重みを更新し、[10]に入力を追加するインクリメンタル学習アルゴリズム1として逆転的に更新する。

The decremented learning algorithms are required in machine learning, to prune redundant nodes and remove obsolete inline training samples. In this paper, an efficient decremented learning algorithm to prune redundant nodes is deduced from the incremental learning algorithm 1 proposed in [9] for added nodes, and two decremented learning algorithms to remove training samples are deduced from the two incremental learning algorithms proposed in [10] for added inputs. The proposed decremented learning algorithm for reduced nodes utilizes the inverse Cholesterol factor of the Herminia matrix in the ridge inverse, to update the output weights recursively, as the incremental learning algorithm 1 for added nodes in [9], while that inverse Cholesterol factor is updated with an unitary transformation. The proposed decremented learning algorithm 1 for reduced inputs updates the output weights recursively with the inverse of the Herminia matrix in the ridge inverse, and updates that inverse recursively, as the incremental learning algorithm 1 for added inputs in [10].
翻訳日:2023-01-16 20:14:46 公開日:2019-12-31
# オンライン分散分散最小化による同次オンライントランスファー学習

Homogeneous Online Transfer Learning with Online Distribution Discrepancy Minimization ( http://arxiv.org/abs/1912.13226v1 )

ライセンス: Link先を確認
Yuntao Du, Zhiwen Tan, Qian Chen, Yi Zhang, Chongjun Wang(参考訳) 転送学習は、関連するが異なるソースドメインからの知識を対象ドメインに転送する多様なアプリケーションにおいて成功し、必須であることが示されている。 オンライン転送学習(OTL)は、ターゲットデータがオンラインに到着するより困難な問題である。 ほとんどのotlメソッドはソース分類器とターゲット分類器を直接結合し、各分類器に重みを割り当て、重みを常に調整する。 しかし、これらの手法はドメイン間の分布差を減らすことにはほとんど注意を払わない。 本稿では,新しい特徴表現の探索を目的とした新しいオンライントランスファー学習手法を提案する。 複数のソースドメインによるオンライントランスファー学習に注力し、Hedge戦略を用いてソースドメインからの知識を活用する。 提案するアルゴリズムの理論的性質を解析し,上限値を与える。 2つの実世界のデータセットに関する包括的実験により、この手法は最先端の手法よりも大きなマージンで優れていることが示された。

Transfer learning has been demonstrated to be successful and essential in diverse applications, which transfers knowledge from related but different source domains to the target domain. Online transfer learning(OTL) is a more challenging problem where the target data arrive in an online manner. Most OTL methods combine source classifier and target classifier directly by assigning a weight to each classifier, and adjust the weights constantly. However, these methods pay little attention to reducing the distribution discrepancy between domains. In this paper, we propose a novel online transfer learning method which seeks to find a new feature representation, so that the marginal distribution and conditional distribution discrepancy can be online reduced simultaneously. We focus on online transfer learning with multiple source domains and use the Hedge strategy to leverage knowledge from source domains. We analyze the theoretical properties of the proposed algorithm and provide an upper mistake bound. Comprehensive experiments on two real-world datasets show that our method outperforms state-of-the-art methods by a large margin.
翻訳日:2023-01-16 20:14:24 公開日:2019-12-31
# 異なる行動基準を持つ深層学習システムの自動テスト

Automated Testing for Deep Learning Systems with Differential Behavior Criteria ( http://arxiv.org/abs/1912.13258v1 )

ライセンス: Link先を確認
Yuan Gao, Yiqiang Han(参考訳) 本研究では,異なる行動基準に基づく深層学習システムのための自動テストシステムの構築について検討した。 自動テストの目標は、テスト中のモデルからの差分行動の最大化と、ニューロンのカバレッジの最大化の2つの目的関数を共同で最適化することで達成された。 テストイテレーション毎に3つの事前学習モデルの差動挙動を観察することにより,誤フィードバックを誘発する入力画像をコーナーケースとして登録した。 生成されたコーナーケースは、DNNのロバスト性を調べ、結果としてモデルの精度を向上させるために使用できる。 DeepXploreと呼ばれるプロジェクトもベースラインモデルとして使用された。 ベースラインシステムを完全に実装して最適化した後、新たに生成されたコーナーケースによる強化トレーニングデータセットとして、そのアプリケーションを調査した。 GTRSBデータセットでは、自動生成されたコーナーケースに基づいてモデルをトレーニングすることで、3つのジェネリックモデルの精度がそれぞれ259.2%、53.6%、58.3%向上した。 さらに,自動テストの能力を高めるために,ディファレンシャルな行動基準に基づいて,ディープラーニングシステムのためのフォトリアリスティックな画像を生成する方法を検討した。 ひとつのアプローチは、ディープラーニングフレームワークのシードイメージにさまざまな変換を適用することだった。 もうひとつのアプローチは,MNIST と Driving データセット上に実装されたGenerative Adversarial Networks (GAN) 技術を利用することであった。 スタイル転送機能は、視覚効果の追加、画像要素の置き換え、スタイルシフト(仮想イメージを実画像に置き換える)に非常に効果的である。 GANベースのテストサンプル生成システムは、ディープラーニングシステムの自動テストの次のフロンティアであることが示されている。

In this work, we conducted a study on building an automated testing system for deep learning systems based on differential behavior criteria. The automated testing goals were achieved by jointly optimizing two objective functions: maximizing differential behaviors from models under testing and maximizing neuron coverage. By observing differential behaviors from three pre-trained models during each testing iteration, the input image that triggered erroneous feedback was registered as a corner-case. The generated corner-cases can be used to examine the robustness of DNNs and consequently improve model accuracy. A project called DeepXplore was also used as a baseline model. After we fully implemented and optimized the baseline system, we explored its application as an augmenting training dataset with newly generated corner cases. With the GTRSB dataset, by retraining the model based on automated generated corner cases, the accuracy of three generic models increased by 259.2%, 53.6%, and 58.3%, respectively. Further, to extend the capability of automated testing, we explored other approaches based on differential behavior criteria to generate photo-realistic images for deep learning systems. One approach was to apply various transformations to the seed images for the deep learning framework. The other approach was to utilize the Generative Adversarial Networks (GAN) technique, which was implemented on MNIST and Driving datasets. The style transferring capability has been observed very effective in adding additional visual effects, replacing image elements, and style-shifting (virtual image to real images). The GAN-based testing sample generation system was shown to be the next frontier for automated testing for deep learning systems.
翻訳日:2023-01-16 20:14:10 公開日:2019-12-31
# 順序付け学習のための深層注意ランキングネットワーク

Deep Attentive Ranking Networks for Learning to Order Sentences ( http://arxiv.org/abs/2001.00056v1 )

ライセンス: Link先を確認
Pawan Kumar, Dhanajit Brahma, Harish Karnick, Piyush Rai(参考訳) 文の順序を学習するための注意に基づくランキングフレームワークを提案する。 本手法は,双方向文エンコーダと自己接続に基づくトランスフォーマネットワークを基盤とし,段落の入力順序不変表現を得る。 さらに、ポイントワイズ、ペアワイズ、リストワイズランキングなど、さまざまなランキングベースの損失関数を使用したシームレスなトレーニングが可能になる。 文の順序付けと順序識別という2つのタスクにフレームワークを適用します。 当社のフレームワークは,これらのタスクにおいて,さまざまな評価指標で最先端のメソッドよりも優れています。 また,2つ以上の文の相対的な位置を損失関数に組み込むことが,よりよい学習に寄与することを示唆する。

We present an attention-based ranking framework for learning to order sentences given a paragraph. Our framework is built on a bidirectional sentence encoder and a self-attention based transformer network to obtain an input order invariant representation of paragraphs. Moreover, it allows seamless training using a variety of ranking based loss functions, such as pointwise, pairwise, and listwise ranking. We apply our framework on two tasks: Sentence Ordering and Order Discrimination. Our framework outperforms various state-of-the-art methods on these tasks on a variety of evaluation metrics. We also show that it achieves better results when using pairwise and listwise ranking losses, rather than the pointwise ranking loss, which suggests that incorporating relative positions of two or more sentences in the loss function contributes to better learning.
翻訳日:2023-01-16 20:06:30 公開日:2019-12-31
# ニューラルネットワークを用いた公平性のための半教師付き学習の活用

Leveraging Semi-Supervised Learning for Fairness using Neural Networks ( http://arxiv.org/abs/1912.13230v1 )

ライセンス: Link先を確認
Vahid Noroozi, Sara Bahaadini, Samira Sheikhi, Nooshin Mojab, Philip S. Yu(参考訳) 機械学習に基づく意思決定システムの公平性に対する懸念が高まっている。 ラベル付きデータの不足は常に、機械学習ベースのシステムで直面する課題である。 このようなシナリオでは、半教師付き学習はラベルなしのデータを利用してモデルの性能を改善する効果的な方法であることが示されている。 特に、ラベルなしデータは、機械学習システムのトレーニングにおいて重要なバイアス源となるラベル情報を含んでいない。 これにより、半教師付きフレームワークで問題を定式化することで、公正性の課題に取り組むことができました。 本稿では,ラベルのないデータから得られるニューラルネットワークを用いた半教師付きアルゴリズムを提案する。 提案モデルはssfairと呼ばれ、ラベルのないデータ内の情報を活用し、トレーニングデータのバイアスを軽減する。

There has been a growing concern about the fairness of decision-making systems based on machine learning. The shortage of labeled data has been always a challenging problem facing machine learning based systems. In such scenarios, semi-supervised learning has shown to be an effective way of exploiting unlabeled data to improve upon the performance of model. Notably, unlabeled data do not contain label information which itself can be a significant source of bias in training machine learning systems. This inspired us to tackle the challenge of fairness by formulating the problem in a semi-supervised framework. In this paper, we propose a semi-supervised algorithm using neural networks benefiting from unlabeled data to not just improve the performance but also improve the fairness of the decision-making process. The proposed model, called SSFair, exploits the information in the unlabeled data to mitigate the bias in the training data.
翻訳日:2023-01-16 20:06:18 公開日:2019-12-31
# モチベーションとオープンエンド学習

Intrinsic motivations and open-ended learning ( http://arxiv.org/abs/1912.13263v1 )

ライセンス: Link先を確認
Gianluca Baldassarre(参考訳) 認知ロボティクスと機械学習の両方と、心理学と神経科学の両方において、本質的な動機づけとオープンエンドの学習に関する興味と文学が高まっている。 本稿は,2つの文献スレッドから関連する貢献をレビューし,それらの間のリンクを描くことを目的とする。 この目的のために,本論文は本質的な動機を定義し,異なるタイプの計算駆動理論分類を提示することから始まる。 そして、本質的なモチベーションに関連する心理学や神経科学の文献から関連する貢献を示し、それをグリッドに基づいて解釈し、動物や人間に作用するメカニズムと機能を解明する。 このような概念と生物学的基盤を取り入れた本論文では、認知ロボティクスと機械学習からモデルを選択し、本質的なモチベーションの概念を計算的に運用し、それらと生物学の概念を結びつける。 この貢献は最終的に、心理学/神経科学と計算の両面から、この分野のオープンな課題をいくつか提示する。

There is a growing interest and literature on intrinsic motivations and open-ended learning in both cognitive robotics and machine learning on one side, and in psychology and neuroscience on the other. This paper aims to review some relevant contributions from the two literature threads and to draw links between them. To this purpose, the paper starts by defining intrinsic motivations and by presenting a computationally-driven theoretical taxonomy of their different types. Then it presents relevant contributions from the psychological and neuroscientific literature related to intrinsic motivations, interpreting them based on the grid, and elucidates the mechanisms and functions they play in animals and humans. Endowed with such concepts and their biological underpinnings, the paper next presents a selection of models from cognitive robotics and machine learning that computationally operationalise the concepts of intrinsic motivations and links them to biology concepts. The contribution finally presents some of the open challenges of the field from both the psychological/neuroscientific and computational perspectives.
翻訳日:2023-01-16 20:06:05 公開日:2019-12-31
# 深層強化学習における不確実性に基づく分布外分類

Uncertainty-Based Out-of-Distribution Classification in Deep Reinforcement Learning ( http://arxiv.org/abs/2001.00496v1 )

ライセンス: Link先を確認
Andreas Sedlmeier, Thomas Gabor, Thomy Phan, Lenz Belzner, Claudia Linnhoff-Popien(参考訳) アウト・オブ・ディストリビューション(OOD)データに対するロバストさは、信頼できる機械学習システムを構築する上で重要な目標である。 特に自律システムでは、OOD入力の誤った予測が安全上の問題を引き起こす可能性がある。 解への第一歩として、値ベース深部強化学習(RL)設定でそのようなデータを検出する問題を考える。 この問題を一級分類問題としてモデル化し,不確実性に基づくood分類の枠組みであるuboodを提案する。 これは、トレーニング中に遭遇した状況(配信中)において、エージェントの疫学的不確実性が減少し、その結果、未報告(OOD)の状況よりも低い効果に基づいている。 認識的不確実性の推定に使用されるアプローチに無知であることから、近似ベイズ推定法やセンシング法のような異なる不確実性推定法との組み合わせが可能である。 さらに、トレーニングデータの不確実性分布に基づいて、動的分類しきい値を計算するための最初の実行可能なソリューションを提案する。 評価の結果,本フレームワークはアンサンブルに基づく推定器と組み合わせて信頼性の高い分類結果を生成する一方で,コンクリートドロップアウトに基づく推定器と組み合わせてもOODの状況を確実に検出できないことがわかった。 要約すると、UBOODは、エージェントの値関数の疫学的不確実性を活用することにより、深いRL設定におけるOOD分類のための実行可能なアプローチを示す。

Robustness to out-of-distribution (OOD) data is an important goal in building reliable machine learning systems. Especially in autonomous systems, wrong predictions for OOD inputs can cause safety critical situations. As a first step towards a solution, we consider the problem of detecting such data in a value-based deep reinforcement learning (RL) setting. Modelling this problem as a one-class classification problem, we propose a framework for uncertainty-based OOD classification: UBOOD. It is based on the effect that an agent's epistemic uncertainty is reduced for situations encountered during training (in-distribution), and thus lower than for unencountered (OOD) situations. Being agnostic towards the approach used for estimating epistemic uncertainty, combinations with different uncertainty estimation methods, e.g. approximate Bayesian inference methods or ensembling techniques are possible. We further present a first viable solution for calculating a dynamic classification threshold, based on the uncertainty distribution of the training data. Evaluation shows that the framework produces reliable classification results when combined with ensemble-based estimators, while the combination with concrete dropout-based estimators fails to reliably detect OOD situations. In summary, UBOOD presents a viable approach for OOD classification in deep RL settings by leveraging the epistemic uncertainty of the agent's value function.
翻訳日:2023-01-16 20:05:32 公開日:2019-12-31
# 画像からユーザインタフェース属性を推測する学習

Learning to Infer User Interface Attributes from Images ( http://arxiv.org/abs/1912.13243v1 )

ライセンス: Link先を確認
Philippe Schlattner, Pavol Bielik, Martin Vechev(参考訳) 我々は、開発者がユーザーインターフェイスの実装プロセスを自動化するのに役立つユーザーインターフェイス属性を推論する新しい学習領域を探求する。 具体的には、デザイナが作成した入力画像から、描画時に視覚的に入力画像と同じように見える実装を推測することを学ぶ。 これを実現するために、ブラックボックスレンダリングエンジンとそれをサポートする属性セット(色、境界半径、シャドウ、テキストプロパティなど)を取り、適切な合成トレーニングデータセットを生成するためにそれを使用し、その属性値を予測するために、特殊なニューラルネットワークモデルをトレーニングします。 画素レベルの精度を向上させるため,我々は,画素値の差ではなく,原画像と描画画像の類似性を計算することを学ぶことにより,予測属性値を洗練するニューラルポリシーの訓練に模倣学習を用いる。 現実のGoogle Play Storeアプリケーションからなるデータセット上で、Android Button属性値を推測するタスクへのアプローチをインスタンス化し、92.5%の精度を達成する。

We explore a new domain of learning to infer user interface attributes that helps developers automate the process of user interface implementation. Concretely, given an input image created by a designer, we learn to infer its implementation which when rendered, looks visually the same as the input image. To achieve this, we take a black box rendering engine and a set of attributes it supports (e.g., colors, border radius, shadow or text properties), use it to generate a suitable synthetic training dataset, and then train specialized neural models to predict each of the attribute values. To improve pixel-level accuracy, we additionally use imitation learning to train a neural policy that refines the predicted attribute values by learning to compute the similarity of the original and rendered images in their attribute space, rather than based on the difference of pixel values. We instantiate our approach to the task of inferring Android Button attribute values and achieve 92.5% accuracy on a dataset consisting of real-world Google Play Store applications.
翻訳日:2023-01-16 20:05:08 公開日:2019-12-31