このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。



PDF登録状況(公開日: 20200129)

# キャビティマグノニクスにおける散逸結合

Dissipative couplings in cavity magnonics ( http://arxiv.org/abs/2001.00978v2 )

ライセンス: Link先を確認
Yi-Pu Wang and Can-Ming Hu(参考訳) キャビティ・マグノニクス(Cavity Magnonics)は、キャビティ光子とマグノンのような集合スピン励起との強い結合を研究する分野である。 この急速に発展する分野は、量子情報や量子光学といった現代物理学の最もエキサイティングな分野と、地球で最も古い科学の一つである磁気学とをつないでいる。 過去数年間、新しいマグノンベースのトランスデューサと記憶を実証するエキサイティングな実験が相次いだ。 このような空洞型マグノニックデバイスのほとんどは、直接双極子-双極子相互作用に起因するコヒーレントカップリングに依存している。 近年,異なる消散性マグノン-光子カップリングが発見された。 ハイブリッド化モード間のレベル反発をもたらすコヒーレントカップリングとは対照的に、散逸結合はレベルアトラクションをもたらす。 ハイブリッドシステムの損失をエンジニアリングと活用するための道を開く。 この記事では、この新しいフロンティアについて簡単にレビューする。 レベルアトラクションの実験的観察について概説する。 異なる顕微鏡機構が比較される。 このような実験的・理論的考察に基づき, 分散結合を利用したオープンキャビティシステムの開発について概観する。

Cavity Magnonics is an emerging field that studies the strong coupling between cavity photons and collective spin excitations such as magnons. This rapidly developing field connects some of the most exciting branches of modern physics, such as quantum information and quantum optics, with one of the oldest science on the earth, the magnetism. The past few years have seen a steady stream of exciting experiments that demonstrate novel magnon-based transducers and memories. Most of such cavity magnonic devices rely on coherent coupling that stems from direct dipole-dipole interaction. Recently, a distinct dissipative magnon-photon coupling was discovered. In contrast to coherent coupling that leads to level repulsion between hybridized modes, dissipative coupling results in level attraction. It opens an avenue for engineering and harnessing losses in hybrid systems. This article gives a brief review of this new frontier. Experimental observations of level attraction are reviewed. Different microscopic mechanisms are compared. Based on such experimental and theoretical reviews, we present an outlook for developing open cavity systems by engineering and harnessing dissipative couplings.
翻訳日:2023-01-14 18:12:56 公開日:2020-01-29
# ReluDiff: ディープニューラルネットワークの差分検証

ReluDiff: Differential Verification of Deep Neural Networks ( http://arxiv.org/abs/2001.03662v2 )

ライセンス: Link先を確認
Brandon Paulsen, Jingbo Wang, Chao Wang(参考訳) ディープニューラルネットワークの実用化が進むにつれて、その効率性は重要な問題となっている。 ネットワークのサイズ、エネルギー消費量、計算要件を減らすための圧縮技術はあるが、それらは、精度の損失がないことを実証的に証明するだけでなく、例えば、逆の例がある場合など、圧縮されたネットワークの形式的な保証を欠いている。 Reluplex、ReluVal、DeepPolyといった既存の検証技術は正式な保証を提供するが、2つのネットワークの関係ではなく、1つのネットワークを分析するように設計されている。 このギャップを埋めるために,2つの密接な関連ネットワークの差分検証法を開発した。 提案手法は,高速だが近似的な前方区間解析パスと,所望の特性が検証されるまで反復的に近似を洗練する後方通過からなる。 主なイノベーションは2つあります。 フォワードパスでは、2つのネットワークの構造的および行動的類似性を利用して、2つのネットワークの出力ニューロン間の差異をより正確に束縛する。 後続パスでは、勾配差を利用して、より正確に最も有益な改良を計算します。 実験では,最先端の検証ツールと比較して,桁違いなスピードアップを実現し,既存のツールよりも多くの特性を証明できることを示した。

As deep neural networks are increasingly being deployed in practice, their efficiency has become an important issue. While there are compression techniques for reducing the network's size, energy consumption and computational requirement, they only demonstrate empirically that there is no loss of accuracy, but lack formal guarantees of the compressed network, e.g., in the presence of adversarial examples. Existing verification techniques such as Reluplex, ReluVal, and DeepPoly provide formal guarantees, but they are designed for analyzing a single network instead of the relationship between two networks. To fill the gap, we develop a new method for differential verification of two closely related networks. Our method consists of a fast but approximate forward interval analysis pass followed by a backward pass that iteratively refines the approximation until the desired property is verified. We have two main innovations. During the forward pass, we exploit structural and behavioral similarities of the two networks to more accurately bound the difference between the output neurons of the two networks. Then in the backward pass, we leverage the gradient differences to more accurately compute the most beneficial refinement. Our experiments show that, compared to state-of-the-art verification tools, our method can achieve orders-of-magnitude speedup and prove many more properties than existing tools.
翻訳日:2023-01-12 22:55:35 公開日:2020-01-29
# 深部非直線再構成法

Deep Non-Line-of-Sight Reconstruction ( http://arxiv.org/abs/2001.09067v2 )

ライセンス: Link先を確認
Javier Grau Chopite, Matthias B. Hullin, Michael Wand and Julian Iseringhausen(参考訳) 近年では、直接の視線を超えた撮像方法への関心が高まっている。 最も顕著な方法は時間分解光インパルス応答であり、超短パルスで拡散壁を照らし、超高速時間分解撮像器で複数バウンドの間接反射を観測することで得られる。 しかし、そのようなデータから幾何を再構成することは、相当な計算要求を伴う複雑な非線形逆問題である。 本稿では, コンボリューションフィードフォワードネットワークを用いて, 良好な復元品質を維持しつつ, 効率的に再構築問題を解く。 具体的には、過渡画像を直接深度マップ表現にマッピングする、訓練されたエンドツーエンドのオートエンコーダアーキテクチャを考案する。 トレーニングは、ネットワークのために大量のトレーニングデータを迅速に生成できる3バウンドの間接光輸送のための効率的なトランジェントレンダラを使用して行われる。 本稿では, 各種合成および実験データセットにおける本手法の性能と, 学習データの選択や拡張戦略, アーキテクチャ的特徴への依存性について検討する。 筆者らのフィードフォワードネットワークは,合成データのみに基づいて訓練されているものの,SPADセンサの計測データに一般化し,モデルに基づく再構成手法と競合する結果が得られることを示した。

The recent years have seen a surge of interest in methods for imaging beyond the direct line of sight. The most prominent techniques rely on time-resolved optical impulse responses, obtained by illuminating a diffuse wall with an ultrashort light pulse and observing multi-bounce indirect reflections with an ultrafast time-resolved imager. Reconstruction of geometry from such data, however, is a complex non-linear inverse problem that comes with substantial computational demands. In this paper, we employ convolutional feed-forward networks for solving the reconstruction problem efficiently while maintaining good reconstruction quality. Specifically, we devise a tailored autoencoder architecture, trained end-to-end, that maps transient images directly to a depth map representation. Training is done using an efficient transient renderer for diffuse three-bounce indirect light transport that enables the quick generation of large amounts of training data for the network. We examine the performance of our method on a variety of synthetic and experimental datasets and its dependency on the choice of training data and augmentation strategies, as well as architectural features. We demonstrate that our feed-forward network, even though it is trained solely on synthetic data, generalizes to measured data from SPAD sensors and is able to obtain results that are competitive with model-based reconstruction methods.
翻訳日:2023-01-07 05:17:54 公開日:2020-01-29
# ABCTracker: 複数のオブジェクトを追跡するクラウドベースのアプリケーション

ABCTracker: an easy-to-use, cloud-based application for tracking multiple objects ( http://arxiv.org/abs/2001.10072v2 )

ライセンス: Link先を確認
Lance Rice, Samual Tate, David Farynyk, Joshua Sun, Greg Chism, Daniel Charbonneau, Thomas Fasciano, Anna Dornhaus, and Min C. Shin(参考訳) 視覚マルチオブジェクト追跡は、多くの形態の定量的分析を加速する可能性があり、特に動物集団における運動、行動、社会的相互作用を研究する研究コミュニティにおいてである。 分析スループットが増大する可能性があるが、アクセシビリティ、適応性、正確性、スケーラブルなアプリケーションに関連する複雑さは、既存のトラッキングシステムで発生する。 プロトタイピングとテストを繰り返したことで、複数のオブジェクトを追跡するシステム -- abctracker -- が生まれました。両方のシステムだけでなく、技術的な知識要件にもアクセス可能で、新しいビデオにも簡単に適応でき、自動と半自動のトラッキング機能を組み合わせて正確なトラッキングデータを生成することができます。

Visual multi-object tracking has the potential to accelerate many forms of quantitative analyses, especially in research communities investigating the motion, behavior, or social interactions within groups of animals. Despite its potential for increasing analysis throughput, complications related to accessibility, adaptability, accuracy, or scalable application arise with existing tracking systems. Several iterations of prototyping and testing have led us to a multi-object tracking system -- ABCTracker -- that is: accessible in both system as well as technical knowledge requirements, easily adaptable to new videos, and capable of producing accurate tracking data through a mixture of automatic and semi-automatic tracking features.
翻訳日:2023-01-06 08:25:45 公開日:2020-01-29
# 非拘束バイオメトリック認識:最近のSOCIA研究所の概要 研究

Unconstrained Biometric Recognition: Summary of Recent SOCIA Lab. Research ( http://arxiv.org/abs/2001.09703v2 )

ライセンス: Link先を確認
Varsha Balakrishnan(参考訳) 視覚的な監視状況、すなわち、制約のないデータ取得条件と秘密プロトコルの下で機能するバイオメトリック認識ソリューションの開発は、研究コミュニティの努力の動機となっている。 様々な研究所、学校、研究機関がこの問題を懸念しており、socia: soft computing and image analysis labがある。 ポルトガルのベイラ・インテリア大学は、このような極めて野心的なオートマトンを獲得するための破壊的な解決策を追求する上で、最も活発に活動している大学の一つだ。 本報告は、SOCIAラボの要素による研究成果をまとめたものである。 この10年で 生体認証の分野は 制約のない状態になりました この研究分野に参入したい人のための基礎として使用できるという考え方だ。

The development of biometric recognition solutions able to work in visual surveillance conditions, i.e., in unconstrained data acquisition conditions and under covert protocols has been motivating growing efforts from the research community. Among the various laboratories, schools and research institutes concerned about this problem, the SOCIA: Soft Computing and Image Analysis Lab., of the University of Beira Interior, Portugal, has been among the most active in pursuing disruptive solutions for obtaining such extremely ambitious kind of automata. This report summarises the research works published by elements of the SOCIA Lab. in the last decade in the scope of biometric recognition in unconstrained conditions. The idea is that it can be used as basis for someone wishing to entering in this research topic.
翻訳日:2023-01-06 08:15:26 公開日:2020-01-29
# グラフ近傍の注意プール

Graph Neighborhood Attentive Pooling ( http://arxiv.org/abs/2001.10394v2 )

ライセンス: Link先を確認
Zekarias T. Kefato, Sarunas Girdzijauskas(参考訳) ネットワーク表現学習(NRL)は,高次元およびスパースグラフの低次元ベクトル表現を学習するための強力な手法である。 ほとんどの研究では、ランダムウォークを用いてグラフの構造とメタデータを調べ、教師なしまたは半教師なしの学習スキームを用いる。 これらの方法での学習は、ノードごとの1つの表現のみが学習されるため、文脈自由である。 近年、単一表現の十分性について論じられ、リンク予測やランキングなどのアプリケーションで非常に効果的であることが証明された文脈依存的アプローチが提案されている。 しかし、これらの手法の多くは、高レベルな特徴をキャプチャするためにRNNやCNNを必要とする追加のテキスト機能や、ノードの複数のコンテキストを特定するためにコミュニティ検出アルゴリズムに依存している。 本研究では,追加機能やコミュニティ検出アルゴリズムを必要とせず,注意プールネットワークを用いてノード近傍の異なる部分への出席を学習するgapと呼ばれる新しいコンテキストセンシティブアルゴリズムを提案する。 リンク予測とノードクラスタリングタスクにおける3つの実世界のデータセットを用いたGAPの有効性を示し、それを10の人気のSOTAベースラインと比較する。 GAPはそれらを一貫して上回り、リンク予測とクラスタリングタスクにおける最高のメソッドよりも最大9%、最大20%向上する。

Network representation learning (NRL) is a powerful technique for learning low-dimensional vector representation of high-dimensional and sparse graphs. Most studies explore the structure and metadata associated with the graph using random walks and employ an unsupervised or semi-supervised learning schemes. Learning in these methods is context-free, because only a single representation per node is learned. Recently studies have argued on the sufficiency of a single representation and proposed a context-sensitive approach that proved to be highly effective in applications such as link prediction and ranking. However, most of these methods rely on additional textual features that require RNNs or CNNs to capture high-level features or rely on a community detection algorithm to identify multiple contexts of a node. In this study, without requiring additional features nor a community detection algorithm, we propose a novel context-sensitive algorithm called GAP that learns to attend on different parts of a node's neighborhood using attentive pooling networks. We show the efficacy of GAP using three real-world datasets on link prediction and node clustering tasks and compare it against 10 popular and state-of-the-art (SOTA) baselines. GAP consistently outperforms them and achieves up to ~9% and ~20% gain over the best performing methods on link prediction and clustering tasks, respectively.
翻訳日:2023-01-06 02:26:34 公開日:2020-01-29
# CSNN: 表現学習のための教師なし、バックプロパゲーションなし畳み込みニューラルネットワーク

CSNNs: Unsupervised, Backpropagation-free Convolutional Neural Networks for Representation Learning ( http://arxiv.org/abs/2001.10388v2 )

ライセンス: Link先を確認
Bonifaz Stuhr and J\"urgen Brauer(参考訳) この研究は畳み込みニューラルネットワーク(CNN)と、自己組織化マップ(SOM)とHebbian Learningによるクラスタリングを組み合わせて、教師なしかつバックプロパゲーションのない方法で表現を学習する畳み込み自己組織化ニューラルネットワーク(CSNN)の構築ブロックを提案する。 本手法は,cnnからの従来の畳み込み層の学習を,somの競争学習手順に置き換えると同時に,これらの層間の局所マスクを分離したヘビアン的な学習規則で学習し,フィルタがクラスタリングを通じて学習される際の変動要因の分離問題を克服する。 ビルディングブロックを用いて2つのシンプルなモデルを設計し、バックプロパゲーションを利用する多くのメソッドに匹敵する性能を実現し、Cifar100、Tiny ImageNet、およびバックプロパゲーションフリーなメソッドのためのImageNetの小さなサブセットでベースラインのパフォーマンスを得る。

This work combines Convolutional Neural Networks (CNNs), clustering via Self-Organizing Maps (SOMs) and Hebbian Learning to propose the building blocks of Convolutional Self-Organizing Neural Networks (CSNNs), which learn representations in an unsupervised and Backpropagation-free manner. Our approach replaces the learning of traditional convolutional layers from CNNs with the competitive learning procedure of SOMs and simultaneously learns local masks between those layers with separate Hebbian-like learning rules to overcome the problem of disentangling factors of variation when filters are learned through clustering. We investigate the learned representation by designing two simple models with our building blocks, achieving comparable performance to many methods which use Backpropagation, while we reach comparable performance on Cifar10 and give baseline performances on Cifar100, Tiny ImageNet and a small subset of ImageNet for Backpropagation-free methods.
翻訳日:2023-01-06 02:16:15 公開日:2020-01-29
# WFSTとSeq2seqモデルのためのオーディオ・ビジュアル決定融合

Audio-Visual Decision Fusion for WFST-based and seq2seq Models ( http://arxiv.org/abs/2001.10832v1 )

ライセンス: Link先を確認
Rohith Aralikatti, Sharad Roy, Abhinav Thanda, Dilip Kumar Margam, Pujitha Appan Kandala, Tanay Sharma and Shankar M Venkatesan(参考訳) 雑音条件下では、音声認識システムは高い単語誤り率(WER)に悩まされる。 このような場合、話者唇運動を含む視覚モダリティからの情報が、パフォーマンスの向上に寄与する。 本研究では,音声と視覚のモーダリティから情報を融合する新しい手法を提案する。 これにより、音響モデルと視覚モデルを独立して訓練することができる。 まず、RNN-HMMに基づく音響モデルと視覚モデルを個別に訓練する。 修正されたビタビアルゴリズムを用いて、HMM成分の特別な結合をとることで生成される共通WFSTを用いて復号を行う。 第2に,seq2seq音響モデルと視覚モデルの分離を訓練する。 復号ステップは、共通仮説ビームを維持しながら浅い融合を用いて両モードで同時に実行される。 また,重み付けパラメータを必要とせず,新しいseq2seq融合の結果を示す。 種々のsnrにおいて,提案手法が音響のみに比較して有意な改善をもたらすことを示す。

Under noisy conditions, speech recognition systems suffer from high Word Error Rates (WER). In such cases, information from the visual modality comprising the speaker lip movements can help improve the performance. In this work, we propose novel methods to fuse information from audio and visual modalities at inference time. This enables us to train the acoustic and visual models independently. First, we train separate RNN-HMM based acoustic and visual models. A common WFST generated by taking a special union of the HMM components is used for decoding using a modified Viterbi algorithm. Second, we train separate seq2seq acoustic and visual models. The decoding step is performed simultaneously for both modalities using shallow fusion while maintaining a common hypothesis beam. We also present results for a novel seq2seq fusion without the weighing parameter. We present results at varying SNR and show that our methods give significant improvements over acoustic-only WER.
翻訳日:2023-01-05 21:41:50 公開日:2020-01-29
# クラスタリグレッションのブロック

Blocked Clusterwise Regression ( http://arxiv.org/abs/2001.11130v1 )

ライセンス: Link先を確認
Max Cytrynbaum(参考訳) econometricsの最近の文献では、各断面単位を1次元の離散的潜在型に割り当てることで、パネルデータの観察できない横断的不均一性をモデル化している。 このようなモデルは回帰クラスタリング法による推定と推測を可能にすることが示されている。 本論文は,パネルが有意な離散断面構造を有する場合であっても,本論文で研究したクラスター状不均一性モデルが著しく不明確であることを示す。 この問題に対処するために、各ユニットが異なる共変量に対する応答型を記述する複数の不完全関連潜伏変数を持つことで、離散的不均一性に対する従来のアプローチを一般化する。 モデルのk-meansスタイル推定器の推論結果を提示し,各潜在変数の数値クラスタを共同で選択するための情報基準を策定する。 モンテカルロシミュレーションは理論結果を確認し,推定とモデル選択の有限サンプル性能について直観的に述べる。 また,クラスタ数を過大に指定したクラスタリング理論に寄与し,この設定に対して新たな収束率を導出する。 以上の結果から,クラスタ数が過剰に特定された場合,k平均型推定器では過度に適合する可能性が示唆された。

A recent literature in econometrics models unobserved cross-sectional heterogeneity in panel data by assigning each cross-sectional unit a one-dimensional, discrete latent type. Such models have been shown to allow estimation and inference by regression clustering methods. This paper is motivated by the finding that the clustered heterogeneity models studied in this literature can be badly misspecified, even when the panel has significant discrete cross-sectional structure. To address this issue, we generalize previous approaches to discrete unobserved heterogeneity by allowing each unit to have multiple, imperfectly-correlated latent variables that describe its response-type to different covariates. We give inference results for a k-means style estimator of our model and develop information criteria to jointly select the number clusters for each latent variable. Monte Carlo simulations confirm our theoretical results and give intuition about the finite-sample performance of estimation and model selection. We also contribute to the theory of clustering with an over-specified number of clusters and derive new convergence rates for this setting. Our results suggest that over-fitting can be severe in k-means style estimators when the number of clusters is over-specified.
翻訳日:2023-01-05 21:40:07 公開日:2020-01-29
# A4 : 学習に基づく広告ブロッカー

A4 : Evading Learning-based Adblockers ( http://arxiv.org/abs/2001.10999v1 )

ライセンス: Link先を確認
Shitong Zhu, Zhongjie Wang, Xun Chen, Shasha Li, Umar Iqbal, Zhiyun Qian, Kevin S. Chan, Srikanth V. Krishnamurthy, Zubair Shafiq(参考訳) オンライン広告パブリッシャーによる、従来の広告ブロッカーを回避して利益を得る努力は、実証的に成功した。 その結果、最近、手動でキュレートしたルールではなく機械学習を適用する一連の広告ブロッカーが出現し、facebookのようなソーシャルメディアサイトを含むウェブサイトの広告をブロックするのにより堅牢であることが示されている。 その中でもAdGraphは、おそらく最先端の学習ベースのアドブロッカーだ。 本稿では,AdGraphを回避するために,敵対的な広告サンプルをインテリジェントに作成するツールであるA4を開発する。 制限を受けないと見なされる画像やビデオに対する敵対的なサンプルに関する一般的な研究とは異なり、a4が生成するサンプルは、webページのアプリケーションのセマンティクスを保存したり、実行可能である。 いくつかの実験を通じて、a4はadgraphを約60%バイパスすることができ、これは最先端の攻撃を84.3%というかなりのマージンで上回り、またこれらの摂動によるwebページのビジュアルレイアウトの変更は不可避であることを示している。 a4で提案されたアルゴリズムフレームワークは、同様の要件を持つ他の学習ベースのwebアプリケーションに対する敵意攻撃を改善することにも有望であると考えています。

Efforts by online ad publishers to circumvent traditional ad blockers towards regaining fiduciary benefits, have been demonstrably successful. As a result, there have recently emerged a set of adblockers that apply machine learning instead of manually curated rules and have been shown to be more robust in blocking ads on websites including social media sites such as Facebook. Among these, AdGraph is arguably the state-of-the-art learning-based adblocker. In this paper, we develop A4, a tool that intelligently crafts adversarial samples of ads to evade AdGraph. Unlike the popular research on adversarial samples against images or videos that are considered less- to un-restricted, the samples that A4 generates preserve application semantics of the web page, or are actionable. Through several experiments we show that A4 can bypass AdGraph about 60% of the time, which surpasses the state-of-the-art attack by a significant margin of 84.3%; in addition, changes to the visual layout of the web page due to these perturbations are imperceptible. We envision the algorithmic framework proposed in A4 is also promising in improving adversarial attacks against other learning-based web applications with similar requirements.
翻訳日:2023-01-05 21:39:31 公開日:2020-01-29
# タイムラプスコヒーレントイメージングとディープラーニングを用いた生体細菌の早期検出と分類

Early-detection and classification of live bacteria using time-lapse coherent imaging and deep learning ( http://arxiv.org/abs/2001.10695v1 )

ライセンス: Link先を確認
Hongda Wang, Hatice Ceylan Koydemir, Yunzhe Qiu, Bijie Bai, Yibo Zhang, Yiyin Jin, Sabiha Tok, Enis Cagatay Yilmaz, Esin Gumustekin, Yair Rivenson, Aydogan Ozcan(参考訳) 本稿では,60mmの寒天板内における細菌成長のコヒーレントな顕微鏡像を定期的に捉え,深層ニューラルネットワークを用いて時間経過のホログラムを解析し,細菌成長の迅速検出と対応する種の分類を行う。 水試料中の大腸菌および大腸菌菌(klebsiella aerogenesおよびklebsiella pneumoniae subsp. pneumoniae)の迅速検出により,本システムの性能を実証した。 これらの結果は, 環境保護庁(EPA)が承認した分析法と比較して, 細菌増殖検出時間を12時間以上短縮した。 さらに, 本法は, 7~10時間以内の細菌コロニーの90%を99.2~100%の精度で検出し, 80%の精度で7.6~12時間以内の種を正しく同定した。 培養培地中の試料を前培養することにより, 合計試験時間9時間以内に ~1コロニー形成単位 (cfu)/l の検出限界(lod)を達成した。 この計算細菌検出・分類プラットフォームはコスト効率が高く(試験1回あたり約0.6ドル)、走査速度24cm2/minの高スループットであり、現在アガープレート上で細菌検出に使われている既存の分析手法との統合に非常に適している。 ディープラーニングによって駆動されるこの自動化的で費用対効果の高い生細菌検出プラットフォームは、検出時間を著しく削減し、また、ラベル付けや専門家の必要なしにコロニーの同定を自動化することで、微生物学の幅広い応用に転換することができる。

We present a computational live bacteria detection system that periodically captures coherent microscopy images of bacterial growth inside a 60 mm diameter agar-plate and analyzes these time-lapsed holograms using deep neural networks for rapid detection of bacterial growth and classification of the corresponding species. The performance of our system was demonstrated by rapid detection of Escherichia coli and total coliform bacteria (i.e., Klebsiella aerogenes and Klebsiella pneumoniae subsp. pneumoniae) in water samples. These results were confirmed against gold-standard culture-based results, shortening the detection time of bacterial growth by >12 h as compared to the Environmental Protection Agency (EPA)-approved analytical methods. Our experiments further confirmed that this method successfully detects 90% of bacterial colonies within 7-10 h (and >95% within 12 h) with a precision of 99.2-100%, and correctly identifies their species in 7.6-12 h with 80% accuracy. Using pre-incubation of samples in growth media, our system achieved a limit of detection (LOD) of ~1 colony forming unit (CFU)/L within 9 h of total test time. This computational bacteria detection and classification platform is highly cost-effective (~$0.6 per test) and high-throughput with a scanning speed of 24 cm2/min over the entire plate surface, making it highly suitable for integration with the existing analytical methods currently used for bacteria detection on agar plates. Powered by deep learning, this automated and cost-effective live bacteria detection platform can be transformative for a wide range of applications in microbiology by significantly reducing the detection time, also automating the identification of colonies, without labeling or the need for an expert.
翻訳日:2023-01-05 21:38:53 公開日:2020-01-29
# 患者特異的バイオメカニクスは正確なコンピュータ支援手術画像誘導において臨床的に重要である

Patient Specific Biomechanics Are Clinically Significant In Accurate Computer Aided Surgical Image Guidance ( http://arxiv.org/abs/2001.10717v1 )

ライセンス: Link先を確認
Michael Barrow, Alice Chao, Qizhi He, Sonia Ramamoorthy, Claude Sirlin and Ryan Kastner(参考訳) 拡張現実(Augmented Reality)は、画像ガイド手術(AR IG)において、術前の画像から手術用ランドマークをビデオオーバーレイに融合するために用いられる。 手術の進行とともにランドマークの位置を正確に維持し, 事故による船体損傷を回避し, 患者の安全を確保するためには, 物理シミュレーションが不可欠である。 肝外科では、AR IGシミュレーションの精度は、患者の疾患に特有の剛性の変化をモデル化できないことによって妨げられる。 磁気共鳴エラストグラフィー(MRE)データに基づく患者固有の硬さ変化を解析するための新しい手法を提案する。 我々の知る限りでは、AR IGのランドマーク配置に生体内生体力学的データを用いることを初めて実証する。 この初期の研究では、MREデータ駆動シミュレーションと従来の手法を比較して、ランドマーク配置中の精度に臨床的に有意な差異を示し、さらなる動物モデル試験を動機付けている。

Augmented Reality is used in Image Guided surgery (AR IG) to fuse surgical landmarks from preoperative images into a video overlay. Physical simulation is essential to maintaining accurate position of the landmarks as surgery progresses and ensuring patient safety by avoiding accidental damage to vessels etc. In liver procedures, AR IG simulation accuracy is hampered by an inability to model stiffness variations unique to the patients disease. We introduce a novel method to account for patient specific stiffness variation based on Magnetic Resonance Elastography (MRE) data. To the best of our knowledge we are the first to demonstrate the use of in-vivo biomechanical data for AR IG landmark placement. In this early work, a comparative evaluation of our MRE data driven simulation and the traditional method shows clinically significant differences in accuracy during landmark placement and motivates further animal model trials.
翻訳日:2023-01-05 21:38:20 公開日:2020-01-29
# Virtual KITTI 2

Virtual KITTI 2 ( http://arxiv.org/abs/2001.10773v1 )

ライセンス: Link先を確認
Yohann Cabon, Naila Murray, Martin Humenberger(参考訳) 本稿では、KITTI追跡ベンチマークから5つのシークエンスクローンからなる、よく知られたVirtual KITTIデータセットの更新版を紹介する。 さらにデータセットは、天候条件の変更(霧、雨など)やカメラ構成の変更(例えば15度回転)といった、これらのシーケンスの異なるバリエーションを提供する。 各シーケンスに対して、RGB、深さ、クラスセグメンテーション、インスタンスセグメンテーション、フロー、シーンフローデータを含む複数の画像セットを提供する。 カメラのパラメータやポーズ、車両の位置も利用できる。 データセットのいくつかの機能を示すために、自律運転の分野から最先端のアルゴリズムを使用して、複数の関連する実験を行った。 データセットはhttps://europe.naverlabs.com/Research/Computer-Vision/Proxy-Virtual-Worldsでダウンロードできる。

This paper introduces an updated version of the well-known Virtual KITTI dataset which consists of 5 sequence clones from the KITTI tracking benchmark. In addition, the dataset provides different variants of these sequences such as modified weather conditions (e.g. fog, rain) or modified camera configurations (e.g. rotated by 15 degrees). For each sequence, we provide multiple sets of images containing RGB, depth, class segmentation, instance segmentation, flow, and scene flow data. Camera parameters and poses as well as vehicle locations are available as well. In order to showcase some of the dataset's capabilities, we ran multiple relevant experiments using state-of-the-art algorithms from the field of autonomous driving. The dataset is available for download at https://europe.naverlabs.com/Research/Computer-Vision/Proxy-Virtual-Worlds.
翻訳日:2023-01-05 21:38:02 公開日:2020-01-29
# 低エネルギー低複雑プラットフォームにおける音響イベント検出のためのコンパクトリカレントニューラルネットワーク

Compact recurrent neural networks for acoustic event detection on low-energy low-complexity platforms ( http://arxiv.org/abs/2001.10876v1 )

ライセンス: Link先を確認
Gianmarco Cerutti, Rahul Prasad, Alessio Brutti, and Elisabetta Farella(参考訳) 屋外音響イベントの検出はエキサイティングな研究分野であるが、複雑なアルゴリズムやディープラーニング技術が必要であり、通常は多くの計算、メモリ、エネルギー資源を必要とする。 この課題は、リソースの効率的な利用が必要なIoT実装を妨げる。 しかし、現在の組み込み技術とマイクロコントローラは、エネルギー効率を損なうことなく能力を高めている。 本稿では,IoT 用リソース制約組込みプラットフォームにおける深層学習手法を最適化することにより,エッジでの音声イベント検出の適用について述べる。 ひとつは、2段階の学生-教師のアプローチで、現在のマイクロコントローラに適合する音のイベント検出のための最先端のニューラルネットワークを提供する、もうひとつは、ARM Cortex M4で、特に8ビット量子化に関する問題に焦点を当てたアプローチをテストする。 組み込み実装は、最新の性能とは程遠いurbansound8kでの認識において68%の精度を実現でき、オーディオストリームの毎秒125msの推論時間と、わずか34.3kbのramでの5.5mwの消費電力を実現している。

Outdoor acoustic events detection is an exciting research field but challenged by the need for complex algorithms and deep learning techniques, typically requiring many computational, memory, and energy resources. This challenge discourages IoT implementation, where an efficient use of resources is required. However, current embedded technologies and microcontrollers have increased their capabilities without penalizing energy efficiency. This paper addresses the application of sound event detection at the edge, by optimizing deep learning techniques on resource-constrained embedded platforms for the IoT. The contribution is two-fold: firstly, a two-stage student-teacher approach is presented to make state-of-the-art neural networks for sound event detection fit on current microcontrollers; secondly, we test our approach on an ARM Cortex M4, particularly focusing on issues related to 8-bits quantization. Our embedded implementation can achieve 68% accuracy in recognition on Urbansound8k, not far from state-of-the-art performance, with an inference time of 125 ms for each second of the audio stream, and power consumption of 5.5 mW in just 34.3 kB of RAM.
翻訳日:2023-01-05 21:37:37 公開日:2020-01-29
# ディープリカレント強化学習を用いたロバストマルチモーダル画像登録

Robust Multimodal Image Registration Using Deep Recurrent Reinforcement Learning ( http://arxiv.org/abs/2002.03733v1 )

ライセンス: Link先を確認
Shanhui Sun, Jing Hu, Mingqing Yao, Jinrong Hu, Xiaodong Yang, Qi Song, Xi Wu(参考訳) 従来の画像登録方式の重要な要素は、適切な特徴表現と類似度尺度の選択である。 これら2つの要素は精巧に設計されているものの、人間の知識を使ってある程度手作りされている。 この目的のために、この2つのコンポーネントは、強化学習を通じてエンドツーエンドで取り組まれている。 具体的には、ポリシとバリューネットワークとを組み合わせた人工エージェントを訓練して、移動画像を右方向に調整する。 我々は、このネットワークを非同期強化学習アルゴリズムを用いて訓練し、そこでは、ロバストな画像登録を促進するために、カスタマイズされた報酬関数も活用する。 このトレーニングされたネットワークは、登録能力を改善するために、さらにルックアヘッド推論と組み込まれている。 このアルゴリズムの利点は、他の最先端の医用画像登録法と比較して、臨床MRIとCT画像ペアの優れた性能によって完全に実証されている。

The crucial components of a conventional image registration method are the choice of the right feature representations and similarity measures. These two components, although elaborately designed, are somewhat handcrafted using human knowledge. To this end, these two components are tackled in an end-to-end manner via reinforcement learning in this work. Specifically, an artificial agent, which is composed of a combined policy and value network, is trained to adjust the moving image toward the right direction. We train this network using an asynchronous reinforcement learning algorithm, where a customized reward function is also leveraged to encourage robust image registration. This trained network is further incorporated with a lookahead inference to improve the registration capability. The advantage of this algorithm is fully demonstrated by our superior performance on clinical MR and CT image pairs to other state-of-the-art medical image registration methods.
翻訳日:2023-01-05 21:30:57 公開日:2020-01-29
# 動的エラーバウンドロッシー圧縮(EBLC)によるリアルタイム視覚に基づく歩行者安全用帯域幅要求の低減

Dynamic Error-bounded Lossy Compression (EBLC) to Reduce the Bandwidth Requirement for Real-time Vision-based Pedestrian Safety Applications ( http://arxiv.org/abs/2002.03742v1 )

ライセンス: Link先を確認
Mizanur Rahman, Mhafuzul Islam, Jon C. Calhoun and Mashrur Chowdhury(参考訳) カメラの品質が向上し、帯域幅が限られている領域への展開が進むにつれて、ビデオベースのリアルタイム歩行者検出など、ITSアプリケーションのリアルタイム制約を障害する通信ボトルネックが発生する。 ビデオ圧縮は、ビデオ送信の帯域幅を減少させるが、画質を低下させる。 映像の品質レベルが低下するにつれて、視覚に基づく歩行者検出モデルの精度が低下する。 さらに、環境条件(雨や暗闇など)は圧縮比を変化させ、高い歩行者検出精度を維持することが困難になる。 本研究の目的は, 歩行者検出精度を維持するために, 環境によって映像圧縮レベルを動的に変化させるリアルタイムエラーバウンド損失圧縮(EBLC)戦略を開発することである。 環境条件下でのリアルタイムな視覚に基づく歩行者検出における動的EBLC戦略の有効性を示すケーススタディを実施。 本手法は,環境条件の代表的なセットにおいて高い検出精度を維持できる損失圧縮に対して動的にエラー許容度を選択する。 分析の結果, 本手法は歩行者検出精度を最大14%向上させ, 通信帯域幅を14倍まで低減できることがわかった。 我々の動的EBLC戦略は検出モデルや環境条件とは無関係であり、他の検出モデルや環境条件を簡単に組み込むことができる。

As camera quality improves and their deployment moves to areas with limited bandwidth, communication bottlenecks can impair real-time constraints of an ITS application, such as video-based real-time pedestrian detection. Video compression reduces the bandwidth requirement to transmit the video but degrades the video quality. As the quality level of the video decreases, it results in the corresponding decreases in the accuracy of the vision-based pedestrian detection model. Furthermore, environmental conditions (e.g., rain and darkness) alter the compression ratio and can make maintaining a high pedestrian detection accuracy more difficult. The objective of this study is to develop a real-time error-bounded lossy compression (EBLC) strategy to dynamically change the video compression level depending on different environmental conditions in order to maintain a high pedestrian detection accuracy. We conduct a case study to show the efficacy of our dynamic EBLC strategy for real-time vision-based pedestrian detection under adverse environmental conditions. Our strategy selects the error tolerances dynamically for lossy compression that can maintain a high detection accuracy across a representative set of environmental conditions. Analyses reveal that our strategy increases pedestrian detection accuracy up to 14% and reduces the communication bandwidth up to 14x for adverse environmental conditions compared to the same conditions but without our dynamic EBLC strategy. Our dynamic EBLC strategy is independent of detection models and environmental conditions allowing other detection models and environmental conditions to be easily incorporated in our strategy.
翻訳日:2023-01-05 21:30:45 公開日:2020-01-29
# Data Mining Applications 2014 に参加して

Proceedings of Symposium on Data Mining Applications 2014 ( http://arxiv.org/abs/2001.11324v1 )

ライセンス: Link先を確認
Basit Qureshi and Yasir Javed(参考訳) データマイニングと応用に関するシンポジウム(sdma 2014)は、統計、計算知、パターン認識、データベース、ビッグデータマイニング、可視化など、幅広いデータマイニング関連の分野から研究者やアプリケーション開発者を集めることを目的としている。 SDMAはMEGDAMによって組織され、データマイニング研究分野の最先端技術とその様々な実世界の応用を推進している。 このシンポジウムは、サウジアラビア、GCC諸国、中東地域のデータマイニングと機械学習研究者の間で技術協力の機会を提供する。 受け入れは、主に独創性、重要性、貢献の質に基づいている。

The Symposium on Data Mining and Applications (SDMA 2014) is aimed to gather researchers and application developers from a wide range of data mining related areas such as statistics, computational intelligence, pattern recognition, databases, Big Data Mining and visualization. SDMA is organized by MEGDAM to advance the state of the art in data mining research field and its various real world applications. The symposium will provide opportunities for technical collaboration among data mining and machine learning researchers around the Saudi Arabia, GCC countries and Middle-East region. Acceptance will be based primarily on originality, significance and quality of contribution.
翻訳日:2023-01-05 21:30:23 公開日:2020-01-29
# 熱力学における機械学習:マトリックス完成による活動係数の予測

Machine Learning in Thermodynamics: Prediction of Activity Coefficients by Matrix Completion ( http://arxiv.org/abs/2001.10675v1 )

ライセンス: Link先を確認
Fabian Jirasek, Rodrigo A. S. Alves, Julie Damay, Robert A. Vandermeulen, Robert Bamler, Michael Bortz, Stephan Mandt, Marius Kloft, Hans Hasse(参考訳) 液体混合物の非理想性の測定値である活性係数は、化学工学における重要な特性であり、化学および相平衡のモデル化や輸送過程のモデル化に関係している。 数千種類の二成分混合物に関する実験データは利用可能であるが、これまで研究されていない多くの関連混合物の活性係数を計算するには予測法が必要である。 本稿では,任意の二成分混合物の活性係数を予測する確率行列分解モデルを提案する。 検討されたコンポーネントの物理的記述子は使用されていないが,本手法は,30年以上にわたって改良されてきた最先端の手法をはるかに少ないトレーニング労力で上回っている。 これにより、二成分混合物の物理化学的性質を予測し、化学工学におけるモデリングとシミュレーションに革命をもたらす可能性を秘めている。

Activity coefficients, which are a measure of the non-ideality of liquid mixtures, are a key property in chemical engineering with relevance to modeling chemical and phase equilibria as well as transport processes. Although experimental data on thousands of binary mixtures are available, prediction methods are needed to calculate the activity coefficients in many relevant mixtures that have not been explored to-date. In this report, we propose a probabilistic matrix factorization model for predicting the activity coefficients in arbitrary binary mixtures. Although no physical descriptors for the considered components were used, our method outperforms the state-of-the-art method that has been refined over three decades while requiring much less training effort. This opens perspectives to novel methods for predicting physico-chemical properties of binary mixtures with the potential to revolutionize modeling and simulation in chemical engineering.
翻訳日:2023-01-05 21:30:10 公開日:2020-01-29
# マイクロブログにおけるユーザインタラクションによる解釈可能なうわさ検出

Interpretable Rumor Detection in Microblogs by Attending to User Interactions ( http://arxiv.org/abs/2001.10667v1 )

ライセンス: Link先を確認
Ling Min Serena Khoo, Hai Leong Chieu, Zhong Qian and Jing Jiang(参考訳) マイクロブログにおける事実と偽のクレームに対するコミュニティの反応を区別する学習によるうわさ検出に対処する。 既存の最先端モデルは会話木をモデル化する木モデルに基づいている。 しかしソーシャルメディアでは、返信を投稿するユーザは特定のユーザーではなく、スレッド全体に返信するかもしれない。 トランスフォーマネットワークにおいて,多頭部注意機構を用いてツイート間の長距離インタラクションをモデル化するポストレベル注意モデル(plan)を提案する。 本研究では,(1)木構造情報をトランスフォーマーネットワークに組み込んだ構造認識型自己注意モデル(StA-PLAN),(2)トークンレベルの自己意識を持つ文表現を学習する階層型トークン・ポストレベル注意モデル(StA-HiTPLAN)について検討した。 私たちの知る限りでは、PHEMEデータセットとTwitter15とTwitter16データセットという、2つの噂検出データセットでモデルを最初に評価しました。 両データセットの最先端モデルより最高のモデルの方が優れていることを示す。 さらに,注意機構により,トークンレベルとポストレベルの両方において,うわさ検出予測を説明することができる。

We address rumor detection by learning to differentiate between the community's response to real and fake claims in microblogs. Existing state-of-the-art models are based on tree models that model conversational trees. However, in social media, a user posting a reply might be replying to the entire thread rather than to a specific user. We propose a post-level attention model (PLAN) to model long distance interactions between tweets with the multi-head attention mechanism in a transformer network. We investigated variants of this model: (1) a structure aware self-attention model (StA-PLAN) that incorporates tree structure information in the transformer network, and (2) a hierarchical token and post-level attention model (StA-HiTPLAN) that learns a sentence representation with token-level self-attention. To the best of our knowledge, we are the first to evaluate our models on two rumor detection data sets: the PHEME data set as well as the Twitter15 and Twitter16 data sets. We show that our best models outperform current state-of-the-art models for both data sets. Moreover, the attention mechanism allows us to explain rumor detection predictions at both token-level and post-level.
翻訳日:2023-01-05 21:29:56 公開日:2020-01-29
# 逆画像生成のための機械の目立った違い

Just Noticeable Difference for Machines to Generate Adversarial Images ( http://arxiv.org/abs/2001.11064v1 )

ライセンス: Link先を確認
Adil Kaan Akan, Mehmet Ali Genc, Fatos T. Yarman Vural(参考訳) 堅牢な機械学習アルゴリズムを設計する1つの方法は、アルゴリズムをできるだけ騙すことのできる真正逆画像を生成することである。 本研究では,実画像と非常に類似した敵画像を生成する新しい手法を提案するが,これらの画像は原画像と判別され,モデルによって別のカテゴリに割り当てられる。 提案手法は、Just Noticeable differenceと呼ばれる実験心理学の一般的な概念に基づいている。 機械学習モデルに対して注意すべき違いを定義し、モデルを騙すことのできる逆画像に対して、最小限の差を生成する。 提案モデルは、機械学習アルゴリズムが偽のラベルを出力するまで、勾配降下法による真の画像を反復的に歪ませる。 ディープニューラルネットワークは、オブジェクト検出と分類タスクのために訓練される。 コスト関数は正規化項を含み、モデルによって検出可能な、明らかに異なる逆画像を生成する。 本研究で生成した対向画像は, 対向画像生成装置の出力と比較すると, より自然なように見える。

One way of designing a robust machine learning algorithm is to generate authentic adversarial images which can trick the algorithms as much as possible. In this study, we propose a new method to generate adversarial images which are very similar to true images, yet, these images are discriminated from the original ones and are assigned into another category by the model. The proposed method is based on a popular concept of experimental psychology, called, Just Noticeable Difference. We define Just Noticeable Difference for a machine learning model and generate a least perceptible difference for adversarial images which can trick a model. The suggested model iteratively distorts a true image by gradient descent method until the machine learning algorithm outputs a false label. Deep Neural Networks are trained for object detection and classification tasks. The cost function includes regularization terms to generate just noticeably different adversarial images which can be detected by the model. The adversarial images generated in this study looks more natural compared to the output of state of the art adversarial image generators.
翻訳日:2023-01-05 21:29:16 公開日:2020-01-29
# ヒト心房細胞のモデリングにおける複雑さと同定不能の低減

Reducing complexity and unidentifiability when modelling human atrial cells ( http://arxiv.org/abs/2001.10954v1 )

ライセンス: Link先を確認
C. Houston, B. Marchand, L. Engelbert, C. D. Cantwell(参考訳) 心臓モデルにおける細胞活動電位の数学的モデルは、特に個々のイオンチャネル電流の開閉を制御するゲーティング運動学においてますます複雑になっている。 心臓モデルが臨床診断に使用されるようになるにつれて, パラメータ推定値に隠された不確かさを, 校正から実験データに理解することが重要である。 本研究では,2つの既存ヒト心房細胞モデルにおける4つのイオンチャネルのゲーティング速度を近似したベイズ近似計算を適用し,実験データから1つのユニークな値を選択することで,不確実性の指標と潜在的な問題を示す。 モデルをより完全なデータセットに再分類し、制約の少ないより複雑な定式化を使用することで、不確実性を減らすために2つのアプローチが研究されている。 再調整されたモデルは全細胞モデルに挿入され、全体の活動電位への影響を調べる。 より完全なデータセットの使用は、パラメータ推定に存在する不確実性を排除するものではない。 より複雑なモデル、特に高速ナトリウム電流は、低いパラメータの不確実性と計算速度の改善とともに実験データに適合した。

Mathematical models of a cellular action potential in cardiac modelling have become increasingly complex, particularly in gating kinetics which control the opening and closing of individual ion channel currents. As cardiac models advance towards use in personalised medicine to inform clinical decision-making, it is critical to understand the uncertainty hidden in parameter estimates from their calibration to experimental data. This study applies approximate Bayesian computation to re-calibrate the gating kinetics of four ion channels in two existing human atrial cell models to their original datasets, providing a measure of uncertainty and indication of potential issues with selecting a single unique value given the available experimental data. Two approaches are investigated to reduce the uncertainty present: re-calibrating the models to a more complete dataset and using a less complex formulation with fewer parameters to constrain. The re-calibrated models are inserted back into the full cell model to study the overall effect on the action potential. The use of more complete datasets does not eliminate uncertainty present in parameter estimates. The less complex model, particularly for the fast sodium current, gave a better fit to experimental data alongside lower parameter uncertainty and improved computational speed.
翻訳日:2023-01-05 21:28:46 公開日:2020-01-29
# 複数の文字列列入力からの確率L系推論

Stochastic L-system Inference from Multiple String Sequence Inputs ( http://arxiv.org/abs/2001.10922v1 )

ライセンス: Link先を確認
Jason Bernard, Ian McQuillan(参考訳) lindenmayer systems (l-systems) は文字列書き換え規則からなる文法体系である。 規則は次の文字列を生成するために文字列内のすべてのシンボルを並列に置き換え、この手順は反復する。 確率的文脈自由L-システム(S0L-system)では、すべてのシンボルは1つ以上の書き換え規則を持ち、それぞれが関連する選択の確率を持つ。 適切に構築された書き換え規則は、各派生文字列がシミュレーションのステップを記述する自然および人為的なプロセスのモデリングとシミュレーションに有用であることが判明した。 通常、プロセスは、プロセスの測定やドメイン知識に基づいてルールを慎重に構築する専門家によってモデル化される。 本稿では,一組の文字列列を入力とする確率的L-システムの自動探索手法を提案する。 この実装ツールは、Parm Model Inference Tool for S0L-systems (PMIT-S0L)と呼ばれる。 PMIT-S0Lは960の手続き的に生成されたS0Lシステムを用いて評価され、それぞれ入力文字列を生成する。 PMIT-S0Lは最大9個の書き換え規則を持つS0L系を12時間以内で推測する。 さらに,テストスイートの100%のケースにおいて,文字列の3つの配列が正しい元の書き直し規則を見つけるのに十分であること,文字列の6つの配列が関連する確率の差を約1%以下に低減できることが判明した。

Lindenmayer systems (L-systems) are a grammar system that consist of string rewriting rules. The rules replace every symbol in a string in parallel with a successor to produce the next string, and this procedure iterates. In a stochastic context-free L-system (S0L-system), every symbol may have one or more rewriting rule, each with an associated probability of selection. Properly constructed rewriting rules have been found to be useful for modeling and simulating some natural and human engineered processes where each derived string describes a step in the simulation. Typically, processes are modeled by experts who meticulously construct the rules based on measurements or domain knowledge of the process. This paper presents an automated approach to finding stochastic L-systems, given a set of string sequences as input. The implemented tool is called the Plant Model Inference Tool for S0L-systems (PMIT-S0L). PMIT-S0L is evaluated using 960 procedurally generated S0L-systems in a test suite, which are each used to generate input strings, and PMIT-S0L is then used to infer the system from only the sequences. The evaluation shows that PMIT-S0L infers S0L-systems with up to 9 rewriting rules each in under 12 hours. Additionally, it is found that 3 sequences of strings is sufficient to find the correct original rewriting rules in 100% of the cases in the test suite, and 6 sequences of strings reduces the difference in the associated probabilities to approximately 1% or less.
翻訳日:2023-01-05 21:22:47 公開日:2020-01-29
# imvotenet: 画像投票でポイントクラウド内の3dオブジェクト検出を促進する

ImVoteNet: Boosting 3D Object Detection in Point Clouds with Image Votes ( http://arxiv.org/abs/2001.10692v1 )

ライセンス: Link先を確認
Charles R. Qi, Xinlei Chen, Or Litany, Leonidas J. Guibas(参考訳) 3Dオブジェクト検出は、ポイントクラウドでのディープラーニングの進歩により、急速に進歩している。 いくつかの最近の研究は、ただの点クラウド入力(VoteNetなど)で最先端のパフォーマンスを示している。 しかし、ポイントクラウドデータには固有の制限がある。 色情報がなく、センサーノイズに悩まされることが多い。 一方、画像は高解像度で豊かなテクスチャを持つ。 これにより、点雲が提供する3次元幾何学を補うことができる。 しかし、ポイントクラウドによる検出を支援するために画像情報を効果的に利用する方法は、まだ未解決の問題である。 本研究では,VoteNet上に構築し,RGB-Dシーンに特化したImVoteNetと呼ばれる3D検出アーキテクチャを提案する。 ImVoteNetは、画像に2D票、ポイントクラウドに3D票を投じることに基づいている。 従来のマルチモーダル検出法と比較して,2次元画像から幾何学的特徴と意味的特徴の両方を明示的に抽出する。 カメラパラメータを利用して、これらの特徴を3Dに引き上げます。 2D-3D機能融合の相乗効果を改善するために,マルチトウワートレーニング方式を提案する。 我々は,SUN RGB-Dデータセットの精度を5.7mAPで検証した。 また,各設計選択の貢献度を分析するために,豊富なアブレーション研究を行う。

3D object detection has seen quick progress thanks to advances in deep learning on point clouds. A few recent works have even shown state-of-the-art performance with just point clouds input (e.g. VoteNet). However, point cloud data have inherent limitations. They are sparse, lack color information and often suffer from sensor noise. Images, on the other hand, have high resolution and rich texture. Thus they can complement the 3D geometry provided by point clouds. Yet how to effectively use image information to assist point cloud based detection is still an open question. In this work, we build on top of VoteNet and propose a 3D detection architecture called ImVoteNet specialized for RGB-D scenes. ImVoteNet is based on fusing 2D votes in images and 3D votes in point clouds. Compared to prior work on multi-modal detection, we explicitly extract both geometric and semantic features from the 2D images. We leverage camera parameters to lift these features to 3D. To improve the synergy of 2D-3D feature fusion, we also propose a multi-tower training scheme. We validate our model on the challenging SUN RGB-D dataset, advancing state-of-the-art results by 5.7 mAP. We also provide rich ablation studies to analyze the contribution of each design choice.
翻訳日:2023-01-05 21:21:59 公開日:2020-01-29
# 行政文書のスキャン画像の比較

Comparison of scanned administrative document images ( http://arxiv.org/abs/2001.10785v1 )

ライセンス: Link先を確認
Elena Andreeva, Vladimir V. Arlazarov, Oleg Slavin, Aleksey Mishev(参考訳) 本研究では,行政文書のデジタル化複写の比較手法を検討した。 この問題は、例えば、2つの当事者が署名した文書の2つのコピーを比較して、1つの当事者による変更の可能性を見出す場合、紙幣による契約の締結時に銀行部門で発生する。 文書画像比較法は,テキスト特徴点の記述子である単語の複数の画像比較法を組み合わせて提案する。 公衆のペイスリップデータセット(フランス語)でテストが行われた。 その結果、同一文書のバージョンである2つの画像において、高い品質と信頼性が得られた。

In this work the methods of comparison of digitized copies of administrative documents were considered. This problem arises, for example, when comparing two copies of documents signed by two parties in order to find possible modifications made by one party, in the banking sector at the conclusion of contracts in paper form. The proposed method of document image comparison is based on a combination of several ways of image comparison of words that are descriptors of text feature points. Testing was conducted on public Payslip Dataset (French). The results showed the high quality and the reliability of finding differences in two images that are versions of the same document.
翻訳日:2023-01-05 21:21:07 公開日:2020-01-29
# H-OWAN: Tensor 1x1畳み込みによるマルチ歪み画像復元

H-OWAN: Multi-distorted Image Restoration with Tensor 1x1 Convolution ( http://arxiv.org/abs/2001.10853v1 )

ライセンス: Link先を確認
Zihao Huang, Chao Li, Feng Duan, Qibin Zhao(参考訳) 変形を組み合わせてイメージを復元することは、難しい作業である。 既存の作品において有望な戦略は、異なる種類の歪みを扱うために平行な「操作」を適用することである。 しかし,機能融合の段階では,異なる操作による特徴の多様性により,少数の操作が復元結果を支配することになる。 この目的のために,高次テンソル(外積)積を課すことでテンソル1x1畳み込み層を導入することにより,不均一な特徴を調和させるだけでなく,追加の非線形性も考慮に入れる。 テンソル積から生じる許容できないカーネルサイズを避けるため、次元の指数的成長を線形成長に変換することができるテンソルネットワーク分解を用いたカーネルを構築する。 新たな層を用いて,マルチディストーテッド画像復元のための高次owanを提案する。 数値実験では,提案したネットは従来の最先端技術よりも優れており,さらに困難なタスクにおいても有望な性能を示す。

It is a challenging task to restore images from their variants with combined distortions. In the existing works, a promising strategy is to apply parallel "operations" to handle different types of distortion. However, in the feature fusion phase, a small number of operations would dominate the restoration result due to the features' heterogeneity by different operations. To this end, we introduce the tensor 1x1 convolutional layer by imposing high-order tensor (outer) product, by which we not only harmonize the heterogeneous features but also take additional non-linearity into account. To avoid the unacceptable kernel size resulted from the tensor product, we construct the kernels with tensor network decomposition, which is able to convert the exponential growth of the dimension to linear growth. Armed with the new layer, we propose High-order OWAN for multi-distorted image restoration. In the numerical experiments, the proposed net outperforms the previous state-of-the-art and shows promising performance even in more difficult tasks.
翻訳日:2023-01-05 21:20:58 公開日:2020-01-29
# 修正された局所二分パターンと谷本に基づく近距離アルゴリズムを用いた顔画像における性別分類手法の開発

Developing a gender classification approach in human face images using modified local binary patterns and tani-moto based nearest neighbor algorithm ( http://arxiv.org/abs/2001.10966v1 )

ライセンス: Link先を確認
Shervan Fekri-Ershad(参考訳) 人間の識別はコンピュータビジョンにおいて非常に注意深い問題である。 性分類は、前工程として人間の識別において重要な役割を果たす。 これまでのところ、この問題を解決するために様々な方法が提案されている。 もちろん、性別分類の研究者にとって、分類精度は大きな課題である。 しかし、ローテーション、グレースケールのバリエーション、ポーズ、照明の変化といったいくつかの課題は、スマートフォンのイメージキャプチャーで起こりうる。 本稿では,改善された局所的バイナリパッター(MLBP)に基づいて,性別を人間の顔画像に分類する多段階的アプローチを提案する。 LBPはテクスチャ記述子であり、局所コントラストと局所空間構造情報を抽出する。 ノイズ感度, 回転感度, 低判別特性などの問題点は, 基本lppの欠点と考えられる。 mlbpは新しい理論を用いて、基本lppの抽出されたバイナリパターンを分類する。 提案手法には2つの段階がある。 まず、MLBPに基づいて人間の顔画像の特徴ベクトルを抽出する。 次に、非線型分類器は性別の分類に使用できる。 本稿では,谷本計量を距離尺度として最寄り近傍分類器を評価する。 その結果、人間の顔データベースとして、自己コンパイルとICPRの2つのデータベースが使用される。 本論文では,提案手法の精度と精度を比較検討した結果を,最新のアルゴリズムと比較した。 提案手法の主な利点は、回転不変量、低雑音感度、サイズ不変量、低計算複雑性である。 提案手法は,データベースの比較回数を減らすため,スマートフォンアプリケーションの計算複雑性を低減させる。 また、メモリとCPU使用量の削減により、Smarphonesの同期アプリケーションの性能も向上する。

Human identification is a much attention problem in computer vision. Gender classification plays an important role in human identification as preprocess step. So far, various methods have been proposed to solve this problem. Absolutely, classification accuracy is the main challenge for researchers in gender classification. But, some challenges such as rotation, gray scale variations, pose, illumination changes may be occurred in smart phone image capturing. In this respect, a multi step approach is proposed in this paper to classify genders in human face images based on improved local binary patters (MLBP). LBP is a texture descriptor, which extract local contrast and local spatial structure information. Some issues such as noise sensitivity, rotation sensitivity and low discriminative features can be considered as disadvantages of the basic LBP. MLBP handle disadvantages using a new theory to categorize extracted binary patterns of basic LBP. The proposed approach includes two stages. First of all, a feature vector is extracted for human face images based on MLBP. Next, non linear classifiers can be used to classify gender. In this paper nearest neighborhood classifier is evaluated based on Tani-Moto metric as distance measure. In the result part, two databases, self-collected and ICPR are used as human face database. Results are compared by some state-ofthe-art algorithms in this literature that shows the high quality of the proposed approach in terms of accuracy rate. Some of other main advantages of the proposed approach are rotation invariant, low noise sensitivity, size invariant and low computational complexity. The proposed approach decreases the computational complexity of smartphone applications because of reducing the number of database comparisons. It can also improve performance of the synchronous applications in the smarphones because of memory and CPU usage reduction.
翻訳日:2023-01-05 21:20:25 公開日:2020-01-29
# 一般病変検出のための3次元高速R-CNN

3D Aggregated Faster R-CNN for General Lesion Detection ( http://arxiv.org/abs/2001.11071v1 )

ライセンス: Link先を確認
Ning Zhang, Yu Cao, Benyuan Liu, and Yan Luo(参考訳) 病変は人体の組織の損傷と異常である。 多くは後にがんなどの致命的な病気になることがある。 早期診断やタイムリーな治療には病変の検出が重要である。 この目的のためにCTスキャンは、しばしばスクリーニングツールとして機能し、近代的な物体検出技術を利用して病変を検出することができる。 しかし、CT検査の病変は小さく、少ないことが多い。 病変の局所領域は非常に混乱しており、Faster R-CNNの領域ベースの分類器分岐は容易に失敗する。 したがって、既存の最先端ソリューションのほとんどは、候補生成と偽正還元(FPR)のために2種類の異種ネットワーク(マルチフェーズ)を別々に訓練している。 本稿では、RPNのバックボーンに「集約型分類器ブランチ」を積み重ねることで、エンドツーエンドの3D Aggregated Faster R-CNNソリューションを実行する。 この分類器分岐は、分類器分岐を強化するために、特徴集約と局所拡大層を備える。 LUNA16とDeepLesionの両方のデータセット上で、我々のモデルがアートパフォーマンスの状態を達成できることを実証する。 特に,LUNA16上での単一モデルFROC性能は,処理1回のスキャンで4.2秒である。

Lesions are damages and abnormalities in tissues of the human body. Many of them can later turn into fatal diseases such as cancers. Detecting lesions are of great importance for early diagnosis and timely treatment. To this end, Computed Tomography (CT) scans often serve as the screening tool, allowing us to leverage the modern object detection techniques to detect the lesions. However, lesions in CT scans are often small and sparse. The local area of lesions can be very confusing, leading the region based classifier branch of Faster R-CNN easily fail. Therefore, most of the existing state-of-the-art solutions train two types of heterogeneous networks (multi-phase) separately for the candidate generation and the False Positive Reduction (FPR) purposes. In this paper, we enforce an end-to-end 3D Aggregated Faster R-CNN solution by stacking an "aggregated classifier branch" on the backbone of RPN. This classifier branch is equipped with Feature Aggregation and Local Magnification Layers to enhance the classifier branch. We demonstrate our model can achieve the state of the art performance on both LUNA16 and DeepLesion dataset. Especially, we achieve the best single-model FROC performance on LUNA16 with the inference time being 4.2s per processed scan.
翻訳日:2023-01-05 21:20:05 公開日:2020-01-29
# 銃口源と銃口頭部検出

Gun Source and Muzzle Head Detection ( http://arxiv.org/abs/2001.11120v1 )

ライセンス: Link先を確認
Zhong Zhou, Isak Czeresnia Etinger, Florian Metze, Alexander Hauptmann, Alexander Waibel(参考訳) 銃の暴力に対する保護の必要性は世界中で急増している。 銃乱射の時間的位置、銃型予測、および銃源(射撃者)検出という3つの分野が、銃による暴力を抑える研究で難しいと認識されている。 我々の仕事は銃のソース検出と銃口検出であり、銃口ヘッドは銃の発射端の丸い開口部である。 ビデオの中で銃の銃口の頭部を視覚的に見つけ、誰が撃ったかを特定したい。 提案方式では,銃口頭部検出の問題を,人間の物体検出と銃煙検出の2つのサブプロブレムに変換する。 我々の仮定では、銃口の頭部は通常、銃口と射撃者によって引き起こされる銃煙の間にある。 射撃者の拘束と銃の煙の検出の両方に興味深い結果が得られた。 実験では銃の煙と銃撃者を検知して銃口の頭部を検出することに成功した。

There is a surging need across the world for protection against gun violence. There are three main areas that we have identified as challenging in research that tries to curb gun violence: temporal location of gunshots, gun type prediction and gun source (shooter) detection. Our task is gun source detection and muzzle head detection, where the muzzle head is the round opening of the firing end of the gun. We would like to locate the muzzle head of the gun in the video visually, and identify who has fired the shot. In our formulation, we turn the problem of muzzle head detection into two sub-problems of human object detection and gun smoke detection. Our assumption is that the muzzle head typically lies between the gun smoke caused by the shot and the shooter. We have interesting results both in bounding the shooter as well as detecting the gun smoke. In our experiments, we are successful in detecting the muzzle head by detecting the gun smoke and the shooter.
翻訳日:2023-01-05 21:19:46 公開日:2020-01-29
# 衛星映像における学習車両検出について

On Learning Vehicle Detection in Satellite Video ( http://arxiv.org/abs/2001.10900v1 )

ライセンス: Link先を確認
Roman Pflugfelder, Axel Weissenfeld, Julian Wagner(参考訳) 航空画像や衛星画像における車両検出は、リモートセンシング画像の全体サイズに比べて画素数が少ないため、依然として困難である。 オブジェクト検出の古典的な方法は、リッチテクスチャ、画像サイズとオブジェクトサイズの間の小さいから中程度の比率といった暗黙の仮定に違反するため、このシナリオで失敗することが多い。 衛星ビデオは、時間的一貫性を誘導バイアスとして導入する非常に新しいモダリティである。 衛星ビデオにおける車両検出へのアプローチは、背景の減算、フレーム差分法、または中程度の性能を示す部分空間法(0.26 - 0.82$F_1$ score)を使用する。 本研究は,衛星映像における広域動画像(WAMI)の深層学習への応用を提案する。 我々は、PlanetのSkySat-1 LasVegasビデオに比較した最初のアプローチ(0.84$F_1$)を示す。

Vehicle detection in aerial and satellite images is still challenging due to their tiny appearance in pixels compared to the overall size of remote sensing imagery. Classical methods of object detection very often fail in this scenario due to violation of implicit assumptions made such as rich texture, small to moderate ratios between image size and object size. Satellite video is a very new modality which introduces temporal consistency as inductive bias. Approaches for vehicle detection in satellite video use either background subtraction, frame differencing or subspace methods showing moderate performance (0.26 - 0.82 $F_1$ score). This work proposes to apply recent work on deep learning for wide-area motion imagery (WAMI) on satellite video. We show in a first approach comparable results (0.84 $F_1$) on Planet's SkySat-1 LasVegas video with room for further improvement.
翻訳日:2023-01-05 21:14:00 公開日:2020-01-29
# 共変量を用いた機能的シーケンス処理

Functional Sequential Treatment Allocation with Covariates ( http://arxiv.org/abs/2001.10996v1 )

ライセンス: Link先を確認
Anders Bredahl Kock, David Preinerstorfer, Bezirgen Veliyev(参考訳) 共変量に対する多重武装バンディット問題を考える。 共変量ベクトルの実現が与えられたとき、最も条件付き期待値の高い治療を標的にするのではなく、意思決定者は条件付きポテンシャル結果分布の一般機能、例えば条件付き量子量、トリミング平均、または不平等、福祉、貧困尺度のような社会経済的機能を最大化する治療を目標とする。 我々は,この問題に期待できる限界を低く抑え,ミニマックスに近い最適割当方針を構築する。

We consider a multi-armed bandit problem with covariates. Given a realization of the covariate vector, instead of targeting the treatment with highest conditional expectation, the decision maker targets the treatment which maximizes a general functional of the conditional potential outcome distribution, e.g., a conditional quantile, trimmed mean, or a socio-economic functional such as an inequality, welfare or poverty measure. We develop expected regret lower bounds for this problem, and construct a near minimax optimal assignment policy.
翻訳日:2023-01-05 21:13:44 公開日:2020-01-29
# 正規化は中毒攻撃の緩和に役立つ:wasserstein距離を用いた分散ロバスト機械学習

Regularization Helps with Mitigating Poisoning Attacks: Distributionally-Robust Machine Learning Using the Wasserstein Distance ( http://arxiv.org/abs/2001.10655v1 )

ライセンス: Link先を確認
Farhad Farokhi(参考訳) データ中毒攻撃の影響を軽減するために,機械学習に分散ロバスト最適化を用いる。 我々は,ワッサースタイン距離を用いて定義された経験的分布(毒殺攻撃によって破損した訓練データセットから抽出した)の近傍における最悪の事例分布のモデルをトレーニングすることにより,トレーニングしたモデル(毒物記録を含む)に対する性能保証を提供する。 実験的なサンプル平均適合度と(与えられたモデルパラメータのデータに基づいて)適合関数のリプシッツ定数に基づいて、最悪の場合のフィットネスの上限を正則化することにより、分散ロバストな機械学習問題を緩和する。 回帰モデルの場合、この正規化器はモデルパラメータの双対ノルムと等しいことが証明される。 我々は、ワイン品質データセット、ボストン住宅市場データセット、およびアダルトデータセットを用いて、本論文の結果を実証する。

We use distributionally-robust optimization for machine learning to mitigate the effect of data poisoning attacks. We provide performance guarantees for the trained model on the original data (not including the poison records) by training the model for the worst-case distribution on a neighbourhood around the empirical distribution (extracted from the training dataset corrupted by a poisoning attack) defined using the Wasserstein distance. We relax the distributionally-robust machine learning problem by finding an upper bound for the worst-case fitness based on the empirical sampled-averaged fitness and the Lipschitz-constant of the fitness function (on the data for given model parameters) as regularizer. For regression models, we prove that this regularizer is equal to the dual norm of the model parameters. We use the Wine Quality dataset, the Boston Housing Market dataset, and the Adult dataset for demonstrating the results of this paper.
翻訳日:2023-01-05 21:13:01 公開日:2020-01-29
# tplvm: 学生の$t$-process 潜在変数モデルによるポートフォリオ構築

TPLVM: Portfolio Construction by Student's $t$-process Latent Variable Model ( http://arxiv.org/abs/2002.06243v1 )

ライセンス: Link先を確認
Yusuke Uchiyama, Kei Nakagawa(参考訳) 最適資産配分は、現代金融理論において重要なトピックである。 投資家のリスク回避に最適な資産配分を実現するために,様々なポートフォリオ構築手法が提案されている。 近年,金融分野において機械学習の応用が急速に増加している。 本稿では,低次元の潜在変数を用いて金融時系列の非ゲージ変動を記述するために,学生の$t$-process latent variable model (tplvm)を提案する。 その後,既存の非線形因子モデルに代わる最小分散ポートフォリオにtplvmを適用する。 提案ポートフォリオの性能をテストするために,tplvmあるいはgaussian process latent variableモデルに基づいて,グローバル株式市場指数の最小分散ポートフォリオを構築する。 これらのポートフォリオを比較することで、提案ポートフォリオが既存のガウスプロセス潜在変数モデルよりも優れていることを確認した。

Optimal asset allocation is a key topic in modern finance theory. To realize the optimal asset allocation on investor's risk aversion, various portfolio construction methods have been proposed. Recently, the applications of machine learning are rapidly growing in the area of finance. In this article, we propose the Student's $t$-process latent variable model (TPLVM) to describe non-Gaussian fluctuations of financial timeseries by lower dimensional latent variables. Subsequently, we apply the TPLVM to minimum-variance portfolio as an alternative of existing nonlinear factor models. To test the performance of the proposed portfolio, we construct minimum-variance portfolios of global stock market indices based on the TPLVM or Gaussian process latent variable model. By comparing these portfolios, we confirm the proposed portfolio outperforms that of the existing Gaussian process latent variable model.
翻訳日:2023-01-05 21:12:28 公開日:2020-01-29
# ファジィ集合を用いたマルチパースペクティブコンフォーマンスチェックに向けて

Towards Multi-perspective conformance checking with fuzzy sets ( http://arxiv.org/abs/2001.10730v1 )

ライセンス: Link先を確認
Sicui Zhang (1 and 2), Laura Genga (2), Hui Yan (1 and 2), Xudong Lu (1 and 2), Huilong Duan (1), Uzay Kaymak (2 and 1) ((1) School of Biomedical Engineering and Instrumental Science, Zhejiang University, Hangzhou, P.R. China, (2) School of Industrial Engineering, Eindhoven University of Technology, Eindhoven, The Netherlands)(参考訳) コンパタンス検査技術は、プロセスモデルと実際のプロセス実行の相違点を特定するために広く採用されている。 しかし、芸術的アプローチの状況は偏差の鮮明な評価を採用しており、結果として、小さな違反は重要なものと同じレベルで考慮されている。 これは提供された診断の質に影響を与え、特に適度に小さな違反に対してある程度の耐性がある場合、プロセスの柔軟性を阻害する。 本研究では,違反に対するアクタの許容度を表現し,実行の遵守度を評価する際の逸脱の重大さを考慮できる新しい手法を提案する。 我々は、提供された診断の質の向上に加えて、偏差評価の許容性も、適合性検査技術の柔軟性を高め、間接的に、プロセス管理システム全体のレジリエンス向上の道を開くことを論じる。

Conformance checking techniques are widely adopted to pinpoint possible discrepancies between process models and the execution of the process in reality. However, state of the art approaches adopt a crisp evaluation of deviations, with the result that small violations are considered at the same level of significant ones. This affects the quality of the provided diagnostics, especially when there exists some tolerance with respect to reasonably small violations, and hampers the flexibility of the process. In this work, we propose a novel approach which allows to represent actors' tolerance with respect to violations and to account for severity of deviations when assessing executions compliance. We argue that besides improving the quality of the provided diagnostics, allowing some tolerance in deviations assessment also enhances the flexibility of conformance checking techniques and, indirectly, paves the way for improving the resilience of the overall process management system.
翻訳日:2023-01-05 21:11:22 公開日:2020-01-29
# トラクタブル確率モデルにおける干渉と反事実:現代変換の限界

Interventions and Counterfactuals in Tractable Probabilistic Models: Limitations of Contemporary Transformations ( http://arxiv.org/abs/2001.10905v1 )

ライセンス: Link先を確認
Ioannis Papantonis, Vaishak Belle(参考訳) 近年,機械学習モデル,特に生成モデルにおける因果関係性の研究への関心が高まっている。 それはよく動機づけられるが、確率的推論の基本的な計算困難さを継承し、正確な推論を難解にする。 確率的トラクタブルモデルも最近登場しており、このモデルは通常データから学習されるモデルのサイズにおいて、条件付き限界を線形に計算できることを保証する。 当初は低木幅モデルに限られていたが、近年の総和積ネットワーク (SPN) や確率知覚決定図 (PSDD) などのトラクタブルモデルでは効率的な関数表現を利用でき、高木幅モデルも取得できる。 本稿では,これらのモデルが表現あるいは学習した分布を,介入や反事実に関する推論など,因果的クエリの実行に利用することができるか,という技術的疑問を問う。 このようなモデルをベイズネットワークに変換する既存のアイデアに訴えることで、私たちは主に否定的に答える。 本研究では,SPNを因果グラフの介入推論に変換すると,限界分布の計算に還元されることを示す。 PSDDの場合、状況はわずかに改善されている。 まず,拡張変数を導入するpsddから因果グラフを構築するアルゴリズムを提案する。 元の変数への介入は、再び限界分布に還元されるが、拡張変数に介入する場合、決定論的だが因果意味論がPSDDに対して提供される。

In recent years, there has been an increasing interest in studying causality-related properties in machine learning models generally, and in generative models in particular. While that is well motivated, it inherits the fundamental computational hardness of probabilistic inference, making exact reasoning intractable. Probabilistic tractable models have also recently emerged, which guarantee that conditional marginals can be computed in time linear in the size of the model, where the model is usually learned from data. Although initially limited to low tree-width models, recent tractable models such as sum product networks (SPNs) and probabilistic sentential decision diagrams (PSDDs) exploit efficient function representations and also capture high tree-width models. In this paper, we ask the following technical question: can we use the distributions represented or learned by these models to perform causal queries, such as reasoning about interventions and counterfactuals? By appealing to some existing ideas on transforming such models to Bayesian networks, we answer mostly in the negative. We show that when transforming SPNs to a causal graph interventional reasoning reduces to computing marginal distributions; in other words, only trivial causal reasoning is possible. For PSDDs the situation is only slightly better. We first provide an algorithm for constructing a causal graph from a PSDD, which introduces augmented variables. Intervening on the original variables, once again, reduces to marginal distributions, but when intervening on the augmented variables, a deterministic but nonetheless causal-semantics can be provided for PSDDs.
翻訳日:2023-01-05 21:11:06 公開日:2020-01-29
# 楕円型進化アルゴリズムの活用と探索分析 : 事例研究

Exploitation and Exploration Analysis of Elitist Evolutionary Algorithms: A Case Study ( http://arxiv.org/abs/2001.10932v1 )

ライセンス: Link先を確認
Yu Chen and Jun He(参考訳) 探索, 搾取, 探索による問題解決の2つの基礎として知られ, 進化的アルゴリズム(EA)の実装と適用について広く議論されている。 しかし、利用と探索の評価と理論的評価に焦点をあてる研究はごくわずかである。 本稿では,グローバルサーチとローカルサーチに関して,活用と探索が2つの課題であると考え,それぞれの領域で計算した成功確率とワンステップ改善率を用いて評価する。 次に, (1+1) ランダムな単変量探索と (1+1) 進化計画の性能を球関数と不正な問題で解析してケーススタディを行う。 厳密な理論解析により, 調査対象のエリート eas の搾取と探索の両方が, 問題次元 $n$ で指数関数的に縮退することを示した。 また,現在解から有望領域の中心までの距離に正の相関があるガウス変異の標準偏差 $\sigma$ を適切に設定することにより,搾取と探索の最大化が達成できることを示した。

Known as two cornerstones of problem solving by search, exploitation and exploration are extensively discussed for implementation and application of evolutionary algorithms (EAs). However, only a few researches focus on evaluation and theoretical estimation of exploitation and exploration. Considering that exploitation and exploration are two issues regarding global search and local search, this paper proposes to evaluate them via the success probability and the one-step improvement rate computed in different domains of integration. Then, case studies are performed by analyzing performances of (1+1) random univariate search and (1+1) evolutionary programming on the sphere function and the cheating problem. By rigorous theoretical analysis, we demonstrate that both exploitation and exploration of the investigated elitist EAs degenerate exponentially with the problem dimension $n$. Meanwhile, it is also shown that maximization of exploitation and exploration can be achieved by setting an appropriate value for the standard deviation $\sigma$ of Gaussian mutation, which is positively related to the distance from the present solution to the center of the promising region.
翻訳日:2023-01-05 21:04:21 公開日:2020-01-29
# 多言語話者のための言語識別の改善

Improving Language Identification for Multilingual Speakers ( http://arxiv.org/abs/2001.11019v1 )

ライセンス: Link先を確認
Andrew Titus, Jan Silovsky, Nanxin Chen, Roger Hsiao, Mary Young and Arnab Ghoshal(参考訳) 近年、音声言語識別(LID)技術は、大きく異なる言語を識別することから、非常に類似した言語や同じ言語の方言を識別することまで改善されてきた。 しかし、ほとんど無視されている側面の1つは、lid技術を利用する多くのシステムの主要なターゲットオーディエンスであるにもかかわらず、多言語話者の言語識別である。 この研究で示すように、LIDシステムは、ほとんどの言語の組み合わせに対して高い平均精度を持ち、アクセント付き音声が存在する場合、他の言語では大幅に性能が劣る。 本稿では,音響蓋モデルに対する粒度の粗いターゲットを用い,その出力をコンテキスト認識モデルにおける対話的コンテキスト信号と統合することで,システムをユーザ毎に調整する。 この組み合わせシステムは、全ての言語の組み合わせで平均97%の精度を達成し、最悪の場合の精度をベースラインに対して60%以上向上させる。

Spoken language identification (LID) technologies have improved in recent years from discriminating largely distinct languages to discriminating highly similar languages or even dialects of the same language. One aspect that has been mostly neglected, however, is discrimination of languages for multilingual speakers, despite being a primary target audience of many systems that utilize LID technologies. As we show in this work, LID systems can have a high average accuracy for most combinations of languages while greatly underperforming for others when accented speech is present. We address this by using coarser-grained targets for the acoustic LID model and integrating its outputs with interaction context signals in a context-aware model to tailor the system to each user. This combined system achieves an average 97% accuracy across all language combinations while improving worst-case accuracy by over 60% relative to our baseline.
翻訳日:2023-01-05 21:04:01 公開日:2020-01-29
# 時系列異常検出のためのアンサンブル文法インダクション

Ensemble Grammar Induction For Detecting Anomalies in Time Series ( http://arxiv.org/abs/2001.11102v1 )

ライセンス: Link先を確認
Yifeng Gao, Jessica Lin, Constantin Brif(参考訳) 時系列異常検出は、様々な分野の応用において重要な課題である。 近年、多くのアプローチが提案されているが、多くの場合、前もって異常の長さが知られ、入力パラメータとして提供される必要がある。 これはアルゴリズムの実用性を制限し、そのような情報は事前に未知であることが多いし、異なる長さの異常がデータに共存する可能性がある。 この制限に対処するため,従来は文法帰納に基づく線形時間異常検出アルゴリズムが提案されている。 アルゴリズムは可変長パターンを見つけることができるが、離散化ステップでは少なくとも2つのパラメータの事前選択が必要である。 これらのパラメータ値を適切に選択する方法はまだオープンな問題です。 本稿では,アンサンブル学習を用いた文法インダクションに基づく異常検出手法を提案する。 異常検出のためにパラメータ値の特定の選択を使用する代わりに、異なるパラメータ値を用いて得られた一連の結果に基づいて最終結果を生成する。 提案手法は,パラメータ値選択の基準が異なる既存の文法インダクションに基づくアプローチよりも優れることを示す。 また,提案手法は,最先端距離に基づく異常検出アルゴリズムと同様の性能が得られることを示す。

Time series anomaly detection is an important task, with applications in a broad variety of domains. Many approaches have been proposed in recent years, but often they require that the length of the anomalies be known in advance and provided as an input parameter. This limits the practicality of the algorithms, as such information is often unknown in advance, or anomalies with different lengths might co-exist in the data. To address this limitation, previously, a linear time anomaly detection algorithm based on grammar induction has been proposed. While the algorithm can find variable-length patterns, it still requires preselecting values for at least two parameters at the discretization step. How to choose these parameter values properly is still an open problem. In this paper, we introduce a grammar-induction-based anomaly detection method utilizing ensemble learning. Instead of using a particular choice of parameter values for anomaly detection, the method generates the final result based on a set of results obtained using different parameter values. We demonstrate that the proposed ensemble approach can outperform existing grammar-induction-based approaches with different criteria for selection of parameter values. We also show that the proposed approach can achieve performance similar to that of the state-of-the-art distance-based anomaly detection algorithm.
翻訳日:2023-01-05 21:03:48 公開日:2020-01-29
# 無線タスクの事前知識を用いたディープニューラルネットワークの構築

Constructing Deep Neural Networks with a Priori Knowledge of Wireless Tasks ( http://arxiv.org/abs/2001.11355v1 )

ライセンス: Link先を確認
Jia Guo and Chenyang Yang(参考訳) ディープニューラルネットワーク(DNN)は、トランシーバ設計、リソース最適化、情報予測など、多くの面で無線システムの設計に使用されている。 既存の作業は、完全に接続されたDNNまたは他のドメインで開発された特定のアーキテクチャを持つDNNを使用する。 教師付き学習とトレーニングサンプルの収集のためのラベルを生成するのに時間がかかるかコストがかかるが、トレーニングの複雑さを減らすためにワイヤレスプリミティブでdnnを開発する方法はまだオープンである。 本稿では,無線タスクに広く存在する2種類の置換不変性を利用して,モデルのパラメータ数を削減し,トレーニングにおけるサンプルと計算の複雑さを低減できることを示す。 入力-出力関係が特性を満たすDNN(permutation invariant DNN)と呼ばれるDNNの特別なアーキテクチャを見つけ,その特性を付加する。 無線システムのスケールの影響を学習することにより、構築されたPINNのサイズは入力データ次元に柔軟に適応することができる。 予測資源配分と干渉調整を例として,教師なし・教師なし学習による最適政策学習にPINNをいかに活用できるかを示す。 シミュレーションの結果, 学習複雑性の低減という観点から, 提案するピンの劇的な向上が示された。

Deep neural networks (DNNs) have been employed for designing wireless systems in many aspects, say transceiver design, resource optimization, and information prediction. Existing works either use the fully-connected DNN or the DNNs with particular architectures developed in other domains. While generating labels for supervised learning and gathering training samples are time-consuming or cost-prohibitive, how to develop DNNs with wireless priors for reducing training complexity remains open. In this paper, we show that two kinds of permutation invariant properties widely existed in wireless tasks can be harnessed to reduce the number of model parameters and hence the sample and computational complexity for training. We find special architecture of DNNs whose input-output relationships satisfy the properties, called permutation invariant DNN (PINN), and augment the data with the properties. By learning the impact of the scale of a wireless system, the size of the constructed PINNs can flexibly adapt to the input data dimension. We take predictive resource allocation and interference coordination as examples to show how the PINNs can be employed for learning the optimal policy with unsupervised and supervised learning. Simulations results demonstrate a dramatic gain of the proposed PINNs in terms of reducing training complexity.
翻訳日:2023-01-05 21:02:57 公開日:2020-01-29
# REST: 野における睡眠監視のためのロバストで効率的なニューラルネットワーク

REST: Robust and Efficient Neural Networks for Sleep Monitoring in the Wild ( http://arxiv.org/abs/2001.11363v1 )

ライセンス: Link先を確認
Rahul Duggal, Scott Freitas, Cao Xiao, Duen Horng Chau, Jimeng Sun(参考訳) 近年,医療分野におけるディープラーニング技術の統合に注目が集まっている。 しかし、ホームヘルスモニタリングのためのディープラーニングモデルを安全かつ実践的に展開するには、(1)ノイズに対して頑健であること、(2)コンパクトでエネルギー効率のよいこと、の2つの大きな課題に対処する必要がある。 両問題に同時に対処する新しい方法であるRESTを提案する。 1)スペクトル正則化によるニューラルネットワークの逆トレーニングとリプシッツ定数の制御 2) 空間正規化によるニューラルネットワーク圧縮の実現。 私たちは、RESTがノイズの存在下で、オリジナルのフルサイズのモデルを大幅に上回る、ロバストで効率的なモデルを生成することを実証しています。 単一チャネル脳波(EEG)を用いた睡眠ステージタスクにおいて、RESTモデルは、ガウスノイズの存在下での最先端モデルによるマクロF1スコアが0.67対0.39で達成され、2つの大きな実世界のEEGデータセットに対して19xパラメータの削減と15xMFLOPSの削減が得られる。 これらのモデルをスマートフォン上のandroidアプリケーションにデプロイすることによって、restが最大17倍のエネルギー削減と9倍の高速化を実現することを定量的に観察する。 この記事では、コードリポジトリをオープンソースにしています。

In recent years, significant attention has been devoted towards integrating deep learning technologies in the healthcare domain. However, to safely and practically deploy deep learning models for home health monitoring, two significant challenges must be addressed: the models should be (1) robust against noise; and (2) compact and energy-efficient. We propose REST, a new method that simultaneously tackles both issues via 1) adversarial training and controlling the Lipschitz constant of the neural network through spectral regularization while 2) enabling neural network compression through sparsity regularization. We demonstrate that REST produces highly-robust and efficient models that substantially outperform the original full-sized models in the presence of noise. For the sleep staging task over single-channel electroencephalogram (EEG), the REST model achieves a macro-F1 score of 0.67 vs. 0.39 achieved by a state-of-the-art model in the presence of Gaussian noise while obtaining 19x parameter reduction and 15x MFLOPS reduction on two large, real-world EEG datasets. By deploying these models to an Android application on a smartphone, we quantitatively observe that REST allows models to achieve up to 17x energy reduction and 9x faster inference. We open-source the code repository with this paper: https://github.com/duggalrahul/REST.
翻訳日:2023-01-05 21:02:37 公開日:2020-01-29
# PulseSatellite: 人道的文脈における衛星画像解析のためのAIフィードバックループを用いたツール

PulseSatellite: A tool using human-AI feedback loops for satellite image analysis in humanitarian contexts ( http://arxiv.org/abs/2001.10685v1 )

ライセンス: Link先を確認
Tomaz Logar, Joseph Bullock, Edoardo Nemni, Lars Bromley, John A. Quinn, Miguel Luengo-Oroz(参考訳) 自然災害や紛争に対する人道的対応は衛星画像解析によって支援される。 人道的な文脈では、非常に具体的な衛星画像解析タスクは、運用支援を提供するために、タイムリーに正確に行う必要がある。 本研究では,衛星画像解析ツールである pulsesatellite について紹介する。これは,ハエ上で再訓練され,特定の人道的文脈や地形に適応できるニューラルネットワークモデルを活用する。 本稿では,PulseSatellite の機能を示す2つのケーススタディを,それぞれマッピングシェルターと洪水で紹介する。

Humanitarian response to natural disasters and conflicts can be assisted by satellite image analysis. In a humanitarian context, very specific satellite image analysis tasks must be done accurately and in a timely manner to provide operational support. We present PulseSatellite, a collaborative satellite image analysis tool which leverages neural network models that can be retrained on-the fly and adapted to specific humanitarian contexts and geographies. We present two case studies, in mapping shelters and floods respectively, that illustrate the capabilities of PulseSatellite.
翻訳日:2023-01-05 21:02:14 公開日:2020-01-29
# スケール依存の有効次元の概念

A scale-dependent notion of effective dimension ( http://arxiv.org/abs/2001.10872v1 )

ライセンス: Link先を確認
Oksana Berezniuk, Alessio Figalli, Raffaele Ghigliazza, Kharen Musaelian(参考訳) 我々は,フィッシャー情報行列を計量として与えた場合,モデル空間をカバーするのに必要な立方体のサイズ 1/\sqrt{n}$ に基づいて,統計モデルの「有効次元」の概念を導入する。 観測の数は自然のスケールや解像度を補正する。 有効次元は、この自然スケールを用いて正規化されたフィッシャー情報マトリックスのスペクトルによって測定される。

We introduce a notion of "effective dimension" of a statistical model based on the number of cubes of size $1/\sqrt{n}$ needed to cover the model space when endowed with the Fisher Information Matrix as metric, $n$ being the number of observations. The number of observations fixes a natural scale or resolution. The effective dimension is then measured via the spectrum of the Fisher Information Matrix regularized using this natural scale.
翻訳日:2023-01-05 20:55:15 公開日:2020-01-29
# ベイズ深層学習の場合

The Case for Bayesian Deep Learning ( http://arxiv.org/abs/2001.10995v1 )

ライセンス: Link先を確認
Andrew Gordon Wilson(参考訳) ベイズ的アプローチの鍵となる区別特性は、前者やベイズ規則ではなく、最適化ではなく限界化である。 ベイズ推論はディープニューラルネットワークにとって特に説得力がある。 1) ニューラルネットワークは通常、データによって過小評価され、パラメータの異なる設定に対応する多くの異なるがハイパフォーマンスなモデルを表現することができる。 2) 深いアンサンブルはベイズ法と競合するアプローチと誤解されてきたが、近似ベイズ境界化と見なすことができる。 3) ニューラルネットワークの構造は、ニューラルネットワークの一般化に寄与する帰納的バイアスを反映した、関数空間における構造化事前構造を生じさせる。 (4) 損失の平坦な領域におけるパラメータと良い一般化をもたらす解の多様性の相関は、高次元空間において平坦な領域が大きな体積を占め、それぞれの解がベイズモデル平均に良い寄与をするので、ベイズ境界化にさらに寄与する。 (5) ベイズ深層学習の最近の実践的進歩は, スケーラビリティを維持しつつ, 標準訓練に比べて精度と校正性の向上をもたらす。

The key distinguishing property of a Bayesian approach is marginalization instead of optimization, not the prior, or Bayes rule. Bayesian inference is especially compelling for deep neural networks. (1) Neural networks are typically underspecified by the data, and can represent many different but high performing models corresponding to different settings of parameters, which is exactly when marginalization will make the biggest difference for both calibration and accuracy. (2) Deep ensembles have been mistaken as competing approaches to Bayesian methods, but can be seen as approximate Bayesian marginalization. (3) The structure of neural networks gives rise to a structured prior in function space, which reflects the inductive biases of neural networks that help them generalize. (4) The observed correlation between parameters in flat regions of the loss and a diversity of solutions that provide good generalization is further conducive to Bayesian marginalization, as flat regions occupy a large volume in a high dimensional space, and each different solution will make a good contribution to a Bayesian model average. (5) Recent practical advances for Bayesian deep learning provide improvements in accuracy and calibration compared to standard training, while retaining scalability.
翻訳日:2023-01-05 20:54:55 公開日:2020-01-29
# 入出力仕様を強制するための安全予測器

Safe Predictors for Enforcing Input-Output Specifications ( http://arxiv.org/abs/2001.11062v1 )

ライセンス: Link先を確認
Stephen Mell, Olivia Brown, Justin Goodwin, Sung-Hyun Son(参考訳) 本稿では,アルゴリズム学習前後の入力出力仕様の集合と整合性を保証するニューラルネットワーク(および他の機械学習モデル)を設計するためのアプローチを提案する。 提案手法では,各制約セットに対する制約付き予測器の設計を行い,それらの予測を凸結合して安全に組み合わせる。 我々は,合成データセットと航空機衝突回避問題に対する我々のアプローチを実証する。

We present an approach for designing correct-by-construction neural networks (and other machine learning models) that are guaranteed to be consistent with a collection of input-output specifications before, during, and after algorithm training. Our method involves designing a constrained predictor for each set of compatible constraints, and combining them safely via a convex combination of their predictions. We demonstrate our approach on synthetic datasets and an aircraft collision avoidance problem.
翻訳日:2023-01-05 20:54:34 公開日:2020-01-29
# 焦点:連合学習におけるラベル品質格差の扱い

FOCUS: Dealing with Label Quality Disparity in Federated Learning ( http://arxiv.org/abs/2001.11359v1 )

ライセンス: Link先を確認
Yiqiang Chen, Xiaodong Yang, Xin Qin, Han Yu, Biao Chen, Zhiqi Shen(参考訳) エンドエッジクラウドアーキテクチャを備えたユビキタスシステムは、医療アプリケーションでますます利用されている。 フェデレーション学習(fl)はサイロ効果とプライバシ保護のため、このようなアプリケーションで非常に有用である。 既存のFLアプローチは、一般にローカルデータラベルの品質の相違を考慮しない。 しかし、ユビキタスシステムのクライアントは、アノテータの様々なスキルレベル、バイアス、悪意のある改ざんによってラベルノイズに悩まされる傾向がある。 本稿では,ユビキタスシステムのためのフェデレーションオポチュニティコンピューティング(FOCUS)を提案する。 それは、ローカルデータセット上のflモデルのパフォーマンスとベンチマークデータセット上のクライアントローカルflモデルのパフォーマンスの相互クロスエントロピーを計算することによって、直接観察することなく、flサーバ上で少数のベンチマークサンプルを保持し、クライアントローカルデータの信頼性を定量化する。 そして、信用重み付けオーケストレーションを行い、その信頼性値に基づいてFLモデルのクライアントに割り当てられた重みを調整する。 FOCUSは合成データと実世界のデータの両方で実験的に評価されている。 その結果, クライアントをノイズラベルで効果的に識別し, モデル性能への影響を低減し, 既存のFLアプローチを著しく上回ることがわかった。

Ubiquitous systems with End-Edge-Cloud architecture are increasingly being used in healthcare applications. Federated Learning (FL) is highly useful for such applications, due to silo effect and privacy preserving. Existing FL approaches generally do not account for disparities in the quality of local data labels. However, the clients in ubiquitous systems tend to suffer from label noise due to varying skill-levels, biases or malicious tampering of the annotators. In this paper, we propose Federated Opportunistic Computing for Ubiquitous Systems (FOCUS) to address this challenge. It maintains a small set of benchmark samples on the FL server and quantifies the credibility of the client local data without directly observing them by computing the mutual cross-entropy between performance of the FL model on the local datasets and that of the client local FL model on the benchmark dataset. Then, a credit weighted orchestration is performed to adjust the weight assigned to clients in the FL model based on their credibility values. FOCUS has been experimentally evaluated on both synthetic data and real-world data. The results show that it effectively identifies clients with noisy labels and reduces their impact on the model performance, thereby significantly outperforming existing FL approaches.
翻訳日:2023-01-05 20:54:08 公開日:2020-01-29
# フラクタルニューラルネットワークを用いたsimcity 1とconway's game of lifeの可変スケールでのプレイ

Using Fractal Neural Networks to Play SimCity 1 and Conway's Game of Life at Variable Scales ( http://arxiv.org/abs/2002.03896v1 )

ライセンス: Link先を確認
Sam Earle(参考訳) 我々は,simcity 1のゲームエンジンを用いて都市環境をシミュレートする強化学習環境であるgym-cityを紹介する。 我々は人口に注目し、訓練中に見たものよりも大きな地図サイズに一般化するエージェントの能力を分析する。 環境はインタラクティブで、トレーニングや推論中にエージェントと一緒に構築したり、学習のコースに影響を与えたり、手作業でパフォーマンスを調査、評価したりすることができる。 ゲームボードの要素間の距離に依存しない関係をとらえるエージェントの能力をテストするために、我々は、厳密な局所戦略で十分大きなスケールで解決できない環境内でミニゲームを設計する。 ゲームエンジンがセルラーオートマタを多用していることを考えると、エージェントにコンウェイのゲーム・オブ・ライフ(人口を最適化する)を「プレイ」するよう訓練し、その動作を複数のスケールで調査する。 モデルは可変スケールのゲームプレイと互換性を持たせるために、再帰的な重みと構造を持つニューラルネットワークを使用します。

We introduce gym-city, a Reinforcement Learning environment that uses SimCity 1's game engine to simulate an urban environment, wherein agents might seek to optimize one or a combination of any number of city-wide metrics, on gameboards of various sizes. We focus on population, and analyze our agents' ability to generalize to larger map-sizes than those seen during training. The environment is interactive, allowing a human player to build alongside agents during training and inference, potentially influencing the course of their learning, or manually probing and evaluating their performance. To test our agents' ability to capture distance-agnostic relationships between elements of the gameboard, we design a minigame within the environment which is, by design, unsolvable at large enough scales given strictly local strategies. Given the game engine's extensive use of Cellular Automata, we also train our agents to "play" Conway's Game of Life -- again optimizing for population -- and examine their behaviour at multiple scales. To make our models compatible with variable-scale gameplay, we use Neural Networks with recursive weights and structure -- fractals to be truncated at different depths, dependent upon the size of the gameboard.
翻訳日:2023-01-05 20:53:47 公開日:2020-01-29
# 学習ロバストと多言語音声表現

Learning Robust and Multilingual Speech Representations ( http://arxiv.org/abs/2001.11128v1 )

ライセンス: Link先を確認
Kazuya Kawakami, Luyu Wang, Chris Dyer, Phil Blunsom, Aaron van den Oord(参考訳) 教師なしの音声表現学習は、音声構造と相関し、下流音声認識性能を向上させる表現を見つけることに顕著な成功を収めている。 しかし、ほとんどの研究は、読み上げ英語(例えば、wall street journalやlibrispeech)での音声認識システムの性能を向上させる能力の観点から、表現の評価に焦点を当てている。 この評価手法では、言語表現が持つべき2つの重要なデシデラタを見下ろしている。 本稿では,最大8000時間に及ぶ多言語音声データから表現を学習し,ドメインシフトに対する頑健さと,多くの言語で認識性能を向上させる能力に着目して表現を評価する。 私たちは、ベースライン機能セットと比較してドメイン外転送が大幅に改善され、機能もまた、声調言語や低リソース言語を含む25の音声に多様性のある言語で改善されています。

Unsupervised speech representation learning has shown remarkable success at finding representations that correlate with phonetic structures and improve downstream speech recognition performance. However, most research has been focused on evaluating the representations in terms of their ability to improve the performance of speech recognition systems on read English (e.g. Wall Street Journal and LibriSpeech). This evaluation methodology overlooks two important desiderata that speech representations should have: robustness to domain shifts and transferability to other languages. In this paper we learn representations from up to 8000 hours of diverse and noisy speech data and evaluate the representations by looking at their robustness to domain shifts and their ability to improve recognition performance in many languages. We find that our representations confer significant robustness advantages to the resulting recognition systems: we see significant improvements in out-of-domain transfer relative to baseline feature sets and the features likewise provide improvements in 25 phonetically diverse languages including tonal languages and low-resource languages.
翻訳日:2023-01-05 20:53:07 公開日:2020-01-29
# D\'ej\`a vu:シークエンシャルレコメンデーションのための文脈的テンポラルアテンションメカニズム

D\'ej\`a vu: A Contextualized Temporal Attention Mechanism for Sequential Recommendation ( http://arxiv.org/abs/2002.00741v1 )

ライセンス: Link先を確認
Jibang Wu, Renqin Cai, Hongning Wang(参考訳) 履歴における逐次行動に基づくユーザの好みの予測は、現代のレコメンデーションシステムにとって困難かつ不可欠である。 既存のシーケンシャルレコメンデーションアルゴリズムは、シーケンシャルアクション間の遷移構造に重点を置いているが、歴史的事象の影響を現在の予測にモデル化する際には、時間的および文脈的な情報をほとんど無視している。 本稿では、過去の出来事がユーザの現在の行動に与える影響は、時間的・異なる文脈で異なるものであるべきであると論じる。 そこで本稿では,歴史的行動がどのような行動であるだけでなく,その行動がいつ,どのように行われたかにも影響を及ぼすことを学習する文脈的時間的注意機構を提案する。 より具体的には、自己アテンション機構から相対的な入力依存を動的に校正するために、複数のパラメータ化されたカーネル関数をデプロイし、様々な時間的ダイナミクスを学習し、そのコンテキスト情報を用いて各入力に対してどのカーネルに従うかを決定する。 2つの大きなパブリックレコメンデーションデータセットにおける経験的評価では、我々のモデルは、最先端のシーケンシャルレコメンデーション手法の広範なセットを一貫して上回っていた。

Predicting users' preferences based on their sequential behaviors in history is challenging and crucial for modern recommender systems. Most existing sequential recommendation algorithms focus on transitional structure among the sequential actions, but largely ignore the temporal and context information, when modeling the influence of a historical event to current prediction. In this paper, we argue that the influence from the past events on a user's current action should vary over the course of time and under different context. Thus, we propose a Contextualized Temporal Attention Mechanism that learns to weigh historical actions' influence on not only what action it is, but also when and how the action took place. More specifically, to dynamically calibrate the relative input dependence from the self-attention mechanism, we deploy multiple parameterized kernel functions to learn various temporal dynamics, and then use the context information to determine which of these reweighing kernels to follow for each input. In empirical evaluations on two large public recommendation datasets, our model consistently outperformed an extensive set of state-of-the-art sequential recommendation methods.
翻訳日:2023-01-05 20:52:51 公開日:2020-01-29
# ABSent:双方向GANを用いた言語間文表現マッピング

ABSent: Cross-Lingual Sentence Representation Mapping with Bidirectional GANs ( http://arxiv.org/abs/2001.11121v1 )

ライセンス: Link先を確認
Zuohui Fu, Yikun Xian, Shijie Geng, Yingqiang Ge, Yuting Wang, Xin Dong, Guang Wang and Gerard de Melo(参考訳) 並列テキストが大量に処理された場合に,ニューラルネットワークに基づく言語間移動学習アプローチが数多く提案されている。 しかし、多くの実世界では、並列注釈トレーニングデータのサイズは制限されている。 さらに、従来の言語間マッピングの研究は主に単語レベルに焦点を当てている。 これは、これらの技法が言語交叉した文表現を無力に得るのにも使えるかどうかという疑問を提起する。 そこで本稿では,限られた並列データ量から言語間文表現のマッピングを学習するAdversarial Bi-directional Sentence Embedding Mapping (ABSent) フレームワークを提案する。

A number of cross-lingual transfer learning approaches based on neural networks have been proposed for the case when large amounts of parallel text are at our disposal. However, in many real-world settings, the size of parallel annotated training data is restricted. Additionally, prior cross-lingual mapping research has mainly focused on the word level. This raises the question of whether such techniques can also be applied to effortlessly obtain cross-lingually aligned sentence representations. To this end, we propose an Adversarial Bi-directional Sentence Embedding Mapping (ABSent) framework, which learns mappings of cross-lingual sentence representations from limited quantities of parallel data.
翻訳日:2023-01-05 20:45:41 公開日:2020-01-29
# MEMO: エピソード記憶の柔軟な組み合わせのためのディープネットワーク

MEMO: A Deep Network for Flexible Combination of Episodic Memories ( http://arxiv.org/abs/2001.10913v1 )

ライセンス: Link先を確認
Andrea Banino, Adri\`a Puigdom\`enech Badia, Raphael K\"oster, Martin J. Chadwick, Vinicius Zambaldi, Demis Hassabis, Caswell Barry, Matthew Botvinick, Dharshan Kumaran, Charles Blundell(参考訳) 外部メモリを用いたニューラルネットワークアーキテクチャを開発する最近の研究では、ベンチマーク babi question and answering dataset が頻繁に使用されている。 そこで我々は,メモリベース推論神経科学文献の古典的な連想推論タスクを用いて,既存のメモリ型推論アーキテクチャの推論能力をより慎重に検証した。 このタスクは、複数の事実や記憶にまたがる要素間の遠い関係の理解という推論の本質を捉えていると考えられている。 驚いたことに、現在のアーキテクチャは長距離の関連性に苦慮している。 同様の結果は、パス内のノード間の最短経路を見つけるという、より複雑なタスクでも得られた。 そこで我々は,長距離の推論能力を備えたアーキテクチャであるMEMOを開発した。 これは2つの新しいコンポーネントの追加によって達成された。 まず、外部メモリに格納されたメモリ(ファクト)と、これらの事実を構成するアイテムを外部メモリに分離する。 第二に、適応的な検索機構を利用し、応答が生成される前に「メモリホップ」の変動数を許容する。 MEMOは、新しい推論タスクを解くだけでなく、bAbIにおけるアート結果の一致も可能にしています。

Recent research developing neural network architectures with external memory have often used the benchmark bAbI question and answering dataset which provides a challenging number of tasks requiring reasoning. Here we employed a classic associative inference task from the memory-based reasoning neuroscience literature in order to more carefully probe the reasoning capacity of existing memory-augmented architectures. This task is thought to capture the essence of reasoning -- the appreciation of distant relationships among elements distributed across multiple facts or memories. Surprisingly, we found that current architectures struggle to reason over long distance associations. Similar results were obtained on a more complex task involving finding the shortest path between nodes in a path. We therefore developed MEMO, an architecture endowed with the capacity to reason over longer distances. This was accomplished with the addition of two novel components. First, it introduces a separation between memories (facts) stored in external memory and the items that comprise these facts in external memory. Second, it makes use of an adaptive retrieval mechanism, allowing a variable number of "memory hops" before the answer is produced. MEMO is capable of solving our novel reasoning tasks, as well as match state of the art results in bAbI.
翻訳日:2023-01-05 20:45:30 公開日:2020-01-29
# 信頼度ゆがみのある正データからの2値分類

Binary Classification from Positive Data with Skewed Confidence ( http://arxiv.org/abs/2001.10642v1 )

ライセンス: Link先を確認
Kazuhiko Shinoda, Hirotaka Kaji, Masashi Sugiyama(参考訳) Pconf分類(Ishida et al., 2018)は、信頼度を備えた正のデータのみからバイナリ分類器を訓練する有望な弱教師付き学習手法である。 しかし、実際には、信頼はアノテーションプロセスで生じるバイアスによって歪められることがある。 Pconf分類器は、歪んだ信頼性で適切に学習できないため、分類性能が劣化する可能性がある。 本稿では,歪信頼のパラメータ化モデルを紹介し,歪信頼の負の影響を解消するハイパーパラメータを,事前知識として正サンプルの誤分類率を仮定して選択する手法を提案する。 ニューラルネットワークモデルを用いた単純な線形モデルとベンチマーク問題を用いた合成実験により,提案手法の有効性を示す。 また,本手法をドライバの眠気予測に適用し,手動アノテーションにより信頼度が得られる実世界の問題に対して有効であることを示す。

Positive-confidence (Pconf) classification [Ishida et al., 2018] is a promising weakly-supervised learning method which trains a binary classifier only from positive data equipped with confidence. However, in practice, the confidence may be skewed by bias arising in an annotation process. The Pconf classifier cannot be properly learned with skewed confidence, and consequently, the classification performance might be deteriorated. In this paper, we introduce the parameterized model of the skewed confidence, and propose the method for selecting the hyperparameter which cancels out the negative impact of skewed confidence under the assumption that we have the misclassification rate of positive samples as a prior knowledge. We demonstrate the effectiveness of the proposed method through a synthetic experiment with simple linear models and benchmark problems with neural network models. We also apply our method to drivers' drowsiness prediction to show that it works well with a real-world problem where confidence is obtained based on manual annotation.
翻訳日:2023-01-05 20:44:33 公開日:2020-01-29
# インドのシェフのプロセス

The Indian Chefs Process ( http://arxiv.org/abs/2001.10657v1 )

ライセンス: Link先を確認
Patrick Dallaire, Luca Ambrogioni, Ludovic Trottier, Umut G\"u\c{c}l\"u, Max Hinne, Philippe Gigu\`ere, Brahim Chaib-Draa, Marcel van Gerven, and Francois Laviolette(参考訳) 本稿では,無限有向非巡回グラフ (dag) の結合空間とインドビュッフェ過程を一般化する順序に先行するベイズ型非パラメトリックな行列であるインドシェフプロセス (icp) を紹介する。 我々の構成が示すように、提案する分布はノードの順序と接続確率の両方を制御する潜在ベータプロセスに依存しており、スパース無限グラフ上の確率分布をもたらす。 前述したdag構造のベイズ非パラメトリック前駆体に対するicpの主な利点は、その柔軟性である。 我々の知る限りでは、ICPは可能なすべてのDAGをサポートする最初のベイズ非パラメトリックモデルである。 我々はICPが深部生成シグモイドネットワークや畳み込みニューラルネットワークの構造を学習する上で有用であることを示す。

This paper introduces the Indian Chefs Process (ICP), a Bayesian nonparametric prior on the joint space of infinite directed acyclic graphs (DAGs) and orders that generalizes Indian Buffet Processes. As our construction shows, the proposed distribution relies on a latent Beta Process controlling both the orders and outgoing connection probabilities of the nodes, and yields a probability distribution on sparse infinite graphs. The main advantage of the ICP over previously proposed Bayesian nonparametric priors for DAG structures is its greater flexibility. To the best of our knowledge, the ICP is the first Bayesian nonparametric model supporting every possible DAG. We demonstrate the usefulness of the ICP on learning the structure of deep generative sigmoid networks as well as convolutional neural networks.
翻訳日:2023-01-05 20:43:55 公開日:2020-01-29
# マルチエージェントシステムにおける対向モデリングのための変分オートエンコーダ

Variational Autoencoders for Opponent Modeling in Multi-Agent Systems ( http://arxiv.org/abs/2001.10829v1 )

ライセンス: Link先を確認
Georgios Papoudakis, Stefano V. Albrecht(参考訳) マルチエージェントシステムは、共有環境における複数のエージェントの相互作用から生じる複雑な振る舞いを示す。 本研究では,マルチエージェントシステムにおけるエージェントの制御に関心を持ち,ポリシーを定めているエージェントとのインタラクションをうまく学習する。 他のエージェント(候補)の振る舞いをモデル化することは、システム内のエージェントの相互作用を理解するのに不可欠である。 教師なし学習の最近の進歩を利用して,変分オートエンコーダを用いたモデリング相手を提案する。 さらに、文献上の既存の手法の多くは、相手のモデルがトレーニングと実行の両方で相手の観察と行動にアクセスできると仮定している。 この仮定をなくすために、我々はエージェントのローカル情報(観察、行動、報酬など)のみを用いて、基盤となる相手モデルを特定しようとする修正を提案する。 実験は,他のモデリング手法に対する強化学習タスクにおいて,対戦相手のモデリング手法が同等以上のエピソディックリターンを達成することを示す。

Multi-agent systems exhibit complex behaviors that emanate from the interactions of multiple agents in a shared environment. In this work, we are interested in controlling one agent in a multi-agent system and successfully learn to interact with the other agents that have fixed policies. Modeling the behavior of other agents (opponents) is essential in understanding the interactions of the agents in the system. By taking advantage of recent advances in unsupervised learning, we propose modeling opponents using variational autoencoders. Additionally, many existing methods in the literature assume that the opponent models have access to opponent's observations and actions during both training and execution. To eliminate this assumption, we propose a modification that attempts to identify the underlying opponent model using only local information of our agent, such as its observations, actions, and rewards. The experiments indicate that our opponent modeling methods achieve equal or greater episodic returns in reinforcement learning tasks against another modeling method.
翻訳日:2023-01-05 20:43:28 公開日:2020-01-29
# 単語強化学習における漸近的効果的なオフポリティ評価

Asymptotically Efficient Off-Policy Evaluation for Tabular Reinforcement Learning ( http://arxiv.org/abs/2001.10742v1 )

ライセンス: Link先を確認
Ming Yin and Yu-Xiang Wang (University of California Santa Barbara)(参考訳) そこで我々は,ログポリシ$\mu$を実行して収集したオフラインデータを用いて,目標ポリシーの期待報酬を$\pi$で見積もることを目的とした,強化学習のためのオフポリシー評価の問題を考える。 この問題に対する標準的な重要性サンプリングベースのアプローチは、タイムホライズン$h$で指数関数的にスケールする分散に苦しめられており、これは"curse of horizon"(liu et al. 2018, xie et al. 2019)を破る代替案に対する近年の関心の高まりを引き起こしている。 特に,有限状態および潜在的無限動作を有するマルコフ決定過程モデルに基づく平均二乗誤差 (MSE) の次数$O(H^3/n)$の推定誤差を達成するために,余分化重要サンプリング (MIS) 手法を用いることを示した。 しかし、MSE境界はいまだに、クラマー・ラオの下界の位数$\Omega(H^2/n)$から$H$離れている。 本稿では、MIS推定器に簡単な修正を加えることで、作用空間が有限であるようなクレイマー・ラオの下界を漸近的に達成できることを証明する。 また,高い確率誤差境界を持つMIS推定器の構成法を提案する。

We consider the problem of off-policy evaluation for reinforcement learning, where the goal is to estimate the expected reward of a target policy $\pi$ using offline data collected by running a logging policy $\mu$. Standard importance-sampling based approaches for this problem suffer from a variance that scales exponentially with time horizon $H$, which motivates a splurge of recent interest in alternatives that break the "Curse of Horizon" (Liu et al. 2018, Xie et al. 2019). In particular, it was shown that a marginalized importance sampling (MIS) approach can be used to achieve an estimation error of order $O(H^3/ n)$ in mean square error (MSE) under an episodic Markov Decision Process model with finite states and potentially infinite actions. The MSE bound however is still a factor of $H$ away from a Cramer-Rao lower bound of order $\Omega(H^2/n)$. In this paper, we prove that with a simple modification to the MIS estimator, we can asymptotically attain the Cramer-Rao lower bound, provided that the action space is finite. We also provide a general method for constructing MIS estimators with high-probability error bounds.
翻訳日:2023-01-05 20:36:29 公開日:2020-01-29
# 可搬確率モデルにおける制約定義可能性について

On Constraint Definability in Tractable Probabilistic Models ( http://arxiv.org/abs/2001.11349v1 )

ライセンス: Link先を確認
Ioannis Papantonis, Vaishak Belle(参考訳) 制約の導入は、確率的機械学習の大きな関心事である。 さまざまな問題は、地図上のモデリングルートからローンの予測承認まで、制約に関する推論と統合する必要がある。 前者では、地図上のノード間の物理的経路の存在を尊重するために予測モデルを要求する可能性があり、後者では、予測モデルは、結果がバイアスに従わないことを保証する公平性制約を尊重する必要があるかもしれない。 広く言えば、制約は確率的、論理的、因果的かもしれませんが、大まかな課題は、宣言されたすべての制約を処理するモデルが学べるかどうかと方法を決定することです。 私たちの知る限りでは、これはほとんどオープンな問題です。 本稿では, 制約を取り入れつつ, 総生産ネットワークなどのトラクタブル確率モデルの学習がいかに可能かを数学的に考察する。

Incorporating constraints is a major concern in probabilistic machine learning. A wide variety of problems require predictions to be integrated with reasoning about constraints, from modelling routes on maps to approving loan predictions. In the former, we may require the prediction model to respect the presence of physical paths between the nodes on the map, and in the latter, we may require that the prediction model respect fairness constraints that ensure that outcomes are not subject to bias. Broadly speaking, constraints may be probabilistic, logical or causal, but the overarching challenge is to determine if and how a model can be learnt that handles all the declared constraints. To the best of our knowledge, this is largely an open problem. In this paper, we consider a mathematical inquiry on how the learning of tractable probabilistic models, such as sum-product networks, is possible while incorporating constraints.
翻訳日:2023-01-05 20:35:57 公開日:2020-01-29
# カプセルニューラルネットワークの利点の検討

Examining the Benefits of Capsule Neural Networks ( http://arxiv.org/abs/2001.10964v1 )

ライセンス: Link先を確認
Arjun Punjabi, Jonas Schmid, Aggelos K. Katsaggelos(参考訳) カプセルネットワークは近年開発されたニューラルネットワークのクラスであり、従来の畳み込みニューラルネットワークの欠点に対処する可能性がある。 標準的なスカラー活性化をベクトルに置き換え、人工ニューロンを新しい方法で接続することで、カプセルネットワークはコンピュータビジョンアプリケーションのための次の大きな開発を目指している。 しかし、これらのネットワークが従来のネットワークと真に異なる動作をしているかどうかを判断するには、カプセルの特徴の違いを見極める必要がある。 この目的のために,カプセルの特徴を解明し,その動作が初版で説明されるかどうかを判定する目的で,いくつかの解析を行った。 まず,カプセルの特徴と畳み込みニューラルネットワークの特徴を視覚的に比較するために,深い可視化分析を行う。 次に、カプセル機能によってベクターコンポーネントにまたがる情報をエンコードし、カプセルアーキテクチャの変更が最も利益をもたらすものに対処する能力について検討する。 最後に、カプセル機能がどのように視覚変換によってクラスオブジェクトのインスタンス化パラメータをエンコードできるかを検討する。

Capsule networks are a recently developed class of neural networks that potentially address some of the deficiencies with traditional convolutional neural networks. By replacing the standard scalar activations with vectors, and by connecting the artificial neurons in a new way, capsule networks aim to be the next great development for computer vision applications. However, in order to determine whether these networks truly operate differently than traditional networks, one must look at the differences in the capsule features. To this end, we perform several analyses with the purpose of elucidating capsule features and determining whether they perform as described in the initial publication. First, we perform a deep visualization analysis to visually compare capsule features and convolutional neural network features. Then, we look at the ability for capsule features to encode information across the vector components and address what changes in the capsule architecture provides the most benefit. Finally, we look at how well the capsule features are able to encode instantiation parameters of class objects via visual transformations.
翻訳日:2023-01-05 20:35:19 公開日:2020-01-29
# stream-learn -- 難しいデータストリームバッチ分析のためのオープンソースのPythonライブラリ

stream-learn -- open-source Python library for difficult data stream batch analysis ( http://arxiv.org/abs/2001.11077v1 )

ライセンス: Link先を確認
Pawe{\l} Ksieniewicz, Pawe{\l} Zyblewski(参考訳) stream-learnは、scikit-learnと互換性のあるpythonパッケージで、ドリフトおよび不均衡データストリーム解析のために開発された。 その主な構成要素はストリームジェネレータであり、これは3つの主要な概念ドリフトタイプ(突然、漸進的、漸進的ドリフト)のそれぞれを繰り返しまたは非再帰バージョンに組み込むことができる合成データストリームを生成することができる。 このパッケージでは、確立した評価手法(テスト-Then-TrainとPrequential)に従って実験を行うことができる。 さらに、単純な分類器と最先端のチャンクベースおよびオンライン分類器アンサンブルを含む、データストリーム分類に適応した推定器が実装されている。 計算効率を向上させるため、パッケージは不均衡なバイナリ分類タスクに対する予測メトリクスの実装を独自に活用する。

stream-learn is a Python package compatible with scikit-learn and developed for the drifting and imbalanced data stream analysis. Its main component is a stream generator, which allows to produce a synthetic data stream that may incorporate each of the three main concept drift types (i.e. sudden, gradual and incremental drift) in their recurring or non-recurring versions. The package allows conducting experiments following established evaluation methodologies (i.e. Test-Then-Train and Prequential). In addition, estimators adapted for data stream classification have been implemented, including both simple classifiers and state-of-art chunk-based and online classifier ensembles. To improve computational efficiency, package utilises its own implementations of prediction metrics for imbalanced binary classification tasks.
翻訳日:2023-01-05 20:35:00 公開日:2020-01-29
# Urban2Vec:マルチモーダルな都市近傍埋め込みのための街並み画像とPOI

Urban2Vec: Incorporating Street View Imagery and POIs for Multi-Modal Urban Neighborhood Embedding ( http://arxiv.org/abs/2001.11101v1 )

ライセンス: Link先を確認
Zhecheng Wang, Haoyuan Li, Ram Rajagopal(参考訳) 都市の固有パターンの理解と時空間特性の予測には、都市域の包括的表現が必要である。 既存の作業は、地域間または地域内接続に頼って地区表現を生成するが、地域内の情報的かつ異質なデータを完全に活用できなかった。 本研究では,街路ビュー画像とPOI(point-of-interest)データの両方を組み込んだ非教師なしマルチモーダルフレームワークであるUrban2Vecを提案する。 具体的には,畳み込みニューラルネットワークを用いて,空間的類似性を保ちながらストリートビュー画像から視覚特徴を抽出する。 さらに、各POIをカテゴリ、評価、レビュー情報を含む単語の袋としてモデル化する。 自然言語処理に文書を埋め込むためのアナロジとして、近傍の「文書」と周辺にあるPOIの単語のベクトル空間における意味的類似性を確立する。 視覚的,テキスト的,地理空間的な情報を近傍表現に共同で符号化することにより,Urban2Vecはベースラインモデルよりも優れた性能を達成し,下流予測タスクにおける完全教師付き手法に匹敵する性能を達成できる。 3つの大都市圏での大規模な実験は、モデル解釈可能性、一般化能力、および近隣の類似性分析におけるその価値を示す。

Understanding intrinsic patterns and predicting spatiotemporal characteristics of cities require a comprehensive representation of urban neighborhoods. Existing works relied on either inter- or intra-region connectivities to generate neighborhood representations but failed to fully utilize the informative yet heterogeneous data within neighborhoods. In this work, we propose Urban2Vec, an unsupervised multi-modal framework which incorporates both street view imagery and point-of-interest (POI) data to learn neighborhood embeddings. Specifically, we use a convolutional neural network to extract visual features from street view images while preserving geospatial similarity. Furthermore, we model each POI as a bag-of-words containing its category, rating, and review information. Analog to document embedding in natural language processing, we establish the semantic similarity between neighborhood ("document") and the words from its surrounding POIs in the vector space. By jointly encoding visual, textual, and geospatial information into the neighborhood representation, Urban2Vec can achieve performances better than baseline models and comparable to fully-supervised methods in downstream prediction tasks. Extensive experiments on three U.S. metropolitan areas also demonstrate the model interpretability, generalization capability, and its value in neighborhood similarity analysis.
翻訳日:2023-01-05 20:34:46 公開日:2020-01-29
# g\^ateaux-hopfieldニューラルネットワーク法

The G\^ateaux-Hopfield Neural Network method ( http://arxiv.org/abs/2001.11853v1 )

ライセンス: Link先を確認
Felipe Silva Carvalho, Jo\~ao Pedro Braga(参考訳) 本研究では,線形拡張ゲイトー導関数(LEGD)を用いて,ホップフィールドニューラルネットワーク(HNN)法における新しい微分方程式の集合を構築した。 この新しいアプローチは、G\^ateaux-Hopfiel Neural Network (GHNN)と呼ばれる。 1次フレドホルム積分問題はこの新しい方法をテストするために用いられ、HNN整数次微分方程式と比較すると、 {\alpha} > 1 の正確な解に22倍早く収束することが判明した。 また、異なる値 {\alpha} に対する結果を分析することにより、学習時間に対する制限も観測される。 この新手法の堅牢性と利点を指摘したい。

In the present work a new set of differential equations for the Hopfield Neural Network (HNN) method were established by means of the Linear Extended Gateaux Derivative (LEGD). This new approach will be referred to as G\^ateaux-Hopfiel Neural Network (GHNN). A first order Fredholm integral problem was used to test this new method and it was found to converge 22 times faster to the exact solutions for {\alpha} > 1 if compared with the HNN integer order differential equations. Also a limit to the learning time is observed by analysing the results for different values of {\alpha}. The robustness and advantages of this new method will be pointed out.
翻訳日:2023-01-05 20:34:21 公開日:2020-01-29