このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200602となっている論文です。

PDF登録状況(公開日: 20200602)

TitleAuthorsAbstract論文公表日・翻訳日
# しきい値とReLUアクティベーションを有するニューラルネットワークのメモリ容量

Memory capacity of neural networks with threshold and ReLU activations ( http://arxiv.org/abs/2001.06938v2 )

ライセンス: Link先を確認
Roman Vershynin(参考訳) 圧倒的な理論と実証的な証拠は、ゆるやかにパラメータ化されたニューラルネットワーク -- トレーニングデータのサイズよりも多くの接続を持つ — が、トレーニングデータを100〜%の精度で記憶できることを示しています。 これは、sgmoidアクティベーション機能を持つネットワークと、最近ではreluアクティベーションに対して厳密に証明された。 1988年のBaumに関するオープンな質問に対して、この現象は一般的な多層パーセプトロン、すなわちしきい値活性化関数を持つニューラルネットワーク、あるいはしきい値とReLUアクティベーションの混合に有効であることを示す。 私たちの建設は確率的であり、幅を生かす。

Overwhelming theoretical and empirical evidence shows that mildly overparametrized neural networks -- those with more connections than the size of the training data -- are often able to memorize the training data with $100\%$ accuracy. This was rigorously proved for networks with sigmoid activation functions and, very recently, for ReLU activations. Addressing a 1988 open question of Baum, we prove that this phenomenon holds for general multilayered perceptrons, i.e. neural networks with threshold activation functions, or with any mix of threshold and ReLU activations. Our construction is probabilistic and exploits sparsity.
翻訳日:2023-01-08 04:56:56 公開日:2020-06-02
# RGB-D核融合と合成データを用いたヘビークラッタ中の未確認産業成分の分離

Segmenting Unseen Industrial Components in a Heavy Clutter Using RGB-D Fusion and Synthetic Data ( http://arxiv.org/abs/2002.03501v3 )

ライセンス: Link先を確認
Seunghyeok Back, Jongwon Kim, Raeyoung Kang, Seungjun Choi, Kyoobin Lee(参考訳) 自律的産業システムには, 産業部品のセグメンテーションが不可欠である。 しかし、工業用部品はテクスチャを欠き、反射性があり、乱雑で非構造的な環境でもしばしば見られるため、目に見えない物体に対処することはより困難である。 そこで本研究では,テクスチャをランダム化して形状情報にフォーカスする合成データ生成パイプラインを提案する。 さらに,信頼性マップ推定器を備えたrgb-d fusion mask r-cnnを提案する。 訓練したモデルを実世界のシナリオに移し,ベースラインとアブレーション研究との比較を行い,その性能評価を行った。 本研究では, 合成データのみを用いる手法が, 産業部品のセグメント化に有効であることを示す。

Segmentation of unseen industrial parts is essential for autonomous industrial systems. However, industrial components are texture-less, reflective, and often found in cluttered and unstructured environments with heavy occlusion, which makes it more challenging to deal with unseen objects. To tackle this problem, we present a synthetic data generation pipeline that randomizes textures via domain randomization to focus on the shape information. In addition, we propose an RGB-D Fusion Mask R-CNN with a confidence map estimator, which exploits reliable depth information in multiple feature levels. We transferred the trained model to real-world scenarios and evaluated its performance by making comparisons with baselines and ablation studies. We demonstrate that our methods, which use only synthetic data, could be effective solutions for unseen industrial components segmentation.
翻訳日:2023-01-02 09:29:15 公開日:2020-06-02
# CRVOS:ビデオオブジェクトセグメンテーションのためのクローズリファイリングネットワーク

CRVOS: Clue Refining Network for Video Object Segmentation ( http://arxiv.org/abs/2002.03651v4 )

ライセンス: Link先を確認
Suhwan Cho, MyeongAh Cho, Tae-young Chung, Heansung Lee, Sangyoun Lee(参考訳) 半教師付きビデオオブジェクトセグメンテーション(Semi-VOS)のためのエンコーダデコーダに基づく手法は、その優れた性能のために広く注目を集めている。 しかし、それらの多くは複雑な中間ネットワークを持ち、挑戦的なシナリオに対して堅牢な強力な仕様化子を生成する。 そこで本研究では,これらのシナリオを効率的に処理する中間ネットワークを持たないリアルタイム・ネットワークCRVOS(Clue Refining Network for Video Object Segmentation)を提案する。 本研究では,従来のフレームの粗いマスクと座標情報からなる簡単な識別器であるClueを提案する。 また,両線形アップサンプリング層の代わりにデコンボリューション層を用いることにより,一般的なモジュールに比べて優れた性能を示す新しいモジュールを提案する。 提案手法は競合精度の高い既存手法の中で最速の速度を示す。 DAVIS 2016では63.5fps,J&Fスコア81.6%を達成した。

The encoder-decoder based methods for semi-supervised video object segmentation (Semi-VOS) have received extensive attention due to their superior performances. However, most of them have complex intermediate networks which generate strong specifiers to be robust against challenging scenarios, and this is quite inefficient when dealing with relatively simple scenarios. To solve this problem, we propose a real-time network, Clue Refining Network for Video Object Segmentation (CRVOS), that does not have any intermediate network to efficiently deal with these scenarios. In this work, we propose a simple specifier, referred to as the Clue, which consists of the previous frame's coarse mask and coordinates information. We also propose a novel refine module which shows the better performance compared with the general ones by using a deconvolution layer instead of a bilinear upsampling layer. Our proposed method shows the fastest speed among the existing methods with a competitive accuracy. On DAVIS 2016 validation set, our method achieves 63.5 fps and J&F score of 81.6%.
翻訳日:2023-01-02 08:57:12 公開日:2020-06-02
# CNN-MoEによる呼吸異常の分類と肺疾患の検出

CNN-MoE based framework for classification of respiratory anomalies and lung disease detection ( http://arxiv.org/abs/2004.04072v2 )

ライセンス: Link先を確認
Lam Pham, Huy Phan, Ramaswamy Palaniappan, Alfred Mertins, Ian McLoughlin(参考訳) 本稿では,聴取分析のための頑健な深層学習フレームワークを提示し,検討する。 これは呼吸周期の異常を分類し、呼吸音記録から疾患を検出することを目的としている。 このフレームワークは、入力音をスペクトログラム表現に変換するフロントエンドの特徴抽出から始まる。 次に、バックエンドディープラーニングネットワークを使用して、スペクトログラムの特徴を呼吸異常サイクルまたは疾患のカテゴリに分類する。 ICBHIベンチマークを用いて行った実験では、呼吸音の分析に対する3つの主な貢献が確認された。 まず,スペクトログラム型,スペクトル時間分解能,重なり・非重ね合わせ窓,最終予測精度に対するデータ拡張の影響を広範囲に検討した。 これにより,現在の最先端手法に勝る新しい深層学習システムを提案する。 最後に、モデル性能とモデル複雑性のトレードオフを達成するために、Teacher-Studentスキームを適用し、提案するリアルタイムアプリケーション構築フレームワークの可能性を高めるのに役立ちます。

This paper presents and explores a robust deep learning framework for auscultation analysis. This aims to classify anomalies in respiratory cycles and detect disease, from respiratory sound recordings. The framework begins with front-end feature extraction that transforms input sound into a spectrogram representation. Then, a back-end deep learning network is used to classify the spectrogram features into categories of respiratory anomaly cycles or diseases. Experiments, conducted over the ICBHI benchmark dataset of respiratory sounds, confirm three main contributions towards respiratory-sound analysis. Firstly, we carry out an extensive exploration of the effect of spectrogram type, spectral-time resolution, overlapped/non-overlapped windows, and data augmentation on final prediction accuracy. This leads us to propose a novel deep learning system, built on the proposed framework, which outperforms current state-of-the-art methods. Finally, we apply a Teacher-Student scheme to achieve a trade-off between model performance and model complexity which additionally helps to increase the potential of the proposed framework for building real-time applications.
翻訳日:2022-12-16 22:52:02 公開日:2020-06-02
# 適応型説明可能なニューラルネットワーク(AxNN)

Adaptive Explainable Neural Networks (AxNNs) ( http://arxiv.org/abs/2004.02353v2 )

ライセンス: Link先を確認
Jie Chen, Joel Vaughan, Vijayan N. Nair, Agus Sudjianto(参考訳) 機械学習技術はいくつかの分野でうまく応用されているが、モデルのブラックボックスの性質は結果の解釈と説明の難しさを示している。 我々は、予測性能とモデル解釈可能性の両目標を達成するために、Adaptive Explainable Neural Networks (AxNN) と呼ばれる新しいフレームワークを開発した。 予測性能のために,2段階のプロセスを用いて,一般化された加法モデルネットワークと(説明可能なニューラルネットワークによる)加法インデックスモデルからなる構造化ニューラルネットワークを構築した。 これはブースティングまたはスタッキングアンサンブルを使用して行うことができる。 本稿では,AxNNの結果を主効果と高次相互作用効果に分解する方法を示す。 計算はGoogleのオープンソースツールであるAdaNetから受け継がれ、分散コンピューティングのトレーニングによって効率的に高速化される。 結果はシミュレーションと実際のデータセットで示される。

While machine learning techniques have been successfully applied in several fields, the black-box nature of the models presents challenges for interpreting and explaining the results. We develop a new framework called Adaptive Explainable Neural Networks (AxNN) for achieving the dual goals of good predictive performance and model interpretability. For predictive performance, we build a structured neural network made up of ensembles of generalized additive model networks and additive index models (through explainable neural networks) using a two-stage process. This can be done using either a boosting or a stacking ensemble. For interpretability, we show how to decompose the results of AxNN into main effects and higher-order interaction effects. The computations are inherited from Google's open source tool AdaNet and can be efficiently accelerated by training with distributed computing. The results are illustrated on simulated and real datasets.
翻訳日:2022-12-16 12:00:11 公開日:2020-06-02
# 非可逆確率勾配ランゲヴィンダイナミクスによる非凸最適化

Non-Convex Optimization via Non-Reversible Stochastic Gradient Langevin Dynamics ( http://arxiv.org/abs/2004.02823v2 )

ライセンス: Link先を確認
Yuanhan Hu, Xiaoyu Wang, Xuefeng Gao, Mert Gurbuzbalaban, Lingjiong Zhu(参考訳) Stochastic Gradient Langevin Dynamics (SGLD) は、非凸目標を最適化するための強力なアルゴリズムであり、制御および適切にスケールされたガウスノイズを確率勾配に追加して、反復を大域的に最小限に設定する。 SGLDは時間の経過とともに可逆的なランゲヴィン拡散に基づく。 過減衰ランジュバン拡散のドリフト項に反対称行列を加えることにより、より速い収束率で同じ定常分布に収束する非可逆拡散が得られる。 本稿では,非可逆なランゲヴィン拡散の離散化に基づく非可逆確率勾配ランゲヴィンダイナミクス(NSGLD)について検討する。 確率的非凸最適化問題に対するNSGLDのグローバル収束に対する有限時間性能境界を提供する。 その結果、人口と経験的リスクの最小化問題の両方に対する非漸近的保証が得られた。 ベイズ独立成分分析とニューラルネットワークモデルに関する数値実験により、NSGLDは反対称行列の適切な選択でSGLDより優れていることが示された。

Stochastic Gradient Langevin Dynamics (SGLD) is a powerful algorithm for optimizing a non-convex objective, where a controlled and properly scaled Gaussian noise is added to the stochastic gradients to steer the iterates towards a global minimum. SGLD is based on the overdamped Langevin diffusion which is reversible in time. By adding an anti-symmetric matrix to the drift term of the overdamped Langevin diffusion, one gets a non-reversible diffusion that converges to the same stationary distribution with a faster convergence rate. In this paper, we study the non reversible Stochastic Gradient Langevin Dynamics (NSGLD) which is based on discretization of the non-reversible Langevin diffusion. We provide finite-time performance bounds for the global convergence of NSGLD for solving stochastic non-convex optimization problems. Our results lead to non-asymptotic guarantees for both population and empirical risk minimization problems. Numerical experiments for Bayesian independent component analysis and neural network models show that NSGLD can outperform SGLD with proper choices of the anti-symmetric matrix.
翻訳日:2022-12-16 07:21:31 公開日:2020-06-02
# マルチモーダル最適化のための自己調整進化アルゴリズム

Self-Adjusting Evolutionary Algorithms for Multimodal Optimization ( http://arxiv.org/abs/2004.03266v2 )

ライセンス: Link先を確認
Amirhossein Rajabi and Carsten Witt(参考訳) 近年の理論的研究により、自己調整と自己適応のメカニズムは二進探索空間の進化的アルゴリズムにおいて静的な設定よりも優れていることが示されている。 しかし、これらの研究の大部分は、アルゴリズムが数ビットを同時に反転させる必要のない一様関数に焦点をあてている。 実際、既存の自己調整アルゴリズムは局所的な最適性を検出するように設計されておらず、大きなハミングギャップを横断する明確な利点を持っていない。 既存の進化的アルゴリズム(事前の自己調整アルゴリズムの有無に関わらず)にモジュールとして加えることができるスタグネーション検出と呼ばれるメカニズムを提案する。 単純な (1+1) EA に加え、漸近的に最適なパラメータ設定に対応するよく知られたJumpベンチマークのランタイムを証明し、重み付き突然変異のようなマルチモーダル最適化のための他のメカニズムを上回ります。 また, 自己調整 (1+$\lambda$) EA の文脈におけるモジュールについても検討し, このアルゴリズムの既往の利点とより効率的なマルチモーダル最適化を組み合わせていることを示す。 このアプローチの限界を探るために、スタグネーション検出を含む両方の自己調整機構が、突然変異率の有益な設定を見つけるのに役立たない例を示す。 最後に,ステージネーション検出のためのモジュールを実験的に検討した。

Recent theoretical research has shown that self-adjusting and self-adaptive mechanisms can provably outperform static settings in evolutionary algorithms for binary search spaces. However, the vast majority of these studies focuses on unimodal functions which do not require the algorithm to flip several bits simultaneously to make progress. In fact, existing self-adjusting algorithms are not designed to detect local optima and do not have any obvious benefit to cross large Hamming gaps. We suggest a mechanism called stagnation detection that can be added as a module to existing evolutionary algorithms (both with and without prior self-adjusting algorithms). Added to a simple (1+1) EA, we prove an expected runtime on the well-known Jump benchmark that corresponds to an asymptotically optimal parameter setting and outperforms other mechanisms for multimodal optimization like heavy-tailed mutation. We also investigate the module in the context of a self-adjusting (1+$\lambda$) EA and show that it combines the previous benefits of this algorithm on unimodal problems with more efficient multimodal optimization. To explore the limitations of the approach, we additionally present an example where both self-adjusting mechanisms, including stagnation detection, do not help to find a beneficial setting of the mutation rate. Finally, we investigate our module for stagnation detection experimentally.
翻訳日:2022-12-15 23:23:21 公開日:2020-06-02
# ディープトランスファー学習による任意のセンサジオメトリ間のスパースアレイ選択

Sparse Array Selection Across Arbitrary Sensor Geometries with Deep Transfer Learning ( http://arxiv.org/abs/2004.11637v2 )

ライセンス: Link先を確認
Ahmet M. Elbir and Kumar Vijay Mishra(参考訳) スパースセンサアレイの選択は多くの工学的応用で発生し、限られた配列要素から最大空間分解能を得る必要がある。 近年の研究では、従来の最適化法と欲求探索法をディープラーニングネットワークに置き換えることで、配列選択の計算複雑性を低減している。 しかしながら、実際には十分な十分なラベル付きトレーニングデータは使用不可能であり、任意の配列構成ではより有効である。 そこで我々は,データキャリブレーションが容易なソースセンサアレイのデータを用いて,深層畳み込みニューラルネットワーク(cnn,deep convolutional neural network)を訓練し,この事前学習されたcnnを,異なるデータ不足対象配列形状に対して再利用してスパース配列選択を行う。 一様長方形と円形の配列を用いた数値実験により、同じモデルから不十分なデータで訓練されたcnnよりもターゲットモデルでのtl-cnnの性能が向上した。 特に,我々のTLフレームワークでは,センサ選択精度が約20%向上し,入力方向推定誤差が10%向上した。

Sparse sensor array selection arises in many engineering applications, where it is imperative to obtain maximum spatial resolution from a limited number of array elements. Recent research shows that computational complexity of array selection is reduced by replacing the conventional optimization and greedy search methods with a deep learning network. However, in practice, sufficient and well-calibrated labeled training data are unavailable and, more so, for arbitrary array configurations. To address this, we adopt a deep transfer learning (TL) approach, wherein we train a deep convolutional neural network (CNN) with data of a source sensor array for which calibrated data are readily available and reuse this pre-trained CNN for a different, data-insufficient target array geometry to perform sparse array selection. Numerical experiments with uniform rectangular and circular arrays demonstrate enhanced performance of TL-CNN on the target model than the CNN trained with insufficient data from the same model. In particular, our TL framework provides approximately 20% higher sensor selection accuracy and 10% improvement in the direction-of-arrival estimation error.
翻訳日:2022-12-10 04:27:01 公開日:2020-06-02
# バイオメディカルテクスチャ解析のための3次元球面CNN

3D Solid Spherical Bispectrum CNNs for Biomedical Texture Analysis ( http://arxiv.org/abs/2004.13371v2 )

ライセンス: Link先を確認
Valentin Oreiller, Vincent Andrearczyk, Julien Fageot, John O. Prior, Adrien Depeursinge(参考訳) 局所回転不変量(LRI)演算子は、ランダムな位置と向きにパターンが現れるバイオメディカルテクスチャ解析において大きな可能性を示している。 LRI演算子は、ローカルバイナリパターン (LBP) やスケール不変特徴変換 (SIFT) などの局所記述子の離散回転に対する応答を計算することで得られる。 他の戦略では、例えばガウスまたはステアブルウェーブレットのラプラシアンを用いてこの不変性を達成し、回転の離散化中にサンプリングエラーが発生するのを防ぐ。 本研究では、球面高調波に基づく画像の局所投影によりLRI演算子を取得し、続いてスペクトルの不変性を共有して拡張する双スペクトルの計算を行う。 浅層畳み込みニューラルネットワーク(CNN)に埋め込まれたLRI層の設計におけるスペクトル上の双スペクトルを用いた3次元画像解析の利点について検討する。 各設計の性能は2つのデータセットで評価され、標準の3D CNNと比較される。 第1のデータセットは合成的に生成された回転パターンからなる3Dボリュームで構成され、第2のデータセットはCT画像に悪性および良性肺結節を含む。 その結果、bispectrum cnnは、スペクトルと標準cnnの両方よりも、はるかに優れた3dテクスチャのキャラクタリゼーションを可能にすることが示唆された。 さらに、標準的な畳み込み層と比較して、トレーニング例やトレーニング可能なパラメータを少なくして、効率的に学習することができる。

Locally Rotation Invariant (LRI) operators have shown great potential in biomedical texture analysis where patterns appear at random positions and orientations. LRI operators can be obtained by computing the responses to the discrete rotation of local descriptors, such as Local Binary Patterns (LBP) or the Scale Invariant Feature Transform (SIFT). Other strategies achieve this invariance using Laplacian of Gaussian or steerable wavelets for instance, preventing the introduction of sampling errors during the discretization of the rotations. In this work, we obtain LRI operators via the local projection of the image on the spherical harmonics basis, followed by the computation of the bispectrum, which shares and extends the invariance properties of the spectrum. We investigate the benefits of using the bispectrum over the spectrum in the design of a LRI layer embedded in a shallow Convolutional Neural Network (CNN) for 3D image analysis. The performance of each design is evaluated on two datasets and compared against a standard 3D CNN. The first dataset is made of 3D volumes composed of synthetically generated rotated patterns, while the second contains malignant and benign pulmonary nodules in Computed Tomography (CT) images. The results indicate that bispectrum CNNs allows for a significantly better characterization of 3D textures than both the spectral and standard CNN. In addition, it can efficiently learn with fewer training examples and trainable parameters when compared to a standard convolutional layer.
翻訳日:2022-12-08 23:17:33 公開日:2020-06-02
# 光沢のないバイエンコーダによる単語感覚の曖昧さの解消

Moving Down the Long Tail of Word Sense Disambiguation with Gloss-Informed Biencoders ( http://arxiv.org/abs/2005.02590v2 )

ライセンス: Link先を確認
Terra Blevins and Luke Zettlemoyer(参考訳) Word Sense Disambiguation (WSD) の大きな障害は、単語感覚が均一に分散されていないことである。 本稿では,(1)目的語とその周辺文脈を独立に埋め込むバイエンコーダモデルと,(2)各感覚の辞書定義,または用語集を提案する。 エンコーダは同じ表現空間で共同最適化されるので、各対象語埋め込みに最も近い感覚埋め込みを見つけることで、感覚の曖昧さを実現できる。 これまでの英語全語wsdモデルよりも優れており、これはレアセンスのパフォーマンス向上が主な要因であり、前回の作業よりも頻繁でない感覚で31.1%の誤差を減少させる結果となっている。 これは、希少な感覚は定義をモデル化することによってより効果的に曖昧化できることを示している。

A major obstacle in Word Sense Disambiguation (WSD) is that word senses are not uniformly distributed, causing existing models to generally perform poorly on senses that are either rare or unseen during training. We propose a bi-encoder model that independently embeds (1) the target word with its surrounding context and (2) the dictionary definition, or gloss, of each sense. The encoders are jointly optimized in the same representation space, so that sense disambiguation can be performed by finding the nearest sense embedding for each target word embedding. Our system outperforms previous state-of-the-art models on English all-words WSD; these gains predominantly come from improved performance on rare senses, leading to a 31.1% error reduction on less frequent senses over prior work. This demonstrates that rare senses can be more effectively disambiguated by modeling their definitions.
翻訳日:2022-12-06 05:22:45 公開日:2020-06-02
# 高不均衡および重なり合うデータセットにおけるドメイン適応

Domain Adaptation in Highly Imbalanced and Overlapping Datasets ( http://arxiv.org/abs/2005.03585v2 )

ライセンス: Link先を確認
Ran Ilan Ber and Tom Haramaty(参考訳) 多くの機械学習領域では、データセットは高度に不均衡で重複したクラスによって特徴づけられる。 特に医学領域では、特定の症状のリストは様々な病態の1つとして分類することができる。 これらの条件のいくつかは他の条件よりも数桁大きな値を持つ可能性がある。 ここでは、そのようなデータセットに対する新しい教師なしドメイン適応スキームを示す。 このスキームは、特定の種類の量子化に基づいて、ラベルシフトと条件シフトの両方で動作するように設計されている。 これは電子健康記録から生成されたデータセットで実証され、非常に困難なシナリオで量子化とドメイン適応の両方に高品質な結果を提供する。 新型コロナウイルスの感染拡大でこの手法を用いることで、感染の頻度や確率を推定する可能性について論じる。

In many machine learning domains, datasets are characterized by highly imbalanced and overlapping classes. Particularly in the medical domain, a specific list of symptoms can be labeled as one of various different conditions. Some of these conditions may be more prevalent than others by several orders of magnitude. Here we present a novel unsupervised domain adaptation scheme for such datasets. The scheme, based on a specific type of Quantification, is designed to work under both label and conditional shifts. It is demonstrated on datasets generated from electronic health records and provides high quality results for both Quantification and Domain Adaptation in very challenging scenarios. Potential benefits of using this scheme in the current COVID-19 outbreak, for estimation of prevalence and probability of infection are discussed.
翻訳日:2022-12-05 22:50:11 公開日:2020-06-02
# NTNUシステムによるNative Children's Speech ASR Challengeの開催

The NTNU System at the Interspeech 2020 Non-Native Children's Speech ASR Challenge ( http://arxiv.org/abs/2005.08433v2 )

ライセンス: Link先を確認
Tien-Hong Lo, Fu-An Chao, Shi-Yan Weng, Berlin Chen(参考訳) 本稿では,ISCAのSIG-ChiLDグループによって支援された,2020年の非Native Children's Speech ASR Challengeに参加するNTNU ASRシステムについて述べる。 このasr共有タスクは、非ネイティブと子供の発話特性が共存しているため、はるかに困難になっている。 閉トラック評価の設定では,すべての参加者は,オーガナイザが提供した音声とテキストコーパスに基づいて,システムの開発を制限された。 そこで我々は,CNN-TDNNFをベースとした音響モデル上にASRシステムを構築し,発話と単語レベルの速度摂動とスペクトログラムの増大を含む,さまざまなデータ拡張戦略の相乗的パワーを利用する。 ASRシステムのすべての変種は、RNNベースの言語モデルを使用して、オーガナイザがリリースしたテキストデータセットのみに基づいてトレーニングされた、ファーストパス認識仮説を再評価した。 最も優れた構成のシステムでは、ワードエラー率(WER)が17.59%となり、トップパフォーマンス、2位、公式ベースラインのシステムは15.67%、18.71%、35.09%となっている。

This paper describes the NTNU ASR system participating in the Interspeech 2020 Non-Native Children's Speech ASR Challenge supported by the SIG-CHILD group of ISCA. This ASR shared task is made much more challenging due to the coexisting diversity of non-native and children speaking characteristics. In the setting of closed-track evaluation, all participants were restricted to develop their systems merely based on the speech and text corpora provided by the organizer. To work around this under-resourced issue, we built our ASR system on top of CNN-TDNNF-based acoustic models, meanwhile harnessing the synergistic power of various data augmentation strategies, including both utterance- and word-level speed perturbation and spectrogram augmentation, alongside a simple yet effective data-cleansing approach. All variants of our ASR system employed an RNN-based language model to rescore the first-pass recognition hypotheses, which was trained solely on the text dataset released by the organizer. Our system with the best configuration came out in second place, resulting in a word error rate (WER) of 17.59 %, while those of the top-performing, second runner-up and official baseline systems are 15.67%, 18.71%, 35.09%, respectively.
翻訳日:2022-12-02 00:05:43 公開日:2020-06-02
# ミラー・ランジュバン拡散の指数エルゴード性

Exponential ergodicity of mirror-Langevin diffusions ( http://arxiv.org/abs/2005.09669v2 )

ライセンス: Link先を確認
Sinho Chewi, Thibaut Le Gouic, Chen Lu, Tyler Maunu, Philippe Rigollet, Austin J. Stromme(参考訳) Zhang et al. (2020) で導入されたミラー-ランジュバン拡散の非漸近的収束解析を、不条件の対数凹分布からサンプリングする問題によって動機付けられた。 このフレームワークの特別な場合として、Newton-Langevin拡散と呼ばれる拡散のクラスを提案し、それらは次元自由であるだけでなく、対象分布にも依存しない速度で指数関数的に定常性に収束することを証明する。 本研究では, 内部点法に着想を得た戦略を用いて, 凸体上の均一分布からのサンプリング問題に適用する。 私たちの一般的なアプローチはサンプリングと最適化をリンクする最近のトレンドに従い、chi-squared divergenceの役割を強調する。 特に、ワッサーシュタイン距離におけるバニラ・ランゲヴィン拡散の収束に関する新しい結果が得られる。

Motivated by the problem of sampling from ill-conditioned log-concave distributions, we give a clean non-asymptotic convergence analysis of mirror-Langevin diffusions as introduced in Zhang et al. (2020). As a special case of this framework, we propose a class of diffusions called Newton-Langevin diffusions and prove that they converge to stationarity exponentially fast with a rate which not only is dimension-free, but also has no dependence on the target distribution. We give an application of this result to the problem of sampling from the uniform distribution on a convex body using a strategy inspired by interior-point methods. Our general approach follows the recent trend of linking sampling and optimization and highlights the role of the chi-squared divergence. In particular, it yields new results on the convergence of the vanilla Langevin diffusion in Wasserstein distance.
翻訳日:2022-12-01 15:02:30 公開日:2020-06-02
# タスクバランシングのための単一勾配ステップ更新によるマルチタスク学習

Multitask Learning with Single Gradient Step Update for Task Balancing ( http://arxiv.org/abs/2005.09910v2 )

ライセンス: Link先を確認
Sungjae Lee, Youngdoo Son(参考訳) マルチタスク学習は、一般化性能を高め、計算強度とメモリ使用量を減らす手法である。 しかし,複数のタスクを同時に学習することは,ひとつのタスクを学習するよりも難しい場合がある。 不均衡問題に対処するために,勾配に基づくメタラーニングをマルチタスク学習に適用することにより,タスク間のバランスをとるアルゴリズムを提案する。 提案手法は共有層とタスク固有の層を個別に訓練し,マルチタスクネットワークにおいて異なる役割を持つ2つの層をそれぞれの目的に適合させることができる。 特に、タスク間で共有される情報的知識を含む共有層を、単一の勾配ステップ更新とインナー/インナーループトレーニングを用いて訓練し、勾配レベルでの不均衡問題を緩和する。 提案手法を様々なマルチタスクコンピュータビジョン問題に適用し,最新性能を実現する。

Multitask learning is a methodology to boost generalization performance and also reduce computational intensity and memory usage. However, learning multiple tasks simultaneously can be more difficult than learning a single task because it can cause imbalance among tasks. To address the imbalance problem, we propose an algorithm to balance between tasks at the gradient level by applying gradient-based meta-learning to multitask learning. The proposed method trains shared layers and task-specific layers separately so that the two layers with different roles in a multitask network can be fitted to their own purposes. In particular, the shared layer that contains informative knowledge shared among tasks is trained by employing single gradient step update and inner/outer loop training to mitigate the imbalance problem at the gradient level. We apply the proposed method to various multitask computer vision problems and achieve state-of-the-art performance.
翻訳日:2022-12-01 04:56:56 公開日:2020-06-02
# 神経二成分マッチング

Neural Bipartite Matching ( http://arxiv.org/abs/2005.11304v3 )

ライセンス: Link先を確認
Dobrik Georgiev, Pietro Li\`o(参考訳) グラフニューラルネットワーク(GNN)は、アルゴリズムの分野における学習の応用を見出した。 しかし、既存の研究(ソート、幅優先探索、最短経路探索など)によって選択されたアルゴリズムは通常、標準的なgnnアーキテクチャと完全に一致する。 この報告では、フロー問題に還元することで最大二分法マッチングを見つけ、Ford-Fulkersonを用いて最大フローを見つけるなど、複雑なアルゴリズムにニューラル実行がどのように適用されるかを説明する。 これは単一のgnnから生成される機能のみに基づいて、ニューラルネットワークによって実行される。 評価の結果,ネットワークがほぼ100%の時間で最適なマッチングを達成できることを示す。

Graph neural networks (GNNs) have found application for learning in the space of algorithms. However, the algorithms chosen by existing research (sorting, Breadth-First search, shortest path finding, etc.) usually align perfectly with a standard GNN architecture. This report describes how neural execution is applied to a complex algorithm, such as finding maximum bipartite matching by reducing it to a flow problem and using Ford-Fulkerson to find the maximum flow. This is achieved via neural execution based only on features generated from a single GNN. The evaluation shows strongly generalising results with the network achieving optimal matching almost 100% of the time.
翻訳日:2022-11-30 08:30:56 公開日:2020-06-02
# ニューラルネットワークのレジリエンス予測と損傷回復のための幾何学的アルゴリズム

Geometric algorithms for predicting resilience and recovering damage in neural networks ( http://arxiv.org/abs/2005.11603v2 )

ライセンス: Link先を確認
Guruprasad Raghavan, Jiayi Li, Matt Thomson(参考訳) 生物学的ニューラルネットワークは、大きな回路損傷にもかかわらず性能を維持するために進化してきた。 損傷に耐えるために、生物学的ネットワークアーキテクチャはコンポーネント損失に固有の弾力性を持つと同時に、可塑性によってネットワーク重みを調整するリカバリプログラムを活性化し、パフォーマンスを安定化する。 技術応用におけるレジリエンスの重要性にもかかわらず、人工知能ニューラルネットワークのレジリエンスは十分に理解されておらず、自律的回復アルゴリズムはまだ開発されていない。 本稿では,微分幾何学のレンズを通してニューラルネットワークのレジリエンスを解析するための数学的枠組みを確立する。 私たちの幾何学的言語は、トレーニングされたネットワークのローカル脆弱性を識別する自然アルゴリズムと、損傷を補償するためにネットワークを動的に調整するリカバリアルゴリズムを提供します。 MNIST と CIFAR10 で訓練された MLP や CNN などの画像解析ネットワークの重大な脆弱性を明らかにする。 また、同じネットワークがパラメータを動的に調整して損傷を補償できる高性能回復経路も明らかにした。 私たちの研究は、レジリエンスと迅速な回復ルーチンを備えた人工システムを実現する手順を提供し、IoTデバイスとの統合を強化し、重要なアプリケーションへのデプロイを可能にします。

Biological neural networks have evolved to maintain performance despite significant circuit damage. To survive damage, biological network architectures have both intrinsic resilience to component loss and also activate recovery programs that adjust network weights through plasticity to stabilize performance. Despite the importance of resilience in technology applications, the resilience of artificial neural networks is poorly understood, and autonomous recovery algorithms have yet to be developed. In this paper, we establish a mathematical framework to analyze the resilience of artificial neural networks through the lens of differential geometry. Our geometric language provides natural algorithms that identify local vulnerabilities in trained networks as well as recovery algorithms that dynamically adjust networks to compensate for damage. We reveal striking vulnerabilities in commonly used image analysis networks, like MLP's and CNN's trained on MNIST and CIFAR10 respectively. We also uncover high-performance recovery paths that enable the same networks to dynamically re-adjust their parameters to compensate for damage. Broadly, our work provides procedures that endow artificial systems with resilience and rapid-recovery routines to enhance their integration with IoT devices as well as enable their deployment for critical applications.
翻訳日:2022-11-30 03:19:15 公開日:2020-06-02
# K{\o}psala: 効率的な学習と効果的な符号化による遷移グラフ解析

K{\o}psala: Transition-Based Graph Parsing via Efficient Training and Effective Encoding ( http://arxiv.org/abs/2005.12094v2 )

ライセンス: Link先を確認
Daniel Hershcovich, Miryam de Lhoneux, Artur Kulmizev, Elham Pejhan, Joakim Nivre(参考訳) 我々は、iwpt 2020において、拡張ユニバーサル依存関係共有タスクのためのコペンハーゲン-uppsalaシステムであるk{\o}psalaを提案する。 我々のシステムは,拡張グラフ解析以外のすべてを対象とした既製のモデルからなるパイプラインであり,後者はChe et al. (2019)から適応した遷移グラフ解析器である。 言語ごとの1つの拡張パーサーモデルを訓練し、訓練に金の文分割とトークン化を用い、符号化にはトークン化曲面形式と多言語BERTのみを用いる。 提出直前に導入されたバグによって精度が大幅に低下したが、平均的なELASによると、提出後の修正によって公式ランキングでは4位になった。 我々のパーサーは、統一パイプラインが意味表現解析と拡張ユニバーサル依存の両方に有効であることを示した。

We present K{\o}psala, the Copenhagen-Uppsala system for the Enhanced Universal Dependencies Shared Task at IWPT 2020. Our system is a pipeline consisting of off-the-shelf models for everything but enhanced graph parsing, and for the latter, a transition-based graph parser adapted from Che et al. (2019). We train a single enhanced parser model per language, using gold sentence splitting and tokenization for training, and rely only on tokenized surface forms and multilingual BERT for encoding. While a bug introduced just before submission resulted in a severe drop in precision, its post-submission fix would bring us to 4th place in the official ranking, according to average ELAS. Our parser demonstrates that a unified pipeline is effective for both Meaning Representation Parsing and Enhanced Universal Dependencies.
翻訳日:2022-11-29 05:55:38 公開日:2020-06-02
# 日常運転における視覚空間複雑度の人間中心認知モデルに向けて

Towards a Human-Centred Cognitive Model of Visuospatial Complexity in Everyday Driving ( http://arxiv.org/abs/2006.00059v2 )

ライセンス: Link先を確認
Vasiliki Kondyli and Mehul Bhatt and Jakob Suchan(参考訳) 我々は,日常的,自然主義的な運転条件下での視覚空間複雑性の認知モデルを開発する。 視覚的知覚に焦点をあてたモデルでは、選択された文脈で識別可能な量的、構造的、動的属性が組み込まれている。 本報告では,人間-因子誘導データセット作成とベンチマークにおける視覚複雑性の認知モデルの適用と,視覚複雑性の(説明可能な)計算解析のための意味的テンプレートとしての利用について概説する。

We develop a human-centred, cognitive model of visuospatial complexity in everyday, naturalistic driving conditions. With a focus on visual perception, the model incorporates quantitative, structural, and dynamic attributes identifiable in the chosen context; the human-centred basis of the model lies in its behavioural evaluation with human subjects with respect to psychophysical measures pertaining to embodied visuoauditory attention. We report preliminary steps to apply the developed cognitive model of visuospatial complexity for human-factors guided dataset creation and benchmarking, and for its use as a semantic template for the (explainable) computational analysis of visuospatial complexity.
翻訳日:2022-11-26 23:06:01 公開日:2020-06-02
# when2com: コミュニケーショングラフグルーピングによるマルチエージェント知覚

When2com: Multi-Agent Perception via Communication Graph Grouping ( http://arxiv.org/abs/2006.00176v2 )

ライセンス: Link先を確認
Yen-Cheng Liu, Junjiao Tian, Nathaniel Glaser, Zsolt Kira(参考訳) 単一エージェントの認識には大きな進歩があったが、多くのアプリケーションはカバレッジやロバストネスなどの利点により、複数のセンサーエージェントとクロスエージェント通信を必要とする。 したがって、分散かつ帯域幅効率のよいマルチエージェント協調認識をサポートするフレームワークを開発することが重要である。 本稿では,あるエージェントが認識タスクを実行し,同じタスクで他のエージェントと情報を共有し共有することができるという,協調的な知覚問題に対処する。 具体的には,コミュニケーショングループの構築と通信のタイミングの決定を両立させることにより,コミュニケーションフレームワークを提案する。 2つの異なる知覚タスクにおけるフレームワークの一般化可能性を示し,優れた性能を維持しつつ通信帯域幅を著しく削減することを示す。

While significant advances have been made for single-agent perception, many applications require multiple sensing agents and cross-agent communication due to benefits such as coverage and robustness. It is therefore critical to develop frameworks which support multi-agent collaborative perception in a distributed and bandwidth-efficient manner. In this paper, we address the collaborative perception problem, where one agent is required to perform a perception task and can communicate and share information with other agents on the same task. Specifically, we propose a communication framework by learning both to construct communication groups and decide when to communicate. We demonstrate the generalizability of our framework on two different perception tasks and show that it significantly reduces communication bandwidth while maintaining superior performance.
翻訳日:2022-11-26 18:17:27 公開日:2020-06-02
# 高度物体検出に深度は本当に必要か?

Is Depth Really Necessary for Salient Object Detection? ( http://arxiv.org/abs/2006.00269v2 )

ライセンス: Link先を確認
Jiawei Zhao, Yifan Zhao, Jia Li, Xiaowu Chen(参考訳) salient object detection (sod)は多くのコンピュータビジョンアプリケーションにとって重要かつ予備的なタスクであり、深層cnnで進歩している。 既存の手法のほとんどは、いくつかの複雑なシナリオで困難に直面している健全なオブジェクトを区別するためにRGB情報に依存している。 この問題を解決するために, 深度マップを独立入力とし, 特徴をRGB情報と融合することにより, 最新のRGBDベースのネットワークを提案する。 RGB法とRGBD法の利点を生かして,より優れた設計をもつ深度対応の有能な物体検出フレームワークを提案する。 1) 深度情報のみをトレーニングデータとし, テストフェーズにおけるRGB情報のみに依存する。 2)多層深度認識正規化によるSOD機能を包括的に最適化する。 3)深度情報は,分割過程を補正するための誤差重み付き地図としても機能する。 これらの洞察に富んだ設計を組み合わせることで、5つの公開RGB SODベンチマークの最先端性能に勝るだけでなく、5つのベンチマークのRGBDベースの手法を大きなマージンで上回り、情報の少ない情報や実装を軽量化しながら、RGB情報のみを推論として統合した深度認識フレームワークを実現する最初の試みを行う。 コードとモデルは公開される予定だ。

Salient object detection (SOD) is a crucial and preliminary task for many computer vision applications, which have made progress with deep CNNs. Most of the existing methods mainly rely on the RGB information to distinguish the salient objects, which faces difficulties in some complex scenarios. To solve this, many recent RGBD-based networks are proposed by adopting the depth map as an independent input and fuse the features with RGB information. Taking the advantages of RGB and RGBD methods, we propose a novel depth-aware salient object detection framework, which has following superior designs: 1) It only takes the depth information as training data while only relies on RGB information in the testing phase. 2) It comprehensively optimizes SOD features with multi-level depth-aware regularizations. 3) The depth information also serves as error-weighted map to correct the segmentation process. With these insightful designs combined, we make the first attempt in realizing an unified depth-aware framework with only RGB information as input for inference, which not only surpasses the state-of-the-art performances on five public RGB SOD benchmarks, but also surpasses the RGBD-based methods on five benchmarks by a large margin, while adopting less information and implementation light-weighted. The code and model will be publicly available.
翻訳日:2022-11-26 18:10:32 公開日:2020-06-02
# 自己適応型再重み付き対向ドメイン適応

Self-adaptive Re-weighted Adversarial Domain Adaptation ( http://arxiv.org/abs/2006.00223v2 )

ライセンス: Link先を確認
Shanshan Wang, Lei Zhang(参考訳) 既存の逆領域適応法は主に限界分布を考慮し、これらの手法は転送中または負の転送に繋がる可能性がある。 この問題に対処するために,条件分布の観点からドメインアライメントの強化を試み,自己適応型再重み付け逆ドメイン適応アプローチを提案する。 正の移動を促進し, 負の移動と戦うために, 条件エントロピーで測定した逆力を高めつつ, アライメント特徴に対する逆損失の軽量化を図る。 さらに、ソースサンプルと疑似ラベル付きターゲットサンプルを利用したトリプレットロスが混乱領域に採用されている。 このようなメトリック損失は、クラス内のサンプルペアがクラス間のペアよりも近い距離を保証し、クラスレベルのアライメントを達成する。 このように、高精度な擬似ラベル付きターゲットサンプルとセマンティックアライメントを協調学習プロセスで同時に取得することができる。 本手法は理想源と目標仮説の結合誤差を低くした。 予測対象誤差はベンダビッドの定理に従って上界となる。 実証的な証拠は、提案されたモデルが標準的なドメイン適応データセットで芸術の状態を上回ります。

Existing adversarial domain adaptation methods mainly consider the marginal distribution and these methods may lead to either under transfer or negative transfer. To address this problem, we present a self-adaptive re-weighted adversarial domain adaptation approach, which tries to enhance domain alignment from the perspective of conditional distribution. In order to promote positive transfer and combat negative transfer, we reduce the weight of the adversarial loss for aligned features while increasing the adversarial force for those poorly aligned measured by the conditional entropy. Additionally, triplet loss leveraging source samples and pseudo-labeled target samples is employed on the confusing domain. Such metric loss ensures the distance of the intra-class sample pairs closer than the inter-class pairs to achieve the class-level alignment. In this way, the high accurate pseudolabeled target samples and semantic alignment can be captured simultaneously in the co-training process. Our method achieved low joint error of the ideal source and target hypothesis. The expected target error can then be upper bounded following Ben-David's theorem. Empirical evidence demonstrates that the proposed model outperforms state of the arts on standard domain adaptation datasets.
翻訳日:2022-11-26 17:41:54 公開日:2020-06-02
# 対向摂動下における主成分の推定

Estimating Principal Components under Adversarial Perturbations ( http://arxiv.org/abs/2006.00602v2 )

ライセンス: Link先を確認
Pranjal Awasthi, Xue Chen, Aravindan Vijayaraghavan(参考訳) ロバストネスは機械学習アルゴリズムを広く展開するための重要な要件であり、統計学とコンピュータ科学の両方で多くの注目を集めている。 逆摂動モデルと呼ばれる高次元統計的推定問題に対するロバストネスの自然なモデルについて検討する。 例えば$\ell_\infty$というような$\ell_q$ノルムで測定された$\delta$まで任意にすべてのサンプルを乱すことができる。 我々のモデルは、低精度機械学習や逆行訓練のような新しいパラダイムに動機づけられている。 逆摂動モデルの下でガウス共分散行列のトップ$r$主部分空間を高次元で推定する古典的な問題について検討する。 劣化したデータを与えられた計算効率の高いアルゴリズムを設計し、我々が同定したロバスト性パラメータ$\kappa$に依存するエラーによりトップ$r$主部分空間の推定を復元する。 このパラメータは、主部分空間上のプロジェクタの$q \to 2$演算子ノルムに対応し、よく研究されたスパーシティの解析的概念を一般化する。 さらに, 汚職の欠如により, スパースPCAや上位アナログなどの問題に対して, 既存の境界の回復が保証される。 また、上記のパラメータ $\kappa$ への依存性は、minimax の意味でだけでなく、問題のすべての例において、ほとんど最適漸近的であることも証明する。 このインスタンス最適化保証は、サブスペースの$q \to 2$演算ノルムが本質的に逆の摂動による推定誤差を特徴づけていることを示している。

Robustness is a key requirement for widespread deployment of machine learning algorithms, and has received much attention in both statistics and computer science. We study a natural model of robustness for high-dimensional statistical estimation problems that we call the adversarial perturbation model. An adversary can perturb every sample arbitrarily up to a specified magnitude $\delta$ measured in some $\ell_q$ norm, say $\ell_\infty$. Our model is motivated by emerging paradigms such as low precision machine learning and adversarial training. We study the classical problem of estimating the top-$r$ principal subspace of the Gaussian covariance matrix in high dimensions, under the adversarial perturbation model. We design a computationally efficient algorithm that given corrupted data, recovers an estimate of the top-$r$ principal subspace with error that depends on a robustness parameter $\kappa$ that we identify. This parameter corresponds to the $q \to 2$ operator norm of the projector onto the principal subspace, and generalizes well-studied analytic notions of sparsity. Additionally, in the absence of corruptions, our algorithmic guarantees recover existing bounds for problems such as sparse PCA and its higher rank analogs. We also prove that the above dependence on the parameter $\kappa$ is almost optimal asymptotically, not just in a minimax sense, but remarkably for every instance of the problem. This instance-optimal guarantee shows that the $q \to 2$ operator norm of the subspace essentially characterizes the estimation error under adversarial perturbations.
翻訳日:2022-11-26 12:43:37 公開日:2020-06-02
# 条件付き神経スプライン流を伴うlyman-{\alpha}近傍の完全確率的クエーサー連続予測

Fully probabilistic quasar continua predictions near Lyman-{\alpha} with conditional neural spline flows ( http://arxiv.org/abs/2006.00615v2 )

ライセンス: Link先を確認
David M. Reiman, John Tamanas, J. Xavier Prochaska, and Dominika \v{D}urov\v{c}\'ikov\'a(参考訳) クエーサースペクトルにおける中性水素の赤減衰翼の測定は、初期の宇宙におけるイオン化のエポックのプローブとなる。 このような定量化には、Lyman-$\alpha$ (Ly$\alpha$)付近の固有連続点の正確で偏りのない推定が必要である。 ここでは,本質連続予測に完全確率的アプローチを導入する。 条件密度推定タスクとしてこの問題をモデル化し、正規化フローを用いた可塑性青色側連続体$1190\ \unicode{xC5} \leq \lambda_{\text{rest}} < 1290\ \unicode{xC5}$) 条件付き赤側スペクトル$1290\ \unicode{xC5} \leq \lambda_{\text{rest}} < 2900\ \unicode{xC5}$) の分布を明示的にモデル化する。 本手法は,最先端の精度と精度を実現し,約10分の1秒以内で1000個の実用可能な連続体をサンプリングし,モンテカルロサンプリングにより青色連続体の信頼性区間をネイティブに提供できる。 2つの$z>7$クエーサーで減衰翼効果を測定し、それぞれから平均水素中性率を推定し、ULAS J1120+0641(z=7.09$)に対して$\bar{x}_\text{HI}=0.304 \pm 0.042$、ULAS J1342+0928(z=7.54$)に対して$\bar{x}_\text{HI}=0.384 \pm 0.133$を求める。

Measurement of the red damping wing of neutral hydrogen in quasar spectra provides a probe of the epoch of reionization in the early Universe. Such quantification requires precise and unbiased estimates of the intrinsic continua near Lyman-$\alpha$ (Ly$\alpha$), a challenging task given the highly variable Ly$\alpha$ emission profiles of quasars. Here, we introduce a fully probabilistic approach to intrinsic continua prediction. We frame the problem as a conditional density estimation task and explicitly model the distribution over plausible blue-side continua ($1190\ \unicode{xC5} \leq \lambda_{\text{rest}} < 1290\ \unicode{xC5}$) conditional on the red-side spectrum ($1290\ \unicode{xC5} \leq \lambda_{\text{rest}} < 2900\ \unicode{xC5}$) using normalizing flows. Our approach achieves state-of-the-art precision and accuracy, allows for sampling one thousand plausible continua in less than a tenth of a second, and can natively provide confidence intervals on the blue-side continua via Monte Carlo sampling. We measure the damping wing effect in two $z>7$ quasars and estimate the volume-averaged neutral fraction of hydrogen from each, finding $\bar{x}_\text{HI}=0.304 \pm 0.042$ for ULAS J1120+0641 ($z=7.09$) and $\bar{x}_\text{HI}=0.384 \pm 0.133$ for ULAS J1342+0928 ($z=7.54$).
翻訳日:2022-11-26 12:41:48 公開日:2020-06-02
# IVF Time-lapse Imaging を用いた胚移植確率の予測

Data-Driven Prediction of Embryo Implantation Probability Using IVF Time-lapse Imaging ( http://arxiv.org/abs/2006.01035v2 )

ライセンス: Link先を確認
David H. Silver, Martin Feder, Yael Gold-Zamir, Avital L. Polsky, Shahar Rosentraub, Efrat Shachor, Adi Weinberger, Pavlo Mazur, Valery D. Zukin, Alex M. Bronstein(参考訳) 不妊に苦しむ人を助けるため、体外で人間の卵を受精させる過程は、in vitro fertilization (IVF)として知られている。 ART(assisted reproductive technology)の最も効果的な方法であるにもかかわらず、IVFの平均成功率は20-40%に過ぎない。 手順の成功に重要なステップの1つは、どの胚を患者に移植するかを選択することである。 本稿では,胚発生時間ラプス画像から胚移植確率を直接予測する新しいデータ駆動システムについて述べる。 回顧的に収集した272個の胚のビデオを用いて, 胚学者の外部パネルと比較すると, 正の予測値が12%, 負の予測値が29%増加した。

The process of fertilizing a human egg outside the body in order to help those suffering from infertility to conceive is known as in vitro fertilization (IVF). Despite being the most effective method of assisted reproductive technology (ART), the average success rate of IVF is a mere 20-40%. One step that is critical to the success of the procedure is selecting which embryo to transfer to the patient, a process typically conducted manually and without any universally accepted and standardized criteria. In this paper we describe a novel data-driven system trained to directly predict embryo implantation probability from embryogenesis time-lapse imaging videos. Using retrospectively collected videos from 272 embryos, we demonstrate that, when compared to an external panel of embryologists, our algorithm results in a 12% increase of positive predictive value and a 29% increase of negative predictive value.
翻訳日:2022-11-26 06:23:14 公開日:2020-06-02
# クラウドソーシング予測のための変分ベイズ推定

Variational Bayesian Inference for Crowdsourcing Predictions ( http://arxiv.org/abs/2006.00778v2 )

ライセンス: Link先を確認
Desmond Cai, Duc Thien Nguyen, Shiau Hong Lim, Laura Wynter(参考訳) クラウドソーシングは、アノテーションや画像やその他のデータセットのラベル付けなど、多数の機械学習タスクを実行する効果的な手段として登場した。 クラウドソーシングのほとんどの初期の設定では、タスクは各タスクに個別のラベルセットの1つを割り当てる、分類を含む。 しかし最近では、クラウドソースワーカーに連続ラベルや予測を割り当てるよう求めるなど、より複雑なタスクが試みられている。 本質的に、これは関数推定にクラウドソーシングを使うことを伴う。 私たちはこの問題に動機づけられて、コラボレーティブな予測、すなわち、群衆の知恵を利用してより正確な量を予測するといったアプリケーションを駆動しています。 そこで本研究では,正確な予測モデルに対する典型的な障害であるオーバーフィッティングの緩和を目的としたベイズ手法を提案する。 特に、労働者の騒音が独立していると仮定するものと、労働者の騒音が潜在的な低ランク構造を持つと仮定する2つの異なる労働者ノイズモデルに対する変分ベイズ的手法を開発する。 合成および実世界のデータセットに対する我々の評価は、これらのベイズ的アプローチが既存の非ベイズ的アプローチよりもはるかに優れており、この種のクラウドソーシング問題に潜在的に有用であることを示している。

Crowdsourcing has emerged as an effective means for performing a number of machine learning tasks such as annotation and labelling of images and other data sets. In most early settings of crowdsourcing, the task involved classification, that is assigning one of a discrete set of labels to each task. Recently, however, more complex tasks have been attempted including asking crowdsource workers to assign continuous labels, or predictions. In essence, this involves the use of crowdsourcing for function estimation. We are motivated by this problem to drive applications such as collaborative prediction, that is, harnessing the wisdom of the crowd to predict quantities more accurately. To do so, we propose a Bayesian approach aimed specifically at alleviating overfitting, a typical impediment to accurate prediction models in practice. In particular, we develop a variational Bayesian technique for two different worker noise models - one that assumes workers' noises are independent and the other that assumes workers' noises have a latent low-rank structure. Our evaluations on synthetic and real-world datasets demonstrate that these Bayesian approaches perform significantly better than existing non-Bayesian approaches and are thus potentially useful for this class of crowdsourcing problems.
翻訳日:2022-11-26 05:45:21 公開日:2020-06-02
# 深層学習に基づく心電気生理学的モデル

Deep learning-based reduced order models in cardiac electrophysiology ( http://arxiv.org/abs/2006.03040v1 )

ライセンス: Link先を確認
Stefania Fresca, Andrea Manzoni, Luca Ded\`e, Alfio Quarteroni(参考訳) 心臓の電気的挙動を細胞規模から組織レベルまで予測することは、結合された非線形力学系の定式化と数値近似に依存する。 これらのシステムは、細胞膜全体にわたる電位の時間的進化をモデル化する全ての心臓のビートで発生する偏極/偏極サイクルである心臓活動電位と、イオン変数のセットを記述している。 異なるモデル入力に対応するこれらのシステムの複数の解は、アクティベーションマップやアクションポテンシャル持続時間などの臨床関心のアウトプットを評価するために必要である。 さらに重要なのは、これらのモデルは波面のような時間とともに伝播するコヒーレントな構造を特徴としている。 これらのシステムは、例えば還元基底(rb)法のような従来の還元次数モデル(rom)によって、低次元問題にほとんど還元できない。 これは、主に(問題パラメーターに関して)解多様体の低正則性と、我々が数値的に再構築しようとする入出力写像の非線形性のためである。 本稿では,この課題を克服するために,深層学習(dl)アルゴリズムを応用し,システムパラメータ数と次元が一致する高精度かつ効率的なromを得る非線形手法を提案する。 我々のDLアプローチは、ディープフィードフォワードニューラルネットワーク(NN)と畳み込みオートエンコーダ(AE)を組み合わせたものです。 提案するDL-ROMフレームワークは, パラメタライズド電気生理学問題の解法を効率よく提供し, 病理症例における多シナリオ解析を可能にした。 心臓電気生理学における3つの挑戦的検査例について検討し,DL-ROMが従来のプロジェクションベースのROMより優れていることを証明した。

Predicting the electrical behavior of the heart, from the cellular scale to the tissue level, relies on the formulation and numerical approximation of coupled nonlinear dynamical systems. These systems describe the cardiac action potential, that is the polarization/depolarization cycle occurring at every heart beat that models the time evolution of the electrical potential across the cell membrane, as well as a set of ionic variables. Multiple solutions of these systems, corresponding to different model inputs, are required to evaluate outputs of clinical interest, such as activation maps and action potential duration. More importantly, these models feature coherent structures that propagate over time, such as wavefronts. These systems can hardly be reduced to lower dimensional problems by conventional reduced order models (ROMs) such as, e.g., the reduced basis (RB) method. This is primarily due to the low regularity of the solution manifold (with respect to the problem parameters) as well as to the nonlinear nature of the input-output maps that we intend to reconstruct numerically. To overcome this difficulty, in this paper we propose a new, nonlinear approach which exploits deep learning (DL) algorithms to obtain accurate and efficient ROMs, whose dimensionality matches the number of system parameters. Our DL approach combines deep feedforward neural networks (NNs) and convolutional autoencoders (AEs). We show that the proposed DL-ROM framework can efficiently provide solutions to parametrized electrophysiology problems, thus enabling multi-scenario analysis in pathological cases. We investigate three challenging test cases in cardiac electrophysiology and prove that DL-ROM outperforms classical projection-based ROMs.
翻訳日:2022-11-26 01:28:50 公開日:2020-06-02
# 正則化支援同定を用いた修正ハードしきい値追従法

Modified Hard Thresholding Pursuit with Regularization Assisted Support Identification ( http://arxiv.org/abs/2006.01436v1 )

ライセンス: Link先を確認
Samrat Mukhopadhyay, Mrityunjoy Chakraborty(参考訳) ハードしきい値追跡 (HTP) は, 繰り返しハードしきい値追跡 (IHT) からの支持選択ステップと直交マッチング探索 (OMP) からの推定ステップを組み合わせた, 最近提案された反復スパース回復アルゴリズムである。 HTPは回復保証の改善と収束速度の向上を享受している。 HTPの成功の多くは、IHTからのサポート選択ステップによってサポート選択能力が改善されたためである。 本稿では,HTPの支持選択ステップをIHT型サポート選択に置き換え,コスト関数を正則化コスト関数に置き換え,推定ステップを最小二乗関数を使い続ける一般化HTPアルゴリズムを提案する。 分解可能な正規化器により、ある規則性条件を満たすRHTPアルゴリズムは、HTPのような進化に従って進化するシーケンスと動的に等価なシーケンスを生成する。 RHTPはまた、理論的にも数値的にも、ノイズのない、ノイズの多い測定ベクトルでより高速な収束vis-a-vis HTPを楽しむことが証明されている。

Hard thresholding pursuit (HTP) is a recently proposed iterative sparse recovery algorithm which is a result of combination of a support selection step from iterated hard thresholding (IHT) and an estimation step from the orthogonal matching pursuit (OMP). HTP has been seen to enjoy improved recovery guarantee along with enhanced speed of convergence. Much of the success of HTP can be attributed to its improved support selection capability due to the support selection step from IHT. In this paper, we propose a generalized HTP algorithm, called regularized HTP (RHTP), where the support selection step of HTP is replaced by a IHT-type support selection where the cost function is replaced by a regularized cost function, while the estimation step continues to use the least squares function. With decomposable regularizer, satisfying certain regularity conditions, the RHTP algorithm is shown to produce a sequence dynamically equivalent to a sequence evolving according to a HTP-like evolution, where the identification stage has a gradient premultiplied with a time-varying diagonal matrix. RHTP is also proven, both theoretically, and numerically, to enjoy faster convergence vis-a-vis HTP with both noiseless and noisy measurement vectors.
翻訳日:2022-11-26 01:28:23 公開日:2020-06-02
# 分散学習におけるバイアス削減のための年齢コード計算

Age-Based Coded Computation for Bias Reduction in Distributed Learning ( http://arxiv.org/abs/2006.01816v1 )

ライセンス: Link先を確認
Emre Ozfatura and Baturalp Buyukates and Deniz Gunduz and Sennur Ulukus(参考訳) コード化された計算は、乱雑な労働者の存在下で分散学習をスピードアップするために使用できる。 勾配ベクトルの部分的なリカバリは、各イテレーションでの計算時間をさらに短縮することができるが、これは偏りのある推定器となり、収束を遅くしたり、あるいは分岐を引き起こすこともある。 階層的振舞いが時間とともに相関すると、推定器のバイアスが特に顕著になるため、勾配推定器は数台の高速サーバに支配されることになる。 偏りのある推定器を緩和するために,時間とともに作業者のコードワードや計算順序を変更する順序演算子を含む部分回復のための動的符号化フレームワークを設計する。 回復周波数を調節するために、動的符号化方式の設計に$age$のメートル法を採用する。 提案した動的符号化手法は, モデル更新のバイアスを低減し, 従来の静的部分的復元方式と比較して収束を加速させる。

Coded computation can be used to speed up distributed learning in the presence of straggling workers. Partial recovery of the gradient vector can further reduce the computation time at each iteration; however, this can result in biased estimators, which may slow down convergence, or even cause divergence. Estimator bias will be particularly prevalent when the straggling behavior is correlated over time, which results in the gradient estimators being dominated by a few fast servers. To mitigate biased estimators, we design a $timely$ dynamic encoding framework for partial recovery that includes an ordering operator that changes the codewords and computation orders at workers over time. To regulate the recovery frequencies, we adopt an $age$ metric in the design of the dynamic encoding scheme. We show through numerical results that the proposed dynamic encoding strategy increases the timeliness of the recovered computations, which as a result, reduces the bias in model updates, and accelerates the convergence compared to the conventional static partial recovery schemes.
翻訳日:2022-11-26 01:27:59 公開日:2020-06-02
# 非自律システムのデータ駆動学習

Data-driven learning of non-autonomous systems ( http://arxiv.org/abs/2006.02392v1 )

ライセンス: Link先を確認
Tong Qin and Zhen Chen and John Jakeman and Dongbin Xiu(参考訳) 時間依存入力を持つ未知の非自律力学系を復元するための数値的枠組みを提案する。 システムの非自律性によって生じる困難を回避するため,本手法では,解の状態を個別の時間インスタンス上に分割的に統合する手法を提案する。 時間依存の入力は、時間インスタンスによって決定される部分において、適切なモデル、例えば多項式回帰を用いて局所的にパラメータ化される。 これは元のシステムを、局所的に時間不変な断片的なパラメトリックシステムに変換する。 次に、ローカルモデルを学ぶためにディープニューラルネットワーク構造を設計します。 一度ネットワークモデルを構築したら、グローバルシステム予測の実行に時間をかけて反復的に使用できる。 提案アルゴリズムの理論的解析を行い,提案手法の有効性を示す数値例をいくつか提示する。

We present a numerical framework for recovering unknown non-autonomous dynamical systems with time-dependent inputs. To circumvent the difficulty presented by the non-autonomous nature of the system, our method transforms the solution state into piecewise integration of the system over a discrete set of time instances. The time-dependent inputs are then locally parameterized by using a proper model, for example, polynomial regression, in the pieces determined by the time instances. This transforms the original system into a piecewise parametric system that is locally time invariant. We then design a deep neural network structure to learn the local models. Once the network model is constructed, it can be iteratively used over time to conduct global system prediction. We provide theoretical analysis of our algorithm and present a number of numerical examples to demonstrate the effectiveness of the method.
翻訳日:2022-11-26 01:27:43 公開日:2020-06-02
# 変形ワイル・ハイゼンベルク代数による「支援ベクトル」マシン特徴空間の構成

Construction of 'Support Vector' Machine Feature Spaces via Deformed Weyl-Heisenberg Algebra ( http://arxiv.org/abs/2006.02904v1 )

ライセンス: Link先を確認
Shahram Dehdashti, Catarina Moreira, Abdul Karim Obeid, Peter Bruza(参考訳) 本稿では、よく知られた SU(2), Weyl-Heisenberg, SU(1,1) 群を共通パラメータで統一する変形ワイル・ハイゼンベルク代数に基づく変形コヒーレント状態を用いる。 変形したコヒーレント状態が,カーネル関数を定義するカーネルであるメタカーネル関数の理論的基礎を提供することを示す。 カーネル関数は、機械学習の分野の発展を駆動し、本論文で提示されたメタカーネル関数は、カーネル関数の定義と探索のための新しい理論的方法を開く。 メタカーネル関数は、非線型コヒーレント状態で識別される特徴空間として、関連する革命曲面を適用する。 実験的な調査では、変形した SU(2) および SU(1,1) カーネルを、ラジアル基底核に類似した性能を示すメタカーネルから抽出し、新しい洞察を与える(変形したワイル・ハイゼンベルク代数に基づく)。

This paper uses deformed coherent states, based on a deformed Weyl-Heisenberg algebra that unifies the well-known SU(2), Weyl-Heisenberg, and SU(1,1) groups, through a common parameter. We show that deformed coherent states provide the theoretical foundation of a meta-kernel function, that is a kernel which in turn defines kernel functions. Kernel functions drive developments in the field of machine learning and the meta-kernel function presented in this paper opens new theoretical avenues for the definition and exploration of kernel functions. The meta-kernel function applies associated revolution surfaces as feature spaces identified with non-linear coherent states. An empirical investigation compares the deformed SU(2) and SU(1,1) kernels derived from the meta-kernel which shows performance similar to the Radial Basis kernel, and offers new insights (based on the deformed Weyl-Heisenberg algebra).
翻訳日:2022-11-26 01:25:45 公開日:2020-06-02
# LinkedInにおけるフェイクプロファイルの特定

Identifying Fake Profiles in LinkedIn ( http://arxiv.org/abs/2006.01381v1 )

ライセンス: Link先を確認
Shalinda Adikari and Kaushik Dutta(参考訳) 組織は、ビジネス接続を構築するためにLinkedIn(そのようなソーシャルネットワーク)のようなプロフェッショナル指向のネットワークにますます依存しているため、ネットワーク内でプロフィールに気付く価値が増している。 この値が大きくなると、ネットワークを非倫理的な目的で誤用する誘惑も起こる。 フェイクプロファイルはネットワーク全体の信頼性に悪影響を及ぼし、フェイク情報に基づくコネクション構築に要する時間と労力のかなりのコストを表わすことができる。 残念ながら、偽のプロフィールを特定するのは難しい。 一部のソーシャルネットワークではアプローチが提案されているが、一般的にLinkedInのプロフィールには公開されていないデータに依存している。 本研究では,LinkedInにおける偽プロフィール識別に必要な最小限のプロファイルデータを同定し,偽プロフィール識別のための適切なデータマイニング手法を提案する。 プロファイルデータに制限がある場合でも、87%の精度と94%のTrue Negative Rateで偽のプロファイルを識別できることを実証した。 さらに,類似した量やデータ型を用いたアプローチと比較した場合,約14%の精度向上が期待できる。

As organizations increasingly rely on professionally oriented networks such as LinkedIn (the largest such social network) for building business connections, there is increasing value in having one's profile noticed within the network. As this value increases, so does the temptation to misuse the network for unethical purposes. Fake profiles have an adverse effect on the trustworthiness of the network as a whole, and can represent significant costs in time and effort in building a connection based on fake information. Unfortunately, fake profiles are difficult to identify. Approaches have been proposed for some social networks; however, these generally rely on data that are not publicly available for LinkedIn profiles. In this research, we identify the minimal set of profile data necessary for identifying fake profiles in LinkedIn, and propose an appropriate data mining approach for fake profile identification. We demonstrate that, even with limited profile data, our approach can identify fake profiles with 87% accuracy and 94% True Negative Rate, which is comparable to the results obtained based on larger data sets and more expansive profile information. Further, when compared to approaches using similar amounts and types of data, our method provides an improvement of approximately 14% accuracy.
翻訳日:2022-11-26 01:25:01 公開日:2020-06-02
# 擬似微分作用素の逆問題に対するディープニューラルネットワーク--有限角トモグラフィへの応用

Deep neural networks for inverse problems with pseudodifferential operators: an application to limited-angle tomography ( http://arxiv.org/abs/2006.01620v1 )

ライセンス: Link先を確認
Tatiana A. Bubba, Mathilde Galinier, Matti Lassas, Marco Prato, Luca Ratti, Samuli Siltanen(参考訳) 本稿では,線形逆問題において擬微分演算子(\Psi$DOs)を学習するために設計された新しい畳み込みニューラルネットワーク(CNN)を提案する。 我々の出発点は、スパーシティ・プロモーティング最小化問題を解決する有名なアルゴリズムである反復型ソフトしきい値アルゴリズム(ista)です。 フォワード演算子の仮定では、ISTAの展開された繰り返しをCNNの連続的な層として解釈することができ、それによって、関係するパラメータの特定の選択に対して、ISTAを再現したり、フィルタの係数を束縛できるISTAの摂動を許容する、かなり一般的なネットワークアーキテクチャが提供される。 ケーススタディは、リミテッドアングルX線変換とリミテッドアングルCT(Limited-angle Computed Tomography)への応用である。 特に、la-ctの場合、上限角x線変換の畳み込みの性質と直交ウェーブレット系を定義する基本的な性質を組み合わせることで、我々の$\psi$donetとほとんどのディープラーニングスキームを特徴づけるアップスケーリング、ダウンスケーリング、畳み込みの操作を正確に決定できることを証明します。 ellipseデータセットから生成された有限角幾何のシミュレーションデータに対して,$\psi$donet の2つの異なる実装をテストした。 どちらの実装も同様に良好で注目すべき予備的な結果を提供し、我々が提案するアプローチの可能性を示し、同じアイデアを$\Psi$DOs あるいは Fourier 積分作用素である他の畳み込み作用素に適用する方法を示す。

We propose a novel convolutional neural network (CNN), called $\Psi$DONet, designed for learning pseudodifferential operators ($\Psi$DOs) in the context of linear inverse problems. Our starting point is the Iterative Soft Thresholding Algorithm (ISTA), a well-known algorithm to solve sparsity-promoting minimization problems. We show that, under rather general assumptions on the forward operator, the unfolded iterations of ISTA can be interpreted as the successive layers of a CNN, which in turn provides fairly general network architectures that, for a specific choice of the parameters involved, allow to reproduce ISTA, or a perturbation of ISTA for which we can bound the coefficients of the filters. Our case study is the limited-angle X-ray transform and its application to limited-angle computed tomography (LA-CT). In particular, we prove that, in the case of LA-CT, the operations of upscaling, downscaling and convolution, which characterize our $\Psi$DONet and most deep learning schemes, can be exactly determined by combining the convolutional nature of the limited angle X-ray transform and basic properties defining an orthogonal wavelet system. We test two different implementations of $\Psi$DONet on simulated data from limited-angle geometry, generated from the ellipse data set. Both implementations provide equally good and noteworthy preliminary results, showing the potential of the approach we propose and paving the way to applying the same idea to other convolutional operators which are $\Psi$DOs or Fourier integral operators.
翻訳日:2022-11-26 01:24:10 公開日:2020-06-02
# 社会的トレースからオピニオンダイナミクスを学ぶ

Learning Opinion Dynamics From Social Traces ( http://arxiv.org/abs/2006.01673v1 )

ライセンス: Link先を確認
Corrado Monti, Gianmarco De Francisci Morales, Francesco Bonchi(参考訳) 世論力学 - 人々の意見がどのように形成され、社会的な文脈で進化するかを扱う研究分野 - 伝統的にエージェントベースのモデルを使用して社会学的理論の意味を検証している。 これらのモデルは、意見形成過程を駆動する因果メカニズムを符号化し、容易に解釈できるという利点を持つ。 しかし、データの可用性を活用していないため、その予測能力は限られている。 さらにパラメータキャリブレーションとモデル選択は手作業で難しい作業である。 そこで本研究では,現実の社会的トレースに生成的,エージェントライクな意見力学モデルを適用するための推論機構を提案する。 オブザーバブルのセット(例えばエージェント間のアクションや相互作用)が与えられた場合、我々のモデルはプロセスのダイナミクスに関する仮定と互換性のある最も遅延的な意見軌道を復元することができる。 この種のモデルは、エージェントベースのもの(すなわち因果解釈)の利点を保ちつつ、実際のデータでモデル選択や仮説テストを行う能力も備えている。 我々は,従来のエージェントに基づく意見ダイナミクスモデルから,その生成型モデルに翻訳することにより,提案手法を提示する。 次に,モデルの潜在パラメータを学習するために,オンライン期待最大化に基づく推論アルゴリズムを設計する。 このようなアルゴリズムは、古典的エージェントベースモデルによって生成されたトレースから潜在意見軌道を復元することができる。 さらに、データトレースを生成するために使用される最も可能性の高いマクロパラメータを識別し、社会学的仮説のテストを可能にする。 最後に、われわれのモデルをRedditの現実世界のデータに適用し、バックファイア効果の影響に関する長年にわたる疑問を探る。 我々の結果は、Redditの政治的会話における影響の低さを示唆している。

Opinion dynamics - the research field dealing with how people's opinions form and evolve in a social context - traditionally uses agent-based models to validate the implications of sociological theories. These models encode the causal mechanism that drives the opinion formation process, and have the advantage of being easy to interpret. However, as they do not exploit the availability of data, their predictive power is limited. Moreover, parameter calibration and model selection are manual and difficult tasks. In this work we propose an inference mechanism for fitting a generative, agent-like model of opinion dynamics to real-world social traces. Given a set of observables (e.g., actions and interactions between agents), our model can recover the most-likely latent opinion trajectories that are compatible with the assumptions about the process dynamics. This type of model retains the benefits of agent-based ones (i.e., causal interpretation), while adding the ability to perform model selection and hypothesis testing on real data. We showcase our proposal by translating a classical agent-based model of opinion dynamics into its generative counterpart. We then design an inference algorithm based on online expectation maximization to learn the latent parameters of the model. Such algorithm can recover the latent opinion trajectories from traces generated by the classical agent-based model. In addition, it can identify the most likely set of macro parameters used to generate a data trace, thus allowing testing of sociological hypotheses. Finally, we apply our model to real-world data from Reddit to explore the long-standing question about the impact of backfire effect. Our results suggest a low prominence of the effect in Reddit's political conversation.
翻訳日:2022-11-26 01:23:16 公開日:2020-06-02
# CNNを用いたマルチキャリア波形のディープレシーバ設計

Deep Receiver Design for Multi-carrier Waveforms Using CNNs ( http://arxiv.org/abs/2006.02226v1 )

ライセンス: Link先を確認
Yasin Yildirim, Sedat Ozer, Hakan Ali Cirpan(参考訳) 本稿では,現在および次世代無線通信システムを含むマルチキャリア波形の集合に対して,ディープラーニングに基づく受信機を提案する。 特に,無線環境下で受信した受信信号を共同で検出・復調するために,畳み込みニューラルネットワーク(CNN)を提案する。 提案アーキテクチャを古典的手法と比較し,提案アーキテクチャがOFDMやGFDMなど,様々なマルチキャリア形式において,様々なシミュレーションで優れた性能を発揮することを示す。 さらに,メモリ要求に対して,各ネットワークに必要なパラメータの総数を比較する。

In this paper, a deep learning based receiver is proposed for a collection of multi-carrier wave-forms including both current and next-generation wireless communication systems. In particular, we propose to use a convolutional neural network (CNN) for jointly detection and demodulation of the received signal at the receiver in wireless environments. We compare our proposed architecture to the classical methods and demonstrate that our proposed CNN-based architecture can perform better on different multi-carrier forms including OFDM and GFDM in various simulations. Furthermore, we compare the total number of required parameters for each network for memory requirements.
翻訳日:2022-11-26 01:22:20 公開日:2020-06-02
# 深層学習によるリアルタイム地震早期警戒:2016年イタリア中部アペニン地震への適用

Real-time Earthquake Early Warning with Deep Learning: Application to the 2016 Central Apennines, Italy Earthquake Sequence ( http://arxiv.org/abs/2006.01332v1 )

ライセンス: Link先を確認
Xiong Zhang, Miao Zhang, Xiao Tian(参考訳) 地震早期警報システムは、地震の危険を緩和するためにS波が到着する前に、できるだけ早く地震の場所とマグニチュードを報告する必要がある。 深層学習技術は、地震相ピックの代わりに完全な地震波形から震源情報を抽出する可能性を提供する。 完全畳み込みネットワークを利用して地震を同時に検出し,震源パラメータを連続地震波形ストリームから推定する,新しい深層学習型地震早期警報システムを開発した。 1つの局が地震信号を受信すると、地震の位置とマグニチュードを判定し、連続したデータを受信することでソリューションを進化的に改善する。 2016年イタリア中央アペニン地震(mw6.0)とそれに続く一連の地震に適用する。 地震の位置とマグニチュードは、最初期のP期から4秒後にそれぞれ6.8-3.7kmと0.31-0.23の誤差範囲で確実に決定できる。

Earthquake early warning systems are required to report earthquake locations and magnitudes as quickly as possible before the damaging S wave arrival to mitigate seismic hazards. Deep learning techniques provide potential for extracting earthquake source information from full seismic waveforms instead of seismic phase picks. We developed a novel deep learning earthquake early warning system that utilizes fully convolutional networks to simultaneously detect earthquakes and estimate their source parameters from continuous seismic waveform streams. The system determines earthquake location and magnitude as soon as one station receives earthquake signals and evolutionarily improves the solutions by receiving continuous data. We apply the system to the 2016 Mw 6.0 earthquake in Central Apennines, Italy and its subsequent sequence. Earthquake locations and magnitudes can be reliably determined as early as four seconds after the earliest P phase, with mean error ranges of 6.8-3.7 km and 0.31-0.23, respectively.
翻訳日:2022-11-26 01:15:29 公開日:2020-06-02
# 集合関数の局所化による局所探索アルゴリズムの近似保証

Approximation Guarantees of Local Search Algorithms via Localizability of Set Functions ( http://arxiv.org/abs/2006.01400v1 )

ライセンス: Link先を確認
Kaito Fujii(参考訳) 本稿では,局所探索アルゴリズムの近似保証を提供する新しい枠組みを提案する。 局所探索は基本的なアルゴリズム設計手法であり、様々な組合せ最適化問題に広く用いられている。 集合関数の最大化のための局所探索アルゴリズムを解析するために,集合関数の局所化可能性という新しい概念を提案する。 さらに,様々な組合せ制約下での標準局所探索アルゴリズムの近似保証を局所化可能性の観点から提供する。 本フレームワークの主な用途はスパース最適化であり, 目的関数の強い凹凸と制限された滑らかさが局所化可能性を示し, 局所探索アルゴリズムの高速化バージョンをさらに発展させることを示す。 提案する局所探索アルゴリズムの実用性を確認するため,グラフィカルモデルの疎回帰と構造学習の実験を行った。

This paper proposes a new framework for providing approximation guarantees of local search algorithms. Local search is a basic algorithm design technique and is widely used for various combinatorial optimization problems. To analyze local search algorithms for set function maximization, we propose a new notion called localizability of set functions, which measures how effective local improvement is. Moreover, we provide approximation guarantees of standard local search algorithms under various combinatorial constraints in terms of localizability. The main application of our framework is sparse optimization, for which we show that restricted strong concavity and restricted smoothness of the objective function imply localizability, and further develop accelerated versions of local search algorithms. We conduct experiments in sparse regression and structure learning of graphical models to confirm the practical efficiency of the proposed local search algorithms.
翻訳日:2022-11-26 01:15:11 公開日:2020-06-02
# ストレージシステムのためのスマートバックグラウンドスケジューリング

A Smart Background Scheduler for Storage Systems ( http://arxiv.org/abs/2006.01402v1 )

ライセンス: Link先を確認
Maher Kachmar, David Kaeli(参考訳) 今日のエンタープライズストレージシステムでは、スナップショット削除やドライブリビルドなどのサポートされているデータサービスが、重いフォアグラウンドIOとともにインラインで実行されると、大きなパフォーマンス障害を引き起こします。 WebやVDI(Virtual Desktop Infrastructure)のような一般的なストレージシステムアプリケーションは、学習と予測が可能な反復的なハイ/ローワークロードパターンに従っています。 本稿では、この繰り返しパターンを学習し、ストレージシステムがピーク性能を維持し、複数のデータサービスをサポートしながらサービスレベル目標(SLO)を満たすことができる優先度ベースのバックグラウンドスケジューラを提案する。 フォアグラウンドIO需要が増大すると、システムリソースはサービスフォアグラウンドIO要求に専用され、予測がストレージプールのキャパシティが持続していることを示す限り、遅延可能なバックグラウンド処理は将来のアイドルサイクルで処理されるように記録される。 スマートバックグラウンドスケジューラはリソースパーティショニングモデルを採用しており、フォアグラウンドとバックグラウンドIOの両方で、フォアグラウンドIOが影響を受けない限り、スケジューラが任意のフリーサイクルを使用してバックグラウンド負債をクリアすることができる。 提案手法は,vdiアプリケーションからのトレースを用いて,遅延したバックグラウンド負債を静的に制限し,slo違反を54.6%から,スマートなバックグラウンドスケジューラによって動的に設定された場合の6.2%まで改善する手法を超越していることを示す。

In today's enterprise storage systems, supported data services such as snapshot delete or drive rebuild can cause tremendous performance interference if executed inline along with heavy foreground IO, often leading to missing SLOs (Service Level Objectives). Typical storage system applications such as web or VDI (Virtual Desktop Infrastructure) follow a repetitive high/low workload pattern that can be learned and forecasted. We propose a priority-based background scheduler that learns this repetitive pattern and allows storage systems to maintain peak performance and in turn meet service level objectives (SLOs) while supporting a number of data services. When foreground IO demand intensifies, system resources are dedicated to service foreground IO requests and any background processing that can be deferred are recorded to be processed in future idle cycles as long as forecast shows that storage pool has remaining capacity. The smart background scheduler adopts a resource partitioning model that allows both foreground and background IO to execute together as long as foreground IOs are not impacted where the scheduler harness any free cycle to clear background debt. Using traces from VDI application, we show how our technique surpasses a method that statically limit the deferred background debt and improve SLO violations from 54.6% when using a fixed background debt watermark to merely a 6.2% if dynamically set by our smart background scheduler.
翻訳日:2022-11-26 01:14:58 公開日:2020-06-02
# 畳み込みニューラルネットワークによる流体不安定性の同定

Identification of hydrodynamic instability by convolutional neural networks ( http://arxiv.org/abs/2006.01446v1 )

ライセンス: Link先を確認
Wuyue Yang, Liangrong Peng, Yi Zhu, Liu Hong(参考訳) 流体力学の不安定性の開始は、様々な種類の流れ運動に対する劇的な機械的および熱力学的変化のため、産業と日常生活の両方において非常に重要である。 本稿では,最近の機械学習技術,特に畳み込みニューラルネットワーク(CNN)を用いて,流体力学的不安定性により生じる異なる流れの動きの遷移と,この遷移を特徴付ける重要な非次元パラメータを同定する。 CNNはテイラー・コート流(TC)およびレイリー・ブエナード対流(RB)の様々な設定と条件下での臨界遷移値を正確に予測するだけでなく、頑健性と耐雑音性に優れた性能を示す。 また,主成分分析により,異なるフローパターンを分類するための重要な空間的特徴を明らかにする。

The onset of hydrodynamic instabilities is of great importance in both industry and daily life, due to the dramatic mechanical and thermodynamic changes for different types of flow motions. In this paper, modern machine learning techniques, especially the convolutional neural networks (CNN), are applied to identify the transition between different flow motions raised by hydrodynamic instability, as well as critical non-dimensionalized parameters for characterizing this transit. CNN not only correctly predicts the critical transition values for both Taylor-Couette (TC) flow and Rayleigh- B\'enard (RB) convection under various setups and conditions, but also shows an outstanding performance on robustness and noise-tolerance. In addition, key spatial features used for classifying different flow patterns are revealed by the principal component analysis.
翻訳日:2022-11-26 01:14:32 公開日:2020-06-02
# クロスプラットフォームアンカーリンク予測のための多レベルグラフ畳み込みネットワーク

Multi-level Graph Convolutional Networks for Cross-platform Anchor Link Prediction ( http://arxiv.org/abs/2006.01963v1 )

ライセンス: Link先を確認
Hongxu Chen, Hongzhi Yin, Xiangguo Sun, Tong Chen, Bogdan Gabrys and Katarzyna Musial(参考訳) クロスプラットフォームのアカウントマッチングは、ソーシャルネットワークの分析において重要な役割を果たす。 しかし、既存の手法は高品質なユーザー生成コンテンツ(ユーザプロファイルを含む)に大きく依存するか、ネットワークトポロジのみに注目するとデータ不足に陥り、モデル選択の不溶性ジレンマが発生する。 本稿では,この問題を解決するために,局所ネットワーク構造とハイパーグラフ構造の両方のマルチレベルグラフ畳み込みを統一的に考える新しい枠組みを提案する。 提案手法は既存の作業におけるデータ不足を克服し,必ずしもユーザ人口統計情報に依存しない。 さらに,提案手法を大規模ソーシャルネットワークを扱えるように適応させるため,ネットワーク分割に基づく並列トレーニングと,異なるソーシャルネットワーク間のアカウントマッチングの両方において,埋め込み空間を整合させる2相空間整合機構を提案する。 2つの大規模実生活ソーシャルネットワークで大規模な実験が行われた。 実験の結果,提案手法は最先端モデルよりも大きなマージンを有することがわかった。

Cross-platform account matching plays a significant role in social network analytics, and is beneficial for a wide range of applications. However, existing methods either heavily rely on high-quality user generated content (including user profiles) or suffer from data insufficiency problem if only focusing on network topology, which brings researchers into an insoluble dilemma of model selection. In this paper, to address this problem, we propose a novel framework that considers multi-level graph convolutions on both local network structure and hypergraph structure in a unified manner. The proposed method overcomes data insufficiency problem of existing work and does not necessarily rely on user demographic information. Moreover, to adapt the proposed method to be capable of handling large-scale social networks, we propose a two-phase space reconciliation mechanism to align the embedding spaces in both network partitioning based parallel training and account matching across different social networks. Extensive experiments have been conducted on two large-scale real-life social networks. The experimental results demonstrate that the proposed method outperforms the state-of-the-art models with a big margin.
翻訳日:2022-11-26 01:13:36 公開日:2020-06-02
# seqxfilter: 動的視覚センサのためのメモリ効率のよいデノージングフィルタ

SeqXFilter: A Memory-efficient Denoising Filter for Dynamic Vision Sensors ( http://arxiv.org/abs/2006.01687v1 )

ライセンス: Link先を確認
Shasha Guo, Lei Wang, Xiaofan Chen, Limeng Zhang, Ziyang Kang, Weixia Xu(参考訳) ニューロモルフィックイベントベースのダイナミックビジョンセンサー(DVS)は、フレームベースのイメージングセンサよりもサンプリング速度がはるかに速く、ダイナミックレンジが高い。 しかし、それらは望まないバックグラウンドアクティビティ(ba)イベントに敏感である。 時空間相関に基づくこの問題に取り組むフィルタはいくつか存在する。 しかし、それらはメモリ集約またはコンピューティング集約である。 我々は,O(1)空間の複雑さと単純な計算量を有する過去のイベントウィンドウのみを有する時空間相関フィルタである \emph{SeqXFilter} を提案する。 空間距離に異なる関数を適用する場合の事象分布を解析し,過去数回の事象と事象の空間的相関について検討する。 emph{seqxfilter} のイベントの時空間相関をチェックするのに最適な関数を見つけ、実際のイベントとノイズイベントを最も分離する。 フィルタの視覚的認知効果を与えるだけでなく、2つの指標を用いてフィルタの性能を定量的に分析する。 出力サイズが異なる4つのDVSから記録された4つのニューロモルフィックイベントベースデータセットを用いて,本手法の有効性を検証する。 実験結果から, ベースラインNNbフィルタと同等の性能を示すが, メモリコストが極端に小さく, 計算論理も単純であることがわかった。

Neuromorphic event-based dynamic vision sensors (DVS) have much faster sampling rates and a higher dynamic range than frame-based imaging sensors. However, they are sensitive to background activity (BA) events that are unwanted. There are some filters for tackling this problem based on spatio-temporal correlation. However, they are either memory-intensive or computing-intensive. We propose \emph{SeqXFilter}, a spatio-temporal correlation filter with only a past event window that has an O(1) space complexity and has simple computations. We explore the spatial correlation of an event with its past few events by analyzing the distribution of the events when applying different functions on the spatial distances. We find the best function to check the spatio-temporal correlation for an event for \emph{SeqXFilter}, best separating real events and noise events. We not only give the visual denoising effect of the filter but also use two metrics for quantitatively analyzing the filter's performance. Four neuromorphic event-based datasets, recorded from four DVS with different output sizes, are used for validation of our method. The experimental results show that \emph{SeqXFilter} achieves similar performance as baseline NNb filters, but with extremely small memory cost and simple computation logic.
翻訳日:2022-11-26 01:07:10 公開日:2020-06-02
# 全光子像の体積散乱媒体内における自動微分

Automatic Differentiation for All Photons Imaging to See Inside Volumetric Scattering Media ( http://arxiv.org/abs/2006.01897v1 )

ライセンス: Link先を確認
Tomohiro Maeda, Ankit Ranjan, Ramesh Raskar(参考訳) 生物組織、霧、煙などの高密度散乱媒体によるイメージングは、医学やロボット工学の分野で応用されている。 非侵襲的なセンシングと診断のための光学特性の不明な均質散乱媒質による全光子画像の自動微分を用いた新しいフレームワークを提案する。 我々は、全光子イメージングの照明源に撮像対象を視認する必要性を克服し、簡単な光学装置で、濁った媒体を通した実用的な非侵襲イメージングを可能にする。 本手法では,センサの位置や光学特性を取得するためにキャリブレーションを必要としない。

Imaging through dense scattering media - such as biological tissue, fog, and smoke - has applications in the medical and robotics fields. We propose a new framework using automatic differentiation for All Photons Imaging through homogeneous scattering media with unknown optical properties for non-invasive sensing and diagnostics. We overcome the need for the imaging target to be visible to the illumination source in All Photons Imaging, enabling practical and non-invasive imaging through turbid media with a simple optical setup. Our method does not require calibration to acquire the sensor position or optical properties of the media.
翻訳日:2022-11-26 01:06:21 公開日:2020-06-02
# マルチエージェント産業共生のコーディネート

Coordinating Multiagent Industrial Symbiosis ( http://arxiv.org/abs/2006.01784v1 )

ライセンス: Link先を確認
Vahid Yazdanpanah, Devrim Murat Yazan, W. Henk M. Zijm(参考訳) 我々は,産業共生ネットワーク(ISN)と呼ばれる協調的な産業実践のクラスを協調ゲームとしてコーディネートするための,正式なマルチエージェントフレームワークを提案する。 ISNのゲーム理論の定式化は、我々がISN実装問題と呼ぶものについての体系的な推論を可能にする。 特に、ISNの特性は、標準公正と安定した利益配分手法の適用性に繋がる可能性がある。 現実的isシナリオに触発され、規範的マルチエージェントシステムに関する文献に従い、規則と規範的社会経済政策を、isゲームと組み合わせて状況を解決できる協調手段として考える。 このマルチエージェントシステムでは,ルールベースの協調ゲーム表現としてMarginal Contribution Nets (MC-Nets) を用いることで,表現性を損なうことなく,規則とISNゲームの組み合わせを促進する。 我々は,isの実施可能性を確保するための規則生成のためのアルゴリズム的手法を開発し,政策支援として,望むすべてのisの実装性を保証する政策要件をバランスのとれたバジェット方式で提示する。

We present a formal multiagent framework for coordinating a class of collaborative industrial practices called Industrial Symbiotic Networks (ISNs) as cooperative games. The game-theoretic formulation of ISNs enables systematic reasoning about what we call the ISN implementation problem. Specifically, the characteristics of ISNs may lead to the inapplicability of standard fair and stable benefit allocation methods. Inspired by realistic ISN scenarios and following the literature on normative multiagent systems, we consider regulations and normative socio-economic policies as coordination instruments that in combination with ISN games resolve the situation. In this multiagent system, employing Marginal Contribution Nets (MC-Nets) as rule-based cooperative game representations foster the combination of regulations and ISN games with no loss in expressiveness. We develop algorithmic methods for generating regulations that ensure the implementability of ISNs and as a policy support, present the policy requirements that guarantee the implementability of all the desired ISNs in a balanced-budget way.
翻訳日:2022-11-26 01:06:12 公開日:2020-06-02
# AIによる学習 - 教育をアクセシブルに、拡張可能、達成可能にする

AI-Powered Learning: Making Education Accessible, Affordable, and Achievable ( http://arxiv.org/abs/2006.01908v1 )

ライセンス: Link先を確認
Ashok Goel(参考訳) 我々は、高等教育におけるオンライン学習をより使いやすく、手頃で、達成可能なAIを活用した社会技術システムを開発した。 In particular, we have developed four novel and intertwined AI technologies: (1) VERA, a virtual experimentation research assistant for supporting inquiry-based learning of scientific knowledge, (2) Jill Watson Q&A, a virtual teaching assistant for answering questions based on educational documents including the VERA user reference guide, (3) Jill Watson SA, a virtual social agent that promotes online interactions, and (4) Agent Smith, that helps generate a Jill Watson Q&A agent for new documents such as class syllabi. 結果は肯定的です。 (i)VERAは生態知識を高め、オンラインで自由に利用できる。 (二)ジル・ワトソンQ&Aは、12人以上のオンライン授業で4000人以上の学生が利用し、500時間以上を節約している。 (iii)jill q&aとjill watson saは、学習者の参加、交流、コミュニティを促進する。 (iv) エージェント・スミスはジル・ワトソンのQ&Aの制作を25時間以内に行う。 これらの革新的な技術は、オンライン学習を同時に利用しやすくし(オンラインで教材を入手できるようにし)、手頃な価格で(教師の時間を節約し)、(学習支援を提供し、学生のエンゲージメントを促進することによって)達成できるようにする。

We have developed an AI-powered socio-technical system for making online learning in higher education more accessible, affordable and achievable. In particular, we have developed four novel and intertwined AI technologies: (1) VERA, a virtual experimentation research assistant for supporting inquiry-based learning of scientific knowledge, (2) Jill Watson Q&A, a virtual teaching assistant for answering questions based on educational documents including the VERA user reference guide, (3) Jill Watson SA, a virtual social agent that promotes online interactions, and (4) Agent Smith, that helps generate a Jill Watson Q&A agent for new documents such as class syllabi. The results are positive: (i) VERA enhances ecological knowledge and is freely available online; (ii) Jill Watson Q&A has been used by >4,000 students in >12 online classes and saved teachers >500 hours of work; (iii) Jill Q&A and Jill Watson SA promote learner engagement, interaction, and community; and (iv). Agent Smith helps generate Jill Watson Q&A for a new syllabus within ~25 hours. Put together, these innovative technologies help make online learning simultaneously more accessible (by making materials available online), affordable (by saving teacher time), and achievable (by providing learning assistance and fostering student engagement).
翻訳日:2022-11-26 01:05:54 公開日:2020-06-02
# 惑星宇宙物理のための機械学習への物理知識の導入

Incorporating Physical Knowledge into Machine Learning for Planetary Space Physics ( http://arxiv.org/abs/2006.01927v1 )

ライセンス: Link先を確認
A. R. Azari, J. W. Lockhart, M. W. Liemohn, X. Jia(参考訳) 惑星物理学と宇宙物理学のミッションによるデータ収集量の最近の改善は、新しいデータサイエンス技術の適用を可能にした。 例えばカッシーニミッションは2004年から2017年にかけて600ギガバイト以上の科学データを収集した。 これは土星系のデータの急増を表している。 機械学習は、科学者が大規模なデータを扱うのに役立つ。 機械学習の多くの応用とは異なり、惑星物理学の応用では、システム自体の振る舞いを推測することが主な用途である。 第1に、機械学習モデルのパフォーマンス、第2に、科学的な質問に答えるための解釈可能なアプリケーションの必要性、第3に、宇宙船データの特徴がこれらのアプリケーションをどのように変化させるか、という懸念である。 これらの関心事と比較すると、ブラックボックスや非解釈可能な機械学習手法の使用は、基礎となる物理的プロセスを無視しているか、あるいはより少ない頻度で、パフォーマンスの評価を行う傾向にある。 我々は、土星の磁気圏におけるプラズマ不安定性の半教師付き物理に基づく分類を適用した以前の試みを構築した。 そして、この以前の取り組みを、さまざまなデータサイズアクセスと物理情報アクセスを持つ他の機械学習分類器と比較する。 これらの軌道上のデータ特性の知識を組み込むことで、科学的意味の導出に不可欠な機械学習手法の性能と解釈性が向上することを示す。 これらの知見に基づいて,惑星環境における宇宙物理データの半教師付き分類を対象とする機械学習問題に物理知識を組み込む枠組みを提案する。 これらの発見は、物理知識を宇宙物理学や惑星ミッションデータ分析に組み込むための道筋を示している。

Recent improvements in data collection volume from planetary and space physics missions have allowed the application of novel data science techniques. The Cassini mission for example collected over 600 gigabytes of scientific data from 2004 to 2017. This represents a surge of data on the Saturn system. Machine learning can help scientists work with data on this larger scale. Unlike many applications of machine learning, a primary use in planetary space physics applications is to infer behavior about the system itself. This raises three concerns: first, the performance of the machine learning model, second, the need for interpretable applications to answer scientific questions, and third, how characteristics of spacecraft data change these applications. In comparison to these concerns, uses of black box or un-interpretable machine learning methods tend toward evaluations of performance only either ignoring the underlying physical process or, less often, providing misleading explanations for it. We build off a previous effort applying a semi-supervised physics-based classification of plasma instabilities in Saturn's magnetosphere. We then use this previous effort in comparison to other machine learning classifiers with varying data size access, and physical information access. We show that incorporating knowledge of these orbiting spacecraft data characteristics improves the performance and interpretability of machine learning methods, which is essential for deriving scientific meaning. Building on these findings, we present a framework on incorporating physics knowledge into machine learning problems targeting semi-supervised classification for space physics data in planetary environments. These findings present a path forward for incorporating physical knowledge into space physics and planetary mission data analyses for scientific discovery.
翻訳日:2022-11-26 01:04:37 公開日:2020-06-02
# 危機時のニーズの検出と優先順位付けに関する実証的手法

An Empirical Methodology for Detecting and Prioritizing Needs during Crisis Events ( http://arxiv.org/abs/2006.01439v1 )

ライセンス: Link先を確認
M. Janina Sarol, Ly Dinh, Rezvaneh Rezapour, Chieh-Li Chin, Pingjing Yang, Jana Diesner(参考訳) 危機のとき、必要不可欠なニーズを特定することは、影響を受けるエンティティに適切なリソースとサービスを提供するための重要なステップです。 twitterのようなソーシャルメディアプラットフォームは、一般大衆のニーズに関する膨大な情報を含んでいる。 しかし,情報の空間性やノイズの多い内容の量は,これらのプラットフォーム上での共有情報を効果的に識別することが課題となっている。 本研究では,2つの異なるニーズ検出タスクのための2つの新しい手法を提案する。 1) 優先的にランク付けするために必要な資源のリスト及び 2) 必要な資源を特定する文 我々は、covid-19危機に関する一連のツイートについて、我々の方法を評価した。 タスク1(トップニーズの検出)では,2つのリソースリストを比較し,64%の精度を達成した。 タスク2では、1000の注釈付きツイートで結果を比較し、68%のF1スコアを達成しました。

In times of crisis, identifying the essential needs is a crucial step to providing appropriate resources and services to affected entities. Social media platforms such as Twitter contain vast amount of information about the general public's needs. However, the sparsity of the information as well as the amount of noisy content present a challenge to practitioners to effectively identify shared information on these platforms. In this study, we propose two novel methods for two distinct but related needs detection tasks: the identification of 1) a list of resources needed ranked by priority, and 2) sentences that specify who-needs-what resources. We evaluated our methods on a set of tweets about the COVID-19 crisis. For task 1 (detecting top needs), we compared our results against two given lists of resources and achieved 64% precision. For task 2 (detecting who-needs-what), we compared our results on a set of 1,000 annotated tweets and achieved a 68% F1-score.
翻訳日:2022-11-26 00:59:08 公開日:2020-06-02
# 学習知識グラフに関する質問応答

Question Answering on Scholarly Knowledge Graphs ( http://arxiv.org/abs/2006.01527v1 )

ライセンス: Link先を確認
Mohamad Yaser Jaradeh, Markus Stocker, S\"oren Auer(参考訳) テキストやその他のアーティファクトを含む学術的な知識に関する疑問に答えることは、あらゆる研究ライフサイクルの重要な部分である。 学術的な知識をクエリし、適切な回答を取得することは、以下の主な理由から、現在ほとんど不可能である。 本稿では,学術知識グラフの表層ビューに対する質問に回答するBERTベースのシステムであるJarvisQAを提案する。 このような表は学術文献(例えば、調査、比較、結果)の様々な形態で見られる。 本システムでは,記事中の表形式で質問された様々な質問に対する直接回答を検索できる。 さらに、関連するテーブルの予備データセットと、それに対応する自然言語質問のセットを示す。 このデータセットは私たちのシステムのベンチマークとして使われ、他の人によって再利用できます。 さらに、JarvisQAは他のベースラインに対して2つのデータセットで評価され、関連するメソッドと比較して2~3倍の性能向上を示している。

Answering questions on scholarly knowledge comprising text and other artifacts is a vital part of any research life cycle. Querying scholarly knowledge and retrieving suitable answers is currently hardly possible due to the following primary reason: machine inactionable, ambiguous and unstructured content in publications. We present JarvisQA, a BERT based system to answer questions on tabular views of scholarly knowledge graphs. Such tables can be found in a variety of shapes in the scholarly literature (e.g., surveys, comparisons or results). Our system can retrieve direct answers to a variety of different questions asked on tabular data in articles. Furthermore, we present a preliminary dataset of related tables and a corresponding set of natural language questions. This dataset is used as a benchmark for our system and can be reused by others. Additionally, JarvisQA is evaluated on two datasets against other baselines and shows an improvement of two to three folds in performance compared to related methods.
翻訳日:2022-11-26 00:58:56 公開日:2020-06-02
# 話者連鎖規則に基づくニューラル話者ダイアリゼーション

Neural Speaker Diarization with Speaker-Wise Chain Rule ( http://arxiv.org/abs/2006.01796v1 )

ライセンス: Link先を確認
Yusuke Fujita, Shinji Watanabe, Shota Horiguchi, Yawen Xue, Jing Shi, Kenji Nagamatsu(参考訳) 話者ダイアリゼーションはマルチスピーカ音声を処理するための重要なステップである。 エンドツーエンドのニューラルダイアリゼーション(EEND)手法は最先端の性能を達成したが、定数の話者に限られている。 本稿では,確率的連鎖則に基づく新しい話者条件付き推論手法により,この固定数の話者問題を解く。 提案手法では,各話者の発話活動は単一確率変数と見なされ,前述した他の話者の発話活動に基づいて順次条件付で推定される。 他のシーケンスからシーケンスへのモデルと同様に、提案手法は停止シーケンス条件を持つ可変数の話者を生成する。 可変話者のマルチスピーカ音声記録における提案手法の評価を行った。 実験結果から,提案手法は可変話者数によるダイアリゼーション結果を正しく生成し,ダイアリゼーション誤差率の観点から,最先端のエンドツーエンド話者ダイアリゼーション法より優れることが示された。

Speaker diarization is an essential step for processing multi-speaker audio. Although an end-to-end neural diarization (EEND) method achieved state-of-the-art performance, it is limited to a fixed number of speakers. In this paper, we solve this fixed number of speaker issue by a novel speaker-wise conditional inference method based on the probabilistic chain rule. In the proposed method, each speaker's speech activity is regarded as a single random variable, and is estimated sequentially conditioned on previously estimated other speakers' speech activities. Similar to other sequence-to-sequence models, the proposed method produces a variable number of speakers with a stop sequence condition. We evaluated the proposed method on multi-speaker audio recordings of a variable number of speakers. Experimental results show that the proposed method can correctly produce diarization results with a variable number of speakers and outperforms the state-of-the-art end-to-end speaker diarization methods in terms of diarization error rate.
翻訳日:2022-11-26 00:58:41 公開日:2020-06-02
# 望むように奪還する

Recapture as You Want ( http://arxiv.org/abs/2006.01435v1 )

ライセンス: Link先を確認
Chen Gao, Si Liu, Ran He, Shuicheng Yan, Bo Li(参考訳) モバイル機器の普及と強力なカメラシステムにより、人々は日常の生活で簡単に写真を撮れるようになり、これは当然、よりインテリジェントな写真後処理技術、特にポートレート写真への需要をもたらす。 本稿では,人体の非剛性な変形,見えない身体部分の推論,意味認識の編集を同時に行う必要があるため,必要な姿勢・視界・体型・衣服スタイルに自分の肖像画を簡単に編集できるポートレート・リキャプチャー法を提案する。 編集手順を意味認識幾何学的および外観的変換に分解する。 幾何学的変換では、部分レベルの空間的制約を表現するためのユーザの要求を満たすセマンティックレイアウトマップが生成され、さらにセマンティック・アウェアな外観変換を導く。 外観変換では,2つの新しいモジュール,SAT (Semantic-Aware Attentive Transfer) とLGR (Layout Graph Reasoning) を設計し,それぞれ部分間移動と部分間推論を行う。 SATモジュールは、ソースポートレート内の意味的に一貫した領域に注意を払って、各人間の部分を生成する。 これは非剛性変形問題に効果的に対応し、テクスチャの詳細な内在的な構造や外観をよく保存する。 LGRモジュールは、ボディスケルトン知識を利用して、すべての関連する部分の特徴を接続するレイアウトグラフを構築する。 このようにして、lgrモジュールは目に見えない身体部品を推論し、全ての部品間のグローバルコヒーレンスを保証する。 DeepFashion, Market-1501, in-the-wild 写真に対する大規模な実験は,我々のアプローチの有効性と優位性を示している。 url{https://youtu.be/vtyq9hl6jgw} でビデオデモを行う。

With the increasing prevalence and more powerful camera systems of mobile devices, people can conveniently take photos in their daily life, which naturally brings the demand for more intelligent photo post-processing techniques, especially on those portrait photos. In this paper, we present a portrait recapture method enabling users to easily edit their portrait to desired posture/view, body figure and clothing style, which are very challenging to achieve since it requires to simultaneously perform non-rigid deformation of human body, invisible body-parts reasoning and semantic-aware editing. We decompose the editing procedure into semantic-aware geometric and appearance transformation. In geometric transformation, a semantic layout map is generated that meets user demands to represent part-level spatial constraints and further guides the semantic-aware appearance transformation. In appearance transformation, we design two novel modules, Semantic-aware Attentive Transfer (SAT) and Layout Graph Reasoning (LGR), to conduct intra-part transfer and inter-part reasoning, respectively. SAT module produces each human part by paying attention to the semantically consistent regions in the source portrait. It effectively addresses the non-rigid deformation issue and well preserves the intrinsic structure/appearance with rich texture details. LGR module utilizes body skeleton knowledge to construct a layout graph that connects all relevant part features, where graph reasoning mechanism is used to propagate information among part nodes to mine their relations. In this way, LGR module infers invisible body parts and guarantees global coherence among all the parts. Extensive experiments on DeepFashion, Market-1501 and in-the-wild photos demonstrate the effectiveness and superiority of our approach. Video demo is at: \url{https://youtu.be/vTyq9HL6jgw}.
翻訳日:2022-11-26 00:56:29 公開日:2020-06-02
# ear2face: ディープバイオメトリックモダリティマッピング

Ear2Face: Deep Biometric Modality Mapping ( http://arxiv.org/abs/2006.01943v1 )

ライセンス: Link先を確認
Dogucan Yaman, Fevziye Irem Eyiokur, Haz{\i}m Kemal Ekenel(参考訳) 本稿では,異なる視覚的生体特性の相関について検討する。 この目的のために,生体情報間のマッピングを学習するエンドツーエンドのディープニューラルネットワークモデルを提案する。 本研究の目的は,被験者の耳像を入力として前面画像を生成することである。 我々はこの問題を画像対画像翻訳タスクとして定式化し、マルチパイおよびフェレートデータセットから耳と顔画像ペアのデータセットを収集し、ganベースのモデルをトレーニングした。 特徴復元とスタイル復元の損失に加えて,逆行やピクセル損失も採用した。 提案手法は再建品質と個人識別精度の両方の観点から評価した。 学習したマッピングモデルの一般化能力を評価するため、クロスデータセット実験も実施する。 すなわち、ferETデータセット上でモデルをトレーニングし、Multi-PIEデータセット上でテストしました。 我々は、特にFERETデータセットで非常に有望な結果を得ており、耳画像入力から視覚的に魅力的な顔画像を生成する。 さらに,feretデータセットで90.9%のランク10識別精度に達するなど,非常に高いクロスモーダルな人物識別性能を達成した。

In this paper, we explore the correlation between different visual biometric modalities. For this purpose, we present an end-to-end deep neural network model that learns a mapping between the biometric modalities. Namely, our goal is to generate a frontal face image of a subject given his/her ear image as the input. We formulated the problem as a paired image-to-image translation task and collected datasets of ear and face image pairs from the Multi-PIE and FERET datasets to train our GAN-based models. We employed feature reconstruction and style reconstruction losses in addition to adversarial and pixel losses. We evaluated the proposed method both in terms of reconstruction quality and in terms of person identification accuracy. To assess the generalization capability of the learned mapping models, we also run cross-dataset experiments. That is, we trained the model on the FERET dataset and tested it on the Multi-PIE dataset and vice versa. We have achieved very promising results, especially on the FERET dataset, generating visually appealing face images from ear image inputs. Moreover, we attained a very high cross-modality person identification performance, for example, reaching 90.9% Rank-10 identification accuracy on the FERET dataset.
翻訳日:2022-11-26 00:49:03 公開日:2020-06-02
# 2つのローリングシャッターから1つのグローバルシャッターへ

From two rolling shutters to one global shutter ( http://arxiv.org/abs/2006.01964v1 )

ライセンス: Link先を確認
Cenek Albl, Zuzana Kukelova, Viktor Larsson, Tomas Pajdla, Konrad Schindler(参考訳) ほとんどの消費者向けカメラは電子ローリングシャッターを備えており、撮影中にカメラが動くと画像が歪む。 われわれは、ローリングシャッターの歪みを解き放つための、驚くほどシンプルなカメラ構成を探求している。 このようなセットアップは簡単で安価であり、2つの画像間の点対応のスパースセットのみを用いてローリングシャッター歪みを補正するために必要な幾何学的制約を有する。 一般および特殊運動の基底となる幾何学を記述する方程式を導出し、それらの解を見つけるための効率的な方法を提案する。 我々の合成および実実験は、特定のシーン構造に頼ることなく、全てのタイプの大きな転がりシャッター歪みを除去できることを示した。

Most consumer cameras are equipped with electronic rolling shutter, leading to image distortions when the camera moves during image capture. We explore a surprisingly simple camera configuration that makes it possible to undo the rolling shutter distortion: two cameras mounted to have different rolling shutter directions. Such a setup is easy and cheap to build and it possesses the geometric constraints needed to correct rolling shutter distortion using only a sparse set of point correspondences between the two images. We derive equations that describe the underlying geometry for general and special motions and present an efficient method for finding their solutions. Our synthetic and real experiments demonstrate that our approach is able to remove large rolling shutter distortions of all types without relying on any specific scene structure.
翻訳日:2022-11-26 00:48:43 公開日:2020-06-02
# 機械読解におけるbert微調整理解のためのペアワイズプローブ

A Pairwise Probe for Understanding BERT Fine-Tuning on Machine Reading Comprehension ( http://arxiv.org/abs/2006.01346v1 )

ライセンス: Link先を確認
Jie Cai, Zhengzhou Zhu, Ping Nie and Qian Liu(参考訳) 事前訓練されたモデルは多くのnlpタスクに大きな改善をもたらし、広範囲に分析されている。 しかし、微調整が特定のタスクに与える影響についてはほとんど分かっていない。 直感的には、事前訓練されたモデルは単語のセマンティック表現(例えば、同義語は互いに近い)を既に学習しており、微調整はより複雑な推論を必要とする能力(例えば、コア参照解決、エンティティ境界検出など)をさらに改善することに同意している。 しかし、これらの議論を分析的かつ定量的に検証する方法は難しい課題であり、この話題に焦点をあてる作業はほとんどない。 本稿では,一致した句のペアを識別する探索的タスク(例えば,コア参照ではエンティティと代名詞をマッチングする必要がある)に着想を得て,機械読解(MRC)タスクにおけるBERTの微調整を理解するためのペアワイズプローブを提案する。 具体的には, MRCの5つの現象を同定する。 ペアワイズ探索タスクにより、各レイヤの事前学習および微調整されたBERTの隠れ表現の性能を比較する。 提案するペアワイズプローブは,不正確なモデルトレーニングから逸脱する問題を軽減し,ロバストで定量的な比較を行う。 1)微調整は基本的な情報や低レベルの情報、一般的な意味的タスクにはほとんど影響を与えない。 2) 下流タスクに必要な特定の能力については, 細調整されたBERTの方が事前訓練されたBERTよりも優れており, 5層目以降のギャップは明らかである。

Pre-trained models have brought significant improvements to many NLP tasks and have been extensively analyzed. But little is known about the effect of fine-tuning on specific tasks. Intuitively, people may agree that a pre-trained model already learns semantic representations of words (e.g. synonyms are closer to each other) and fine-tuning further improves its capabilities which require more complicated reasoning (e.g. coreference resolution, entity boundary detection, etc). However, how to verify these arguments analytically and quantitatively is a challenging task and there are few works focus on this topic. In this paper, inspired by the observation that most probing tasks involve identifying matched pairs of phrases (e.g. coreference requires matching an entity and a pronoun), we propose a pairwise probe to understand BERT fine-tuning on the machine reading comprehension (MRC) task. Specifically, we identify five phenomena in MRC. According to pairwise probing tasks, we compare the performance of each layer's hidden representation of pre-trained and fine-tuned BERT. The proposed pairwise probe alleviates the problem of distraction from inaccurate model training and makes a robust and quantitative comparison. Our experimental analysis leads to highly confident conclusions: (1) Fine-tuning has little effect on the fundamental and low-level information and general semantic tasks. (2) For specific abilities required for downstream tasks, fine-tuned BERT is better than pre-trained BERT and such gaps are obvious after the fifth layer.
翻訳日:2022-11-26 00:48:07 公開日:2020-06-02
# rel: 巨人の肩の上に立っている実体リンカー

REL: An Entity Linker Standing on the Shoulders of Giants ( http://arxiv.org/abs/2006.01969v1 )

ライセンス: Link先を確認
Johannes M. van Hulst, Faegheh Hasibi, Koen Dercksen, Krisztian Balog, Arjen P. de Vries(参考訳) エンティティリンクは、現代の検索システムにおける標準コンポーネントであり、しばしばサードパーティのツールキットによって実行される。 オープンソースオプションの多さにもかかわらず、あるコンポーネントが置き換えられ、外部ソースに依存しず、新しいウィキペディアバージョンに容易に更新でき、そして何よりも重要なのは、最先端のパフォーマンスを持つモジュールアーキテクチャを持つ単一のシステムを見つけることは困難である。 本稿では,そのギャップを埋めることを目的とした REL システムについて述べる。 自然言語処理の研究から最先端のニューラルネットワークコンポーネントを構築し、PythonパッケージとWeb APIとして提供される。 また、確立されたシステムと標準エンティティリンクベンチマークの最先端技術の比較実験を行った。

Entity linking is a standard component in modern retrieval system that is often performed by third-party toolkits. Despite the plethora of open source options, it is difficult to find a single system that has a modular architecture where certain components may be replaced, does not depend on external sources, can easily be updated to newer Wikipedia versions, and, most important of all, has state-of-the-art performance. The REL system presented in this paper aims to fill that gap. Building on state-of-the-art neural components from natural language processing research, it is provided as a Python package as well as a web API. We also report on an experimental comparison against both well-established systems and the current state-of-the-art on standard entity linking benchmarks.
翻訳日:2022-11-26 00:47:36 公開日:2020-06-02
# graph-stega: ナレッジグラフによる意味制御可能なステガノグラフィーテキスト生成

Graph-Stega: Semantic Controllable Steganographic Text Generation Guided by Knowledge Graph ( http://arxiv.org/abs/2006.08339v1 )

ライセンス: Link先を確認
Zhongliang Yang, Baitao Gong, Yamin Li, Jinshuai Yang, Zhiwen Hu, Yongfeng Huang(参考訳) 既存のテキスト生成ステガノグラフ法のほとんどは、生成プロセス中に各単語の条件確率分布を符号化し、秘密情報に基づいて特定の単語を選択することにより、情報隠蔽を実現する。 このような方法には、潜在的なセキュリティリスクをもたらす可能性がある制限がある。 第一に、埋め込み率の増加に伴い、これらのモデルは、生成したステガノグラフィーテキストの品質を低下させる条件付き確率の低い単語を選択し、第二に、最終的な生成ステガノグラフィーテキストの意味表現を制御できない。 本稿では,既存のモデルと密に異なるテキスト生成ステガノグラフィー手法を提案する。 我々は、知識グラフ(KG)を用いて、ステガノグラフ文の生成をガイドする。 一方、知識グラフ内のパスをコーディングすることで秘密情報を隠蔽するが、生成した単語の条件付き確率ではなく、生成したステガノグラフテキストのセマンティック表現をある程度制御することができる。 実験の結果,提案モデルは,生成したテキストの品質と,その意味表現の両方を保証でき,現在のテキスト生成ステガノグラフィを補足し改善できることがわかった。

Most of the existing text generative steganographic methods are based on coding the conditional probability distribution of each word during the generation process, and then selecting specific words according to the secret information, so as to achieve information hiding. Such methods have their limitations which may bring potential security risks. Firstly, with the increase of embedding rate, these models will choose words with lower conditional probability, which will reduce the quality of the generated steganographic texts; secondly, they can not control the semantic expression of the final generated steganographic text. This paper proposes a new text generative steganography method which is quietly different from the existing models. We use a Knowledge Graph (KG) to guide the generation of steganographic sentences. On the one hand, we hide the secret information by coding the path in the knowledge graph, but not the conditional probability of each generated word; on the other hand, we can control the semantic expression of the generated steganographic text to a certain extent. The experimental results show that the proposed model can guarantee both the quality of the generated text and its semantic expression, which is a supplement and improvement to the current text generation steganography.
翻訳日:2022-11-26 00:47:23 公開日:2020-06-02
# 仮想ネットワーク機能配置のための深度最適化遅延認識木(do-dat)

Depth-Optimized Delay-Aware Tree (DO-DAT) for Virtual Network Function Placement ( http://arxiv.org/abs/2006.01790v1 )

ライセンス: Link先を確認
Dimitrios Michael Manias, Hassan Hawilo, Manar Jammal, Abdallah Shami(参考訳) データ接続の需要が絶え間なく増加する中、ネットワークサービスプロバイダは、資本と運用コストを削減し、ネットワーク性能の継続的な改善を確実にするタスクに直面している。 ネットワーク機能仮想化(NFV)はソリューションとして認識されているが、その実現性を保証するためにはいくつかの課題に対処する必要がある。 本稿では,仮想ネットワーク機能(VNF)配置問題に対する機械学習による解決策を提案する。 本稿では,決定木ハイパーパラメータを最適化するためにパーティクルスワム最適化手法を用いて,DATモデルを提案する。 本稿では,Evolved Packet Core(EPC)をユースケースとして,モデルの性能を評価し,従来提案されていたモデルとヒューリスティックな配置戦略と比較する。

With the constant increase in demand for data connectivity, network service providers are faced with the task of reducing their capital and operational expenses while ensuring continual improvements to network performance. Although Network Function Virtualization (NFV) has been identified as a solution, several challenges must be addressed to ensure its feasibility. In this paper, we present a machine learning-based solution to the Virtual Network Function (VNF) placement problem. This paper proposes the Depth-Optimized Delay-Aware Tree (DO-DAT) model by using the particle swarm optimization technique to optimize decision tree hyper-parameters. Using the Evolved Packet Core (EPC) as a use case, we evaluate the performance of the model and compare it to a previously proposed model and a heuristic placement strategy.
翻訳日:2022-11-26 00:47:06 公開日:2020-06-02
# 一般化ガウスモデルを用いた線形分類器のピアソン積-モーメント相関係数を用いたてんかん発作予測

Epileptic seizure prediction using Pearson's product-moment correlation coefficient of a linear classifier from generalized Gaussian modeling ( http://arxiv.org/abs/2006.01359v1 )

ライセンス: Link先を確認
Antonio Quintero-Rincon, Carlos D'Giano, Marcelo Risk(参考訳) てんかん事象を予測することは、発作の時刻を可能な限り高い精度で事前に判断する能力を意味する。 臨床応用におけるてんかんの正確な予測基準は、この疾患の適切な診断と治療に役立つ生体信号処理における典型的な問題である。 本研究では,一般ガウス分布パラメータと線形型分類器を組み合わせたpearsonの積-モーメント相関係数を用いててんかん脳波信号の発作と非サイズレ事象の予測を行う。 全脳リズムの発作の83%以上の感度と特異性に100%の有効性を示した9例のてんかん発作36例の成績は,全脳リズムの発作の83%以上であった。 ピアソンの検査では、全ての脳のリズムは非正弦波の事象と高い相関性があるが、発作の出来事では起こらないことが示唆された。 このことから,本モデルはてんかん発作検出のためのピアソン積-モーメント相関係数を用いて拡張可能であることが示唆された。

To predict an epileptic event means the ability to determine in advance the time of the seizure with the highest possible accuracy. A correct prediction benchmark for epilepsy events in clinical applications is a typical problem in biomedical signal processing that helps to an appropriate diagnosis and treatment of this disease. In this work, we use Pearson's product-moment correlation coefficient from generalized Gaussian distribution parameters coupled with a linear-based classifier to predict between seizure and non-seizure events in epileptic EEG signals. The performance in 36 epileptic events from 9 patients showing good performance with 100% of effectiveness for sensitivity and specificity greater than 83% for seizures events in all brain rhythms. Pearson's test suggests that all brain rhythms are highly correlated in non-seizure events but no during the seizure events. This suggests that our model can be scaled with the Pearson's product-moment correlation coefficient for the detection of epileptic seizures.
翻訳日:2022-11-26 00:46:25 公開日:2020-06-02
# SAT Heritage:1000以上のSATソルバをアーカイブし、構築し、運用するためのコミュニティ主導の取り組み

SAT Heritage: a community-driven effort for archiving, building and running more than thousand SAT solvers ( http://arxiv.org/abs/2006.01503v1 )

ライセンス: Link先を確認
Gilles Audemard (CRIL), Lo\"ic Paulev\'e (LaBRI), Laurent Simon (LaBRI)(参考訳) sat researchは毎年開催されているコンペのおかげで、ソースコードとバイナリリリースの長い歴史がある。 しかしながら、各コンペのサイクルには独自のルールセットとソースコードとバイナリを公開するアドホックな方法があるため、あらゆるソルバのコンパイルや実行は、見かけより難しくなります。 さらに、現在までに1000以上の解決者が出版されており、そのうちのいくつかは90年代初頭にリリースされている。 satコミュニティが、その歴史を作ったすべてのソルバをアーカイブし、追跡できるようにしたいのであれば、緊急に重要な取り組みを展開する必要があります。 コミュニティ主導によるアーカイブの取り組みを開始し、これまでリリースされてきたSATソルバのコンパイルと実行を容易にすることを提案する。 私たちは(docker、github、zenodoのおかげで)バイナリのアーカイブと構築に最適なツールに依存しています。 私たちのツールのおかげで、ソース(またはバイナリ)からソルバを構築する(または実行する)ことは一行でできます。

SAT research has a long history of source code and binary releases, thanks to competitions organized every year. However, since every cycle of competitions has its own set of rules and an adhoc way of publishing source code and binaries, compiling or even running any solver may be harder than what it seems. Moreover, there has been more than a thousand solvers published so far, some of them released in the early 90's. If the SAT community wants to archive and be able to keep track of all the solvers that made its history, it urgently needs to deploy an important effort. We propose to initiate a community-driven effort to archive and to allow easy compilation and running of all SAT solvers that have been released so far. We rely on the best tools for archiving and building binaries (thanks to Docker, GitHub and Zenodo) and provide a consistent and easy way for this. Thanks to our tool, building (or running) a solver from its source (or from its binary) can be done in one line.
翻訳日:2022-11-26 00:40:14 公開日:2020-06-02
# 人物再識別のための異種分岐と多段階分類網

A heterogeneous branch and multi-level classification network for person re-identification ( http://arxiv.org/abs/2006.01367v1 )

ライセンス: Link先を確認
Jiabao Wang, Yang Li, Yangshuo Zhang, Zhuang Miao, Rui Zhang(参考訳) 複数の枝を持つ畳み込みニューラルネットワークは、最近、人物の再識別(re-ID)に非常に効果的であることが証明されている。 研究者はパーツモデルを使ってマルチブランチネットワークを設計するが、その有効性は常に複数の部品に比例する。 さらに、既存のマルチブランチネットワークは常に構造的多様性に欠ける同型分岐を持つ。 この問題を解決するために,事前学習されたResNet-50モデルに基づいて設計した新しい異種分岐・多レベル分類ネットワーク(HBMCN)を提案する。 新しい異種分岐であるSE-Res-Branchは、Squeeze-and-Excitationブロックと残留ブロックからなるSE-Resモジュールに基づいて提案されている。 さらに,hbmcnの教師付き学習において,複数の高レベル層から多レベル特徴を抽出し,結合して人を表す新しい多レベル分類統合目的関数を提案する。 3つの一般人のre-IDベンチマーク(Market1501、DukeMTMC-reID、CUHK03)に基づいて、提案されたHBMCNは94.4%、85.7%、73.8%のランク-1、85.7%、74.6%、69.0%のmAPに到達し、最先端のパフォーマンスを達成した。 さらに解析により、特別に設計された異種分岐は同型分岐よりも優れた性能を示し、多層分類は単層分類と比較してより差別的な特徴を提供する。 その結果、HBMCNは人物のリIDタスクを大幅に改善した。

Convolutional neural networks with multiple branches have recently been proved highly effective in person re-identification (re-ID). Researchers design multi-branch networks using part models, yet they always attribute the effectiveness to multiple parts. In addition, existing multi-branch networks always have isomorphic branches, which lack structural diversity. In order to improve this problem, we propose a novel Heterogeneous Branch and Multi-level Classification Network (HBMCN), which is designed based on the pre-trained ResNet-50 model. A new heterogeneous branch, SE-Res-Branch, is proposed based on the SE-Res module, which consists of the Squeeze-and-Excitation block and the residual block. Furthermore, a new multi-level classification joint objective function is proposed for the supervised learning of HBMCN, whereby multi-level features are extracted from multiple high-level layers and concatenated to represent a person. Based on three public person re-ID benchmarks (Market1501, DukeMTMC-reID and CUHK03), experimental results show that the proposed HBMCN reaches 94.4%, 85.7% and 73.8% in Rank-1, and 85.7%, 74.6% and 69.0% in mAP, achieving a state-of-the-art performance. Further analysis demonstrates that the specially designed heterogeneous branch performs better than an isomorphic branch, and multi-level classification provides more discriminative features compared to single-level classification. As a result, HBMCN provides substantial further improvements in person re-ID tasks.
翻訳日:2022-11-26 00:39:55 公開日:2020-06-02
# 重み付きクロスエントロピー損失による物体検出におけるクラス不均衡の解消

Resolving Class Imbalance in Object Detection with Weighted Cross Entropy Losses ( http://arxiv.org/abs/2006.01413v1 )

ライセンス: Link先を確認
Trong Huy Phan, Kazuma Yamamoto(参考訳) オブジェクト検出はコンピュータビジョンにおいて重要なタスクであり、自動運転や監視、ロボット工学など、現実世界の多くのアプリケーションを提供する。 大規模データの急速な成長とともに、過去10年間に多くの最先端の汎用オブジェクト検出器(例えば、より高速なR-CNN、YOLO、SSD)が開発された。 検出精度を高めるためのモデル修正とトレーニング戦略の改善への継続的な取り組みにもかかわらず、不均一なオブジェクトクラス分布を持つ特別なデータセットに関しては、検出器の性能に制限がある。 これは、訓練中のオブジェクトクラスの出現頻度を単純に無視するオブジェクト分類サブタスクにおけるクロスエントロピー損失関数の一般的な使用から始まり、サンプル数が少ないオブジェクトクラスの精度が低下する。 一般機械学習におけるクラス不均衡は広く研究されているが、対象検出の課題にはほとんど注目されていない。 本稿では,対象検出器の有効サンプル数に基づくクロスエントロピー,焦点損失,クラスバランス損失など,複数の重み付け型クロスエントロピー損失を応用して,この問題を探索し,克服する。 BDD100K(車載カメラから取得した高度にクラス不均衡な運転データベース)による実験は、主にカークラスやバス、パーソナライズ、モーターなどのマイノリティなオブジェクトクラスをキャプチャし、前述した損失関数で訓練された検出器のクラスワイド性能を向上した。

Object detection is an important task in computer vision which serves a lot of real-world applications such as autonomous driving, surveillance and robotics. Along with the rapid thrive of large-scale data, numerous state-of-the-art generalized object detectors (e.g. Faster R-CNN, YOLO, SSD) were developed in the past decade. Despite continual efforts in model modification and improvement in training strategies to boost detection accuracy, there are still limitations in performance of detectors when it comes to specialized datasets with uneven object class distributions. This originates from the common usage of Cross Entropy loss function for object classification sub-task that simply ignores the frequency of appearance of object class during training, and thus results in lower accuracies for object classes with fewer number of samples. Class-imbalance in general machine learning has been widely studied, however, little attention has been paid on the subject of object detection. In this paper, we propose to explore and overcome such problem by application of several weighted variants of Cross Entropy loss, for examples Balanced Cross Entropy, Focal Loss and Class-Balanced Loss Based on Effective Number of Samples to our object detector. Experiments with BDD100K (a highly class-imbalanced driving database acquired from on-vehicle cameras capturing mostly Car-class objects and other minority object classes such as Bus, Person and Motor) have proven better class-wise performances of detector trained with the afore-mentioned loss functions.
翻訳日:2022-11-26 00:39:10 公開日:2020-06-02
# 単眼的人間のポーズ推定:深層学習に基づく方法の検討

Monocular Human Pose Estimation: A Survey of Deep Learning-based Methods ( http://arxiv.org/abs/2006.01423v1 )

ライセンス: Link先を確認
Yucheng Chen, Yingli Tian and Mingyi He(参考訳) コンピュータビジョンにおける最も基本的で困難な問題の1つとして、視覚に基づく単眼のポーズ推定は、入力画像やビデオシーケンスから人体の位置を求める。 近年の深層学習技術の発展は、人間のポーズ推定の分野で大きな進歩と目覚ましいブレークスルーをもたらしている。 本調査は,2014年以降に発表された深層学習に基づく2次元および3次元人格推定手法を概観する。 本稿では,その課題,主なフレームワーク,ベンチマークデータセット,評価指標,パフォーマンス比較を要約し,今後の研究の方向性について述べる。

Vision-based monocular human pose estimation, as one of the most fundamental and challenging problems in computer vision, aims to obtain posture of the human body from input images or video sequences. The recent developments of deep learning techniques have been brought significant progress and remarkable breakthroughs in the field of human pose estimation. This survey extensively reviews the recent deep learning-based 2D and 3D human pose estimation methods published since 2014. This paper summarizes the challenges, main frameworks, benchmark datasets, evaluation metrics, performance comparison, and discusses some promising future research directions.
翻訳日:2022-11-26 00:38:38 公開日:2020-06-02
# 分布整合型マルチモーダルおよびマルチドメイン画像スタイライゼーション

Distribution Aligned Multimodal and Multi-Domain Image Stylization ( http://arxiv.org/abs/2006.01431v1 )

ライセンス: Link先を確認
Minxuan Lin, Fan Tang, Weiming Dong, Xiao Li, Chongyang Ma, Changsheng Xu(参考訳) マルチモーダルスタイライゼーションとマルチドメインスタイライゼーションは、画像スタイル転送の分野で2つの重要な問題である。 現在、マルチモーダルとマルチドメインの両方のスタイライゼーションを同時に実行できる方法はほとんどない。 本稿では,exemplar-based reference と randomly sampled guidance の両方をサポートするマルチモーダル・マルチドメイン方式トランスファーのための統一フレームワークを提案する。 提案手法の主な構成要素は,様々なスタイル領域間の明示的な分布ギャップを排除し,モード崩壊のリスクを低減する,新しいスタイル分布アライメントモジュールである。 マルチモーダルの多様性は、複数の画像またはランダムなスタイルコードからのガイダンスによって保証され、マルチドメイン制御はドメインラベルを使用して直接達成される。 提案手法は,様々な芸術的スタイルやジャンルを用いて,絵画スタイル転移の枠組みを検証した。 定性的・定量的比較により,マルチドメインスタイルとマルチモーダルインスタンスの良質な結果が,参照スタイルガイダンスやランダムサンプルスタイルで生成できることが証明された。

Multimodal and multi-domain stylization are two important problems in the field of image style transfer. Currently, there are few methods that can perform both multimodal and multi-domain stylization simultaneously. In this paper, we propose a unified framework for multimodal and multi-domain style transfer with the support of both exemplar-based reference and randomly sampled guidance. The key component of our method is a novel style distribution alignment module that eliminates the explicit distribution gaps between various style domains and reduces the risk of mode collapse. The multimodal diversity is ensured by either guidance from multiple images or random style code, while the multi-domain controllability is directly achieved by using a domain label. We validate our proposed framework on painting style transfer with a variety of different artistic styles and genres. Qualitative and quantitative comparisons with state-of-the-art methods demonstrate that our method can generate high-quality results of multi-domain styles and multimodal instances with reference style guidance or random sampled style.
翻訳日:2022-11-26 00:38:28 公開日:2020-06-02
# チャンネルアテンションに基づく深度マップ超解像のための反復残差学習

Channel Attention based Iterative Residual Learning for Depth Map Super-Resolution ( http://arxiv.org/abs/2006.01469v1 )

ライセンス: Link先を確認
Xibin Song, Yuchao Dai, Dingfu Zhou, Liu Liu, Wei Li, Hongdng Li, Ruigang Yang(参考訳) 深層学習に基づく深度マップ(DSR)における顕著な進歩にもかかわらず、低解像度(LR)深度マップの現実的な劣化への取り組みは依然として大きな課題である。 既存のDSRモデルは一般的に、実際の深度センサーから得られるものとは大きく異なる合成データセットで訓練され、テストされる。 本稿では,この条件下で訓練されたDSRモデルは制約的であり,実世界のDSRタスクの処理には有効ではないことを論じる。 我々は、異なる深度センサの現実世界の劣化に取り組むのに2つの貢献をしている。 まず、LR深度マップの生成をノイズ付き非線形ダウンサンプリングと区間ダウンサンプリングの2つのタイプに分類し、DSRモデルに対応して学習する。 第2に、4つのモジュールからなる実世界のDSRのための新しいフレームワークを提案する。 1) 奥行きマップの効率的な高周波成分を粗い方法で学習するための、深い監督を伴う反復的残差学習モジュール。 2) 高周波成分の豊富なチャネルを強化するためのチャネル注目戦略 3) 粗粒化過程の結果を効果的に再発見する多段核融合モジュール,及び 4)tgv正規化と入力損失により深度マップを改善する深さ細分化モジュール。 ベンチマークデータセットに関する広範囲な実験は、現在のdsr法よりも優れていることを示している。

Despite the remarkable progresses made in deep-learning based depth map super-resolution (DSR), how to tackle real-world degradation in low-resolution (LR) depth maps remains a major challenge. Existing DSR model is generally trained and tested on synthetic dataset, which is very different from what would get from a real depth sensor. In this paper, we argue that DSR models trained under this setting are restrictive and not effective in dealing with real-world DSR tasks. We make two contributions in tackling real-world degradation of different depth sensors. First, we propose to classify the generation of LR depth maps into two types: non-linear downsampling with noise and interval downsampling, for which DSR models are learned correspondingly. Second, we propose a new framework for real-world DSR, which consists of four modules : 1) An iterative residual learning module with deep supervision to learn effective high-frequency components of depth maps in a coarse-to-fine manner; 2) A channel attention strategy to enhance channels with abundant high-frequency components; 3) A multi-stage fusion module to effectively re-exploit the results in the coarse-to-fine process; and 4) A depth refinement module to improve the depth map by TGV regularization and input loss. Extensive experiments on benchmarking datasets demonstrate the superiority of our method over current state-of-the-art DSR methods.
翻訳日:2022-11-26 00:38:14 公開日:2020-06-02
# kinship 検証のためのマルチタスクコンパレータフレームワーク

A Multi-Task Comparator Framework for Kinship Verification ( http://arxiv.org/abs/2006.01615v1 )

ライセンス: Link先を確認
Stefan H\"ormann, Martin Knoche, Gerhard Rigoll(参考訳) 親族認証のアプローチは、しばしば顔の識別特徴間の余弦距離に依存する。 しかし、これらの特徴に固有の性別バイアスのため、2つの反対のジェンダーペアが関連しているかどうかを確実に予測することは困難である。 特徴抽出器ネットワークを親和性検証に微調整する代わりに,このバイアスに対処するコンパレータネットワークを提案する。 両方の特徴を結合した後、カスケードされたローカル専門家ネットワークは、対応する親族関係に最も関係のある情報を抽出する。 RFIW Challenge 2020の2つのトラックで、我々のフレームワークは、この性別バイアスに対して堅牢であり、同等の結果が得られることを実証する。 さらに、我々のフレームワークをさらに拡張して、部分的に知られているか未知の血縁関係を扱えるかを示す。

Approaches for kinship verification often rely on cosine distances between face identification features. However, due to gender bias inherent in these features, it is hard to reliably predict whether two opposite-gender pairs are related. Instead of fine tuning the feature extractor network on kinship verification, we propose a comparator network to cope with this bias. After concatenating both features, cascaded local expert networks extract the information most relevant for their corresponding kinship relation. We demonstrate that our framework is robust against this gender bias and achieves comparable results on two tracks of the RFIW Challenge 2020. Moreover, we show how our framework can be further extended to handle partially known or unknown kinship relations.
翻訳日:2022-11-26 00:37:51 公開日:2020-06-02
# DiscSense: 談話マーカーの自動意味解析

DiscSense: Automated Semantic Analysis of Discourse Markers ( http://arxiv.org/abs/2006.01603v1 )

ライセンス: Link先を確認
Damien Sileo, Tim Van de Cruys, Camille Pradel, Philippe Muller(参考訳) 談話マーカー(コントラストによって行われる、喜んで行われるなど) は、節や文間の意味的および/または実践的な関係を示すのに使用される単語または句である。 最近の研究は、様々な分類タスクで有用な正確な文表現を学ぶために、文ペア間の談話マーカーの予測を実りあるように研究している。 そこで本研究では,文ペア間の談話マーカーを予測するために訓練されたモデルを用いて,文ペア間の有意なマーカーと既知の意味的関係(既存の分類データセットから得られる)を予測する。 これらの予測により、談話マーカーと分類データセットに注釈付けされた意味関係との関係を研究できる。 限定されたマーカー群と限定されたカテゴリ群について、マーカーと談話関係の間で手作りのマッピングが提案されているが、幅広い関係を表現した数百の談話マーカーが存在し、競合する談話理論(主にトップダウン方式で構築されている)の関係の分類についてのコンセンサスはない。 既存の意味的にアノテートされたデータセットに対する自動再帰法を用いて,英語における談話マーカーのボトムアップ特性を示す。 DiscSenseという名前のデータセットが公開されている。

Discourse markers ({\it by contrast}, {\it happily}, etc.) are words or phrases that are used to signal semantic and/or pragmatic relationships between clauses or sentences. Recent work has fruitfully explored the prediction of discourse markers between sentence pairs in order to learn accurate sentence representations, that are useful in various classification tasks. In this work, we take another perspective: using a model trained to predict discourse markers between sentence pairs, we predict plausible markers between sentence pairs with a known semantic relation (provided by existing classification datasets). These predictions allow us to study the link between discourse markers and the semantic relations annotated in classification datasets. Handcrafted mappings have been proposed between markers and discourse relations on a limited set of markers and a limited set of categories, but there exist hundreds of discourse markers expressing a wide variety of relations, and there is no consensus on the taxonomy of relations between competing discourse theories (which are largely built in a top-down fashion). By using an automatic rediction method over existing semantically annotated datasets, we provide a bottom-up characterization of discourse markers in English. The resulting dataset, named DiscSense, is publicly available.
翻訳日:2022-11-26 00:30:50 公開日:2020-06-02
# Naive Bayes分類器と潜在意味分析を用いたWebドキュメント分類

Web Document Categorization Using Naive Bayes Classifier and Latent Semantic Analysis ( http://arxiv.org/abs/2006.01715v1 )

ライセンス: Link先を確認
Alireza Saleh Sedghpour, Mohammad Reza Saleh Sedghpour(参考訳) World Wide Webの多用によるWebドキュメントの急速な増加は、Web上のドキュメントを効率的に分類する効率的なテクニックを必要とする。 そのため、1秒間に大量のデータを生成し、高い多様性を持つ。 これらの増大するwebドキュメントの自動分類は、今日私たちが直面している最大の課題の1つです。 Naive Bayesのような確率的分類アルゴリズムは、Webドキュメントの分類に一般的に使われている。 この問題は主に、大量のアプリケーション領域における非相関的に高い分類精度と、テキストデータ表現の排他的特徴である高次元およびスパースデータを扱うためのサポートの欠如が原因である。 また,ビッグデータや大規模Webドキュメントを扱う場合,従来の特徴選択手法による単語間の意味的関係の欠如やサポートも一般的である。 そこで本研究では, LSA を用いた Web 文書分類手法を提案し,同一クラスにおける文書の類似性を向上し, 分類精度を向上させる。 このアプローチを用いて,Webドキュメントの高速かつ高精度な分類器を設計した。 実験の結果, 先行処理により, 既往ベイの精度と速度が向上し, 精度とリコールの指標が改善傾向を示した。

A rapid growth of web documents due to heavy use of World Wide Web necessitates efficient techniques to efficiently classify the document on the web. It is thus produced High volumes of data per second with high diversity. Automatically classification of these growing amounts of web document is One of the biggest challenges facing us today. Probabilistic classification algorithms such as Naive Bayes have become commonly used for web document classification. This problem is mainly because of the irrelatively high classification accuracy on plenty application areas as well as their lack of support to handle high dimensional and sparse data which is the exclusive characteristics of textual data representation. also it is common to Lack of attention and support the semantic relation between words using traditional feature selection method When dealing with the big data and large-scale web documents. In order to solve the problem, we proposed a method for web document classification that uses LSA to increase similarity of documents under the same class and improve the classification precision. Using this approach, we designed a faster and much accurate classifier for Web Documents. Experimental results have shown that using the mentioned preprocessing can improve accuracy and speed of Naive Bayes availably, the precision and recall metrics have indicated the improvement.
翻訳日:2022-11-26 00:30:28 公開日:2020-06-02
# 人間のリアルタイム理解行動のためのニューラルネットワークモデルの予測能力について

On the Predictive Power of Neural Language Models for Human Real-Time Comprehension Behavior ( http://arxiv.org/abs/2006.01912v1 )

ライセンス: Link先を確認
Ethan Gotlieb Wilcox, Jon Gauthier, Jennifer Hu, Peng Qian and Roger Levy(参考訳) 人間の読み動作は、自然言語の統計に調整される: 単語を読むのに人間の被験者が要する時間は、文脈における単語の確率の推定から予測できる。 しかしながら、計算アーキテクチャーは、人間の読み取りの行動的シグネチャを決定する人間によってリアルタイムで展開される期待を最も特徴付けるか、という未解決の疑問が残る。 ここでは,計算アーキテクチャとデータセットサイズを独立に操作し,自然主義的なテキストコーパス上での人間の読み時間挙動を,次の単語の期待がいかにうまく予測できるかを検証した。 モデルアーキテクチャとトレーニングデータセットのサイズによって、単語のログ確率と読み込み時間の関係は(ほぼ)線形であることが分かりました。 次に、これらのモデルの特徴が、心理測定予測能力や人間の読書行動を予測する能力をどのように決定するかを評価する。 一般に、モデルが次の単語に期待するほど、その精神測定予測能力は向上する。 しかし、モデルアーキテクチャにまたがる非自明な違いが見つかる。 任意のパープレキシティに対して、深層トランスフォーマモデルとn-gramモデルは通常、lstmや構造的に教師付き神経モデル、特に眼球運動データよりも優れた心理測定予測能力を示す。 最後に,制御された心理言語学的実験の手法を用いて開発した構文一般化テストのバッテリを用いて,モデルの心理計測予測パワーと構文知識の深さを比較した。 パープレキシティが制御されると、構文知識と予測力の間に有意な関係は見つからない。 これらの結果から,自然読解における人間のリアルタイム言語理解行動と,統語論的知識の探索を目的とした制御的言語教材の行動の最適なモデル化には,異なるアプローチが必要であることが示唆された。

Human reading behavior is tuned to the statistics of natural language: the time it takes human subjects to read a word can be predicted from estimates of the word's probability in context. However, it remains an open question what computational architecture best characterizes the expectations deployed in real time by humans that determine the behavioral signatures of reading. Here we test over two dozen models, independently manipulating computational architecture and training dataset size, on how well their next-word expectations predict human reading time behavior on naturalistic text corpora. We find that across model architectures and training dataset sizes the relationship between word log-probability and reading time is (near-)linear. We next evaluate how features of these models determine their psychometric predictive power, or ability to predict human reading behavior. In general, the better a model's next-word expectations, the better its psychometric predictive power. However, we find nontrivial differences across model architectures. For any given perplexity, deep Transformer models and n-gram models generally show superior psychometric predictive power over LSTM or structurally supervised neural models, especially for eye movement data. Finally, we compare models' psychometric predictive power to the depth of their syntactic knowledge, as measured by a battery of syntactic generalization tests developed using methods from controlled psycholinguistic experiments. Once perplexity is controlled for, we find no significant relationship between syntactic knowledge and predictive power. These results suggest that different approaches may be required to best model human real-time language comprehension behavior in naturalistic reading versus behavior for controlled linguistic materials designed for targeted probing of syntactic knowledge.
翻訳日:2022-11-26 00:30:12 公開日:2020-06-02
# ポリセミーの類型:多言語分布の枠組み

The Typology of Polysemy: A Multilingual Distributional Framework ( http://arxiv.org/abs/2006.01966v1 )

ライセンス: Link先を確認
Ella Rabinovich, Yang Xu, Suzanne Stevenson(参考訳) 語彙意味論的タイポロジーは、ポリセミーパターンのバリエーションと共通性に関する重要な言語横断的一般化を明らかにした。 近年の計算研究により、語彙意味論はより大規模に研究できるようになったが、意味領域にまたがる語彙的タイプ論や言語横断的類似性に影響を与える要因についての研究はほとんど行われていない。 本稿では,概念に対する語彙意味論の言語間類似性である意味親和性を定量化する新しい計算フレームワークを提案する。 提案手法は,言語間の概念の語彙表現を直接比較できる共通多言語意味空間を定義する。 概念とドメインレベルでの語彙意味型学に関する経験的発見に対して,我々の枠組みを検証した。 以上の結果から,意味領域と言語系統以外の言語外要因との複雑な相互作用が明らかとなり,言語間の多義性の類型化が図られた。

Lexical semantic typology has identified important cross-linguistic generalizations about the variation and commonalities in polysemy patterns---how languages package up meanings into words. Recent computational research has enabled investigation of lexical semantics at a much larger scale, but little work has explored lexical typology across semantic domains, nor the factors that influence cross-linguistic similarities. We present a novel computational framework that quantifies semantic affinity, the cross-linguistic similarity of lexical semantics for a concept. Our approach defines a common multilingual semantic space that enables a direct comparison of the lexical expression of concepts across languages. We validate our framework against empirical findings on lexical semantic typology at both the concept and domain levels. Our results reveal an intricate interaction between semantic domains and extra-linguistic factors, beyond language phylogeny, that co-shape the typology of polysemy across languages.
翻訳日:2022-11-26 00:29:46 公開日:2020-06-02
# 条件記述子:リテラル記述子と条件保存

Descriptor Revision for Conditionals: Literal Descriptors and Conditional Preservation ( http://arxiv.org/abs/2006.01444v1 )

ライセンス: Link先を確認
Kai Sauerwald, Jonas Haldimann, Martin von Berg, Christoph Beierle(参考訳) hansson氏によるdescriptor revisionは、信念の変化の問題に対処するためのフレームワークである。 記述子リビジョンでは、共同フレームワークで異なる種類の変更プロセスが処理されます。 個々の変更要件は、信念記述子によって表現される特定の成功条件によって資格が与えられ、信念記述子は論理接続子で結合することができる。 これは、alchourr\'on、g\"ardenfors、makinsonによって形成された現在支配されているagmパラダイムとは対照的で、リビジョンや縮小といった異なる種類の変更が別々に処理される。 本稿では,記述子をリテラル記述子の結合に制限しながら,条件論理の記述子リビジョンの実現について検討する。 本稿では,Kern-Isberner による条件記述の書き直しに条件保存の原理を適用し,制約満足度問題によって条件記述の書き直しがいかに特徴付けられるかを示し,制約論理プログラミングを用いて実装する。 条件論理は命題論理を仮定するため,提案論理の記述子修正も実現している。

Descriptor revision by Hansson is a framework for addressing the problem of belief change. In descriptor revision, different kinds of change processes are dealt with in a joint framework. Individual change requirements are qualified by specific success conditions expressed by a belief descriptor, and belief descriptors can be combined by logical connectives. This is in contrast to the currently dominating AGM paradigm shaped by Alchourr\'on, G\"ardenfors, and Makinson, where different kinds of changes, like a revision or a contraction, are dealt with separately. In this article, we investigate the realisation of descriptor revision for a conditional logic while restricting descriptors to the conjunction of literal descriptors. We apply the principle of conditional preservation developed by Kern-Isberner to descriptor revision for conditionals, show how descriptor revision for conditionals under these restrictions can be characterised by a constraint satisfaction problem, and implement it using constraint logic programming. Since our conditional logic subsumes propositional logic, our approach also realises descriptor revision for propositional logic.
翻訳日:2022-11-26 00:28:43 公開日:2020-06-02
# 監視任務を遂行するドローン群をスケジューリングするマルチトラベリングセールスマン問題の拡張

Extending the Multiple Traveling Salesman Problem for Scheduling a Fleet of Drones Performing Monitoring Missions ( http://arxiv.org/abs/2006.01473v1 )

ライセンス: Link先を確認
Emmanouil Rigas, Panayiotis Kolios, Georgios Ellinas(参考訳) 本稿では,事前に定義された地点でノードを複数回訪問する必要があるような,一組のドローンの走行経路をグラフ上でスケジュールする。 これはよく知られた旅行セールスマン問題の延長である。 提案した定式化は,交通ネットワークにおける交通流のモニタリングや遠隔地からの探索・救助活動の監視など,いくつかの領域に適用することができる。 最適なスケジュールを見つけるために、問題は整数線形プログラム(ILP)として定式化される。 問題は非常に組合せ的であるため、最適解は小さな問題に対してのみスケールする。 したがって,一段階のヒューリスティック探索機構を用いた欲求アルゴリズムも提案されている。 詳細な評価では、グリーディアルゴリズムは平均で92.06%の最適性能を持つため、ほぼ最適に近い性能を持つが、数百のドローンやロケーションを持つ設定までスケールアップできる可能性がある。

In this paper we schedule the travel path of a set of drones across a graph where the nodes need to be visited multiple times at pre-defined points in time. This is an extension of the well-known multiple traveling salesman problem. The proposed formulation can be applied in several domains such as the monitoring of traffic flows in a transportation network, or the monitoring of remote locations to assist search and rescue missions. Aiming to find the optimal schedule, the problem is formulated as an Integer Linear Program (ILP). Given that the problem is highly combinatorial, the optimal solution scales only for small sized problems. Thus, a greedy algorithm is also proposed that uses a one-step look ahead heuristic search mechanism. In a detailed evaluation, it is observed that the greedy algorithm has near-optimal performance as it is on average at 92.06% of the optimal, while it can potentially scale up to settings with hundreds of drones and locations.
翻訳日:2022-11-26 00:28:26 公開日:2020-06-02
# 回転同変特性を用いた表面上のCNN

CNNs on Surfaces using Rotation-Equivariant Features ( http://arxiv.org/abs/2006.01570v1 )

ライセンス: Link先を確認
Ruben Wiersma, Elmar Eisemann, Klaus Hildebrandt(参考訳) 本稿では,曲面上に畳み込みニューラルネットワークを構築する際に生じる,幾何学的深層学習の基本問題について述べる。 曲率により、表面上のフィルターカーネルの輸送は回転のあいまいさをもたらすため、表面上のこれらのカーネルの均一なアライメントが防止される。 ベクトル値、回転同値な特徴からなる曲面のためのネットワークアーキテクチャを提案する。 等分散性により、畳み込み層で特徴を集約する場合、任意の座標系で計算された特徴を局所的に整列することができる。 結果として得られるネットワークは、表面上の接空間に対する座標系の選択に無関係である。 トライアングルメッシュに対するアプローチを実装します。 円高調波関数に基づいて、離散レベルでの回転同変であるメッシュの畳み込みフィルタを導入する。 形状対応と形状分類に関するネットワークの評価を行い,その性能を他の手法と比較した。

This paper is concerned with a fundamental problem in geometric deep learning that arises in the construction of convolutional neural networks on surfaces. Due to curvature, the transport of filter kernels on surfaces results in a rotational ambiguity, which prevents a uniform alignment of these kernels on the surface. We propose a network architecture for surfaces that consists of vector-valued, rotation-equivariant features. The equivariance property makes it possible to locally align features, which were computed in arbitrary coordinate systems, when aggregating features in a convolution layer. The resulting network is agnostic to the choices of coordinate systems for the tangent spaces on the surface. We implement our approach for triangle meshes. Based on circular harmonic functions, we introduce convolution filters for meshes that are rotation-equivariant at the discrete level. We evaluate the resulting networks on shape correspondence and shape classifications tasks and compare their performance to other approaches.
翻訳日:2022-11-26 00:22:16 公開日:2020-06-02
# ニューラルネットワークと形式言語に関する調査

A Survey of Neural Networks and Formal Languages ( http://arxiv.org/abs/2006.01338v1 )

ライセンス: Link先を確認
Joshua Ackerman, George Cybenko(参考訳) 本報告は、様々な最先端のニューラルネットワークアーキテクチャと、例えばチョムスキー言語階層によって構造化された形式言語との関係に関する調査である。 特に興味深いのは、言語サンプルから学習することで特定の言語から単語を表現、認識、生成する神経アーキテクチャの能力である。

This report is a survey of the relationships between various state-of-the-art neural network architectures and formal languages as, for example, structured by the Chomsky Language Hierarchy. Of particular interest are the abilities of a neural architecture to represent, recognize and generate words from a specific language by learning from samples of the language.
翻訳日:2022-11-26 00:20:10 公開日:2020-06-02
# 英語とヒンディー語におけるBERTに基づく多言語機械理解

BERT Based Multilingual Machine Comprehension in English and Hindi ( http://arxiv.org/abs/2006.01432v1 )

ライセンス: Link先を確認
Somil Gupta, Nilesh Khade(参考訳) 多言語機械理解(MMC、Multilingual Machine Comprehension)とは、あるスニペットから質問に対する答えを引用することを含む質問回答(QA)サブタスクである。 最近リリースされた BERT (m-BERT) の多言語版は104言語で事前訓練されており、ゼロショットと微調整の両方でうまく機能しているが、英語とヒンディー語ではまだ使われていない。 そこで本稿では, ゼロショット, モノリンガル (Hindi Question-Hindi Snippet など) およびクロスリンガル (英語 Question Hindi Snippet など) の MMC に対する m-BERT を用いた実験を行った。 これらのモデル変種は、可能な全ての多言語設定に基づいて評価され、これらの言語に対する現在の最先端のシーケンシャルQAシステムと比較される。 実験により、m-BERTは、微調整により、前モデルで使用した両方のデータセットのすべての評価設定の性能を改善し、m-BERTベースのMCCを英語とヒンディー語の新たな最先端として確立した。 我々はまた、最近リリースされたXQuADデータセットの拡張バージョンにも結果を公開し、将来の研究のための評価ベンチマークとして使用することを提案する。

Multilingual Machine Comprehension (MMC) is a Question-Answering (QA) sub-task that involves quoting the answer for a question from a given snippet, where the question and the snippet can be in different languages. Recently released multilingual variant of BERT (m-BERT), pre-trained with 104 languages, has performed well in both zero-shot and fine-tuned settings for multilingual tasks; however, it has not been used for English-Hindi MMC yet. We, therefore, present in this article, our experiments with m-BERT for MMC in zero-shot, mono-lingual (e.g. Hindi Question-Hindi Snippet) and cross-lingual (e.g. English QuestionHindi Snippet) fine-tune setups. These model variants are evaluated on all possible multilingual settings and results are compared against the current state-of-the-art sequential QA system for these languages. Experiments show that m-BERT, with fine-tuning, improves performance on all evaluation settings across both the datasets used by the prior model, therefore establishing m-BERT based MMC as the new state-of-the-art for English and Hindi. We also publish our results on an extended version of the recently released XQuAD dataset, which we propose to use as the evaluation benchmark for future research.
翻訳日:2022-11-26 00:19:52 公開日:2020-06-02
# 連続および離散優先符号を含むvae潜在符号の変分相互情報最大化フレームワーク

Variational Mutual Information Maximization Framework for VAE Latent Codes with Continuous and Discrete Priors ( http://arxiv.org/abs/2006.02227v1 )

ライセンス: Link先を確認
Andriy Serdega, Dae-Shik Kim(参考訳) データの解釈可能で不連続な表現の学習は、機械学習研究の重要なトピックである。 variational autoencoder (vae) は、複雑なデータの有向潜在変数モデルを学ぶためのスケーラブルな手法である。 容易に最適化できる明確で解釈可能な目的を採用している。 しかし、この目的は、その品質が劣る可能性がある潜在変数表現の品質を明示的に測定するものではない。 本稿では,VAEのための変分相互情報最大化フレームワークを提案する。 他の方法と比較して、潜在コードと観測の間の相互情報において下限を最大化する明示的な目的を提供する。 目的は、VOEが潜伏変数を無視しないように強制する正規化器として機能し、その特定の成分を観察に関して最も有益なものにすることができる。 それに加えて、提案フレームワークは、固定されたVAEモデルの潜在符号と観測値の相互情報を評価する方法を提供する。 我々は,gaussian と joint gaussian および discrete latent variable を用いた vae モデルの実験を行った。 その結果,提案手法は潜在符号と観測値の関係を強化し,学習表現を改善した。

Learning interpretable and disentangled representations of data is a key topic in machine learning research. Variational Autoencoder (VAE) is a scalable method for learning directed latent variable models of complex data. It employs a clear and interpretable objective that can be easily optimized. However, this objective does not provide an explicit measure for the quality of latent variable representations which may result in their poor quality. We propose Variational Mutual Information Maximization Framework for VAE to address this issue. In comparison to other methods, it provides an explicit objective that maximizes lower bound on mutual information between latent codes and observations. The objective acts as a regularizer that forces VAE to not ignore the latent variable and allows one to select particular components of it to be most informative with respect to the observations. On top of that, the proposed framework provides a way to evaluate mutual information between latent codes and observations for a fixed VAE model. We have conducted our experiments on VAE models with Gaussian and joint Gaussian and discrete latent variables. Our results illustrate that the proposed approach strengthens relationships between latent codes and observations and improves learned representations.
翻訳日:2022-11-26 00:12:42 公開日:2020-06-02
# 量子ニューラルネットワークの一般化研究

Generalization Study of Quantum Neural Network ( http://arxiv.org/abs/2006.02388v1 )

ライセンス: Link先を確認
JinZhe Jiang, Xin Zhang, Chen Li, YaQian Zhao and RenGang Li(参考訳) 一般化はニューラルネットワークの重要な特徴であり、多くの研究がなされている。 近年、量子コンプ・ティング(quantum compu-ting)の発展に伴い、新たな機会がもたらされる。 本稿では,量子ゲートを用いた量子ニューラルネットワークの研究を行った。 このモデルでは、特徴データをヒルベルト空間内の量子状態へまずマッピングし、その上でユニタリ進化を実装し、最終的に量子状態の無限の計測によって分類結果を得ることができる。 quan-tumニューラルネットワークの全ての演算はユニタリであるため、パラメータはヒルベルト空間の超球面を構成する。 従来のニューラルネットワークと比較すると、パラメータ空間はフラットである。 したがって、局所最適化に陥ることは容易ではなく、量子ニューラルネットワークはより一般化されている。 提案手法の有効性を検証するため,我々は3つの公開データセットについて評価を行った。

Generalization is an important feature of neural network, and there have been many studies on it. Recently, with the development of quantum compu-ting, it brings new opportunities. In this paper, we studied a class of quantum neural network constructed by quantum gate. In this model, we mapped the feature data to a quantum state in Hilbert space firstly, and then implement unitary evolution on it, in the end, we can get the classification result by im-plement measurement on the quantum state. Since all the operations in quan-tum neural networks are unitary, the parameters constitute a hypersphere of Hilbert space. Compared with traditional neural network, the parameter space is flatter. Therefore, it is not easy to fall into local optimum, which means the quantum neural networks have better generalization. In order to validate our proposal, we evaluated our model on three public datasets, the results demonstrated that our model has better generalization than the classical neu-ral network with the same structure.
翻訳日:2022-11-26 00:12:25 公開日:2020-06-02
# 高次元逆問題に対する客観的主成分分析

Objective-Sensitive Principal Component Analysis for High-Dimensional Inverse Problems ( http://arxiv.org/abs/2006.04527v1 )

ライセンス: Link先を確認
Maksim Elizarev, Andrei Mukhin and Aleksey Khlyupin(参考訳) 本稿では,大規模乱数場の適応的,微分可能なパラメータ化手法を提案する。 アプローチが勾配に基づく最適化アルゴリズムと結合されている場合、履歴マッチングを含む様々な最適化問題に適用できる。 開発した手法は主成分分析(PCA)に基づくが,目的関数の振る舞いを考慮した主成分の純粋にデータ駆動に基づく基礎を変更する。 効率的な符号化を定義するために、Gradient-Sensitive PCAはモデルパラメータに対する目的関数勾配を使用する。 本稿では, 定常摂動理論(SPT)に基づいて, 計算効率の良い手法の実装を提案する。 新しい符号化手法の最適性、正確性、低い計算コストを検証し、検証し、議論した。 最適パラメータ分解のための3つのアルゴリズムを2次元合成履歴マッチングの目的に適用した。 その結果,目的関数最小化および所望フィールドの分布パターンに関する符号化品質が向上した。 可能なアプリケーションと拡張が提案されている。

We present a novel approach for adaptive, differentiable parameterization of large-scale random fields. If the approach is coupled with any gradient-based optimization algorithm, it can be applied to a variety of optimization problems, including history matching. The developed technique is based on principal component analysis (PCA) but modifies a purely data-driven basis of principal components considering objective function behavior. To define an efficient encoding, Gradient-Sensitive PCA uses an objective function gradient with respect to model parameters. We propose computationally efficient implementations of the technique, and two of them are based on stationary perturbation theory (SPT). Optimality, correctness, and low computational costs of the new encoding approach are tested, verified, and discussed. Three algorithms for optimal parameter decomposition are presented and applied to an objective of 2D synthetic history matching. The results demonstrate improvements in encoding quality regarding objective function minimization and distributional patterns of the desired field. Possible applications and extensions are proposed.
翻訳日:2022-11-26 00:11:39 公開日:2020-06-02
# アルツハイマー病のリスク予測への機械学習の応用 : 早期診断のための正確かつ実用的な解法

Application of Machine Learning to Predict the Risk of Alzheimer's Disease: An Accurate and Practical Solution for Early Diagnostics ( http://arxiv.org/abs/2006.08702v1 )

ライセンス: Link先を確認
Courtney Cochrane, David Castineira, Nisreen Shiban and Pavlos Protopapas(参考訳) アルツハイマー病(AD)は500万人以上のアメリカ人の認知能力を悪化させ、医療システムに多大な負担をかけている。 本稿では,より早期かつ安価な診断を期待して,医療画像のないAD開発のための機械学習予測モデルを提案し,臨床訪問や検査を少なくする。 早期診断は、この病気を治療するための薬や治療の効果において重要である可能性がある。 本モデルは,アルツハイマー病神経イメージングイニシアチブ (ADNI) とオーストラリアイメージング, バイオマーカーライフスタイル・フラッグシップ・オブ・エイジング (AIBL) の2つの研究から得られた, 人口統計, バイオマーカー, 認知検査データを用いて, 評価を行った。 我々は、異なる機械学習モデル、前処理方法、特徴選択手法を体系的に検討する。 最も性能の高いモデルはAD予測における90%以上の精度とリコールを示し、結果はADNIのサブ研究と独立AIBL研究に一般化される。 また,この結果が臨床訪問数や検査回数の減少に有効であることを実証した。 メタクラス化アルゴリズムと縦断データ分析を用いることで、3つのテストと4回の臨床訪問で87%の正確さと79%のリコールでアルツハイマー病の発症を予測する「リーン」診断プロトコルを作成できる。 この新しい研究は、必要な診断試験と臨床訪問の数を最小にしつつ、精度を最大化するアルツハイマー病の発生を予測するための実用的な早期診断ツールに適応することができる。

Alzheimer's Disease (AD) ravages the cognitive ability of more than 5 million Americans and creates an enormous strain on the health care system. This paper proposes a machine learning predictive model for AD development without medical imaging and with fewer clinical visits and tests, in hopes of earlier and cheaper diagnoses. That earlier diagnoses could be critical in the effectiveness of any drug or medical treatment to cure this disease. Our model is trained and validated using demographic, biomarker and cognitive test data from two prominent research studies: Alzheimer's Disease Neuroimaging Initiative (ADNI) and Australian Imaging, Biomarker Lifestyle Flagship Study of Aging (AIBL). We systematically explore different machine learning models, pre-processing methods and feature selection techniques. The most performant model demonstrates greater than 90% accuracy and recall in predicting AD, and the results generalize across sub-studies of ADNI and to the independent AIBL study. We also demonstrate that these results are robust to reducing the number of clinical visits or tests per visit. Using a metaclassification algorithm and longitudinal data analysis we are able to produce a "lean" diagnostic protocol with only 3 tests and 4 clinical visits that can predict Alzheimer's development with 87% accuracy and 79% recall. This novel work can be adapted into a practical early diagnostic tool for predicting the development of Alzheimer's that maximizes accuracy while minimizing the number of necessary diagnostic tests and clinical visits.
翻訳日:2022-11-26 00:11:27 公開日:2020-06-02
# 理論誘導生成逆ネットワークによる動的地下流れの深層学習

Deep Learning of Dynamic Subsurface Flow via Theory-guided Generative Adversarial Network ( http://arxiv.org/abs/2006.13305v1 )

ライセンス: Link先を確認
Tianhao He and Dongxiao Zhang(参考訳) generative adversarial network (gan) は、画像認識、テキスト処理、科学計算など、複雑なデータ分布を学習する能力があるため、様々なアプリケーションで有用であることが示されている。 本研究では,動的偏微分方程式(PDE)を解くため,理論誘導型生成逆数ネットワーク(TgGAN)を提案する。 標準のGANとは異なり、トレーニング用語はもはや真のデータと生成されたデータではなく、その残余である。 さらに、制御方程式、その他の物理的制約、工学的制御などの理論は、予測がトレーニングデータを尊重するだけでなく、これらの理論に従うことを保証するため、ジェネレータの損失関数に符号化される。 TgGANは不均一なモデルパラメータを持つ動的地下流れに対して提案され、各時間ステップのデータは2次元画像として扱われる。 本研究では,TgGANの性能試験を行うために,いくつかの数値ケースを導入する。 TgGANモデルにより、将来的な応答予測、ラベルなし学習、ノイズの多いデータからの学習を容易に実現できる。 また,トレーニングデータ数とコロケーション点数の影響についても考察した。 また、TgGANの効率を向上させるために、転送学習アルゴリズムを用いる。 数値計算により,TgGANモデルは動的PDEの深層学習において堅牢で信頼性が高いことが示された。

Generative adversarial network (GAN) has been shown to be useful in various applications, such as image recognition, text processing and scientific computing, due its strong ability to learn complex data distributions. In this study, a theory-guided generative adversarial network (TgGAN) is proposed to solve dynamic partial differential equations (PDEs). Different from standard GANs, the training term is no longer the true data and the generated data, but rather their residuals. In addition, such theories as governing equations, other physical constraints and engineering controls, are encoded into the loss function of the generator to ensure that the prediction does not only honor the training data, but also obey these theories. TgGAN is proposed for dynamic subsurface flow with heterogeneous model parameters, and the data at each time step are treated as a two-dimensional image. In this study, several numerical cases are introduced to test the performance of the TgGAN. Predicting the future response, label-free learning and learning from noisy data can be realized easily by the TgGAN model. The effects of the number of training data and the collocation points are also discussed. In order to improve the efficiency of TgGAN, the transfer learning algorithm is also employed. Numerical results demonstrate that the TgGAN model is robust and reliable for deep learning of dynamic PDEs.
翻訳日:2022-11-26 00:10:58 公開日:2020-06-02
# 校正予測モデルの局所的解釈 : 2型糖尿病スクリーニングテストの1例

Local Interpretability of Calibrated Prediction Models: A Case of Type 2 Diabetes Mellitus Screening Test ( http://arxiv.org/abs/2006.13815v1 )

ライセンス: Link先を確認
Simon Kocbek, Primoz Kocbek, Leona Cilar, Gregor Stiglic(参考訳) 機械学習(ML)モデルは、しばしば「ブラックボックス」の特性のために複雑で解釈が難しい。 MLモデルの解釈可能性は通常、人間がMLモデルによって到達された決定の原因を理解することができる程度に定義される。 mlモデルに基づく意思決定に関連するリスクが高いため、多くの医療分野において解釈可能性は非常に重要である。 MLモデルの出力の校正は、実際にMLモデルを適用する際にしばしば見過ごされる問題である。 本稿では,予測モデルのキャリブレーションが結果の解釈性に与える影響について検討した。 糖尿病スクリーニング予測のシナリオと3つの異なる手法を用いて結果を可視化し, 校正回帰モデルと非校正回帰モデルの違いを検証した症例を報告する。

Machine Learning (ML) models are often complex and difficult to interpret due to their 'black-box' characteristics. Interpretability of a ML model is usually defined as the degree to which a human can understand the cause of decisions reached by a ML model. Interpretability is of extremely high importance in many fields of healthcare due to high levels of risk related to decisions based on ML models. Calibration of the ML model outputs is another issue often overlooked in the application of ML models in practice. This paper represents an early work in examination of prediction model calibration impact on the interpretability of the results. We present a use case of a patient in diabetes screening prediction scenario and visualize results using three different techniques to demonstrate the differences between calibrated and uncalibrated regularized regression model.
翻訳日:2022-11-26 00:10:36 公開日:2020-06-02
# 差分ニューラルネットワーク:部分微分方程式の高速予測

Finite Difference Neural Networks: Fast Prediction of Partial Differential Equations ( http://arxiv.org/abs/2006.01892v1 )

ライセンス: Link先を確認
Zheng Shi, Nur Sila Gulgec, Albert S. Berahas, Shamim N. Pakzad, Martin Tak\'a\v{c}(参考訳) 複雑なシステムの基本的な振る舞いを発見することは、多くの科学と工学の分野において重要なトピックである。 本稿では,データから偏微分方程式を学ぶための新しいニューラルネットワークフレームワークである有限差分ニューラルネットワーク(fdnet)を提案する。 具体的には, トラジェクティブデータから基礎となる偏微分方程式を学習し, 学習可能なパラメータのみを用いて, 将来の動的挙動を反復的に推定するネットワークを提案する。 提案手法は, 音と強制を伴わずとも, 熱方程式上でのフレームワークの性能(予測力)を示し, 結果と前方オイラー法を比較した。 さらに,Hessian-Free Trust Region 法を用いてネットワークのトレーニングを行う利点を示す。

Discovering the underlying behavior of complex systems is an important topic in many science and engineering disciplines. In this paper, we propose a novel neural network framework, finite difference neural networks (FDNet), to learn partial differential equations from data. Specifically, our proposed finite difference inspired network is designed to learn the underlying governing partial differential equations from trajectory data, and to iteratively estimate the future dynamical behavior using only a few trainable parameters. We illustrate the performance (predictive power) of our framework on the heat equation, with and without noise and/or forcing, and compare our results to the Forward Euler method. Moreover, we show the advantages of using a Hessian-Free Trust Region method to train the network.
翻訳日:2022-11-26 00:02:17 公開日:2020-06-02
# 新型コロナウイルスECMO計画におけるウイルスおよび未特定肺炎の死亡リスク予測

Predicting Mortality Risk in Viral and Unspecified Pneumonia to Assist Clinicians with COVID-19 ECMO Planning ( http://arxiv.org/abs/2006.01898v1 )

ライセンス: Link先を確認
Helen Zhou, Cheng Cheng, Zachary C. Lipton, George H. Chen, Jeremy C. Weiss(参考訳) 新型コロナウイルスによる呼吸器合併症は、2020年に数万人が命を落とした。 重症急性呼吸症候群(SARS-CoV-2)からウイルス肺炎から急性呼吸不全症候群(ARDS)まで、多くの症例がエスカレートした。 体外膜酸素療法(Extracorporeal membranous oxygenation, ECMO)は、重症心身障害患者に対する持続的酸素・換気療法である。 早期の計画とECMOの外科的治療は生存率を高める可能性があるが、臨床医はリスクスコアの欠如がこれらの努力を妨げると報告している。 本研究は,PEERスコアの開発に機械学習技術を活用することを目的として,ECMOに該当するサブ集団において,致死率や補充のリスクが高いウイルス性又は未特定肺炎の重篤な患者を強調するために用いられる。 PEERスコアは2つの大規模で一般公開されているクリティカルケアデータベースで検証され、少なくとも他のリスクスコアと同様に死亡率を予測する。 また,コホートを低リスク群と高リスク群に分類すると,高リスク群は圧薬や人工呼吸器などの除算指標の比率も高いことがわかった。 最後に、PEERスコアは、患者のリスクを直接計算するノモグラムの形で提供され、ECMOに該当する重篤なケア患者のうち、リスクの高い患者をハイライトするために使用できる。

Respiratory complications due to coronavirus disease COVID-19 have claimed tens of thousands of lives in 2020. Many cases of COVID-19 escalate from Severe Acute Respiratory Syndrome (SARS-CoV-2) to viral pneumonia to acute respiratory distress syndrome (ARDS) to death. Extracorporeal membranous oxygenation (ECMO) is a life-sustaining oxygenation and ventilation therapy that may be used for patients with severe ARDS when mechanical ventilation is insufficient to sustain life. While early planning and surgical cannulation for ECMO can increase survival, clinicians report the lack of a risk score hinders these efforts. In this work, we leverage machine learning techniques to develop the PEER score, used to highlight critically ill patients with viral or unspecified pneumonia at high risk of mortality or decompensation in a subpopulation eligible for ECMO. The PEER score is validated on two large, publicly available critical care databases and predicts mortality at least as well as other existing risk scores. Stratifying our cohorts into low-risk and high-risk groups, we find that the high-risk group also has a higher proportion of decompensation indicators such as vasopressor and ventilator use. Finally, the PEER score is provided in the form of a nomogram for direct calculation of patient risk, and can be used to highlight at-risk patients among critical care patients eligible for ECMO.
翻訳日:2022-11-26 00:01:42 公開日:2020-06-02
# 会話システムのユーザエンゲージメントと満足度に及ぼす韻律変調の影響の定量化

Quantifying the Effects of Prosody Modulation on User Engagement and Satisfaction in Conversational Systems ( http://arxiv.org/abs/2006.01916v1 )

ライセンス: Link先を確認
Jason Ingyu Choi, Eugene Agichtein(参考訳) Alexa、Siri、Google Assistantといった音声アシスタントがユビキタスになると、ユーザーはそうしたシステムとの自然な、情報的な会話を維持することをますます期待している。 しかし、オープンドメインの会話システムが一貫性とエンゲージメントを持つためには、退屈感や迷惑感を伴わずに、長期にわたってユーザの関心を維持できなければならない。 本稿では,この課題に対する自然なアプローチとして,反応の韻律を変調すること,すなわち,喜び,悲しみ,その他の一般的な感情を示す応答のピッチとリズムを変化させること,および事前記録された間投詞を用いることについて検討する。 直感的には、このアプローチは会話の自然性を改善するべきであるが、韻律変調がユーザの満足度やエンゲージメントに与える影響を定量化しようとする試みは依然として困難である。 そこで本研究では,複数の会話領域における韻律変調がユーザの行動およびエンゲージメントに与える影響を,各ターンの直後および会話全体のレベルで測定した大規模実験結果について報告する。 以上の結果から,韻律変調はユーザ満足度とユーザ満足度の両方を著しく向上させることが示唆された。 しかし,効果はドメインによって異なるため,韻律変調が応答のコヒーレントな情報的内容に代わらないことが確認された。 対話型システムにおける応答の自然性を改善するための有用なツールと洞察を提供する。

As voice-based assistants such as Alexa, Siri, and Google Assistant become ubiquitous, users increasingly expect to maintain natural and informative conversations with such systems. However, for an open-domain conversational system to be coherent and engaging, it must be able to maintain the user's interest for extended periods, without sounding boring or annoying. In this paper, we investigate one natural approach to this problem, of modulating response prosody, i.e., changing the pitch and cadence of the response to indicate delight, sadness or other common emotions, as well as using pre-recorded interjections. Intuitively, this approach should improve the naturalness of the conversation, but attempts to quantify the effects of prosodic modulation on user satisfaction and engagement remain challenging. To accomplish this, we report results obtained from a large-scale empirical study that measures the effects of prosodic modulation on user behavior and engagement across multiple conversation domains, both immediately after each turn, and at the overall conversation level. Our results indicate that the prosody modulation significantly increases both immediate and overall user satisfaction. However, since the effects vary across different domains, we verify that prosody modulations do not substitute for coherent, informative content of the responses. Together, our results provide useful tools and insights for improving the naturalness of responses in conversational systems.
翻訳日:2022-11-25 23:55:30 公開日:2020-06-02
# オープンドメイン会話システムにおけるオフラインとオンライン満足度予測

Offline and Online Satisfaction Prediction in Open-Domain Conversational Systems ( http://arxiv.org/abs/2006.01921v1 )

ライセンス: Link先を確認
Jason Ingyu Choi, Ali Ahmadvand, Eugene Agichtein(参考訳) 会話システムにおけるユーザの満足度を予測することは、会話アシスタントがますます複雑なドメインで動作するため、重要になっている。 オンライン満足度予測(すなわち、各ターン後にシステムでユーザの満足度を予測する)は、暗黙のユーザフィードバックのための新しいプロキシとして使用することができ、より応答的で効果的な会話エージェントを作成する機会を提供する。 この目的を達成するために,オープンドメイン音声エージェントを対象とした会話満足度予測モデル(ConvSAT)を提案する。 ドメイン間で堅牢に操作するために、ConvSATは会話の複数の表現、すなわち会話履歴、発話と応答の内容、システム指向およびユーザ指向の行動シグナルを集約する。 まず、オンラインの標準データセット(Dialogue Breakdown Detection Challenge)上のアートメソッドの状態に対してConvSATのパフォーマンスを調整し、次に、Alexa Prizeコンペティションの一部として収集された実際のユーザとの対話の大規模なデータセット上でConvSATを評価する。 実験の結果,ConvSATは,以前に報告した最先端アプローチと比較して,オフラインおよびオンライン両方のデータセットに対する満足度予測を著しく改善することがわかった。 我々の研究から得られた洞察は、よりインテリジェントな会話システムを可能にし、推論されたユーザの満足度とエンゲージメントにリアルタイムで適応することができる。

Predicting user satisfaction in conversational systems has become critical, as spoken conversational assistants operate in increasingly complex domains. Online satisfaction prediction (i.e., predicting satisfaction of the user with the system after each turn) could be used as a new proxy for implicit user feedback, and offers promising opportunities to create more responsive and effective conversational agents, which adapt to the user's engagement with the agent. To accomplish this goal, we propose a conversational satisfaction prediction model specifically designed for open-domain spoken conversational agents, called ConvSAT. To operate robustly across domains, ConvSAT aggregates multiple representations of the conversation, namely the conversation history, utterance and response content, and system- and user-oriented behavioral signals. We first calibrate ConvSAT performance against state of the art methods on a standard dataset (Dialogue Breakdown Detection Challenge) in an online regime, and then evaluate ConvSAT on a large dataset of conversations with real users, collected as part of the Alexa Prize competition. Our experimental results show that ConvSAT significantly improves satisfaction prediction for both offline and online setting on both datasets, compared to the previously reported state-of-the-art approaches. The insights from our study can enable more intelligent conversational systems, which could adapt in real-time to the inferred user satisfaction and engagement.
翻訳日:2022-11-25 23:55:05 公開日:2020-06-02
# 逐次推薦における累積ユーザエンゲージメントの最大化:オンライン最適化の視点から

Maximizing Cumulative User Engagement in Sequential Recommendation: An Online Optimization Perspective ( http://arxiv.org/abs/2006.04520v1 )

ライセンス: Link先を確認
Yifei Zhao, Yu-Hang Zhou, Mingdong Ou, Huan Xu, Nan Li(参考訳) 逐次レコメンデーションにおける累積ユーザエンゲージメント(例えば累積クリック)を最大化するためには、対立する可能性のある2つの目標、すなわち、より即時のユーザエンゲージメント(例えばクリックスルーレート)を追求し、ユーザブラウジングを奨励すること(つまり、より多くのアイテムが露出すること)をトレードオフする必要がある。 既存の研究はしばしばこれらの2つのタスクを別々に研究し、その結果は準最適となる傾向にある。 本稿では、オンライン最適化の観点からこの問題を考察し、より長いユーザブラウジング期間と高いユーザエンゲージメントを明示的にトレードオフするフレキシブルで実用的なフレームワークを提案する。 具体的には、アイテムをアクションとして、ユーザの要求を状態として、ユーザの離脱を吸収状態として、パーソナライズされたマルコフ決定プロセス(MDP)として各ユーザの行動を定式化し、累積ユーザエンゲージメントを最大化する問題は確率的最短パス(SSP)問題に還元される。 一方、ユーザエンゲージメントと確率推定を即時停止することにより、SSP問題を動的プログラミングにより効率的に解けることを示す。 実世界のデータセット実験は,提案手法の有効性を示す。 さらに、このアプローチは大規模なeコマースプラットフォームにデプロイされ、累積クリックの7%以上の改善を達成した。

To maximize cumulative user engagement (e.g. cumulative clicks) in sequential recommendation, it is often needed to tradeoff two potentially conflicting objectives, that is, pursuing higher immediate user engagement (e.g., click-through rate) and encouraging user browsing (i.e., more items exposured). Existing works often study these two tasks separately, thus tend to result in sub-optimal results. In this paper, we study this problem from an online optimization perspective, and propose a flexible and practical framework to explicitly tradeoff longer user browsing length and high immediate user engagement. Specifically, by considering items as actions, user's requests as states and user leaving as an absorbing state, we formulate each user's behavior as a personalized Markov decision process (MDP), and the problem of maximizing cumulative user engagement is reduced to a stochastic shortest path (SSP) problem. Meanwhile, with immediate user engagement and quit probability estimation, it is shown that the SSP problem can be efficiently solved via dynamic programming. Experiments on real-world datasets demonstrate the effectiveness of the proposed approach. Moreover, this approach is deployed at a large E-commerce platform, achieved over 7% improvement of cumulative clicks.
翻訳日:2022-11-25 23:54:40 公開日:2020-06-02
# 機能重み付きelastic net:"features of features"を用いた予測の改善

Feature-weighted elastic net: using "features of features" for better prediction ( http://arxiv.org/abs/2006.01395v1 )

ライセンス: Link先を確認
J. Kenneth Tay, Nima Aghaeepour, Trevor Hastie, Robert Tibshirani(参考訳) 教師付きの学習環境では、予測に使用する機能に関する追加情報を持つ場合もある。 本稿では,この追加情報を利用した予測手法を提案する。 特徴重み付き弾性ネット(fwelnet)と呼ぶこの手法は、これらの「特徴のフィーチャ」を用いて、弾性ネットペナルティにおける特徴係数に相対的なペナルティを適用する。 我々のシミュレーションでは、fwelnetは平均二乗誤差でラッソを上回り、通常、特徴選択に対して真の正の率または偽の正の率を改善する。 また,この手法を前頭蓋骨の早期予測に適用し,fwelnet は曲線下の10倍の断裂面積 (0.86 対 0.80) でlasso を上回った。 また、fwelnet とグループ lasso の接続も提供し、マルチタスク学習に fwelnet がどのように使われるかを提案する。

In some supervised learning settings, the practitioner might have additional information on the features used for prediction. We propose a new method which leverages this additional information for better prediction. The method, which we call the feature-weighted elastic net ("fwelnet"), uses these "features of features" to adapt the relative penalties on the feature coefficients in the elastic net penalty. In our simulations, fwelnet outperforms the lasso in terms of test mean squared error and usually gives an improvement in true positive rate or false positive rate for feature selection. We also apply this method to early prediction of preeclampsia, where fwelnet outperforms the lasso in terms of 10-fold cross-validated area under the curve (0.86 vs. 0.80). We also provide a connection between fwelnet and the group lasso and suggest how fwelnet might be used for multi-task learning.
翻訳日:2022-11-25 23:53:47 公開日:2020-06-02
# Recht-R\'e Noncommutative Arithmetic-Geometric Mean Conjecture is False

Recht-R\'e Noncommutative Arithmetic-Geometric Mean Conjecture is False ( http://arxiv.org/abs/2006.01510v1 )

ライセンス: Link先を確認
Zehua Lai and Lek-Heng Lim(参考訳) 確率最適化アルゴリズムは現代の機械学習では不可欠である。 この領域における解決されていない基礎的な疑問は、非置換サンプリングと無置換サンプリングの違いである。 Recht と R\'e の画期的な結果は、この問題を算術幾何学的平均不等式の不等式(英語版)の非可換な類似に還元し、$n$正の数値を$n$正の定値行列に置き換える。 もしこの不等式がすべての$n$ に対して成り立つなら、no-replacement samplingはwith-replacement samplingよりも優れている。 予想されるRecht-R\'eの不等式は、これまでのところ$n = 2$と$n = 3$の特別な場合のみ確立されている。 recht-r\'e 予想は一般の $n$ に対して偽であることを示す。 このアプローチは非可換なポジティヴシュテルナッツ(英語版)に依存しており、これは予想の不等式を半定値のプログラムに還元し、予想を最適値の特定の境界に妥当性を与えることができる。

Stochastic optimization algorithms have become indispensable in modern machine learning. An unresolved foundational question in this area is the difference between with-replacement sampling and without-replacement sampling -- does the latter have superior convergence rate compared to the former? A groundbreaking result of Recht and R\'e reduces the problem to a noncommutative analogue of the arithmetic-geometric mean inequality where $n$ positive numbers are replaced by $n$ positive definite matrices. If this inequality holds for all $n$, then without-replacement sampling indeed outperforms with-replacement sampling. The conjectured Recht-R\'e inequality has so far only been established for $n = 2$ and a special case of $n = 3$. We will show that the Recht-R\'e conjecture is false for general $n$. Our approach relies on the noncommutative Positivstellensatz, which allows us to reduce the conjectured inequality to a semidefinite program and the validity of the conjecture to certain bounds for the optimum values, which we show are false as soon as $n = 5$.
翻訳日:2022-11-25 23:52:53 公開日:2020-06-02
# MILタスクに対するMILプーリングフィルタの効果の検討

Studying The Effect of MIL Pooling Filters on MIL Tasks ( http://arxiv.org/abs/2006.01561v1 )

ライセンス: Link先を確認
Mustafa Umit Oner, Jared Marc Song Kye-Jet, Hwee Kuan Lee, Wing-Kin Sung(参考訳) MILモデルで使用される複数のインスタンス学習(MIL)プールフィルタがある。 本稿では,実世界のMILタスクにおいて,異なるMILプールフィルタがMILモデルの性能に与える影響について検討する。 我々は、ニューラルネットワークベースのMILフレームワークを設計し、5種類のMILプールフィルタ(max', `mean', `attention', `distribution', `distribution with attention')を設計した。 また,実世界のリンパ節転移データセット上で5種類のMILタスクを定式化した。 タスクにおけるフレームワークのパフォーマンスは、異なるフィルタに対して異なることがわかった。 また,5つのプールフィルタの性能がタスクごとに異なることも確認した。 したがって、各MILタスクに対する適切なMILプーリングフィルタの選択は、パフォーマンス向上に不可欠である。 さらに,ほぼすべてのタスクにおいて,'distribution' と 'distribution with attention' のプールフィルタが常に良好に機能していることに気付いた。 我々は,この現象を,'distribution'ベースのプールフィルタで捉えた情報量とみなす。 点推定に基づくプールフィルタ、例えば `max' や `mean' は分布の点推定を生成するが、 'distribution' ベースのプールフィルタは分布の全情報をキャプチャする。 最後に、従来のMILデータセットの文献における最高のMIL手法の性能と、ニューラルネットワークモデルの性能を'分散'プールフィルタと比較した。

There are different multiple instance learning (MIL) pooling filters used in MIL models. In this paper, we study the effect of different MIL pooling filters on the performance of MIL models in real world MIL tasks. We designed a neural network based MIL framework with 5 different MIL pooling filters: `max', `mean', `attention', `distribution' and `distribution with attention'. We also formulated 5 different MIL tasks on a real world lymph node metastases dataset. We found that the performance of our framework in a task is different for different filters. We also observed that the performances of the five pooling filters are also different from task to task. Hence, the selection of a correct MIL pooling filter for each MIL task is crucial for better performance. Furthermore, we noticed that models with `distribution' and `distribution with attention' pooling filters consistently perform well in almost all of the tasks. We attribute this phenomena to the amount of information captured by `distribution' based pooling filters. While point estimate based pooling filters, like `max' and `mean', produce point estimates of distributions, `distribution' based pooling filters capture the full information in distributions. Lastly, we compared the performance of our neural network model with `distribution' pooling filter with the performance of the best MIL methods in the literature on classical MIL datasets and our model outperformed the others.
翻訳日:2022-11-25 23:45:39 公開日:2020-06-02
# 3次元3次元グラフを用いた深層学習のための幾何グラフ表現と幾何グラフ畳み込み

Geometric Graph Representations and Geometric Graph Convolutions for Deep Learning on Three-Dimensional (3D) Graphs ( http://arxiv.org/abs/2006.01785v1 )

ライセンス: Link先を確認
Daniel T. Chang(参考訳) ノードとエッジからなる三次元(3次元)グラフの幾何学は、多くの重要な応用において重要な役割を果たす。 優れた例として分子グラフがあり、その幾何学はその反応性や生物活性を含む分子の重要な性質に影響を与える。 3次元グラフ上での深層学習における幾何学の組み入れを容易にするため,3種類の幾何学グラフ表現を定義する。 概念実証には幾何学的グラフ畳み込みに距離幾何学的グラフ表現を用いる。 さらに,標準グラフ畳み込みネットワークを利用するために,基準値を用いてパラメータを固定したり,ベイズ超パラメータ最適化によって決定できる単純なエッジウェイト/エッジ距離相関スキームを用いる。 esolとfreesolデータセットに対する幾何グラフ畳み込みの結果は、標準的なグラフ畳み込みよりも大幅に改善されている。 本研究では,3次元グラフを用いた深層学習において,距離・幾何グラフ表現を用いた幾何表現の導入の可能性と期待を示す。

The geometry of three-dimensional (3D) graphs, consisting of nodes and edges, plays a crucial role in many important applications. An excellent example is molecular graphs, whose geometry influences important properties of a molecule including its reactivity and biological activity. To facilitate the incorporation of geometry in deep learning on 3D graphs, we define three types of geometric graph representations: positional, angle-geometric and distance-geometric. For proof of concept, we use the distance-geometric graph representation for geometric graph convolutions. Further, to utilize standard graph convolution networks, we employ a simple edge weight / edge distance correlation scheme, whose parameters can be fixed using reference values or determined through Bayesian hyperparameter optimization. The results of geometric graph convolutions, for the ESOL and Freesol datasets, show significant improvement over those of standard graph convolutions. Our work demonstrates the feasibility and promise of incorporating geometry, using the distance-geometric graph representation, in deep learning on 3D graphs.
翻訳日:2022-11-25 23:45:19 公開日:2020-06-02
# 変分オートエンコーダによる映像系列の予測モデルの連続学習

Continual Learning of Predictive Models in Video Sequences via Variational Autoencoders ( http://arxiv.org/abs/2006.01945v1 )

ライセンス: Link先を確認
Damian Campo, Giulia Slavic, Mohamad Baydoun, Lucio Marcenaro, Carlo Regazzoni(参考訳) 本稿では,映像系列における将来のフレームの推論を容易にする予測モデルの連続学習手法を提案する。 最初に与えられた経験として、初期変分オートコーダと完全に接続されたニューラルネットワークのセットを用いて、潜時空間レベルでの映像フレームとそのダイナミクスの出現をそれぞれ学習する。 適応型マルコフジャンプ粒子フィルタを用いることにより,新しい状況を認識し,従来学習したタスクの破滅的な忘れることを回避する予測モデルとして統合する。 提案手法の評価には,制御環境において異なるタスクを行う車両からの映像シーケンスを用いる。

This paper proposes a method for performing continual learning of predictive models that facilitate the inference of future frames in video sequences. For a first given experience, an initial Variational Autoencoder, together with a set of fully connected neural networks are utilized to respectively learn the appearance of video frames and their dynamics at the latent space level. By employing an adapted Markov Jump Particle Filter, the proposed method recognizes new situations and integrates them as predictive models avoiding catastrophic forgetting of previously learned tasks. For evaluating the proposed method, this article uses video sequences from a vehicle that performs different tasks in a controlled environment.
翻訳日:2022-11-25 23:45:02 公開日:2020-06-02
# 決定木に基づく学習を用いたサバープロの成功予測モデル

Saber Pro success prediction model using decision tree based learning ( http://arxiv.org/abs/2006.01322v1 )

ライセンス: Link先を確認
Gregorio Perez Bernal, Luisa Toro Villegas, Mauricio Toro(参考訳) 本報告の目的は,コロンビアで勉強した学生の成功率にどのような影響を及ぼすのかを判断し,前学年の試験であるsaber 11を分析し,社会経済的側面を分析し,saber proの結果を全国平均と比較することである。 これが直面する問題は、何が成功に影響を及ぼすかを見つけることだが、国の教育のダイナミクスに関する洞察を与え、繁栄する機会を予測する。 この論文で提示されたものと逆の状況は脱走レベルである可能性があり、誰かを際立たせるものを検出することで、これらの要因が何に失敗させるかを示すことができる。 この問題を解決するために提案された解法は、対象親の親の職業やセイバー11で得られた結果など、異なる社会経済的・学術的要因に基づいて、生徒が平均値よりもスコアが高い確率を予測するのに役立つカート決定木アルゴリズムを実装することであった。 もっとも影響力のある要因の1つは、社会学の話題におけるセイバー11のスコアであり、対象者の性別は、通常描写されるほど影響力がないことが判明した。 アルゴリズムは、ある人の成功の確率に最も影響を及ぼす要因について重要な洞察を与え、もしさらに追求された場合は、学校におけるどの科目がより強く与えられるべきか、あるいは一般的に学術的カリキュラムを決定するといった多くの状況で使用できる。

The primary objective of this report is to determine what influences the success rates of students who have studied in Colombia, analyzing the Saber 11, the test done at the last school year, some socioeconomic aspects and comparing the Saber Pro results with the national average. The problem this faces is to find what influences success, but it also provides an insight in the countries education dynamics and predicts one's opportunities to be prosperous. The opposite situation to the one presented in this paper could be the desertion levels, in the sense that by detecting what makes someone outstanding, these factors can say what makes one unsuccessful. The solution proposed to solve this problem was to implement a CART decision tree algorithm that helps to predict the probability that a student has of scoring higher than the mean value, based on different socioeconomic and academic factors, such as the profession of the parents of the subject parents and the results obtained on Saber 11. It was discovered that one of the most influential factors is the score in the Saber 11, on the topic of Social Studies, and that the gender of the subject is not as influential as it is usually portrayed as. The algorithm designed provided significant insight into which factors most affect the probability of success of any given person and if further pursued could be used in many given situations such as deciding which subject in school should be given more intensity to and academic curriculum in general.
翻訳日:2022-11-25 23:44:30 公開日:2020-06-02
# 多重ニューラルネットワークの非公式導入

An Informal Introduction to Multiplet Neural Networks ( http://arxiv.org/abs/2006.01606v1 )

ライセンス: Link先を確認
Nathan E. Frick(参考訳) 人工ニューロンでは、ドット積を重み付けされたリーマー平均に置き換え、一般化された平均の異なるケースをエミュレートする。 単一ニューロンのインスタンスは、同じ平均的な重みを持つニューロンの多重体に置き換えられる。 出力のグループは、単一のスカラーの代わりに前方にフィードします。 一般化パラメータは通常、多重項の各ニューロンに対して異なる値に設定される。 私はさらに、この概念をジーニ平均から取った多重語に拡張します。 重みパラメータに関する微分と、2つの一般化パラメータに関する微分が与えられる。 ネットワークのいくつかの特性について検討し、古典的排他的問題を2層に有機的にエミュレートし、乗算と分割を行う能力を示す。 ネットワークは、パラメータが制約されている場合、異なる関数を近似するために使用できる、切り捨てられた電力列と変種をインスタンス化することができる。 また、選択された要素の均質性に基づく学習率の新規性を容易にする平均ケーススロープスコアを導出する。 多重ニューロン方程式は正規化時間枠とアプローチを分割する方法を提供する。

In the artificial neuron, I replace the dot product with the weighted Lehmer mean, which may emulate different cases of a generalized mean. The single neuron instance is replaced by a multiplet of neurons which have the same averaging weights. A group of outputs feed forward, in lieu of the single scalar. The generalization parameter is typically set to a different value for each neuron in the multiplet. I further extend the concept to a multiplet taken from the Gini mean. Derivatives with respect to the weight parameters and with respect to the two generalization parameters are given. Some properties of the network are investigated, showing the capacity to emulate the classical exclusive-or problem organically in two layers and perform some multiplication and division. The network can instantiate truncated power series and variants, which can be used to approximate different functions, provided that parameters are constrained. Moreover, a mean case slope score is derived that can facilitate a learning-rate novelty based on homogeneity of the selected elements. The multiplet neuron equation provides a way to segment regularization timeframes and approaches.
翻訳日:2022-11-25 23:37:46 公開日:2020-06-02
# ニューラルネットワークによる素トラガード条件計算

Surprisal-Triggered Conditional Computation with Neural Networks ( http://arxiv.org/abs/2006.01659v1 )

ライセンス: Link先を確認
Loren Lugosch, Derek Nowrouzezahrai, Brett H. Meyer(参考訳) 自己回帰型ニューラルネットワークモデルは、シーケンス生成、特徴抽出、仮説スコアリングに成功している。 本稿では,より難しい入力により多くの計算を割り当てるという,これらのモデルの新たな用途について述べる。 我々のモデルでは、特徴抽出と入力観測のストリームにおける観測予測の両方に自己回帰モデルが用いられる。 自己回帰モデルによる現在の観測の負の対数類似度として測定された入力の仮定を入力困難度尺度として用いる。 これにより、小さくて高速なネットワーク、あるいは大きな遅いネットワークが使用されるかどうかが決定される。 2つの音声認識タスクの実験により、我々のモデルは、大きなネットワークが常に使用されるベースラインの性能と15%少ないFLOPで一致できることが示される。

Autoregressive neural network models have been used successfully for sequence generation, feature extraction, and hypothesis scoring. This paper presents yet another use for these models: allocating more computation to more difficult inputs. In our model, an autoregressive model is used both to extract features and to predict observations in a stream of input observations. The surprisal of the input, measured as the negative log-likelihood of the current observation according to the autoregressive model, is used as a measure of input difficulty. This in turn determines whether a small, fast network, or a big, slow network, is used. Experiments on two speech recognition tasks show that our model can match the performance of a baseline in which the big network is always used with 15% fewer FLOPs.
翻訳日:2022-11-25 23:37:31 公開日:2020-06-02
# チャンネル蒸留:チャンネル回りの知識蒸留への注意

Channel Distillation: Channel-Wise Attention for Knowledge Distillation ( http://arxiv.org/abs/2006.01683v1 )

ライセンス: Link先を確認
Zaida Zhou, Chaoran Zhuge, Xinwei Guan, Wen Liu(参考訳) 知識蒸留は、教師ネットワークが学習したデータから学生ネットワークへ知識を伝達することであり、生徒はパラメータが少なく、計算も少ないという利点があり、精度は教師に近い。 本稿では, 2 つの転移蒸留戦略と損失減衰戦略を含む新しい蒸留法を提案する。 最初の転移戦略はチャンネル回りの注意に基づくもので、チャンネル蒸留 (cd) と呼ばれる。 CDは、チャンネル情報を教師から生徒に転送する。 2つ目はガイドド・ナレッジ蒸留(GKD)である。 生徒が各サンプルの教師の予測分布を模倣できる知識蒸留(kd)とは異なり、gkdは教師の正しい出力を模倣することしかできない。 最後の部分はEarly Decay Teacher (EDT)である。 トレーニング過程において, 蒸留損失の重量は徐々に減少する。 目的は、生徒が教師よりも徐々に最適化を制御できるようにすることである。 提案手法は ImageNet と CIFAR100 を用いて評価する。 ImageNetでは、ResNet18でトップ1エラーの27.68%を達成しています。 CIFAR100では,学生が教師より優れているという驚くべき結果を得た。 コードはhttps://github.com/zhouzaida/channel-distillationで入手できる。

Knowledge distillation is to transfer the knowledge from the data learned by the teacher network to the student network, so that the student has the advantage of less parameters and less calculations, and the accuracy is close to the teacher. In this paper, we propose a new distillation method, which contains two transfer distillation strategies and a loss decay strategy. The first transfer strategy is based on channel-wise attention, called Channel Distillation (CD). CD transfers the channel information from the teacher to the student. The second is Guided Knowledge Distillation (GKD). Unlike Knowledge Distillation (KD), which allows the student to mimic each sample's prediction distribution of the teacher, GKD only enables the student to mimic the correct output of the teacher. The last part is Early Decay Teacher (EDT). During the training process, we gradually decay the weight of the distillation loss. The purpose is to enable the student to gradually control the optimization rather than the teacher. Our proposed method is evaluated on ImageNet and CIFAR100. On ImageNet, we achieve 27.68% of top-1 error with ResNet18, which outperforms state-of-the-art methods. On CIFAR100, we achieve surprising result that the student outperforms the teacher. Code is available at https://github.com/zhouzaida/channel-distillation.
翻訳日:2022-11-25 23:37:19 公開日:2020-06-02
# ベイズアプローチによる最適確率的アクティブラーニングに向けて

Toward Optimal Probabilistic Active Learning Using a Bayesian Approach ( http://arxiv.org/abs/2006.01732v1 )

ライセンス: Link先を確認
Daniel Kottke, Marek Herde, Christoph Sandrock, Denis Huseljic, Georg Krempl, Bernhard Sick(参考訳) ラベル付きデータを収集して、優れた機械学習モデルをトレーニングすることは、多くのアプリケーションにおいて重要な課題のひとつです。 アクティブラーニングは、高価なラベリングリソースを効率よく効果的に割り当てることで、ラベリングコストを削減することを目的としている。 本稿では,(1)誤分類エラーの利得を直接最適化する決定論的選択戦略を提案し,(2)不確実性に対処するクラス後部を決定するために,共役事前分布を導入してベイズ的アプローチを用いる。 提案したモデルにおける既存の選択戦略を再構築することにより、どの側面が現在の技術でカバーされていないのか、なぜこのアプローチの優れたパフォーマンスをもたらすのかを説明できる。 さまざまなデータセットと異なるカーネルに関する広範囲な実験が私たちの主張を検証します。

Gathering labeled data to train well-performing machine learning models is one of the critical challenges in many applications. Active learning aims at reducing the labeling costs by an efficient and effective allocation of costly labeling resources. In this article, we propose a decision-theoretic selection strategy that (1) directly optimizes the gain in misclassification error, and (2) uses a Bayesian approach by introducing a conjugate prior distribution to determine the class posterior to deal with uncertainties. By reformulating existing selection strategies within our proposed model, we can explain which aspects are not covered in current state-of-the-art and why this leads to the superior performance of our approach. Extensive experiments on a large variety of datasets and different kernels validate our claims.
翻訳日:2022-11-25 23:37:02 公開日:2020-06-02
# 介入トリガ予測モデルの性能指標は、モデルを用いた結果の期待値の低下を反映しない

Performance metrics for intervention-triggering prediction models do not reflect an expected reduction in outcomes from using the model ( http://arxiv.org/abs/2006.01752v1 )

ライセンス: Link先を確認
Alejandro Schuler, Aashish Bhardwaj, Vincent Liu(参考訳) 臨床研究者はしばしば、混乱行列に基づく標準的な機械学習メトリクスを使用してリスク予測モデルを選択して評価する。 しかしながら、これらのモデルが患者への介入を割り当てるのに使用される場合、振り返りデータから算出された標準指標は、特定の仮定の下でのモデルユーティリティ(結果の減少の観点から)にのみ関係する。 予測が時間を通じて繰り返し配信される場合(例:患者との出会い)、標準メトリクスとユーティリティの関係はさらに複雑になる。 文献には様々な評価が用いられてきたが,各評価における推定の目的が何であるかは定かではない。 我々は,これらのアプローチを合成し,各手法で何を推定しているかを決定し,その推定が妥当な仮定の下で議論する。 早期警報システムの設計に使用する実データと同様にシミュレーションデータを用いて,我々の知見を実証する。 その結果,介入データのない評価では有意な量を推定しないか,強い仮定を必要とするか,最善のシナリオ境界の推定に制限されることがわかった。

Clinical researchers often select among and evaluate risk prediction models using standard machine learning metrics based on confusion matrices. However, if these models are used to allocate interventions to patients, standard metrics calculated from retrospective data are only related to model utility (in terms of reductions in outcomes) under certain assumptions. When predictions are delivered repeatedly throughout time (e.g. in a patient encounter), the relationship between standard metrics and utility is further complicated. Several kinds of evaluations have been used in the literature, but it has not been clear what the target of estimation is in each evaluation. We synthesize these approaches, determine what is being estimated in each of them, and discuss under what assumptions those estimates are valid. We demonstrate our insights using simulated data as well as real data used in the design of an early warning system. Our theoretical and empirical results show that evaluations without interventional data either do not estimate meaningful quantities, require strong assumptions, or are limited to estimating best-case scenario bounds.
翻訳日:2022-11-25 23:36:22 公開日:2020-06-02
# 一時的に延長されたテプシロン-グレディ探査

Temporally-Extended {\epsilon}-Greedy Exploration ( http://arxiv.org/abs/2006.01782v1 )

ライセンス: Link先を確認
Will Dabney, Georg Ostrovski, Andr\'e Barreto(参考訳) 強化学習(RL)における最近の研究は、この問題に対する様々な複雑な解決策を生み出している。 この複雑さの増大は、しばしば一般性の犠牲になる。 最近の実証研究は、より広い範囲の領域に適用すると、いくつかの洗練された探査法は、例えば {\epsilon}-greedyのようなより単純な手法よりも優れていることを示唆している。 本稿では,ディザリングを低減しつつ,"epsilon}-greedyの単純さを保った探索アルゴリズムを提案する。 我々は単純な仮説の上に構築する: {\epsilon}-greedy 探索の主な限界は、時間的持続性の欠如であり、局所的な最適化から逃れる能力を制限することである。 本稿では, サンプル動作を無作為に反復する時間拡張型 {\epsilon}-greedyを提案する。 多くの期間分布において、これは多数のドメインの探索を改善するのに十分であることが判明した。 興味深いことに、動物食行動の生態モデルにインスパイアされた分布のクラスは、特に強いパフォーマンスをもたらす。

Recent work on exploration in reinforcement learning (RL) has led to a series of increasingly complex solutions to the problem. This increase in complexity often comes at the expense of generality. Recent empirical studies suggest that, when applied to a broader set of domains, some sophisticated exploration methods are outperformed by simpler counterparts, such as {\epsilon}-greedy. In this paper we propose an exploration algorithm that retains the simplicity of {\epsilon}-greedy while reducing dithering. We build on a simple hypothesis: the main limitation of {\epsilon}-greedy exploration is its lack of temporal persistence, which limits its ability to escape local optima. We propose a temporally extended form of {\epsilon}-greedy that simply repeats the sampled action for a random duration. It turns out that, for many duration distributions, this suffices to improve exploration on a large set of domains. Interestingly, a class of distributions inspired by ecological models of animal foraging behaviour yields particularly strong performance.
翻訳日:2022-11-25 23:35:32 公開日:2020-06-02
# 粗粒サーロゲートの半教師付き訓練と仮想観測による物理的制約の確率論的生成モデル

A probabilistic generative model for semi-supervised training of coarse-grained surrogates and enforcing physical constraints through virtual observables ( http://arxiv.org/abs/2006.01789v1 )

ライセンス: Link先を確認
Maximilian Rixner, Phaedon-Stelios Koutsourelakis(参考訳) 細粒度物理モデルのための安価なサロゲートのデータ中心構築は、不確実性定量化のような多くのクエリータスクにおいて重要な有用性のため、計算物理学の最前線にある。 近年の取り組みは、シミュレーションデータと組み合わせて機械学習(ディープニューラルネットワークなど)の分野で実現可能な技術を活用している。 このような戦略は高次元問題においても有望であるが、サロゲートの構築は定義上は小さなデータの問題であるにもかかわらず、一般に大量のトレーニングデータを必要とする。 データに基づく損失関数を採用する代わりに、ブラックボックスのような補間器の訓練にドメイン知識を組み込むために(最も単純な場合において)支配方程式を利用する方法が提案されている。 本稿では,訓練対象だけでなく,サロゲートモデル自体においても,物理的構造や情報を考慮したフレキシブルで確率的なフレームワークを提供する。 我々は、物理から得られる等式(残留物、保存法則など)を仮想観測可能なものとして導入し、その可能性を通じて追加情報を提供する確率論的(ベイジアン)モデルを提唱する。 さらに,半教師方式でラベルなしデータ(すなわち入力のみ)を活用できる入力と出力の結合密度を学習しようとする生成モデルを提案し,細粒度モデルの出力を予測できる低次元埋め込みの発見を促進する。

The data-centric construction of inexpensive surrogates for fine-grained, physical models has been at the forefront of computational physics due to its significant utility in many-query tasks such as uncertainty quantification. Recent efforts have taken advantage of the enabling technologies from the field of machine learning (e.g. deep neural networks) in combination with simulation data. While such strategies have shown promise even in higher-dimensional problems, they generally require large amounts of training data even though the construction of surrogates is by definition a Small Data problem. Rather than employing data-based loss functions, it has been proposed to make use of the governing equations (in the simplest case at collocation points) in order to imbue domain knowledge in the training of the otherwise black-box-like interpolators. The present paper provides a flexible, probabilistic framework that accounts for physical structure and information both in the training objectives as well as in the surrogate model itself. We advocate a probabilistic (Bayesian) model in which equalities that are available from the physics (e.g. residuals, conservation laws) can be introduced as virtual observables and can provide additional information through the likelihood. We further advocate a generative model i.e. one that attempts to learn the joint density of inputs and outputs that is capable of making use of unlabeled data (i.e. only inputs) in a semi-supervised fashion in order to promote the discovery of lower-dimensional embeddings which are nevertheless predictive of the fine-grained model's output.
翻訳日:2022-11-25 23:35:13 公開日:2020-06-02
# 局所的特徴を拡張した拡張ゲート畳み込みニューラルネットワークによるイベント引数抽出

Event Arguments Extraction via Dilate Gated Convolutional Neural Network with Enhanced Local Features ( http://arxiv.org/abs/2006.01854v1 )

ライセンス: Link先を確認
Zhigang Kan, Linbo Qiao, Sen Yang, Feng Liu, Feng Huang(参考訳) イベント抽出は、世界を理解するための情報抽出において重要な役割を果たす。 イベント抽出は2つのサブタスクに分けられる: 1つはイベントトリガー抽出、もう1つはイベント引数抽出である。 しかし、イベント引数抽出のFスコアは、イベントトリガー抽出のスコアよりもはるかに低く、例えば最近の研究では、イベントトリガー抽出は80.7%、イベント引数抽出は58%である。 パイプライン構造では、イベント引数抽出の難しさは、分類特徴の欠如と計算消費の増大にある。 本研究では,より少ないパラメータを持つ多層ゲート型畳み込みニューラルネットワーク(EE-DGCNN)に基づくイベント抽出手法を提案する。 さらに、拡張されたローカル情報はword機能に組み込まれ、最初のサブタスクで予測されるトリガに対してイベント引数ロールを割り当てる。 数値実験により、実世界のデータセットにおける最先端のイベント抽出アプローチ以上の性能改善が示された。 さらに, 抽出手順の解析を行い, 性能改善に関連する影響要因を解析するための実験を行った。

Event Extraction plays an important role in information-extraction to understand the world. Event extraction could be split into two subtasks: one is event trigger extraction, the other is event arguments extraction. However, the F-Score of event arguments extraction is much lower than that of event trigger extraction, i.e. in the most recent work, event trigger extraction achieves 80.7%, while event arguments extraction achieves only 58%. In pipelined structures, the difficulty of event arguments extraction lies in its lack of classification feature, and the much higher computation consumption. In this work, we proposed a novel Event Extraction approach based on multi-layer Dilate Gated Convolutional Neural Network (EE-DGCNN) which has fewer parameters. In addition, enhanced local information is incorporated into word features, to assign event arguments roles for triggers predicted by the first subtask. The numerical experiments demonstrated significant performance improvement beyond state-of-art event extraction approaches on real-world datasets. Further analysis of extraction procedure is presented, as well as experiments are conducted to analyze impact factors related to the performance improvement.
翻訳日:2022-11-25 23:28:24 公開日:2020-06-02
# 看護師は外科医より女性に近い? 単語埋め込みにおける性偏差の軽減

Nurse is Closer to Woman than Surgeon? Mitigating Gender-Biased Proximities in Word Embeddings ( http://arxiv.org/abs/2006.01938v1 )

ライセンス: Link先を確認
Vaibhav Kumar, Tenzin Singhay Bhotia, Vaibhav Kumar, Tanmoy Chakraborty(参考訳) 単語埋め込みは、単語の意味表現と構文表現の標準モデルである。 残念ながら、これらのモデルは、性別、人種、宗教的偏見から生じる好ましくない言葉の関連を示すことが示されている。 単語ベクターの空間配置に隠された性別バイアスを緩和することは,既存の単語埋め込みの処理方法では不可能である。 本稿では,単語ベクトルに存在するバイアスを取り除くだけでなく,隣接ベクトルの空間分布を変化させ,最小の意味的オフセットを維持しながらバイアスフリーな設定を実現する,新しいジェンダーデバイアス手法であるran-debiasを提案する。 また, 単語ベクトルにおける不適切な近さの程度を, 性別に基づく前置詞の有無から測定する, 新たなバイアス評価指標, ジェンダーベース不正近接推定(gipe)を提案する。 一連の評価指標に基づく実験により、RAN-Debiasは、近接バイアス(GIPE)を少なくとも42.02%減少させる最先端の成績を著しく上回ることが示された。 また、直接的なバイアスを低減し、最小限の意味障害を追加し、ダウンストリームアプリケーションタスク(スコア解決)で最高のパフォーマンスを達成する。

Word embeddings are the standard model for semantic and syntactic representations of words. Unfortunately, these models have been shown to exhibit undesirable word associations resulting from gender, racial, and religious biases. Existing post-processing methods for debiasing word embeddings are unable to mitigate gender bias hidden in the spatial arrangement of word vectors. In this paper, we propose RAN-Debias, a novel gender debiasing methodology which not only eliminates the bias present in a word vector but also alters the spatial distribution of its neighbouring vectors, achieving a bias-free setting while maintaining minimal semantic offset. We also propose a new bias evaluation metric - Gender-based Illicit Proximity Estimate (GIPE), which measures the extent of undue proximity in word vectors resulting from the presence of gender-based predilections. Experiments based on a suite of evaluation metrics show that RAN-Debias significantly outperforms the state-of-the-art in reducing proximity bias (GIPE) by at least 42.02%. It also reduces direct bias, adding minimal semantic disturbance, and achieves the best performance in a downstream application task (coreference resolution).
翻訳日:2022-11-25 23:28:07 公開日:2020-06-02
# 知識グラフ埋め込みを用いた社会的政治の関連学習分析

Relational Learning Analysis of Social Politics using Knowledge Graph Embedding ( http://arxiv.org/abs/2006.01626v1 )

ライセンス: Link先を確認
Bilal Abu-Salih, Marwan Al-Tawil, Ibrahim Aljarah, Hossam Faris, Pornpit Wongthongtham(参考訳) 知識グラフ(KG)は近年、学術と産業の両方から注目を集めている。 実際、グラフ技術とさまざまなグラフデータセットを組み合わせることで、研究コミュニティは洗練されたグラフ分析ツールを構築した。 したがって、KGsの応用は、異種領域における多くの現実問題に取り組むために拡張されている。 現在増殖しているジェネリックkgは豊富であるが、ドメイン固有のkgを構築する必要は極めて大きい。 さらに、KGの構築と強化の過程で、特にソーシャルメディアデータなどの混在する資源から伝播する品質と信頼性を同化すべきである。 本稿では,新しい信頼性ドメインベースのKG埋め込みフレームワークを提案する。 このフレームワークは、異種資源から得られたデータの融合をドメインオントロジーで表される形式的なKG表現にキャプチャする。 提案手法では,様々な知識に基づくレポジトリを用いて文章内容の意味性を高め,情報の相互運用を容易にする。 提案されたフレームワークは、データ品質と信頼性を保証するための信頼性モジュールも具備している。 構築されたKGは、いくつかの埋め込み手法を用いて低次元意味連続空間に埋め込まれる。 構築したkgとその埋め込みの有用性を,リンク予測,クラスタリング,可視化タスクで実証し,検証した。

Knowledge Graphs (KGs) have gained considerable attention recently from both academia and industry. In fact, incorporating graph technology and the copious of various graph datasets have led the research community to build sophisticated graph analytics tools. Therefore, the application of KGs has extended to tackle a plethora of real-life problems in dissimilar domains. Despite the abundance of the currently proliferated generic KGs, there is a vital need to construct domain-specific KGs. Further, quality and credibility should be assimilated in the process of constructing and augmenting KGs, particularly those propagated from mixed-quality resources such as social media data. This paper presents a novel credibility domain-based KG Embedding framework. This framework involves capturing a fusion of data obtained from heterogeneous resources into a formal KG representation depicted by a domain ontology. The proposed approach makes use of various knowledge-based repositories to enrich the semantics of the textual contents, thereby facilitating the interoperability of information. The proposed framework also embodies a credibility module to ensure data quality and trustworthiness. The constructed KG is then embedded in a low-dimension semantically-continuous space using several embedding techniques. The utility of the constructed KG and its embeddings is demonstrated and substantiated on link prediction, clustering, and visualisation tasks.
翻訳日:2022-11-25 23:27:48 公開日:2020-06-02
# 組合せ最適化のための強化学習と制約プログラミングの組み合わせ

Combining Reinforcement Learning and Constraint Programming for Combinatorial Optimization ( http://arxiv.org/abs/2006.01610v1 )

ライセンス: Link先を確認
Quentin Cappart and Thierry Moisan and Louis-Martin Rousseau and Isabeau Pr\'emont-Schwarz and Andre Cire(参考訳) 組合せ最適化は航空宇宙、交通計画、経済など様々な分野で応用されている。 目標は、有限個の可能性の中で最適な解を見つけることである。 組合せ最適化で直面するよく知られた課題は、状態空間の爆発問題である。可能性の数は問題のサイズによって指数関数的に増加するため、大きな問題では解決できない。 近年、深部強化学習(DRL)はNP-hard組合せ最適化問題を解決するための優れたヒューリスティックを設計することを約束している。 しかし, 現状のアプローチには, 1 つの欠点がある。(1) 主に旅行セールスマンの問題に焦点をあてるが, 他の問題にも容易に拡張できないこと (2) 改善や最適性を証明するための体系的な方法のない近似解のみを提供する。 別の文脈では、制約プログラミング(cp)は組合せ最適化問題を解決する汎用ツールである。 完全な検索手順に基づいて、実行時間を十分に大きなものにすれば、常に最適な解決策が見つかる。 cpを実際に使うのが簡単でない重要な設計選択は分岐決定であり、探索空間の探索の仕方を指示する。 本研究では,組合せ最適化問題を解くために,drl と cp に基づく汎用およびハイブリッド手法を提案する。 私たちのアプローチの核心は、両方のテクニック間の橋渡しとして機能する動的プログラミングの定式化に基づいています。 我々は,タイムウインドウによるトラベルセールスマン問題と4モーメントポートフォリオ最適化問題という2つの課題を解決するために,我々の解法が効率的であることを実験的に示す。 その結果,本フレームワークは工業用解法と競合しながら,スタンドアローンの RL および CP ソリューションよりも優れた性能を示した。

Combinatorial optimization has found applications in numerous fields, from aerospace to transportation planning and economics. The goal is to find an optimal solution among a finite set of possibilities. The well-known challenge one faces with combinatorial optimization is the state-space explosion problem: the number of possibilities grows exponentially with the problem size, which makes solving intractable for large problems. In the last years, deep reinforcement learning (DRL) has shown its promise for designing good heuristics dedicated to solve NP-hard combinatorial optimization problems. However, current approaches have two shortcomings: (1) they mainly focus on the standard travelling salesman problem and they cannot be easily extended to other problems, and (2) they only provide an approximate solution with no systematic ways to improve it or to prove optimality. In another context, constraint programming (CP) is a generic tool to solve combinatorial optimization problems. Based on a complete search procedure, it will always find the optimal solution if we allow an execution time large enough. A critical design choice, that makes CP non-trivial to use in practice, is the branching decision, directing how the search space is explored. In this work, we propose a general and hybrid approach, based on DRL and CP, for solving combinatorial optimization problems. The core of our approach is based on a dynamic programming formulation, that acts as a bridge between both techniques. We experimentally show that our solver is efficient to solve two challenging problems: the traveling salesman problem with time windows, and the 4-moments portfolio optimization problem. Results obtained show that the framework introduced outperforms the stand-alone RL and CP solutions, while being competitive with industrial solvers.
翻訳日:2022-11-25 23:27:29 公開日:2020-06-02
# 注意を伴うXRDパターンの注意的分析

Careful analysis of XRD patterns with Attention ( http://arxiv.org/abs/2006.01451v1 )

ライセンス: Link先を確認
Koichi Kano, Takashi Segi, Hiroshi Ozono(参考訳) リチウムイオンチャージ可能な電池の物理的特性に関連する重要なピークを,アテンション機構に基づく畳み込みニューラルネットワークにより測定したX線回折スペクトルから抽出した。 深い特徴の中で, 陽極活性物質の格子定数をセル電圧予測器として選択し, 陽極活性物質と陰極活性物質の結晶学的挙動から電荷放出状態の速度特性が明らかになった。 機械学習は、実験スペクトルから重要なピークを自動的に選択する。 マルチタスクトレーニングモデルにおける注意機構と適切な客観的変数を適用することで、興味深い物理特性間の相関を選択的に可視化することができる。 深い特徴が自動的に定義されるので、このアプローチは様々な物理実験の条件に適応することができる。

The important peaks related to the physical properties of a lithium ion rechargeable battery were extracted from the measured X ray diffraction spectrum by a convolutional neural network based on the Attention mechanism. Among the deep features, the lattice constant of the cathodic active material was selected as a cell voltage predictor, and the crystallographic behavior of the active anodic and cathodic materials revealed the rate property during the charge discharge states. The machine learning automatically selected the significant peaks from the experimental spectrum. Applying the Attention mechanism with appropriate objective variables in multi task trained models, one can selectively visualize the correlations between interesting physical properties. As the deep features are automatically defined, this approach can adapt to the conditions of various physical experiments.
翻訳日:2022-11-25 23:25:57 公開日:2020-06-02
# ベイズリスク最小化としてのメタ学習

Meta Learning as Bayes Risk Minimization ( http://arxiv.org/abs/2006.01488v1 )

ライセンス: Link先を確認
Shin-ichi Maeda, Toshiki Nakanishi, Masanori Koyama(参考訳) メタラーニング(Meta-Learning)は、関連する一連のタスクを使用して、潜在的に小さなコンテキストデータセットから新しいクエリタスクを素早く学習できるモデルを学ぶメソッドのファミリーである。 本研究では,2つのタスクが関係することの意味を定式化する確率的枠組みを用いて,メタラーニング問題をベイズリスク最小化問題(brm)に再編成する。 我々の定式化において、BRM最適解は、文脈データセット上で条件付けられたタスク固有の潜在変数の後方分布から計算された予測分布によって与えられる。 しかし、神経過程の後方分布は、文脈データセットで後方分布が変化する方法に違反する。 この問題に対処するために,線形ガウスモデルの後続を一般化する新しい後続分布のガウス近似を提案する。 神経過程と異なり、後頭葉分布の近似値は、真の後頭葉分布と同じ速度で最大推定値に収束する。 また、ベンチマークデータセットに対するアプローチの競争力を実証する。

Meta-Learning is a family of methods that use a set of interrelated tasks to learn a model that can quickly learn a new query task from a possibly small contextual dataset. In this study, we use a probabilistic framework to formalize what it means for two tasks to be related and reframe the meta-learning problem into the problem of Bayesian risk minimization (BRM). In our formulation, the BRM optimal solution is given by the predictive distribution computed from the posterior distribution of the task-specific latent variable conditioned on the contextual dataset, and this justifies the philosophy of Neural Process. However, the posterior distribution in Neural Process violates the way the posterior distribution changes with the contextual dataset. To address this problem, we present a novel Gaussian approximation for the posterior distribution that generalizes the posterior of the linear Gaussian model. Unlike that of the Neural Process, our approximation of the posterior distributions converges to the maximum likelihood estimate with the same rate as the true posterior distribution. We also demonstrate the competitiveness of our approach on benchmark datasets.
翻訳日:2022-11-25 23:25:46 公開日:2020-06-02
# ガウス過程に基づくマルコフ連鎖モンテカルロを用いたモデルパラメータの不確かさの定量化 : 心臓電気生理学的モデルへの応用

Quantifying the Uncertainty in Model Parameters Using Gaussian Process-Based Markov Chain Monte Carlo: An Application to Cardiac Electrophysiological Models ( http://arxiv.org/abs/2006.01983v1 )

ライセンス: Link先を確認
Jwala Dhamala, John L. Sapp, B. Milan Hor\'acek, Linwei Wang(参考訳) 患者固有のモデルパラメータの推定はパーソナライズド・モデリングにおいて重要であるが、ばらばらでノイズの多い臨床データは推定パラメータ値にかなりの不確かさをもたらす可能性がある。 この重要な不確実性源は、もし不確実性を残したままにしておけば、モデルの出力に未知の変動をもたらす。 しかし、標準マルコフ連鎖モンテカルロサンプリングは計算不可能である繰り返しモデルシミュレーションを必要とするため、確率的推定モデルパラメータは未解決の課題である。 一般的な解決策は、より高速なサンプリングのためにシミュレーションモデルを計算効率の良いサーロゲートに置き換えることである。 しかし、パラメータの正確な後確率密度関数(pdf)の近似からサンプリングすることにより、サンプリング精度を犠牲にして効率を得る。 本稿では,この問題をメトロポリス・ハスティング (metropolis hasting, mh) による正確な後方pdfのサンプリングに統合し,その受け入れ率を向上させることで解決する。 これはまず、決定論的最適化を用いて、正確な後部 pdf のガウス過程 (GP) を素早く構築する。 この効率的なサロゲートは、MHサンプリングにおいて一般的に使用される提案分布を変更するために使用され、サロゲートによって受け入れられる提案だけが、受け入れ/拒絶のための正確な後部pdfによってテストされる。 提案手法を用いた合成および実データ実験は, 精度を損なうことなく計算効率に大きな向上を示した。 さらに, 得られた後方分布から, 非識別性と組織特性の不均一性に関する知見を得ることができる。

Estimation of patient-specific model parameters is important for personalized modeling, although sparse and noisy clinical data can introduce significant uncertainty in the estimated parameter values. This importance source of uncertainty, if left unquantified, will lead to unknown variability in model outputs that hinder their reliable adoptions. Probabilistic estimation model parameters, however, remains an unresolved challenge because standard Markov Chain Monte Carlo sampling requires repeated model simulations that are computationally infeasible. A common solution is to replace the simulation model with a computationally-efficient surrogate for a faster sampling. However, by sampling from an approximation of the exact posterior probability density function (pdf) of the parameters, the efficiency is gained at the expense of sampling accuracy. In this paper, we address this issue by integrating surrogate modeling into Metropolis Hasting (MH) sampling of the exact posterior pdfs to improve its acceptance rate. It is done by first quickly constructing a Gaussian process (GP) surrogate of the exact posterior pdfs using deterministic optimization. This efficient surrogate is then used to modify commonly-used proposal distributions in MH sampling such that only proposals accepted by the surrogate will be tested by the exact posterior pdf for acceptance/rejection, reducing unnecessary model simulations at unlikely candidates. Synthetic and real-data experiments using the presented method show a significant gain in computational efficiency without compromising the accuracy. In addition, insights into the non-identifiability and heterogeneity of tissue properties can be gained from the obtained posterior distributions.
翻訳日:2022-11-25 23:19:15 公開日:2020-06-02
# ブール問題に対する階層型学習手法による学習分類器システムのスケーリング

A Layered Learning Approach to Scaling in Learning Classifier Systems for Boolean Problems ( http://arxiv.org/abs/2006.01415v1 )

ライセンス: Link先を確認
Isidro M. Alvarez, Trung B. Nguyen, Will N. Browne, Mengjie Zhang(参考訳) 学習分類器システム(LCS)は認知科学研究に由来するが、LCSが強力な分類技術となるように移行した。 現代のLCSは、同じドメインや関連するドメインでより難しい問題を解決するために、知識の構成要素を抽出するために使用することができる。 LCSに関する最近の研究は、GPのようなツリーベースのプログラムであるCode FragmentsをLCSに導入することで、知識の再利用がスケーリングの進歩をもたらすことを示した。 しかし、難解な問題を解くには、しばしば高レベルなビルディングブロックを構築する必要があるため、難解な探索空間も生じるため、最終的にスケーリングの限界に達する。 人間の問題解決能力にインスパイアされたXCSCF*は、学習した知識と学習した機能を再利用して複雑な問題にスケールすることができる。 しかし、この方法は未定義であり、Multiplexer問題領域のみに適している。 本稿では,複数の問題領域にまたがる堅牢性を実現するため,XCSCF*の改良を提案する。 これはベンチマークのMultiplexer, Carry-one, Majority-on, Even-parityドメインで実証されている。 学習に必要な基本公理,LCSにおける伝達学習の方法,および一連の下位問題への分解として再キャストを学習する手法を提案する。 従来のタブラララサでは、従属問題が何を意味するかという曖昧な概念しか持たず、テスト領域の裏にある一般的な論理を捉えることが可能であり、高度なシステムは個々の n ビット多重化器、n ビットキャリーワン、n ビットマジョリティオン、n ビットイブパリティ問題を解くことができる。

Learning classifier systems (LCSs) originated from cognitive-science research but migrated such that LCS became powerful classification techniques. Modern LCSs can be used to extract building blocks of knowledge to solve more difficult problems in the same or a related domain. Recent works on LCSs showed that the knowledge reuse through the adoption of Code Fragments, GP-like tree-based programs, into LCSs could provide advances in scaling. However, since solving hard problems often requires constructing high-level building blocks, which also results in an intractable search space, a limit of scaling will eventually be reached. Inspired by human problem-solving abilities, XCSCF* can reuse learned knowledge and learned functionality to scale to complex problems by transferring them from simpler problems using layered learning. However, this method was unrefined and suited to only the Multiplexer problem domain. In this paper, we propose improvements to XCSCF* to enable it to be robust across multiple problem domains. This is demonstrated on the benchmarks Multiplexer, Carry-one, Majority-on, and Even-parity domains. The required base axioms necessary for learning are proposed, methods for transfer learning in LCSs developed and learning recast as a decomposition into a series of subordinate problems. Results show that from a conventional tabula rasa, with only a vague notion of what subordinate problems might be relevant, it is possible to capture the general logic behind the tested domains, so the advanced system is capable of solving any individual n-bit Multiplexer, n-bit Carry-one, n-bit Majority-on, or n-bit Even-parity problem.
翻訳日:2022-11-25 23:18:45 公開日:2020-06-02
# 不確実性原理に基づく最適化 : 新しいメタヒューリスティックスフレームワーク

Uncertainty Principle based optimization; new metaheuristics framework ( http://arxiv.org/abs/2006.09981v1 )

ライセンス: Link先を確認
Mojtaba Moattari, Mohammad Hassan Moradi, Emad Roshandel(参考訳) 探索と搾取をより柔軟にバランスさせるため,不確実性原理概念に基づく新しいメタヒューリスティック手法を提案する。 UPは科学の複数の分野において有効であることが証明されている。 量子力学の分野において、任意の量子状態において、位置や運動量などの可観測物をはっきりと決定することはできない。 同様に、スペクトルフィルタリング設計の分岐は、非零函数とそのフーリエ変換が共に鋭く局所化できないことを意味する。 不確実性原理と量子物理学、フーリエ解析、ウェーブレット設計におけるそれらのバリエーションについて検討した後、提案フレームワークはアルゴリズムとフローチャートの観点から記述する。 提案するオプティマイザの考え方は,局所探索とグローバル解探索に固有の不確実性に基づいている。 フレームワークの各部分で互換性のあるメトリクスのセットを提案し、アルゴリズムの好ましい形式を導出する。 論文末における評価と比較は、よく知られた、最近提案されたメタヒューリスティックスよりもアルゴリズムの能力と際立った能力を示している。

To more flexibly balance between exploration and exploitation, a new meta-heuristic method based on Uncertainty Principle concepts is proposed in this paper. UP is is proved effective in multiple branches of science. In the branch of quantum mechanics, canonically conjugate observables such as position and momentum cannot both be distinctly determined in any quantum state. In the same manner, the branch of Spectral filtering design implies that a nonzero function and its Fourier transform cannot both be sharply localized. After delving into such concepts on Uncertainty Principle and their variations in quantum physics, Fourier analysis, and wavelet design, the proposed framework is described in terms of algorithm and flowchart. Our proposed optimizer's idea is based on an inherent uncertainty in performing local search versus global solution search. A set of compatible metrics for each part of the framework is proposed to derive preferred form of algorithm. Evaluations and comparisons at the end of paper show competency and distinct capability of the algorithm over some of the well-known and recently proposed metaheuristics.
翻訳日:2022-11-25 23:18:14 公開日:2020-06-02
# モバイル偽造アプリ検出のためのマルチモーダルニューラルネットワーク埋め込みアプローチ:Google Play Storeを事例として

A Multi-modal Neural Embeddings Approach for Detecting Mobile Counterfeit Apps: A Case Study on Google Play Store ( http://arxiv.org/abs/2006.02231v1 )

ライセンス: Link先を確認
Naveen Karunanayake, Jathushan Rajasegaran, Ashanie Gunathillake, Suranga Seneviratne, Guillaume Jourjon(参考訳) 偽造アプリは、ユーザーの個人情報の収集やマルウェアの拡散など、さまざまな理由でユーザーをインストールさせようとしている。 多くの偽造物は一度インストールすると識別できるが、テクノロジーに精通したユーザーでさえインストール前に検出に苦労する可能性がある。 そこで,本稿では,画像とテキストの埋め込み作成におけるディープラーニング手法の最近の進歩を活用して,公開時に偽造アプリを効率的に識別する手法を提案する。 コンテンツ埋め込みとスタイル埋め込みを組み合わせた新しい手法は,SIFT,SURF,各種画像ハッシュ法などの画像類似性のベースライン手法よりも優れていることを示す。 画像類似度評価のための2つのよく知られたデータセットを用いて提案手法の性能評価を行い, 近接する5つの近傍を検索すると, コンテンツ, スタイル, 複合埋め込みが精度を10%-15%, リコール@kを12%-25%向上させることを示した。 第二に、アプリの偽造検出問題に特化して、コンテンツとスタイルの埋め込みの組み合わせは、それぞれベースラインメソッドと比較して精度が12%、精度が14%向上する。 第3に、Google Play Storeから約120万のアプリを分析し、トップ10,000の人気アプリに対する潜在的な偽造を識別する。 保守的な仮定では、49,608のアプリの中にマルウェアを含む偽物が2,040個あり、google playストアの人気アプリのトップ10,000によく似ています。 また、元のアプリよりも少なくとも5つの危険な許可を求める1,565件の偽装品と、少なくとも5つのサードパーティ広告ライブラリを持つ偽装品1,407件が見つかった。

Counterfeit apps impersonate existing popular apps in attempts to misguide users to install them for various reasons such as collecting personal information or spreading malware. Many counterfeits can be identified once installed, however even a tech-savvy user may struggle to detect them before installation. To this end, this paper proposes to leverage the recent advances in deep learning methods to create image and text embeddings so that counterfeit apps can be efficiently identified when they are submitted for publication. We show that a novel approach of combining content embeddings and style embeddings outperforms the baseline methods for image similarity such as SIFT, SURF, and various image hashing methods. We first evaluate the performance of the proposed method on two well-known datasets for evaluating image similarity methods and show that content, style, and combined embeddings increase precision@k and recall@k by 10%-15% and 12%-25%, respectively when retrieving five nearest neighbours. Second, specifically for the app counterfeit detection problem, combined content and style embeddings achieve 12% and 14% increase in precision@k and recall@k, respectively compared to the baseline methods. Third, we present an analysis of approximately 1.2 million apps from Google Play Store and identify a set of potential counterfeits for top-10,000 popular apps. Under a conservative assumption, we were able to find 2,040 potential counterfeits that contain malware in a set of 49,608 apps that showed high similarity to one of the top-10,000 popular apps in Google Play Store. We also find 1,565 potential counterfeits asking for at least five additional dangerous permissions than the original app and 1,407 potential counterfeits having at least five extra third party advertisement libraries.
翻訳日:2022-11-25 23:17:30 公開日:2020-06-02
# WikiBERTモデル:多くの言語のためのディープラーニング学習

WikiBERT models: deep transfer learning for many languages ( http://arxiv.org/abs/2006.01538v1 )

ライセンス: Link先を確認
Sampo Pyysalo, Jenna Kanerva, Antti Virtanen, Filip Ginter(参考訳) BERTのようなディープニューラルネットワークモデルは、多くの自然言語処理タスクにおいて、かなり最近の進歩を可能にしている。 事前学習に関わる労力と計算コストのため、英語のような少数の高リソース言語にのみ言語固有のモデルが導入されるのが一般的である。 多くの言語をカバーする多言語モデルが利用可能であるが、最近の研究はモノリンガルトレーニングがより良いモデルを生み出すことを示唆している。 本稿では、ウィキペディアのデータから言語固有のBERTモデルを作成するための、単純で完全に自動化されたパイプラインを導入し、42の新しいモデルを紹介します。 共通依存データに対する最先端のudifyパーサを用いて,多言語bertモデルを用いた結果と性能を比較し,これらのモデルのメリットを評価する。 WikiBERT モデルを用いたUDify は mBERT を用いたパーサを平均的に上回り,言語固有のモデルでは一部の言語のパフォーマンスが大幅に向上するが,他の言語では性能が低下している。 また,言語固有のモデルが最も有益である条件を理解するための第1ステップとして,予備的な結果を提示する。 この作業で導入されたすべてのメソッドとモデルは、https://github.com/turkunlp/wikibert.comのオープンライセンスで利用可能である。

Deep neural language models such as BERT have enabled substantial recent advances in many natural language processing tasks. Due to the effort and computational cost involved in their pre-training, language-specific models are typically introduced only for a small number of high-resource languages such as English. While multilingual models covering large numbers of languages are available, recent work suggests monolingual training can produce better models, and our understanding of the tradeoffs between mono- and multilingual training is incomplete. In this paper, we introduce a simple, fully automated pipeline for creating language-specific BERT models from Wikipedia data and introduce 42 new such models, most for languages up to now lacking dedicated deep neural language models. We assess the merits of these models using the state-of-the-art UDify parser on Universal Dependencies data, contrasting performance with results using the multilingual BERT model. We find that UDify using WikiBERT models outperforms the parser using mBERT on average, with the language-specific models showing substantially improved performance for some languages, yet limited improvement or a decrease in performance for others. We also present preliminary results as first steps toward an understanding of the conditions under which language-specific models are most beneficial. All of the methods and models introduced in this work are available under open licenses from https://github.com/turkunlp/wikibert.
翻訳日:2022-11-25 23:16:48 公開日:2020-06-02
# 勾配型対向攻撃の摂動解析

Perturbation Analysis of Gradient-based Adversarial Attacks ( http://arxiv.org/abs/2006.01456v1 )

ライセンス: Link先を確認
Utku Ozbulak, Manvel Gasparyan, Wesley De Neve, Arnout Van Messem(参考訳) 敵対的な例の発見とディープラーニングモデルへの悪影響の後、多くの研究はこれらの注意深く作られたサンプルを生成するためのより多様な方法を見つけることに焦点を当てた。 本論文では, 防御機構に対する敵の例生成法の有効性に関する実証実験結果について述べるが, これらの敵の攻撃の理論的特性と摂動効果の詳細な研究は, ほとんど行われていない。 本稿では,L-BFGS攻撃,Iterative Fast Gradient Sign攻撃,Carliini & Wagner's attack (CW) の3つの一般的な例生成手法の目的機能について検討する。 具体的には、ImageNetデータセットに大規模な実験結果を配置しながら、上記攻撃の基盤となる損失関数の比較および形式解析を行う。 本分析は,(1)クロスエントロピー損失の制約付き最適化空間と高速な最適化速度,(2)クロスエントロピー損失のシグネチャを最適化精度および最適化空間に用いた有害な効果,(3)対向性の観点からのロジット損失の遅い最適化速度を明らかにする。 実験により,逆行例の生成速度が速いと考えられる反復的高速勾配符号攻撃は,同一摂動設定において逆行例を作成するのに必要な反復回数において最悪の攻撃であることが明らかとなった。 さらに,本実験は,他の敵攻撃よりもかなり遅いと批判されているCWの損失関数が,他の損失関数よりもそれほど遅くないことを示す。 最後に,imagenet上での逆リトレーニングの考え方を再検討し,ニューラルネットワークによる攻撃によって生じる逆行性摂動の同定方法について分析する。

After the discovery of adversarial examples and their adverse effects on deep learning models, many studies focused on finding more diverse methods to generate these carefully crafted samples. Although empirical results on the effectiveness of adversarial example generation methods against defense mechanisms are discussed in detail in the literature, an in-depth study of the theoretical properties and the perturbation effectiveness of these adversarial attacks has largely been lacking. In this paper, we investigate the objective functions of three popular methods for adversarial example generation: the L-BFGS attack, the Iterative Fast Gradient Sign attack, and Carlini & Wagner's attack (CW). Specifically, we perform a comparative and formal analysis of the loss functions underlying the aforementioned attacks while laying out large-scale experimental results on ImageNet dataset. This analysis exposes (1) the faster optimization speed as well as the constrained optimization space of the cross-entropy loss, (2) the detrimental effects of using the signature of the cross-entropy loss on optimization precision as well as optimization space, and (3) the slow optimization speed of the logit loss in the context of adversariality. Our experiments reveal that the Iterative Fast Gradient Sign attack, which is thought to be fast for generating adversarial examples, is the worst attack in terms of the number of iterations required to create adversarial examples in the setting of equal perturbation. Moreover, our experiments show that the underlying loss function of CW, which is criticized for being substantially slower than other adversarial attacks, is not that much slower than other loss functions. Finally, we analyze how well neural networks can identify adversarial perturbations generated by the attacks under consideration, hereby revisiting the idea of adversarial retraining on ImageNet.
翻訳日:2022-11-25 23:10:29 公開日:2020-06-02
# 構造化ネットワークプルーニングの原理指標としてのshapley値

Shapley Value as Principled Metric for Structured Network Pruning ( http://arxiv.org/abs/2006.01795v1 )

ライセンス: Link先を確認
Marco Ancona and Cengiz \"Oztireli and Markus Gross(参考訳) 構造化プルーニングは、ニューラルネットワークのストレージサイズと推論コストを低減するためによく知られている手法である。 通常のプルーニングパイプラインは、ネットワーク内部フィルタとアクティベーションのランク付けと、ネットワーク性能への貢献点のランク付け、最小のコントリビューションでユニットを除去し、プルーニングによって引き起こされる害を軽減するためにネットワークを微調整する。 最近の結果は、十分な微調整資源が与えられた場合、ランダムプルーニングが他の指標と同等に動作することを示した。 本研究では,微調整が不可能である場合や有効でない場合,低データ環境ではこれが当てはまらないことを示す。 この場合、ネットワークの性能を維持するためには、刈り取りによる被害を減らすことが不可欠となる。 まず,協調ゲーム理論によって提案されるツールを用いて隠れた単位の寄与を推定する問題を解析し,この課題に対する原則的ランキング尺度としてシェープリー値を提案する。 文献で提案されたいくつかの代替手法と比較し、シャプリー値が理論的に好ましいかについて議論する。 最後に、すべてのランキング指標を、低データプルーニングの難しいシナリオで比較し、shapleyの値が他のヒューリスティックよりも優れていることを示す。

Structured pruning is a well-known technique to reduce the storage size and inference cost of neural networks. The usual pruning pipeline consists of ranking the network internal filters and activations with respect to their contributions to the network performance, removing the units with the lowest contribution, and fine-tuning the network to reduce the harm induced by pruning. Recent results showed that random pruning performs on par with other metrics, given enough fine-tuning resources. In this work, we show that this is not true on a low-data regime when fine-tuning is either not possible or not effective. In this case, reducing the harm caused by pruning becomes crucial to retain the performance of the network. First, we analyze the problem of estimating the contribution of hidden units with tools suggested by cooperative game theory and propose Shapley values as a principled ranking metric for this task. We compare with several alternatives proposed in the literature and discuss how Shapley values are theoretically preferable. Finally, we compare all ranking metrics on the challenging scenario of low-data pruning, where we demonstrate how Shapley values outperform other heuristics.
翻訳日:2022-11-25 23:09:40 公開日:2020-06-02
# 言語モデルのための位置マスキング

Position Masking for Language Models ( http://arxiv.org/abs/2006.05676v1 )

ライセンス: Link先を確認
Andy Wagner, Tiyasa Mitra, Mrinal Iyer, Godfrey Da Costa, Marc Tremblay(参考訳) Masked Language Modeling (MLM) は、BERT などの事前学習モデルで、いくつかのトークンを [MASK] に置き換えて、元のトークンを再構築するためにモデルをトレーニングすることで入力を破損させた。 これは、すべてのNLPベンチマークで良い結果をもたらす効果的な手法である。 我々は,いくつかのトークンの位置とマスキングされた入力トークンidをマスクすることにより,この概念を拡張することを提案する。 我々は、BERTがトークンの位置のパーセンテージを隠蔽し、さらに完全に連結された分類器ステージを使用して元の値を予測するのと同じ標準手法に従う。 このアプローチは、分隊が収束時間をさらに改善するための優れた性能向上(.3\%改善)を示している。 Graphcore IPUでは、位置マスキングによるBERT Baseの収束は、元のBERTペーパーのトークンの50%しか必要としない。

Masked language modeling (MLM) pre-training models such as BERT corrupt the input by replacing some tokens with [MASK] and then train a model to reconstruct the original tokens. This is an effective technique which has led to good results on all NLP benchmarks. We propose to expand upon this idea by masking the positions of some tokens along with the masked input token ids. We follow the same standard approach as BERT masking a percentage of the tokens positions and then predicting their original values using an additional fully connected classifier stage. This approach has shown good performance gains (.3\% improvement) for the SQUAD additional improvement in convergence times. For the Graphcore IPU the convergence of BERT Base with position masking requires only 50\% of the tokens from the original BERT paper.
翻訳日:2022-11-25 23:08:53 公開日:2020-06-02
# 敵防衛におけるディープニューラルネットワークの入力層と出力層の役割を探る

Exploring the role of Input and Output Layers of a Deep Neural Network in Adversarial Defense ( http://arxiv.org/abs/2006.01408v1 )

ライセンス: Link先を確認
Jay N. Paranjape, Rahul Kumar Dubey, Vijendran V Gopalan(参考訳) ディープニューラルネットワークは、予測、コンピュータビジョン、言語処理など、多くの分野において、アートパフォーマンスの状態を達成した学習モデルである。 しかし、特定の入力は正常に人間を騙さないが、モデルを完全に誤解させる可能性があることが示されている。 これらの入力は逆入力として知られている。 これらの入力は、そのようなモデルが現実世界のアプリケーションで使用される場合、高いセキュリティ上の脅威となる。 本研究では, 完全連結ネットワークの3種類のクラスが, ほとんどテストされていない非段階的攻撃に対する耐性を解析した。 これらのクラスは入力層と出力層を操作することで生成される。 我々は、ネットワークの特定の特性により、これらの攻撃に対して高い堅牢性を提供し、敵の攻撃に対する防御性を高めるために他のモデルの微調整に使用できることを実証してきた。

Deep neural networks are learning models having achieved state of the art performance in many fields like prediction, computer vision, language processing and so on. However, it has been shown that certain inputs exist which would not trick a human normally, but may mislead the model completely. These inputs are known as adversarial inputs. These inputs pose a high security threat when such models are used in real world applications. In this work, we have analyzed the resistance of three different classes of fully connected dense networks against the rarely tested non-gradient based adversarial attacks. These classes are created by manipulating the input and output layers. We have proven empirically that owing to certain characteristics of the network, they provide a high robustness against these attacks, and can be used in fine tuning other models to increase defense against adversarial attacks.
翻訳日:2022-11-25 23:08:05 公開日:2020-06-02
# クロススケール非局所的注意と徹底的な自己表現マイニングによる画像超解像

Image Super-Resolution with Cross-Scale Non-Local Attention and Exhaustive Self-Exemplars Mining ( http://arxiv.org/abs/2006.01424v1 )

ライセンス: Link先を確認
Yiqun Mei, Yuchen Fan, Yuqian Zhou, Lichao Huang, Thomas S. Huang, Humphrey Shi(参考訳) ディープ畳み込みに基づく単一画像超解像(SISR)ネットワークは、局所的な回復のために大規模な外部画像資源から学習することの利点を取り入れているが、既存のほとんどの研究は、自然画像の長期的特徴的類似性を無視している。 最近のいくつかの研究は、非局所的注意モジュールを探索することで、この本質的特徴相関の活用に成功した。 しかし、現在のいずれの深層モデルも、画像の別の固有の特性であるクロススケール特徴相関を研究していない。 本稿では,リカレントニューラルネットワークと統合した,最初のクロススケール非局所型アテンションモジュールを提案する。 新しいCS-NLと局所的および非局所的非局所的前駆体を併用することにより、単一の低分解能(LR)画像内でよりクロススケールな特徴相関を見出すことができる。 SISRの性能は、可能なすべての事前を徹底的に統合することで大幅に向上する。 複数のSISRベンチマークに新しい最先端技術を設定することでCS-NLモジュールの有効性を実証した。

Deep convolution-based single image super-resolution (SISR) networks embrace the benefits of learning from large-scale external image resources for local recovery, yet most existing works have ignored the long-range feature-wise similarities in natural images. Some recent works have successfully leveraged this intrinsic feature correlation by exploring non-local attention modules. However, none of the current deep models have studied another inherent property of images: cross-scale feature correlation. In this paper, we propose the first Cross-Scale Non-Local (CS-NL) attention module with integration into a recurrent neural network. By combining the new CS-NL prior with local and in-scale non-local priors in a powerful recurrent fusion cell, we can find more cross-scale feature correlations within a single low-resolution (LR) image. The performance of SISR is significantly improved by exhaustively integrating all possible priors. Extensive experiments demonstrate the effectiveness of the proposed CS-NL module by setting new state-of-the-arts on multiple SISR benchmarks.
翻訳日:2022-11-25 23:07:52 公開日:2020-06-02